Saltar al contenido principal
Hoy: Hoy 19 de febrero de 2026
HubNews
Blockchain+
Ciberseguridad+
Desarrollo+
Economía y Finanzas+
Gaming+
Inteligencia Artificial+
Hardware+
Startups
Blockchain+
Ciberseguridad+
Desarrollo+
Economía y Finanzas+
Gaming+
Inteligencia Artificial+
Hardware+
Startups

HubNews

Recibe semanalmente las principales novedades y análisis sobre Inteligencia Artificial directamente en tu correo electrónico.

Suscríbete Gratis

Noticias

  • Página de Inicio
  • Feed
  • Guías
  • Productos IA
  • Top
  • Deep Dives
  • Buscar

Más

  • Juegos
  • Herramientas
  • Suscribirse Gratis
  • Podcast

Información

  • Sobre Nosotros
  • Contacto
  • FAQ
  • Desarrolladores
  • Patrocinadores

Legal

  • Política de Privacidad
  • Términos de Servicio

© 2026 HubNews.ai. Todos los derechos reservados.

Inteligencia Artificial
Implementa 'memoria observacional' y reduce costos de IA en hasta 10x

Implementa 'memoria observacional' y reduce costos de IA en hasta 10x

TL;DR

La <strong>memoria observacional</strong> es un nuevo enfoque en arquitectura de memoria que promete reducir los costos de agentes de inteligencia artificial (IA) en hasta <strong>10 veces</strong>. Desarrollada por <strong>Mastra</strong>, esta tecnología se destaca en la mejora del rendimiento en benchmarks de larga duración en comparación con el sistema <strong>RAG</strong> (Generación Aumentada por Recuperación).

venturebeat.com•10 de febrero de 2026•
3 min read
•1 vistas

Introducción a la Memoria Observacional

La memoria observacional es un nuevo enfoque en arquitectura de memoria que promete reducir los costos de agentes de inteligencia artificial (IA) en hasta 10 veces. Desarrollada por Mastra, esta tecnología se destaca en la mejora del rendimiento en benchmarks de larga duración en comparación con el sistema RAG (Generación Aumentada por Recuperación).

Cómo Funciona

Diferente del sistema RAG, que busca contexto dinámicamente, la memoria observacional utiliza dos agentes en segundo plano llamados Observer (Observador) y Reflector para comprimir el historial de conversaciones en un registro fechado de observaciones. Este enfoque elimina la necesidad de recuperación dinámica de información, lo que simplifica la arquitectura.

Proceso de Compresión

En el proceso, la memoria observacional divide la ventana de contexto en dos bloques: uno contiene observaciones comprimidas y fechadas, mientras que el otro mantiene el historial de mensajes de la sesión actual. Cuando la cantidad de mensajes alcanza 30.000 tokens, el Observer comprime esta información y la agrega al primer bloque, descartando los mensajes originales.

Impacto Económico

El ahorro que trae la memoria observacional proviene del almacenamiento en caché de prompts, que reduce los costos de tokens en hasta 10 veces en comparación con los prompts no almacenados en caché. Mientras que la mayoría de los sistemas de memoria modifican el prompt en cada interacción, lo que resulta en ineficiencias de costos, la memoria observacional mantiene la estabilidad del contexto, permitiendo un almacenamiento en caché eficaz.

Ventajas frente a la Compresión Tradicional

La mayoría de los agentes de codificación utilizan un método de compresión que resume toda la historia solo cuando la ventana de contexto está a punto de desbordarse. Esto puede resultar en pérdidas de detalles críticos. En contraste, la memoria observacional procesa pequeñas porciones de datos con más frecuencia, produciendo un registro de decisiones que es más eficaz para la ejecución de tareas consistentes.

Casos de Uso Empresarial

La memoria observacional atiende a varias aplicaciones empresariales, desde chatbots en plataformas de gestión de contenido hasta sistemas de gestión de alertas para equipos de ingeniería. El requisito común entre estas aplicaciones es el mantenimiento del contexto a lo largo de meses, permitiendo que los agentes hagan referencia a conversaciones pasadas sin que los usuarios tengan que repetir información.

Significado para Sistemas de IA en Producción

La introducción de la memoria observacional representa un enfoque arquitectónico alternativo a las bases de datos vectoriales y a las pipelines RAG dominantes en el mercado actual. Su arquitectura simplificada y estabilidad en el contexto crean un entorno propicio para depuraciones y mantenimiento fáciles. La posibilidad de almacenamiento en caché viable para reducir costos transforma la propuesta en una solución aliada al rendimiento a gran escala.

Consideraciones Finales

Para equipos empresariales que están evaluando enfoques de memoria para IA, cuestiones sobre la necesidad de mantenimiento de contexto, tolerancia a la compresión de datos y la necesidad de recuperación dinámica son fundamentales. La memoria observacional puede ser ideal para aquellos que necesitan agentes que preserven la continuidad del trabajo y del historial del usuario. A medida que las IA se convierten en parte integral de sistemas de registro y producción, el diseño de la memoria se vuelve tan crítico como la elección del modelo tecnológico.

Contenido seleccionado y editado con asistencia de IA. Fuentes originales referenciadas arriba.

Compartir

Fuentes

venturebeat.com

Principal
https://venturebeat.com/data/observational-memory-cuts-ai-agent-costs-10x-and-outscores-rag-on-long

10 feb 2026

Te gusto este articulo?

Recibe las mejores noticias tech en tu email todos los dias.

Comentarios

Escribe un comentario

Más en Inteligencia Artificial

Nvidia launches DreamDojo, AI model for training robots
Inteligencia Artificial

Nvidia launches DreamDojo, AI model for training robots

Nvidia has announced DreamDojo, a new artificial intelligence system designed to teach robots how to interact with the physical world. Utilizing 44 thousand hours of human video, this advancement aims to reduce time and costs in training humanoid robots.

HubNews • FEB 9 • 1 min read
Google Integrates Agentive Vision into Gemini 3 Flash
Inteligencia Artificial

Google Integrates Agentive Vision into Gemini 3 Flash

Google has implemented the concept of agentive vision in its Gemini 3 Flash model, enabling a combination of visual reasoning with code execution.

HubNews • FEB 6 • 1 min read
Stanford and Nvidia Optimize GPUs 2x Faster with TTT-Discover
Inteligencia Artificial

Stanford and Nvidia Optimize GPUs 2x Faster with TTT-Discover

Researchers from Stanford, Nvidia, and Together AI have developed an innovative technique called TTT-Discover that enhances the optimization of code on GPUs, achieving algorithm execution up to twice as fast as those written by human experts during the inference process.

HubNews • FEB 5 • 1 min read