Tu Claude va a soñar esta noche, no lo molestes

marsbitPublicado a 2026-05-11Actualizado a 2026-05-11

Resumen

Anthropic ha presentado la función "Dreaming" (Soñar) para sus agentes de IA en la plataforma Managed Agents. Esta función, inspirada en conceptos humanos, procesa automáticamente registros históricos de sesiones para extraer patrones y optimizar futuras tareas, actuando como un mecanismo de aprendizaje y autocorrección basado en datos. La función se activa manualmente en Managed Agents, revisando hasta 100 sesiones para crear nuevos recuerdos. Otras plataformas como Hermes Agent y OpenClaw tienen características similares, donde OpenClaw simula etapas de sueño (ligero, REM, profundo) para consolidar información en memoria a largo plazo. "Dreaming" está ligado a la gestión de la memoria (contexto) en IA. Dado que las ventanas de contexto son limitadas y costosas computacionalmente, esta función ayuda a priorizar y refinar información, similar a cómo el cerebro humano consolida recuerdos durante el sueño. Compañías como Subquadratic buscan ampliar estos límites con modelos de contexto masivo. El uso de términos antropomórficos como "soñar", "pensar" o "recordar" por parte de las empresas de IA busca hacer la tecnología más relatable, pero también difumina la línea entre herramienta y entidad, desplazando potencialmente la responsabilidad de los desarrolladores al "comportamiento" del agente.

¿Sueñan los androides? ¿Y si sueñan, sueñan con ovejas eléctricas?

Captura de pantalla de la película 'Blade Runner'

En 1968, cuando Philip K. Dick, el autor de la novela que inspiró la película de ciencia ficción 'Blade Runner', escribió esta pregunta abstracta y adelantada a su tiempo en su máquina de escribir, probablemente no imaginó que, más de medio siglo después, los gigantes tecnológicos de Silicon Valley darían una respuesta seria.

Sí, no solo pueden soñar con ovejas eléctricas, sino que también pueden visualizar esos sueños.

Ayer, en su conferencia para desarrolladores en San Francisco, Anthropic presentó una serie de nuevas funciones para su plataforma de creación de agentes Managed Agents: expansión de memoria, resultados de salida, colaboración entre múltiples agentes, y "Dreaming" (Soñar).

Según las propias palabras de Anthropic, "memory (memoria) y dreaming (soñar) forman juntos un sistema de memoria de agente robusto y capaz de automejorarse".

Primero soñar, luego memoria. Quien no esté muy familiarizado con el campo de la IA probablemente se llenará de dudas: ¿desde cuándo estas palabras, que pertenecen a los humanos, pueden aplicarse tan fácilmente a la IA?

Ya en 2024, cuando OpenAI lanzó la serie o1, utilizó las palabras "una serie de modelos de IA diseñados para pensar más tiempo antes de responder". "Pensar" se usó de manera tan natural que nadie se detuvo a preguntar: ¿por qué un programa que predice estadísticamente el siguiente token puede llamarse "pensar"?

Luego vinieron reasoning (razonar), memory (memoria), reflection (reflexionar), Imagining (imaginar), y una por una, estas acciones propias de los humanos fueron presentadas en las conferencias de lanzamiento de productos.

Captura de pantalla de la película 'Paprika', que explora los sueños.

Se podría explicar "pensar" como una metáfora, "memoria" casi como una extensión del lenguaje técnico, pero "soñar" ya es demasiado. La filosofía, la historia y la literatura no lo han logrado en miles de años, pero las empresas de IA pueden decir directamente: no solo hemos creado máquinas que piensan, sino también máquinas que sueñan.

¿Qué es soñar? ¿Es que, además de "soñar", no existe ningún término de ingeniería que describa esto con precisión?

Los sueños de la IA también cuestan dinero

Ya durante la filtración del código de Claude Code, algunos usuarios descubrieron que Anthropic estaba preparando una función llamada Auto Dreaming. En ese momento, todos se preguntaban: ¿Acaso la IA también necesita dormir como nosotros los humanos, descansar lo suficiente para volverse más concentrada e inteligente?

Sin embargo, al entender el funcionamiento actual de los AI Agents, uno se da cuenta de que el llamado "soñar" es, en esencia, solo un procesamiento por lotes y fuera de línea de registros automatizados.

Los AI Agents actuales son buenos para completar tareas complejas de larga duración. Por ejemplo, "investiga los últimos informes financieros de estos cinco competidores y organízalos en una tabla". En este proceso, el Agent necesita saltar entre diferentes páginas web, leer múltiples documentos, utilizar diferentes herramientas e incluso puede encontrarse con mecanismos anti-rastreo y tener que reintentar.

Al finalizar esta larga serie de tareas en línea, el sistema del Agent deja una gran cantidad de registros de ejecución.

Imagen generada por IA.

La función "Dreaming" de Anthropic es hacer que el Agent, en su tiempo de inactividad, reanalice estos registros históricos. Busca patrones, como descubrir que "cada vez que aparece esta ventana emergente, hacer clic en la esquina superior derecha la cierra", optimizando así la ruta de operación para la próxima vez.

La "memoria" se encarga de capturar lo aprendido durante el trabajo, mientras que "soñar" refina esos recuerdos entre sesiones y los comparte entre diferentes Agents.

En pocas palabras, se trata de un mecanismo de aprendizaje por refuerzo y autocorrección basado en datos históricos.

Introducción a los sueños: https://platform.claude.com/docs/en/managed-agents/dreams

La actualización de Dreams en Managed Agents en esta conferencia para desarrolladores es una tarea de procesamiento en segundo plano que debemos activar manualmente. Claude puede leer hasta 100 sesiones de historial de conversación a la vez y producir un nuevo conjunto de recuerdos para que los revisemos y decidamos si queremos usarlos.

En cambio, el AutoDream que ya se implementó en silencio en Claude Code, revisa en segundo plano después de cada ronda de conversación con el Agent si "debería soñar". Por defecto, se ejecuta una vez cada 24 horas.

Funciones similares a soñar también las tiene Hermes Agent. Hermes Agent se especializa en el autoaprendizaje y la evolución. No solo admite la extracción automática de experiencias de tareas pasadas para colocarlas en un archivo de memoria.

Una de sus funciones, llamada Curator, puede incluso organizar automáticamente estas guías operativas refinadas en Habilidades (Skills).

Estas Habilidades se califican, se fusionan las duplicadas, se archivan automáticamente las que no se usan durante mucho tiempo e incluso tienen un ciclo de vida como active, stale, archived. También podemos "fijar" las Habilidades importantes para evitar que el sistema las elimine automáticamente.

OpenClaw, en sus últimas actualizaciones, también agregó mecanismos relacionados, como memoria persistente entre conversaciones, programación periódica de tareas, ejecución aislada de sub-agentes y una función directamente llamada Dreaming (soñar).

Sueños de OpenClaw: https://docs.openclaw.ai/concepts/dreaming

En el mecanismo de sueño de OpenClaw, resume la formación del sueño en tres etapas: ligero, REM (movimiento ocular rápido) y profundo. Las dos primeras se encargan de organizar, reflexionar y sintetizar temas; la etapa profunda es la que realmente escribe el contenido en la memoria a largo plazo MEMORY.md.

La consolidación en la etapa de sueño profundo la determinan 6 señales ponderadas para decidir si se debe escribir en la memoria a largo plazo. Estas seis señales incluyen frecuencia, relevancia, diversidad de consultas, actualidad, repetición entre días y riqueza conceptual.

Imagen generada por IA.

Escribir en la memoria a largo plazo genera dos archivos: un archivo de estado orientado a la máquina, ubicado en memory/.dreams/; y otro registro legible para el usuario, que se escribe en DREAMS.md y en los informes generados por etapa.

Además, Dreaming puede ejecutarse automáticamente en intervalos programados. Por defecto, se ejecuta un flujo completo todos los días a las 3 a.m., en el orden ligero → REM → profundo.

Además de la salida de los sueños, OpenClaw mantiene un documento llamado Dream Diary (Diario de Sueños). El sistema genera automáticamente un "diario de sueños" que registra el proceso de organización de la memoria de manera narrativa, enfatizando la explicabilidad y la posibilidad de revisión, en lugar de ser una caja negra que escribe en la base.

En neurociencia, existe una comprensión muy clásica: la información que obtenemos durante el día ingresa primero en un sistema de almacenamiento más temporal. Durante el sueño, el cerebro repite, consolida y limpia esa información, reteniendo lo importante y descartando lo que carece de sentido.

Imagen generada por IA.

No recordamos el color de cada coche que vimos de camino al trabajo ayer, pero recordamos cómo llegar a la oficina.

Estos sueños suenan muy parecidos a los nuestros. Si hay que buscar alguna diferencia, probablemente sea que cuando Claude sueña, sigue consumiendo nuestros Tokens.

Pero ni Anthropic ni OpenClaw eligieron llamarlo "optimización basada en sesiones" (session-based optimization) o "ajuste posterior a la tarea" (post-task tuning), nombres más orientados a la ingeniería.

Después de todo, cuando esos nombres complejos se convierten directamente en "soñar", lo que percibimos ya no es una función de software, sino algo más parecido a una "vida digital con actividad interior".

La memoria de la IA es un contexto fragmentado

Hablando de "soñar", no se puede dejar de mencionar su condición previa: la memoria (Memory).

En el pasado reciente, las palabras de moda en el círculo de la IA han pasado de la ingeniería de prompts a la ingeniería de contexto, ingeniería de habilidades (Skill), ingeniería de arneses (Harness). Pero sin importar cómo cambien, actualmente la más valiosa sigue siendo la ingeniería de contexto.

El prompt del sistema, la entrada del usuario, el diálogo a corto plazo, la memoria a largo plazo, los documentos recuperados, la salida de las herramientas y habilidades invocadas, el estado actual del usuario: todas estas capas superpuestas constituyen el "contexto" que el agente realmente utiliza.

Hacer que el Agent recuerde más y almacene contenido más útil ha sido un desafío durante mucho tiempo.

El año pasado, Manus publicó un blog técnico sobre cómo optimizan la ingeniería de contexto. Mencionaron definir la tasa de aciertos en la caché KV-Cache como uno de los indicadores únicos más importantes para los AI Agents en entornos de producción. También priorizaron el "enmascaramiento" en lugar de la "eliminación" a nivel de invocación de herramientas, y utilizaron el sistema de archivos como el contexto definitivo, entre otros métodos.

Para entender la llamada KV Cache (caché de clave-valor), podemos imaginar un modelo de lenguaje grande como una persona extremadamente obsesiva que solo puede leer una palabra a la vez.

Al procesar una oración, calcula un vector Key (clave) y un vector Value (valor) para cada token generado. Para no tener que recalcular todo desde cero cada vez, almacena estos pares de clave-valor (K, V). Esto es la KV Cache.

KV Cache (caché de clave-valor) es una técnica de aceleración de bajo nivel que los modelos de lenguaje grandes utilizan para "intercambiar espacio por tiempo" al generar texto. La caché permite que el modelo prediga la siguiente palabra sin tener que volver a calcular todas las palabras anteriores. Imagen generada por IA.

Mientras la conversación continúa, la KV Cache sigue guardándose. En general, ante modelos de lenguaje grandes con contextos de hasta 128k tokens, un modelo de 70B parámetros utilizando todo el contexto de 128k tokens puede consumir hasta 64 GB de memoria de solo la KV Cache.

Esta es la razón por la que la mayoría de los modelos actualmente tienen ventanas de contexto de, como máximo, millones de tokens.

Ayer, una nueva empresa llamada Subquadratic, que obtuvo 29 millones de dólares en financiación inicial, anunció en X su nuevo modelo SubQ, que se enfoca en contextos más largos.

SubQ afirma que puede admitir ventanas de contexto de hasta 12 millones de tokens, la ventana de contexto más grande entre todos los modelos de lenguaje grandes actuales.

Aunque aún no hay un artículo técnico o documentación del modelo, el video presentado menciona que la ruta tecnológica central de SubQ es cambiar de la "atención densa" del Transformer tradicional a una arquitectura de "escalado subcuadrático/lineal" con atención dispersa. Se espera que esta nueva arquitectura pueda resolver el problema del costo computacional explosivo con contextos más largos.

Los resultados de las pruebas que presentan son bastante agresivos: con 1 millón de tokens, la velocidad aumenta más de 50 veces y el costo se reduce más de 50 veces; con 12 millones de tokens, la demanda de potencia de cálculo puede reducirse casi 1000 veces en comparación con los modelos de vanguardia.

Y en el benchmark de contexto largo RULER 128K, Subquadratic afirma que SubQ logra un 95% de precisión con un costo de 8 dólares, en comparación con Claude Opus que tiene un 94% de precisión y un costo de aproximadamente 2600 dólares, lo que representa una reducción de costos de aproximadamente 300 veces.

O se amplía la ventana de contexto, o se hace que el modelo aprenda a "soñar" y descarte algunas cosas por sí mismo.

Por eso, Anthropic y otros productos de Agent ahora deben lanzar "Dreaming". En un contexto limitado por la ventana de tokens, una IA más inteligente no puede depender solo de meter más contenido; necesita ser selectiva.

Admitir que la máquina es solo una máquina es más difícil de lo que se piensa

Entendiendo los mecanismos de sueño y memoria de la IA, quizás podamos comprender su relación con las actividades humanas.

Pero al juntar todas estas palabras que las empresas de IA han creado para las máquinas - thinking (pensar) de OpenAI, memory (memoria) y hallucination (alucinación) de uso común en la industria, dreaming (soñar) de Anthropic en esta ocasión, y las virtudes y sabiduría de la constitución de Anthropic -

Podemos ver que las empresas de IA no solo venden productos; están reasignando la propiedad de los conceptos dentro de la palabra "persona". Cada vez que se apropian de una palabra, el límite entre la máquina y el ser humano se desdibuja un poco más.

El lenguaje moldea las expectativas, las expectativas moldean la tolerancia, y la tolerancia determina cuánto estamos dispuestos a confiarle. Es una cadena larga, pero su punto de partida son esas palabras inofensivas en las conferencias de lanzamiento.

Una influencia más sutil es la distribución de responsabilidades. Cuando una herramienta se describe como una entidad con "pensamiento", "memoria" y "valores", al surgir problemas, tendemos a considerarla como un "sujeto de acción" independiente al que hay que hacer responsable; es esa IA la que necesita ser "educada", "depurada" o "calibrada".

Pero lo que realmente se debería cuestionar es la empresa que implementó este programa en nuestro flujo de trabajo y el equipo de productos que acuñó la palabra "dreaming". Cambian las palabras, y las personas en el "banquillo de los acusados" también cambian.

Y al ver una máquina que "piensa", "recuerda" y ahora también "sueña", empezamos a creer inconscientemente que hay algo dentro. Porque admitir que solo es una máquina hace que la sensación de "estoy conversando con un ser que piensa" se desvanezca, volviendo a una fría relación instrumental.

Introducción a la función de soñar despierto | Imagen generada por IA.

Ya puedo imaginar lo siguiente: si Dreaming (soñar) es procesar contenido pasado, las próximas empresas de IA lanzarán Daydreaming (soñar despierto), para simular el futuro.

La introducción dirá que soñar despierto o divagar permite al Agent, en estado activo, utilizar una pequeña parte de su capacidad de cálculo libre para realizar generaciones exploratorias combinadas con el proyecto en curso, preparándose para posibles tareas futuras.

Este artículo proviene del WeChat Official Account "APPSO", autor: APPSO, descubriendo los productos del mañana.

Preguntas relacionadas

Q¿Qué es la función 'Dreaming' (soñar) de los agentes de IA, como el anunciado por Anthropic?

ALa función 'Dreaming' (soñar) de los agentes de IA es un proceso de procesamiento por lotes y automejora fuera de línea. Analiza automáticamente los registros de sesiones de tareas anteriores para identificar patrones, optimizar rutas de operación futuras y consolidar aprendizajes en 'memorias' reutilizables. Esencialmente, es un mecanismo de aprendizaje por refuerzo y autocorrección basado en datos históricos.

Q¿Cómo se relacionan los conceptos de 'memoria' y 'sueño' en el contexto de los agentes de IA según el artículo?

ASegún el artículo, la 'memoria' (memory) y el 'sueño' (dreaming) forman juntos un sistema robusto de memoria para agentes de IA que permite la automejora. La memoria captura lo aprendido durante las tareas en tiempo real, mientras que el proceso de 'soñar' refina y consolida esas memorias entre sesiones, extrayendo lecciones generalizables y descartando información irrelevante para optimizar el rendimiento futuro.

Q¿Cuál es una crítica principal del artículo sobre el uso de términos como 'pensar', 'recordar' o 'soñar' para describir funciones de IA?

ALa crítica principal es que el uso antropomórfico de términos como 'pensar', 'recordar' o 'soñar' para funciones técnicas de IA desdibuja la frontera entre máquinas y humanos. Este lenguaje moldea las expectativas de los usuarios, puede redistribuir la responsabilidad en caso de errores (de la empresa al 'agente') y crea una ilusión de interacción con una entidad consciente, en lugar de una herramienta programada.

Q¿Qué problema técnico fundamental intentan abordar funciones como 'Dreaming' o el desarrollo de ventanas de contexto más largas?

AIntentan abordar la limitación fundamental de la longitud del contexto en los modelos de lenguaje grandes. Las ventanas de contexto (como 128K o 1M tokens) y su caché KV asociada consumen enormes recursos computacionales y de memoria. 'Dreaming' optimiza selectivamente lo que se retiene, mientras que arquitecturas como la de Subquadratic buscan hacer que contextos ultralargos (ej. 12M tokens) sean computacionalmente viables.

QAdemás de Anthropic, ¿qué otros proyectos o empresas menciona el artículo que implementan mecanismos similares a 'soñar' para sus agentes de IA?

AEl artículo menciona a Hermes Agent, con su función 'Curator' que organiza aprendizajes en 'Skills' con ciclo de vida, y a OpenClaw, que tiene una función llamada 'Dreaming' que simula fases de sueño ligero, REM y profundo para consolidar recuerdos en un archivo de memoria a largo plazo y generar un 'Diario de Sueños' (Dream Diary) narrativo para los usuarios.

Lecturas Relacionadas

Arthur Hayes: La Burbuja de la IA es la Mayor Oportunidad

Arthur Hayes sostiene que la burbuja de la IA representa la mayor oportunidad actual. Argumenta que el gasto masivo en capital (CAPEX) para IA, impulsado por la competencia nacional entre EE.UU. y China y la facilidad crediticia de los bancos centrales, está creando una liquidez monetaria sin precedentes. Esta expansión de la oferta monetaria (dólares y yuanes) beneficiará directamente a Bitcoin y las criptomonedas como cobertura contra la devaluación de las monedas fiduciarias. Hayes identifica dos posibles catalizadores para el fin de esta burbuja: una oferta pública inicial (IPO) o fusión masiva de IA que colapse el mercado, y un cambio político tras las elecciones de EE.UU. de 2028 hacia posturas anti-IA y enfocadas en el costo de vida. Sin embargo, hasta entonces, la liquidez seguirá fluyendo. Además, analiza cómo los conflictos geopolíticos (como una posible guerra entre EE.UU. e Irán) acelerarán la transición de los países desde activos financieros en dólares hacia inversiones en infraestructura física y commodities, presionando aún más a la Fed a mantener condiciones financieras laxas. Predice que Bitcoin, respaldado por billones en liquidez futura, superará los 126,000 dólares, y recomienda también invertir en altcoins como Hyperliquid ($HYPE), Zcash ($ZEC) y especialmente $NEAR, impulsado por la narrativa de privacidad y su tecnología "Intents". Concluye que es momento de ser alcista y aprovechar el ciclo.

链捕手Hace 17 min(s)

Arthur Hayes: La Burbuja de la IA es la Mayor Oportunidad

链捕手Hace 17 min(s)

La esencia del despido impulsado por IA: ¿Por qué, cuanto más se adopta la IA, más ansiedad hay en las empresas?

El artículo explora la esencia de los despidos relacionados con la IA, argumentando que no se deben necesariamente a que la IA reemplace directamente a los trabajadores, sino a dinámicas organizativas y financieras que desencadena. Aunque el uso de IA, como herramientas de generación de código, ha disparado la productividad (medida en "inputs" como líneas de código), esto no se traduce en un crecimiento proporcional de los ingresos ("outcomes"). Las empresas incurren en enormes costos por tokens de IA sin ver un retorno claro, lo que genera una presión financiera. Para compensar estos gastos, recurren a despidos como un simple ajuste contable. Además, la velocidad de desarrollo con IA agrava problemas organizativos existentes. La facilidad para generar código multiplica proyectos paralelos y conflictos entre equipos ("infierno de la alineación"), ralentizando la entrega real de valor. Los recortes de personal se convierten en una solución rápida para reducir esta complejidad y fricción interna, acelerando temporalmente la toma de decisiones, aunque no aborden la causa raíz. En resumen, los despidos son una consecuencia de no saber aún convertir la mayor productividad de la IA en mejores resultados comerciales y de la incapacidad de las estructuras organizativas para adaptarse a su ritmo. Hasta que las empresas aprendan a gestionar esto, los recortes seguirán siendo una herramienta para cubrir costos y simplificar operaciones.

marsbitHace 1 hora(s)

La esencia del despido impulsado por IA: ¿Por qué, cuanto más se adopta la IA, más ansiedad hay en las empresas?

marsbitHace 1 hora(s)

¿Podrá Pay.sh, lanzado por la Solana Foundation en colaboración con Google, conectar los flujos de pago Web2 y Web3 en la economía de agentes inteligentes?

Pay.sh, un gateway de pago desarrollado por Solana Foundation y Google Cloud, tiene como objetivo conectar la economía de los agentes de IA con servicios tanto Web2 como Web3. Permite a los usuarios financiar una wallet de Solana con tarjetas de crédito o stablecoins, que luego actúa como identidad y método de pago para que los agentes accedan a recursos como Google Cloud o Alibaba Cloud sin necesidad de registros manuales. El sistema funciona basándose en el código de estado HTTP 402 ("Pago requerido"). Cuando un agente necesita un servicio de pago, el servidor responde con un 402 y los detalles del pago. Pay.sh procesa la solicitud, gestiona la autorización desde la wallet y completa la transacción. Es compatible con los protocolos de pago para agentes x402 (para pagos únicos) y MPP (para sesiones o facturación continua), eligiendo automáticamente la opción más adecuada. Para los proveedores de servicios, Pay.sh ofrece una integración sencilla mediante un archivo declarativo, permitiendo configurar reglas de precios, cuotas gratuitas o división automática de pagos entre múltiples destinatarios. Los servicios pueden listarse en un registro para su descubrimiento. La principal ventaja de Pay.sh es unificar los ecosistemas de pago, permitiendo a los agentes utilizar una wallet de cadena de bloques como identidad única para acceder a recursos tradicionales de forma más fluida y con el respaldo de la infraestructura y cumplimiento de Google Cloud. No obstante, el proyecto enfrenta desafíos, como la posible falta de mecanismos robustos para verificar y filtrar servicios no autorizados en su registro, la dependencia de la seguridad de los protocolos subyacentes (x402, MPP) y las posibles barreras regulatorias para proveedores en diferentes regiones. En conclusión, Pay.sh representa un paso significativo hacia la convergencia de los pagos Web2 y Web3 para la economía de los agentes de IA, potenciando el papel de las wallets de cadena de bloques como instrumento de identidad y valor, aunque su éxito dependerá de superar los retos de adopción y cumplimiento.

marsbitHace 1 hora(s)

¿Podrá Pay.sh, lanzado por la Solana Foundation en colaboración con Google, conectar los flujos de pago Web2 y Web3 en la economía de agentes inteligentes?

marsbitHace 1 hora(s)

Trading

Spot
Futuros
活动图片