Tu Claude va a soñar esta noche, no lo molestes

marsbitPublicado a 2026-05-11Actualizado a 2026-05-11

Resumen

Anthropic ha presentado la función "Dreaming" (Soñar) para sus agentes de IA en la plataforma Managed Agents. Esta función, inspirada en conceptos humanos, procesa automáticamente registros históricos de sesiones para extraer patrones y optimizar futuras tareas, actuando como un mecanismo de aprendizaje y autocorrección basado en datos. La función se activa manualmente en Managed Agents, revisando hasta 100 sesiones para crear nuevos recuerdos. Otras plataformas como Hermes Agent y OpenClaw tienen características similares, donde OpenClaw simula etapas de sueño (ligero, REM, profundo) para consolidar información en memoria a largo plazo. "Dreaming" está ligado a la gestión de la memoria (contexto) en IA. Dado que las ventanas de contexto son limitadas y costosas computacionalmente, esta función ayuda a priorizar y refinar información, similar a cómo el cerebro humano consolida recuerdos durante el sueño. Compañías como Subquadratic buscan ampliar estos límites con modelos de contexto masivo. El uso de términos antropomórficos como "soñar", "pensar" o "recordar" por parte de las empresas de IA busca hacer la tecnología más relatable, pero también difumina la línea entre herramienta y entidad, desplazando potencialmente la responsabilidad de los desarrolladores al "comportamiento" del agente.

¿Sueñan los androides? ¿Y si sueñan, sueñan con ovejas eléctricas?

Captura de pantalla de la película 'Blade Runner'

En 1968, cuando Philip K. Dick, el autor de la novela que inspiró la película de ciencia ficción 'Blade Runner', escribió esta pregunta abstracta y adelantada a su tiempo en su máquina de escribir, probablemente no imaginó que, más de medio siglo después, los gigantes tecnológicos de Silicon Valley darían una respuesta seria.

Sí, no solo pueden soñar con ovejas eléctricas, sino que también pueden visualizar esos sueños.

Ayer, en su conferencia para desarrolladores en San Francisco, Anthropic presentó una serie de nuevas funciones para su plataforma de creación de agentes Managed Agents: expansión de memoria, resultados de salida, colaboración entre múltiples agentes, y "Dreaming" (Soñar).

Según las propias palabras de Anthropic, "memory (memoria) y dreaming (soñar) forman juntos un sistema de memoria de agente robusto y capaz de automejorarse".

Primero soñar, luego memoria. Quien no esté muy familiarizado con el campo de la IA probablemente se llenará de dudas: ¿desde cuándo estas palabras, que pertenecen a los humanos, pueden aplicarse tan fácilmente a la IA?

Ya en 2024, cuando OpenAI lanzó la serie o1, utilizó las palabras "una serie de modelos de IA diseñados para pensar más tiempo antes de responder". "Pensar" se usó de manera tan natural que nadie se detuvo a preguntar: ¿por qué un programa que predice estadísticamente el siguiente token puede llamarse "pensar"?

Luego vinieron reasoning (razonar), memory (memoria), reflection (reflexionar), Imagining (imaginar), y una por una, estas acciones propias de los humanos fueron presentadas en las conferencias de lanzamiento de productos.

Captura de pantalla de la película 'Paprika', que explora los sueños.

Se podría explicar "pensar" como una metáfora, "memoria" casi como una extensión del lenguaje técnico, pero "soñar" ya es demasiado. La filosofía, la historia y la literatura no lo han logrado en miles de años, pero las empresas de IA pueden decir directamente: no solo hemos creado máquinas que piensan, sino también máquinas que sueñan.

¿Qué es soñar? ¿Es que, además de "soñar", no existe ningún término de ingeniería que describa esto con precisión?

Los sueños de la IA también cuestan dinero

Ya durante la filtración del código de Claude Code, algunos usuarios descubrieron que Anthropic estaba preparando una función llamada Auto Dreaming. En ese momento, todos se preguntaban: ¿Acaso la IA también necesita dormir como nosotros los humanos, descansar lo suficiente para volverse más concentrada e inteligente?

Sin embargo, al entender el funcionamiento actual de los AI Agents, uno se da cuenta de que el llamado "soñar" es, en esencia, solo un procesamiento por lotes y fuera de línea de registros automatizados.

Los AI Agents actuales son buenos para completar tareas complejas de larga duración. Por ejemplo, "investiga los últimos informes financieros de estos cinco competidores y organízalos en una tabla". En este proceso, el Agent necesita saltar entre diferentes páginas web, leer múltiples documentos, utilizar diferentes herramientas e incluso puede encontrarse con mecanismos anti-rastreo y tener que reintentar.

Al finalizar esta larga serie de tareas en línea, el sistema del Agent deja una gran cantidad de registros de ejecución.

Imagen generada por IA.

La función "Dreaming" de Anthropic es hacer que el Agent, en su tiempo de inactividad, reanalice estos registros históricos. Busca patrones, como descubrir que "cada vez que aparece esta ventana emergente, hacer clic en la esquina superior derecha la cierra", optimizando así la ruta de operación para la próxima vez.

La "memoria" se encarga de capturar lo aprendido durante el trabajo, mientras que "soñar" refina esos recuerdos entre sesiones y los comparte entre diferentes Agents.

En pocas palabras, se trata de un mecanismo de aprendizaje por refuerzo y autocorrección basado en datos históricos.

Introducción a los sueños: https://platform.claude.com/docs/en/managed-agents/dreams

La actualización de Dreams en Managed Agents en esta conferencia para desarrolladores es una tarea de procesamiento en segundo plano que debemos activar manualmente. Claude puede leer hasta 100 sesiones de historial de conversación a la vez y producir un nuevo conjunto de recuerdos para que los revisemos y decidamos si queremos usarlos.

En cambio, el AutoDream que ya se implementó en silencio en Claude Code, revisa en segundo plano después de cada ronda de conversación con el Agent si "debería soñar". Por defecto, se ejecuta una vez cada 24 horas.

Funciones similares a soñar también las tiene Hermes Agent. Hermes Agent se especializa en el autoaprendizaje y la evolución. No solo admite la extracción automática de experiencias de tareas pasadas para colocarlas en un archivo de memoria.

Una de sus funciones, llamada Curator, puede incluso organizar automáticamente estas guías operativas refinadas en Habilidades (Skills).

Estas Habilidades se califican, se fusionan las duplicadas, se archivan automáticamente las que no se usan durante mucho tiempo e incluso tienen un ciclo de vida como active, stale, archived. También podemos "fijar" las Habilidades importantes para evitar que el sistema las elimine automáticamente.

OpenClaw, en sus últimas actualizaciones, también agregó mecanismos relacionados, como memoria persistente entre conversaciones, programación periódica de tareas, ejecución aislada de sub-agentes y una función directamente llamada Dreaming (soñar).

Sueños de OpenClaw: https://docs.openclaw.ai/concepts/dreaming

En el mecanismo de sueño de OpenClaw, resume la formación del sueño en tres etapas: ligero, REM (movimiento ocular rápido) y profundo. Las dos primeras se encargan de organizar, reflexionar y sintetizar temas; la etapa profunda es la que realmente escribe el contenido en la memoria a largo plazo MEMORY.md.

La consolidación en la etapa de sueño profundo la determinan 6 señales ponderadas para decidir si se debe escribir en la memoria a largo plazo. Estas seis señales incluyen frecuencia, relevancia, diversidad de consultas, actualidad, repetición entre días y riqueza conceptual.

Imagen generada por IA.

Escribir en la memoria a largo plazo genera dos archivos: un archivo de estado orientado a la máquina, ubicado en memory/.dreams/; y otro registro legible para el usuario, que se escribe en DREAMS.md y en los informes generados por etapa.

Además, Dreaming puede ejecutarse automáticamente en intervalos programados. Por defecto, se ejecuta un flujo completo todos los días a las 3 a.m., en el orden ligero → REM → profundo.

Además de la salida de los sueños, OpenClaw mantiene un documento llamado Dream Diary (Diario de Sueños). El sistema genera automáticamente un "diario de sueños" que registra el proceso de organización de la memoria de manera narrativa, enfatizando la explicabilidad y la posibilidad de revisión, en lugar de ser una caja negra que escribe en la base.

En neurociencia, existe una comprensión muy clásica: la información que obtenemos durante el día ingresa primero en un sistema de almacenamiento más temporal. Durante el sueño, el cerebro repite, consolida y limpia esa información, reteniendo lo importante y descartando lo que carece de sentido.

Imagen generada por IA.

No recordamos el color de cada coche que vimos de camino al trabajo ayer, pero recordamos cómo llegar a la oficina.

Estos sueños suenan muy parecidos a los nuestros. Si hay que buscar alguna diferencia, probablemente sea que cuando Claude sueña, sigue consumiendo nuestros Tokens.

Pero ni Anthropic ni OpenClaw eligieron llamarlo "optimización basada en sesiones" (session-based optimization) o "ajuste posterior a la tarea" (post-task tuning), nombres más orientados a la ingeniería.

Después de todo, cuando esos nombres complejos se convierten directamente en "soñar", lo que percibimos ya no es una función de software, sino algo más parecido a una "vida digital con actividad interior".

La memoria de la IA es un contexto fragmentado

Hablando de "soñar", no se puede dejar de mencionar su condición previa: la memoria (Memory).

En el pasado reciente, las palabras de moda en el círculo de la IA han pasado de la ingeniería de prompts a la ingeniería de contexto, ingeniería de habilidades (Skill), ingeniería de arneses (Harness). Pero sin importar cómo cambien, actualmente la más valiosa sigue siendo la ingeniería de contexto.

El prompt del sistema, la entrada del usuario, el diálogo a corto plazo, la memoria a largo plazo, los documentos recuperados, la salida de las herramientas y habilidades invocadas, el estado actual del usuario: todas estas capas superpuestas constituyen el "contexto" que el agente realmente utiliza.

Hacer que el Agent recuerde más y almacene contenido más útil ha sido un desafío durante mucho tiempo.

El año pasado, Manus publicó un blog técnico sobre cómo optimizan la ingeniería de contexto. Mencionaron definir la tasa de aciertos en la caché KV-Cache como uno de los indicadores únicos más importantes para los AI Agents en entornos de producción. También priorizaron el "enmascaramiento" en lugar de la "eliminación" a nivel de invocación de herramientas, y utilizaron el sistema de archivos como el contexto definitivo, entre otros métodos.

Para entender la llamada KV Cache (caché de clave-valor), podemos imaginar un modelo de lenguaje grande como una persona extremadamente obsesiva que solo puede leer una palabra a la vez.

Al procesar una oración, calcula un vector Key (clave) y un vector Value (valor) para cada token generado. Para no tener que recalcular todo desde cero cada vez, almacena estos pares de clave-valor (K, V). Esto es la KV Cache.

KV Cache (caché de clave-valor) es una técnica de aceleración de bajo nivel que los modelos de lenguaje grandes utilizan para "intercambiar espacio por tiempo" al generar texto. La caché permite que el modelo prediga la siguiente palabra sin tener que volver a calcular todas las palabras anteriores. Imagen generada por IA.

Mientras la conversación continúa, la KV Cache sigue guardándose. En general, ante modelos de lenguaje grandes con contextos de hasta 128k tokens, un modelo de 70B parámetros utilizando todo el contexto de 128k tokens puede consumir hasta 64 GB de memoria de solo la KV Cache.

Esta es la razón por la que la mayoría de los modelos actualmente tienen ventanas de contexto de, como máximo, millones de tokens.

Ayer, una nueva empresa llamada Subquadratic, que obtuvo 29 millones de dólares en financiación inicial, anunció en X su nuevo modelo SubQ, que se enfoca en contextos más largos.

SubQ afirma que puede admitir ventanas de contexto de hasta 12 millones de tokens, la ventana de contexto más grande entre todos los modelos de lenguaje grandes actuales.

Aunque aún no hay un artículo técnico o documentación del modelo, el video presentado menciona que la ruta tecnológica central de SubQ es cambiar de la "atención densa" del Transformer tradicional a una arquitectura de "escalado subcuadrático/lineal" con atención dispersa. Se espera que esta nueva arquitectura pueda resolver el problema del costo computacional explosivo con contextos más largos.

Los resultados de las pruebas que presentan son bastante agresivos: con 1 millón de tokens, la velocidad aumenta más de 50 veces y el costo se reduce más de 50 veces; con 12 millones de tokens, la demanda de potencia de cálculo puede reducirse casi 1000 veces en comparación con los modelos de vanguardia.

Y en el benchmark de contexto largo RULER 128K, Subquadratic afirma que SubQ logra un 95% de precisión con un costo de 8 dólares, en comparación con Claude Opus que tiene un 94% de precisión y un costo de aproximadamente 2600 dólares, lo que representa una reducción de costos de aproximadamente 300 veces.

O se amplía la ventana de contexto, o se hace que el modelo aprenda a "soñar" y descarte algunas cosas por sí mismo.

Por eso, Anthropic y otros productos de Agent ahora deben lanzar "Dreaming". En un contexto limitado por la ventana de tokens, una IA más inteligente no puede depender solo de meter más contenido; necesita ser selectiva.

Admitir que la máquina es solo una máquina es más difícil de lo que se piensa

Entendiendo los mecanismos de sueño y memoria de la IA, quizás podamos comprender su relación con las actividades humanas.

Pero al juntar todas estas palabras que las empresas de IA han creado para las máquinas - thinking (pensar) de OpenAI, memory (memoria) y hallucination (alucinación) de uso común en la industria, dreaming (soñar) de Anthropic en esta ocasión, y las virtudes y sabiduría de la constitución de Anthropic -

Podemos ver que las empresas de IA no solo venden productos; están reasignando la propiedad de los conceptos dentro de la palabra "persona". Cada vez que se apropian de una palabra, el límite entre la máquina y el ser humano se desdibuja un poco más.

El lenguaje moldea las expectativas, las expectativas moldean la tolerancia, y la tolerancia determina cuánto estamos dispuestos a confiarle. Es una cadena larga, pero su punto de partida son esas palabras inofensivas en las conferencias de lanzamiento.

Una influencia más sutil es la distribución de responsabilidades. Cuando una herramienta se describe como una entidad con "pensamiento", "memoria" y "valores", al surgir problemas, tendemos a considerarla como un "sujeto de acción" independiente al que hay que hacer responsable; es esa IA la que necesita ser "educada", "depurada" o "calibrada".

Pero lo que realmente se debería cuestionar es la empresa que implementó este programa en nuestro flujo de trabajo y el equipo de productos que acuñó la palabra "dreaming". Cambian las palabras, y las personas en el "banquillo de los acusados" también cambian.

Y al ver una máquina que "piensa", "recuerda" y ahora también "sueña", empezamos a creer inconscientemente que hay algo dentro. Porque admitir que solo es una máquina hace que la sensación de "estoy conversando con un ser que piensa" se desvanezca, volviendo a una fría relación instrumental.

Introducción a la función de soñar despierto | Imagen generada por IA.

Ya puedo imaginar lo siguiente: si Dreaming (soñar) es procesar contenido pasado, las próximas empresas de IA lanzarán Daydreaming (soñar despierto), para simular el futuro.

La introducción dirá que soñar despierto o divagar permite al Agent, en estado activo, utilizar una pequeña parte de su capacidad de cálculo libre para realizar generaciones exploratorias combinadas con el proyecto en curso, preparándose para posibles tareas futuras.

Este artículo proviene del WeChat Official Account "APPSO", autor: APPSO, descubriendo los productos del mañana.

Preguntas relacionadas

Q¿Qué es la función 'Dreaming' (soñar) de los agentes de IA, como el anunciado por Anthropic?

ALa función 'Dreaming' (soñar) de los agentes de IA es un proceso de procesamiento por lotes y automejora fuera de línea. Analiza automáticamente los registros de sesiones de tareas anteriores para identificar patrones, optimizar rutas de operación futuras y consolidar aprendizajes en 'memorias' reutilizables. Esencialmente, es un mecanismo de aprendizaje por refuerzo y autocorrección basado en datos históricos.

Q¿Cómo se relacionan los conceptos de 'memoria' y 'sueño' en el contexto de los agentes de IA según el artículo?

ASegún el artículo, la 'memoria' (memory) y el 'sueño' (dreaming) forman juntos un sistema robusto de memoria para agentes de IA que permite la automejora. La memoria captura lo aprendido durante las tareas en tiempo real, mientras que el proceso de 'soñar' refina y consolida esas memorias entre sesiones, extrayendo lecciones generalizables y descartando información irrelevante para optimizar el rendimiento futuro.

Q¿Cuál es una crítica principal del artículo sobre el uso de términos como 'pensar', 'recordar' o 'soñar' para describir funciones de IA?

ALa crítica principal es que el uso antropomórfico de términos como 'pensar', 'recordar' o 'soñar' para funciones técnicas de IA desdibuja la frontera entre máquinas y humanos. Este lenguaje moldea las expectativas de los usuarios, puede redistribuir la responsabilidad en caso de errores (de la empresa al 'agente') y crea una ilusión de interacción con una entidad consciente, en lugar de una herramienta programada.

Q¿Qué problema técnico fundamental intentan abordar funciones como 'Dreaming' o el desarrollo de ventanas de contexto más largas?

AIntentan abordar la limitación fundamental de la longitud del contexto en los modelos de lenguaje grandes. Las ventanas de contexto (como 128K o 1M tokens) y su caché KV asociada consumen enormes recursos computacionales y de memoria. 'Dreaming' optimiza selectivamente lo que se retiene, mientras que arquitecturas como la de Subquadratic buscan hacer que contextos ultralargos (ej. 12M tokens) sean computacionalmente viables.

QAdemás de Anthropic, ¿qué otros proyectos o empresas menciona el artículo que implementan mecanismos similares a 'soñar' para sus agentes de IA?

AEl artículo menciona a Hermes Agent, con su función 'Curator' que organiza aprendizajes en 'Skills' con ciclo de vida, y a OpenClaw, que tiene una función llamada 'Dreaming' que simula fases de sueño ligero, REM y profundo para consolidar recuerdos en un archivo de memoria a largo plazo y generar un 'Diario de Sueños' (Dream Diary) narrativo para los usuarios.

Lecturas Relacionadas

El Mercado de Deuda Japonesa se Dirige a la Cadena de Bloques

El mercado de deuda pública japonés (JGB), valorado en más de 9 billones de dólares, se prepara para una transformación crucial mediante la tokenización en blockchain. Instituciones clave como JSCC, Mizuho, Nomura y Digital Asset han iniciado una prueba de concepto en la red Canton para mover garantías JGB a la cadena. Este cambio responde a la urgencia de modernizar un sistema anticuado, donde las transferencias de colateral pueden tardar días y están limitadas al horario de Tokio, lo que pone en riesgo la competitividad del JGB frente a los Bonos del Tesoro de EE.UU., que ya avanzan hacia una liquidación tokenizada 24/7. La red Canton, elegida por su arquitectura que cumple con estrictos requisitos legales y de privacidad, permite liquidaciones atómicas e instantáneas entre instituciones, sincronizando solo los datos autorizados para cada parte. Este sistema "siempre activo" podría liberar billones en colateral inmovilizado, reducir costes operativos y mitigar riesgos sistémicos, como los ciclos de ventas forzosas durante crisis de mercado, al permitir el uso directo de bonos como garantía. Este movimiento representa una revolución en la eficiencia de la infraestructura financiera global, aunque consolida el papel de los actores tradicionales en una nueva capa tecnológica. La convergencia de los principales bonos soberanos en Canton apunta a que esta red podría convertirse en un estándar fundamental para el movimiento de colateral a nivel mundial.

marsbitHace 26 min(s)

El Mercado de Deuda Japonesa se Dirige a la Cadena de Bloques

marsbitHace 26 min(s)

Resumen de Financiación Semanal | 14 Eventos de Financiación Pública, Kalshi Cierra una Nueva Ronda de $10 Mil Millones con una Valoración de $220 Mil Millones, Liderada por Coatue Management

**Resumen semanal de financiación: 14 rondas recaudan más de 10.490 millones de dólares** Esta semana (4-10 de mayo) se registraron 14 eventos de financiación en el sector blockchain, con un volumen total superior a los 10.490 millones de dólares, según datos recopilados por PANews. **Desglose por sectores:** * **DeFi (4):** Destaca OnRe, una reaseguradora regulada en cadena, que completó una ronda Serie A de 5 millones de dólares. * **Infraestructura y herramientas (4):** OpenTrade lideró con una ronda estratégica de 17 millones para expandir su infraestructura de rendimiento para stablecoins. * **Mercados de predicción (3):** La plataforma Kalshi recaudó 1.000 millones de dólares en una nueva ronda liderada por Coatue Management, alcanzando una valoración de 22.000 millones. * **Finanzas centralizadas (1):** La plataforma de trading impulsada por IA Stockcoin.ai completó una ronda semilla. * **Otras aplicaciones Web3 (2):** SC Ventures, de Standard Chartered, realizó una inversión estratégica en el creador de mercado de cripto GSR. **Inversiones institucionales relevantes:** * Coinbase realizó una inversión estratégica "de siete cifras" en Centrifuge, designándola como socio clave para la tokenización de activos reales (RWA) en su ecosistema Base. * Haun Ventures, fundada por Katie Haun, completó la captación de un nuevo fondo de 1.000 millones de dólares para invertir en cripto, IA y activos alternativos. * La firma suiza Multi Investment recaudó ~616 millones de dólares para aumentar sus inversiones en blockchain, Web3 y fintech.

marsbitHace 31 min(s)

Resumen de Financiación Semanal | 14 Eventos de Financiación Pública, Kalshi Cierra una Nueva Ronda de $10 Mil Millones con una Valoración de $220 Mil Millones, Liderada por Coatue Management

marsbitHace 31 min(s)

El prototipo de 'El gran golpe' duplica su apuesta contra la burbuja de la IA: mantiene posiciones cortas en NVIDIA y Palantir y compra acciones de software tradicional

El inversor Michael Burry, famoso por apostar contra la burbuja inmobiliaria en 2008, está incrementando sus posiciones en contra del entusiasmo actual por la IA. Según su blog 'Cassandra Unchained', mantiene y amplía sus apuestas bajistas contra Nvidia y Palantir, añadiendo posiciones cortas en ETFs de semiconductores (SOXX) y del Nasdaq 100 (QQQ). Simultáneamente, está comprando acciones de empresas de software tradicional como Adobe, Autodesk y Salesforce, cuyos precios han caído, argumentando que se han visto perjudicadas injustamente por la narrativa de la IA. Burry comenzó a apostar contra Palantir y Nvidia en el tercer trimestre de 2025. Aunque su posición contra Palantir ya es rentable, espera que la acción caiga más del 60% desde sus niveles actuales. Su apuesta contra Nvidia, sin embargo, está en pérdidas, ya que la acción sigue cerca de máximos históricos. Su tesis central es que la actual euforia por la infraestructura de IA es una burbuja comparable a la de internet en los años 90. Al combinar ventas en corto de los "ganadores de la IA" con compras de los "perdedores" castigados, Burry construye una cartera que busca beneficiarse de una corrección en los precios excesivos. Aunque sus opiniones contrastan fuertemente con el mercado alcista, insiste en su análisis de que la valoración del sector de la IA está desconectada de los fundamentos reales.

marsbitHace 35 min(s)

El prototipo de 'El gran golpe' duplica su apuesta contra la burbuja de la IA: mantiene posiciones cortas en NVIDIA y Palantir y compra acciones de software tradicional

marsbitHace 35 min(s)

“El Gran Corto” Burry y el legendario magnate Jones advierten: la fiebre por la IA se parece mucho a la víspera del desplome del 2000

El famoso inversor Michael Burry, conocido por predecir el colapso del mercado inmobiliario estadounidense, ha advertido que la actual obsesión del mercado bursátil con la inteligencia artificial comienza a parecerse a las últimas etapas previas al estallido de la burbuja puntocom en 2000. En un artículo publicado en Substack, Burry señaló que, durante un largo viaje en coche, escuchó programas financieros en los que solo se hablaba de la IA todo el día. Criticó que el mercado ya no reacciona de manera lógica a datos económicos como los informes de empleo o la confianza del consumidor, atribuyendo el alza de las acciones simplemente a un "impulso alcista" alimentado por una narrativa de dos letras (IA). Comparó el reciente rendimiento del índice de semiconductores de Filadelfia (SOX) con el aumento previo al desplome tecnológico de marzo de 2000. Por su parte, el legendario trader macro Paul Tudor Jones, de Tudor Investment Corporation, también comparó el actual auge impulsado por la IA con el período anterior al estallido de la burbuja de internet. Sin embargo, Jones cree que este mercado alcista podría tener aún espacio para seguir subiendo durante uno o dos años. No obstante, advirtió que si las valoraciones continúan inflándose, el eventual ajuste podría ser extremadamente severo, imaginando un escenario donde la capitalización del mercado en relación con el PIB alcance niveles insostenibles.

marsbitHace 55 min(s)

“El Gran Corto” Burry y el legendario magnate Jones advierten: la fiebre por la IA se parece mucho a la víspera del desplome del 2000

marsbitHace 55 min(s)

Perspectiva de las Noticias de esta Semana | Estados Unidos publica los datos de IPC de abril; Comité Bancario del Senado de EE. UU. examina el proyecto de ley "Ley de Clarificación de Mercados de Activos Digitales de 2025"

**Resumen de las noticias clave de esta semana** **12 de mayo (Martes):** Estados Unidos publicará los datos del IPC de abril a las 20:30 (hora de Pekín). La cadena de juegos Ronin migrará a Ethereum Layer 2, causando unas 10 horas de interrupción. **13 de mayo (Miércoles):** Base planea activar en la red principal su primera actualización independiente de red, "Base Azul", destinada a mejorar la seguridad, el rendimiento y la experiencia del desarrollador. **14 de mayo (Jueves):** El Comité Bancario del Senado de EE. UU. debatirá y votará la "Ley de Claridad del Mercado de Activos Digitales de 2025". El protocolo DeFi Carrot en Solana cerrará, estableciendo el 14 de mayo como fecha límite para retiros. La Bolsa de Moscú lanzará futuros sobre índices de Solana, Ripple y Tron para inversores cualificados. **15 de mayo (Viernes):** Dmail Network comenzará a cerrar todos sus servicios debido a altos costos operativos y falta de un modelo comercial sostenible. Los usuarios deben exportar sus datos antes de esa fecha. La cadena de préstamos UX Chain en Cosmos también cerrará completamente. **16 de mayo (Sábado):** Lattice, infraestructura para juegos blockchain, cesará sus operaciones. Su red Layer 2, Redstone, dejará de funcionar. Los usuarios deben retirar sus fondos antes de esa fecha.

链捕手Hace 1 hora(s)

Perspectiva de las Noticias de esta Semana | Estados Unidos publica los datos de IPC de abril; Comité Bancario del Senado de EE. UU. examina el proyecto de ley "Ley de Clarificación de Mercados de Activos Digitales de 2025"

链捕手Hace 1 hora(s)

Trading

Spot
Futuros
活动图片