Discurso de Jensen Huang en CES2026: Tres temas clave y una "bestia de chips"

marsbitPublicado a 2026-01-06Actualizado a 2026-01-06

Resumen

En el CES 2026, Jensen Huang, CEO de NVIDIA, presentó el nuevo sistema de inteligencia artificial Rubin, diseñado para reducir drásticamente los costes de inferencia y permitir que la IA "piense más tiempo". La arquitectura Rubin incluye GPU Rubin, CPU Vera y NVLink 6, mejorando el rendimiento y la eficiencia. También se introdujo una plataforma de almacenamiento de memoria contextual para gestionar datos de inferencia a largo plazo. NVIDIA expandió su ecosistema de modelos abiertos, incluyendo Nemotron, Cosmos para IA física, Alpamayo para conducción autónoma y GR00T para robótica. Huang destacó avances en IA de razonamiento, simulaciones físicas y aplicaciones en vehículos autónomos y robots, con socios como Mercedes-Benz. La compañía enfatizó la transición de la IA generativa a agentes inteligentes capaces de operar de forma continua en entornos reales.

Autor: Li Hailun, Su Yang

El 6 de enero, hora de Pekín, el CEO de NVIDIA, Jensen Huang, vistiendo su característica chaqueta de cuero, volvió a subirse al escenario principal de CES2026.

En el CES de 2025, NVIDIA mostró el chip Blackwell en producción y una pila tecnológica completa de IA física. En esa ocasión, Huang enfatizó que se estaba abriendo una "era de la IA física". Pintó un futuro lleno de imaginación: coches autónomos con capacidad de razonamiento, robots que pueden entender y pensar, y agentes de IA (Agentes Inteligentes) capaces de manejar tareas de contexto largo con millones de tokens.

Un año después, la industria de la IA ha experimentado una enorme transformación y evolución. Al repasar estos cambios en la presentación, Huang se refirió especialmente a los modelos de código abierto.

Dijo que modelos de razonamiento de código abierto como DeepSeek R1 han hecho que toda la industria se dé cuenta de que, cuando la colaboración abierta y global realmente despega, la difusión de la IA es extremadamente rápida. Aunque los modelos de código abierto aún están unos seis meses por detrás de los modelos más avanzados en capacidad general, se acercan cada seis meses, y sus descargas y uso ya han experimentado un crecimiento explosivo.

Comparado con 2025, donde se mostraron más visiones y posibilidades, esta vez NVIDIA comenzó a abordar sistemáticamente el problema de "cómo implementarlo": en torno a la IA de razonamiento, complementando la infraestructura de computación, red y almacenamiento necesaria para su ejecución a largo plazo, reduciendo significativamente los costes de inferencia e integrando estas capacidades directamente en escenarios reales como la conducción autónoma y la robótica.

El discurso de Huang en el CES se desarrolló en torno a tres líneas principales:

● A nivel de sistema e infraestructura, NVIDIA rediseñó la arquitectura de computación, red y almacenamiento en torno a las necesidades de inferencia a largo plazo. Con la plataforma Rubin, NVLink 6, Spectrum-X Ethernet y la plataforma de almacenamiento de memoria de contexto de inferencia como núcleo, estas actualizaciones apuntan directamente a los cuellos de botella del alto coste de inferencia, la dificultad de mantener el contexto de forma continua y las limitaciones de escalabilidad, resolviendo los problemas de que la IA "piense un poco más", sea asequible de computar y funcione durante más tiempo.

● A nivel de modelo, NVIDIA situó a la IA de razonamiento (Reasoning / Agentic AI) en una posición central. A través de modelos y herramientas como Alpamayo, Nemotron, Cosmos Reason, impulsan a la IA a pasar de "generar contenido" a ser capaz de pensar de forma sostenida, y de "modelos que responden una vez" a "agentes inteligentes que pueden trabajar a largo plazo".

● A nivel de aplicación e implementación, estas capacidades se introducen directamente en escenarios de IA física como la conducción autónoma y la robótica. Tanto el sistema de conducción autónoma impulsado por Alpamayo como el ecosistema robótico GR00T y Jetson, están impulsando el despliegue a escala mediante la colaboración con plataformas empresariales y proveedores de la nube.

01 De la hoja de ruta a la producción: Rubin revela por primera vez datos completos de rendimiento

En este CES, NVIDIA reveló por primera vez los detalles técnicos completos de la arquitectura Rubin.

En su discurso, Huang comenzó con el concepto de Test-time Scaling (Escalado en tiempo de prueba), que puede entenderse como que, para que la IA se vuelva más inteligente, ya no se trata de "hacer que estudie más", sino de "dejarla pensar un poco más cuando se enfrente a un problema".

En el pasado, la mejora de la capacidad de la IA dependía principalmente de utilizar más potencia de cálculo en la fase de entrenamiento, haciendo modelos cada vez más grandes; ahora, el nuevo cambio es que incluso si el modelo deja de crecer, siempre que se le dé un poco más de tiempo y potencia de cálculo para pensar en cada uso, los resultados también pueden mejorar notablemente.

¿Cómo hacer que "la IA piense un poco más" sea económicamente viable? La nueva plataforma de computación de IA de arquitectura Rubin viene a resolver este problema.

Huang presentó un sistema completo de computación de IA de próxima generación, diseñado de forma coordinada con la CPU Vera, la GPU Rubin, NVLink 6, ConnectX-9, BlueField-4 y Spectrum-6, para lograr una caída revolucionaria en el coste de inferencia.

La GPU Rubin de NVIDIA es el chip central responsable del cálculo de IA en la arquitectura Rubin, con el objetivo de reducir significativamente el coste unitario de inferencia y entrenamiento.

En pocas palabras, la tarea central de la GPU Rubin es "hacer que la IA sea más barata y más inteligente de usar".

La capacidad central de la GPU Rubin reside en que la misma GPU puede hacer más trabajo. Puede procesar más tareas de inferencia a la vez, recordar contextos más largos y la comunicación con otras GPU también es más rápida, lo que significa que muchos escenarios que antes requerían "apilar muchas tarjetas" ahora se pueden completar con menos GPU.

El resultado es que la inferencia no sólo es más rápida, sino también notablemente más barata.

Huang repasó en el escenario los parámetros hardware del NVL72 de arquitectura Rubin: contiene 220 billones de transistores, un ancho de banda de 260 TB/s, y es la primera plataforma a escala de rack que admite computación confidencial.

En general, en comparación con Blackwell, la GPU Rubin logra un salto generacional en indicadores clave: el rendimiento de inferencia NVFP4 aumenta a 50 PFLOPS (5 veces), el rendimiento de entrenamiento a 35 PFLOPS (3.5 veces), el ancho de banda de memoria HBM4 a 22 TB/s (2.8 veces), y el ancho de banda de interconexión NVLink por GPU se duplica a 3.6 TB/s.

Estas mejoras actúan conjuntamente para permitir que una sola GPU procese más tareas de inferencia y contextos más largos, reduciendo fundamentalmente la dependencia del número de GPU.

La CPU Vera es un componente central diseñado específicamente para el movimiento de datos y el procesamiento Agentic. Utiliza 88 núcleos Olympus de diseño propio de NVIDIA, está equipada con 1.5 TB de memoria del sistema (3 veces más que la CPU Grace anterior), y logra acceso coherente a la memoria entre la CPU y la GPU mediante la tecnología NVLink-C2C de 1.8 TB/s.

A diferencia de las CPU genéricas tradicionales, Vera se centra en la planificación de datos y el procesamiento de lógica de razonamiento de múltiples pasos en escenarios de inferencia de IA, siendo esencialmente el coordinador del sistema que permite que "la IA piense un poco más" se ejecute de manera eficiente.

NVLink 6, con un ancho de banda de 3.6 TB/s y capacidad de computación en la red, permite que las 72 GPU en la arquitectura Rubin trabajen de forma cooperativa como una super GPU, siendo una infraestructura clave para lograr reducir el coste de inferencia.

De este modo, los datos y resultados intermedios que la IA necesita durante la inferencia pueden fluir rápidamente entre las GPU, sin tener que esperar, copiar o recalcar repetidamente.

En la arquitectura Rubin, NVLink-6 se encarga del cómputo cooperativo interno de la GPU, BlueField-4 de la planificación de contexto y datos, y ConnectX-9 asume la conexión de red externa de alta velocidad del sistema. Garantiza que el sistema Rubin pueda comunicarse eficientemente con otros racks, centros de datos y plataformas en la nube, siendo un prerrequisito para el funcionamiento fluido de tareas de entrenamiento e inferencia a gran escala.

En comparación con la arquitectura anterior, NVIDIA también proporciona datos concretos y直观: en comparación con la plataforma NVIDIA Blackwell, puede reducir el coste por token en la fase de inferencia hasta 10 veces, y reducir el número de GPU necesarias para entrenar modelos de expertos mixtos (MoE) a una cuarta parte.

NVIDIA indicó oficialmente que Microsoft ya se ha comprometido a desplegar cientos de miles de chips Vera Rubin en su próxima fábrica super inteligente Fairwater, y proveedores de servicios en la nube como CoreWeave ofrecerán instancias Rubin en la segunda mitad de 2026. Esta infraestructura para "dejar que la IA piense un poco más" está pasando de demostraciones técnicas a implementación comercial a escala.

02 ¿Cómo se resuelve el "cuello de botella del almacenamiento"?

Dejar que la IA "piense un poco más" también plantea un desafío tecnológico clave: ¿dónde se deben colocar los datos de contexto?

Cuando la IA procesa tareas complejas que requieren diálogos de múltiples turnos o razonamiento de múltiples pasos, genera una gran cantidad de datos de contexto (KV Cache). La arquitectura tradicional los mete either en la memoria GPU, que es cara y tiene capacidad limitada, o en almacenamiento normal (demasiado lento para acceder). Si este "cuello de botella de almacenamiento" no se resuelve, incluso la GPU más potente se verá ralentizada.

Para abordar este problema, NVIDIA reveló por primera vez en este CES la Plataforma de Almacenamiento de Memoria de Contexto de Inferencia (Inference Context Memory Storage Platform) impulsada por BlueField-4, cuyo objetivo central es crear una "tercera capa" entre la memoria GPU y el almacenamiento tradicional. Que sea lo suficientemente rápida, tenga capacidad suficiente y pueda soportar el funcionamiento a largo plazo de la IA.

Desde la perspectiva de la implementación técnica, esta plataforma no es un único componente el que funciona, sino el resultado de un diseño coordinado:

  • BlueField-4 se encarga de acelerar a nivel de hardware la gestión y el acceso a los datos de contexto, reduciendo el movimiento de datos y la sobrecarga del sistema;
  • Spectrum-X Ethernet proporciona redes de alto rendimiento, admitiendo el intercambio de datos de alta velocidad basado en RDMA;
  • Componentes de software como DOCA, NIXL y Dynamo, se encargan de optimizar la planificación a nivel del sistema, reducir la latencia y mejorar el rendimiento general.

Podemos entender que el enfoque de esta plataforma es expandir los datos de contexto, que antes solo podían residir en la memoria GPU, a una "capa de memoria" independiente, rápida y compartible. Por un lado, libera presión sobre la GPU, y por otro, permite compartir rápidamente esta información de contexto entre múltiples nodos y múltiples agentes de IA.

En cuanto a los efectos prácticos, los datos oficiales de NVIDIA indican que, en escenarios específicos, este enfoque puede aumentar el número de tokens procesados por segundo hasta 5 veces, y lograr un nivel equivalente de optimización de eficiencia energética.

Huang enfatizó多次 en la presentación que la IA está evolucionando de "chatbots de conversación única" a verdaderos colaboradores inteligentes: necesitan entender el mundo real, razonar de forma continua, invocar herramientas para completar tareas y retener memoria a corto y largo plazo. Estas son precisamente las características centrales de la IA Agentic. La Plataforma de Almacenamiento de Memoria de Contexto de Inferencia está diseñada para esta forma de IA de funcionamiento prolongado y pensamiento repetitivo, ampliando la capacidad de contexto y acelerando el intercambio entre nodos, haciendo que los diálogos de múltiples turnos y la colaboración multiagente sean más estables y no "se vuelvan más lentos con el tiempo".

03 La nueva generación de DGX SuperPOD: Haciendo que 576 GPU trabajen en conjunto

NVIDIA anunció en este CES el lanzamiento de la nueva generación de DGX SuperPOD (Supernodo) basada en la arquitectura Rubin, expandiendo Rubin de un solo rack a una solución completa para todo el centro de datos.

¿Qué es DGX SuperPOD?

Si el Rubin NVL72 es un "super rack" con 72 GPU, entonces el DGX SuperPOD es conectar múltiples de estos racks para formar un clúster de computación de IA a mayor escala. La versión anunciada esta vez consta de 8 racks Vera Rubin NVL72, equivalentes a 576 GPU trabajando en cooperación.

Cuando la escala de la tarea de IA continúa expandiéndose, las 576 GPU de un solo clúster de racks pueden no ser suficientes. Por ejemplo, para entrenar modelos a ultra gran escala, servir simultáneamente a miles de agentes de IA Agentic, o procesar tareas complejas que requieren contextos de millones de tokens. En ese caso, se necesitan múltiples racks trabajando juntos, y DGX SuperPOD está diseñado como una solución estandarizada para este escenario.

Para empresas y proveedores de servicios en la nube, DGX SuperPOD ofrece una solución de infraestructura de IA a gran escala "lista para usar". No necesitan investigar cómo conectar cientos de GPU, cómo configurar la red, cómo gestionar el almacenamiento, etc.

Los cinco componentes centrales de la nueva generación de DGX SuperPOD:

○8 racks Vera Rubin NVL72: proporcionan el núcleo de capacidad de computación, cada rack con 72 GPU, total 576 GPU;

○Red de expansión NVLink 6: permite que las 576 GPU en estos 8 racks trabajen de forma cooperativa como una super GPU;

○Red de expansión Spectrum-X Ethernet: conecta diferentes SuperPODs, y también con el almacenamiento y la red externa;

○Plataforma de Almacenamiento de Memoria de Contexto de Inferencia: proporciona almacenamiento compartido de datos de contexto para tareas de inferencia de larga duración;

○Software NVIDIA Mission Control: gestiona la planificación, monitorización y optimización de todo el sistema.

En esta actualización, la base del SuperPOD tiene como núcleo el sistema a nivel de rack DGX Vera Rubin NVL72. Cada NVL72 es en sí mismo una supercomputadora de IA completa, internamente conecta 72 GPU Rubin through NVLink 6, capaz de completar tareas de inferencia y entrenamiento a gran escala dentro de un rack. El nuevo DGX SuperPOD está formado por múltiples NVL72, formando un clúster a nivel de sistema que puede funcionar a largo plazo.

Cuando la escala de computación se expande de "un solo rack" a "múltiples racks", aparecen nuevos cuellos de botella: cómo transmitir establemente y eficientemente cantidades masivas de datos entre racks. En torno a este problema, NVIDIA lanzó同步 en este CES el nuevo conmutador Ethernet basado en el chip Spectrum-6, e introdujo por primera vez la tecnología "óptica encapsulada conjuntamente" (CPO).

En términos simples, consiste en encapsular directamente los módulos ópticos, que antes eran extraíbles, junto al chip del conmutador, reduciendo la distancia de transmisión de señal de metros a milímetros, lo que reduce significativamente el consumo de energía y la latencia, y también mejora la estabilidad general del sistema.

04 El "combo completo" de IA de código abierto de NVIDIA: De datos a código, todo incluido

En este CES, Huang anunció la expansión de su ecosistema de modelos de código abierto (Open Model Universe), añadiendo y actualizando una serie de modelos, conjuntos de datos, repositorios de código y herramientas. Este ecosistema cubre seis áreas: IA biomédica (Clara), simulación física de IA (Earth-2), IA Agentic (Nemotron), IA física (Cosmos), robótica (GR00T) y conducción autónoma (Alpamayo).

Entrenar un modelo de IA no solo requiere potencia de cálculo, sino también conjuntos de datos de alta calidad, modelos preentrenados, código de entrenamiento, herramientas de evaluación, etc., toda una infraestructura. Para la mayoría de empresas e instituciones de investigación, construir todo esto desde cero consume demasiado tiempo.

Concretamente, NVIDIA ha abierto seis niveles de contenido: plataformas de computación (DGX, HGX, etc.), conjuntos de datos de entrenamiento en varias áreas, modelos base preentrenados, bibliotecas de código de inferencia y entrenamiento, scripts de flujo de entrenamiento completos y plantillas de soluciones integrales.

La serie Nemotron es el foco de esta actualización, cubriendo cuatro direcciones de aplicación.

En la dirección de razonamiento, incluye modelos de inferencia pequeños como Nemotron 3 Nano, Nemotron 2 Nano VL, y herramientas de entrenamiento de aprendizaje por refuerzo como NeMo RL, NeMo Gym. En la dirección RAG (Generación Aumentada por Recuperación), proporciona Nemotron Embed VL (modelo de incrustación vectorial), Nemotron Rerank VL (modelo de reordenamiento), conjuntos de datos relacionados y la biblioteca de recuperación NeMo Retriever Library. En la dirección de seguridad, está el modelo de seguridad de contenido Nemotron Content Safety y su conjunto de datos complementario, y la biblioteca de barreras NeMo Guardrails.

En la dirección de voz, se incluye el reconocimiento automático de voz Nemotron ASR, el conjunto de datos de voz Granary Dataset y la biblioteca de procesamiento de voz NeMo Library. Esto significa que una empresa que quiera hacer un sistema de servicio al cliente de IA con RAG no necesita entrenar sus propios modelos de incrustación y reordenamiento, puede usar directamente el código que NVIDIA ya ha entrenado y abierto.

05 En el campo de la IA física, hacia la comercialización

El campo de la IA física también tiene actualizaciones de modelos: Cosmos, para理解和generar视频del mundo físico, el modelo base universal para robótica Isaac GR00T, y el modelo de visión-lenguaje-acción para conducción autónoma Alpamayo.

Huang afirmó en el CES que el "momento ChatGPT" de la IA física está cerca, pero los desafíos son muchos: el mundo físico es demasiado complejo y cambiante, recopilar datos reales es lento y caro, y nunca son suficientes.

¿Qué hacer? Los datos sintéticos son un camino. Así que NVIDIA lanzó Cosmos.

Este es un modelo base de mundo físico de IA de código abierto, que ya ha sido preentrenado con cantidades masivas de video, datos reales de conducción y robótica, y simulación 3D. Puede entender cómo funciona el mundo, puede conectar lenguaje, imágenes, 3D y acciones.

Huang表示 que Cosmos puede lograr varias habilidades de IA física, como generar contenido, hacer razonamiento, predecir trayectorias (incluso si solo se le da una imagen). Puede generar video realista basado en escenas 3D, generar movimiento que cumple las leyes físicas basado en datos de conducción, y también generar video panorámico a partir de simuladores, imágenes de múltiples cámaras o descripciones de texto. Incluso puede recrear escenas raras.

Huang también lanzó oficialmente Alpamayo. Alpamayo es una cadena de herramientas de código abierto para el campo de la conducción autónoma, y también el primer modelo de inferencia de visión-lenguaje-acción (VLA) de código abierto. A diferencia de antes, donde solo se abría el código, esta vez NVIDIA ha liberado todos los recursos de desarrollo completos, desde los datos hasta el despliegue.

El mayor avance de Alpamayo es que es un modelo de conducción autónoma "de razonamiento". Los sistemas tradicionales de conducción autónoma tienen una arquitectura en pipeline de "percepción-planificación-control": ven un semáforo en rojo y frenan, ven un peatón y reducen la velocidad, siguiendo reglas preestablecidas. Alpamayo introduce la capacidad de "razonamiento", entendiendo las relaciones causales en escenas complejas, prediciendo las intenciones de otros vehículos y peatones, e incluso pudiendo manejar decisiones que requieren pensamiento de múltiples pasos.

Por ejemplo, en una intersección, no solo reconoce que "hay un coche delante", sino que puede razonar "ese coche probablemente va a girar a la izquierda, así que debería esperar a que pase primero". Esta capacidad eleva la conducción autónoma de "conducir según reglas" a "pensar como un humano".

Huang anunció que el sistema NVIDIA DRIVE entra正式 en la fase de producción, siendo la primera aplicación el nuevo Mercedes-Benz CLA, planeado para circular en EE.UU. en 2026. Este coche estará equipado con un sistema de conducción autónoma de nivel L2++, adoptando una arquitectura híbrida de "modelo de IA de extremo a extremo + pipeline tradicional".

El campo de la robótica también tiene avances sustanciales.

Huang表示 que empresas líderes globales en robótica, incluyendo Boston Dynamics, Franka Robotics, LEM Surgical, LG Electronics, Neura Robotics y XRlabs, están desarrollando productos basados en la plataforma Isaac de NVIDIA y el modelo base GR00T, cubriendo múltiples áreas desde robots industriales, robots quirúrgicos hasta robots humanoides y robots de consumo.

En el escenario de la presentación, detrás de Huang había una multitud de robots de diferentes formas y usos, exhibidos集中 en un escenario escalonado: desde robots humanoides, robots de servicio bípedos y con ruedas, hasta brazos robóticos industriales, maquinaria de ingeniería, drones y equipos de asistencia quirúrgica, mostrando un "panorama del ecosistema robótico".

Desde las aplicaciones de IA física hasta la plataforma de computación RubinAI, pasando por la Plataforma de Almacenamiento de Memoria de Contexto de Inferencia y el "combo completo" de IA de código abierto.

Estas acciones mostradas por NVIDIA en el CES constituyen la narrativa de NVIDIA para la infraestructura de IA de la era del razonamiento. Como Huang enfatizó repetidamente, cuando la IA física necesita pensar de forma continua, funcionar a largo plazo y entrar realmente en el mundo real, el problema ya no es solo si hay suficiente potencia de cálculo, sino quién puede realmente construir todo el sistema.

En el CES 2026, NVIDIA ya ha dado una respuesta.

Preguntas relacionadas

Q¿Cuáles son los tres temas clave del discurso de Jensen Huang en el CES2026?

ALos tres temas clave son: 1) Infraestructura de computación, red y almacenamiento para IA de razonamiento a largo plazo (plataforma Rubin, NVLink 6, Spectrum-X, plataforma de almacenamiento de contexto); 2) Modelos de IA de razonamiento/agente (Alpamayo, Nemotron, Cosmos Reason); 3) Aplicaciones en IA física como conducción autónoma y robótica.

Q¿Qué avances clave presenta la GPU Rubin en comparación con Blackwell?

ALa GPU Rubin ofrece mejoras significativas: rendimiento de inferencia NVFP4 de 50 PFLOPS (5 veces más), rendimiento de entrenamiento de 35 PFLOPS (3.5 veces), ancho de banda HBM4 de 22 TB/s (2.8 veces) y ancho de banda NVLink de 3.6 TB/s por GPU (doble). Esto reduce la dependencia de múltiples GPUs y abarata la inferencia.

Q¿Cómo resuelve NVIDIA el cuello de botella de almacenamiento para IA de razonamiento prolongado?

ANVIDIA introduce la 'Plataforma de Almacenamiento de Memoria de Contexto de Inferencia' impulsada por BlueField-4, que crea una 'tercera capa' entre la memoria GPU y el almacenamiento tradicional. Utiliza BlueField-4, Spectrum-X Ethernet y software como DOCA para gestionar datos de contexto de forma rápida, eficiente y compartible, aumentando los tokens procesados por segundo hasta 5 veces.

Q¿Qué es el DGX SuperPOD basado en Rubin y qué capacidad ofrece?

AEl DGX SuperPOD es un clúster de computación AI a escala de centro de datos que conecta 8 bastidores Vera Rubin NVL72, totalizando 576 GPUs trabajando en conjunto. Incluye NVLink 6 para interconexión, Spectrum-X Ethernet, la plataforma de almacenamiento de contexto y software Mission Control para gestionar tareas de IA a gran escala.

Q¿Qué modelos y herramientas de código abierto anunció NVIDIA para IA física?

ANVIDIA amplió su ecosistema de modelos abiertos con Cosmos (para simulación física y video), Alpamayo (modelo de visión-lenguaje-acción para conducción autónoma) e Isaac GR00T (modelo base para robótica). También incluye conjuntos de datos, bibliotecas y flujos de entrenamiento completos para facilitar el desarrollo en IA física.

Lecturas Relacionadas

a16z: La 'amnesia' de la IA, ¿puede curarla el aprendizaje continuo?

En el artículo de a16z, se explora la "amnesia" de la IA, comparándola con el personaje de "Memento" que no puede formar nuevos recuerdos. Los modelos de lenguaje actuales, tras su entrenamiento, congelan el conocimiento en sus parámetros, sin poder actualizarse con nueva información. Para compensar, se usan contextos externos como historiales de chat o sistemas de recuperación, pero estos no internalizan realmente el conocimiento. El aprendizaje contextual (ICL) es útil, pero tiene limitaciones: no maneja bien problemas que requieren descubrimiento genuino, adaptación adversarial o conocimiento implícito. La solución propuesta es el "aprendizaje continuo", donde los modelos actualizan sus parámetros después del despliegue, comprimiendo nueva información en lugar de solo recuperarla. Se discuten tres enfoques: 1. **Contexto**: Mejora de ventanas de contexto y sistemas de recuperación. 2. **Módulos**: Uso de adaptadores o memorias externas para especializar modelos. 3. **Pesos**: Actualización directa de parámetros mediante técnicas como metaaprendizaje o auto-mejora. Aunque el aprendizaje contextual es efectivo y escalable, el artículo argumenta que la compresión en los parámetros es crucial para problemas complejos. Sin embargo, actualizar pesos conlleva riesgos como olvido catastrófico o problemas de seguridad. El futuro probablemente combine contextos, módulos y actualizaciones de pesos para lograr IA que aprenda de verdad, no solo recuerde.

marsbitHace 2 hora(s)

a16z: La 'amnesia' de la IA, ¿puede curarla el aprendizaje continuo?

marsbitHace 2 hora(s)

Trading

Spot
Futuros

Artículos destacados

Qué es $S$

Entendiendo SPERO: Una Visión General Completa Introducción a SPERO A medida que el panorama de la innovación sigue evolucionando, la aparición de tecnologías web3 y proyectos de criptomonedas juega un papel fundamental en la configuración del futuro digital. Un proyecto que ha llamado la atención en este campo dinámico es SPERO, denotado como SPERO,$$s$. Este artículo tiene como objetivo recopilar y presentar información detallada sobre SPERO, para ayudar a entusiastas e inversores a comprender sus fundamentos, objetivos e innovaciones dentro de los dominios web3 y cripto. ¿Qué es SPERO,$$s$? SPERO,$$s$ es un proyecto único dentro del espacio cripto que busca aprovechar los principios de descentralización y tecnología blockchain para crear un ecosistema que promueva la participación, la utilidad y la inclusión financiera. El proyecto está diseñado para facilitar interacciones entre pares de nuevas maneras, proporcionando a los usuarios soluciones y servicios financieros innovadores. En su esencia, SPERO,$$s$ tiene como objetivo empoderar a los individuos al proporcionar herramientas y plataformas que mejoren la experiencia del usuario en el espacio de las criptomonedas. Esto incluye habilitar métodos de transacción más flexibles, fomentar iniciativas impulsadas por la comunidad y crear caminos para oportunidades financieras a través de aplicaciones descentralizadas (dApps). La visión subyacente de SPERO,$$s$ gira en torno a la inclusividad, buscando cerrar brechas dentro de las finanzas tradicionales mientras aprovecha los beneficios de la tecnología blockchain. ¿Quién es el Creador de SPERO,$$s$? La identidad del creador de SPERO,$$s$ sigue siendo algo oscura, ya que hay recursos públicos limitados que proporcionan información de fondo detallada sobre su(s) fundador(es). Esta falta de transparencia puede derivarse del compromiso del proyecto con la descentralización, una ética que muchos proyectos web3 comparten, priorizando las contribuciones colectivas sobre el reconocimiento individual. Al centrar las discusiones en torno a la comunidad y sus objetivos colectivos, SPERO,$$s$ encarna la esencia del empoderamiento sin señalar a individuos específicos. Como tal, entender la ética y la misión de SPERO es más importante que identificar a un creador singular. ¿Quiénes son los Inversores de SPERO,$$s$? SPERO,$$s$ cuenta con el apoyo de una diversa gama de inversores que van desde capitalistas de riesgo hasta inversores ángeles dedicados a fomentar la innovación en el sector cripto. El enfoque de estos inversores generalmente se alinea con la misión de SPERO, priorizando proyectos que prometen avances tecnológicos sociales, inclusividad financiera y gobernanza descentralizada. Estas fundaciones de inversores suelen estar interesadas en proyectos que no solo ofrecen productos innovadores, sino que también contribuyen positivamente a la comunidad blockchain y sus ecosistemas. El respaldo de estos inversores refuerza a SPERO,$$s$ como un contendiente notable en el rápidamente evolutivo dominio de los proyectos cripto. ¿Cómo Funciona SPERO,$$s$? SPERO,$$s$ emplea un marco multifacético que lo distingue de los proyectos de criptomonedas convencionales. Aquí hay algunas de las características clave que subrayan su singularidad e innovación: Gobernanza Descentralizada: SPERO,$$s$ integra modelos de gobernanza descentralizada, empoderando a los usuarios para participar activamente en los procesos de toma de decisiones sobre el futuro del proyecto. Este enfoque fomenta un sentido de propiedad y responsabilidad entre los miembros de la comunidad. Utilidad del Token: SPERO,$$s$ utiliza su propio token de criptomoneda, diseñado para servir a diversas funciones dentro del ecosistema. Estos tokens permiten transacciones, recompensas y la facilitación de servicios ofrecidos en la plataforma, mejorando la participación y utilidad general. Arquitectura en Capas: La arquitectura técnica de SPERO,$$s$ soporta la modularidad y escalabilidad, permitiendo la integración fluida de características y aplicaciones adicionales a medida que el proyecto evoluciona. Esta adaptabilidad es fundamental para mantener la relevancia en el siempre cambiante paisaje cripto. Participación de la Comunidad: El proyecto enfatiza iniciativas impulsadas por la comunidad, empleando mecanismos que incentivan la colaboración y la retroalimentación. Al nutrir una comunidad sólida, SPERO,$$s$ puede abordar mejor las necesidades de los usuarios y adaptarse a las tendencias del mercado. Enfoque en la Inclusión: Al ofrecer tarifas de transacción bajas y interfaces amigables para el usuario, SPERO,$$s$ busca atraer a una base de usuarios diversa, incluyendo a individuos que anteriormente pueden no haber participado en el espacio cripto. Este compromiso con la inclusión se alinea con su misión general de empoderamiento a través de la accesibilidad. Cronología de SPERO,$$s$ Entender la historia de un proyecto proporciona información crucial sobre su trayectoria de desarrollo y hitos. A continuación, se presenta una cronología sugerida que mapea eventos significativos en la evolución de SPERO,$$s$: Fase de Conceptualización e Ideación: Las ideas iniciales que forman la base de SPERO,$$s$ fueron concebidas, alineándose estrechamente con los principios de descentralización y enfoque comunitario dentro de la industria blockchain. Lanzamiento del Whitepaper del Proyecto: Tras la fase conceptual, se publicó un whitepaper completo que detalla la visión, objetivos e infraestructura tecnológica de SPERO,$$s$ para generar interés y retroalimentación de la comunidad. Construcción de Comunidad y Primeras Interacciones: Se realizaron esfuerzos de divulgación activa para construir una comunidad de primeros adoptantes e inversores potenciales, facilitando discusiones en torno a los objetivos del proyecto y obteniendo apoyo. Evento de Generación de Tokens: SPERO,$$s$ llevó a cabo un evento de generación de tokens (TGE) para distribuir sus tokens nativos a los primeros seguidores y establecer liquidez inicial dentro del ecosistema. Lanzamiento de la dApp Inicial: La primera aplicación descentralizada (dApp) asociada con SPERO,$$s$ se puso en marcha, permitiendo a los usuarios interactuar con las funcionalidades centrales de la plataforma. Desarrollo Continuo y Alianzas: Actualizaciones y mejoras continuas en las ofertas del proyecto, incluyendo alianzas estratégicas con otros actores en el espacio blockchain, han moldeado a SPERO,$$s$ en un jugador competitivo y en evolución en el mercado cripto. Conclusión SPERO,$$s$ se erige como un testimonio del potencial de web3 y las criptomonedas para revolucionar los sistemas financieros y empoderar a los individuos. Con un compromiso con la gobernanza descentralizada, la participación comunitaria y funcionalidades diseñadas de manera innovadora, allana el camino hacia un paisaje financiero más inclusivo. Como con cualquier inversión en el rápidamente evolutivo espacio cripto, se anima a los potenciales inversores y usuarios a investigar a fondo y participar de manera reflexiva con los desarrollos en curso dentro de SPERO,$$s$. El proyecto muestra el espíritu innovador de la industria cripto, invitando a una exploración más profunda de sus innumerables posibilidades. Aunque el viaje de SPERO,$$s$ aún se está desarrollando, sus principios fundamentales pueden, de hecho, influir en el futuro de cómo interactuamos con la tecnología, las finanzas y entre nosotros en ecosistemas digitales interconectados.

74 Vistas totalesPublicado en 2024.12.17Actualizado en 2024.12.17

Qué es $S$

Qué es AGENT S

Agent S: El Futuro de la Interacción Autónoma en Web3 Introducción En el paisaje en constante evolución de Web3 y las criptomonedas, las innovaciones están redefiniendo continuamente cómo los individuos interactúan con las plataformas digitales. Uno de estos proyectos pioneros, Agent S, promete revolucionar la interacción humano-computadora a través de su marco agente abierto. Al allanar el camino para interacciones autónomas, Agent S tiene como objetivo simplificar tareas complejas, ofreciendo aplicaciones transformadoras en inteligencia artificial (IA). Esta exploración detallada se adentrará en las complejidades del proyecto, sus características únicas y las implicaciones para el dominio de las criptomonedas. ¿Qué es Agent S? Agent S se presenta como un marco agente abierto revolucionario, diseñado específicamente para abordar tres desafíos fundamentales en la automatización de tareas informáticas: Adquisición de Conocimiento Específico del Dominio: El marco aprende de manera inteligente a partir de diversas fuentes de conocimiento externas y experiencias internas. Este enfoque dual le permite construir un rico repositorio de conocimiento específico del dominio, mejorando su rendimiento en la ejecución de tareas. Planificación a Largo Plazo de Tareas: Agent S emplea planificación jerárquica aumentada por la experiencia, un enfoque estratégico que facilita la descomposición y ejecución eficiente de tareas intrincadas. Esta característica mejora significativamente su capacidad para gestionar múltiples subtareas de manera eficiente y efectiva. Manejo de Interfaces Dinámicas y No Uniformes: El proyecto introduce la Interfaz Agente-Computadora (ACI), una solución innovadora que mejora la interacción entre agentes y usuarios. Utilizando Modelos de Lenguaje Multimodal Grandes (MLLMs), Agent S puede navegar y manipular diversas interfaces gráficas de usuario sin problemas. A través de estas características pioneras, Agent S proporciona un marco robusto que aborda las complejidades involucradas en la automatización de la interacción humana con las máquinas, preparando el terreno para innumerables aplicaciones en IA y más allá. ¿Quién es el Creador de Agent S? Aunque el concepto de Agent S es fundamentalmente innovador, la información específica sobre su creador sigue siendo elusiva. El creador es actualmente desconocido, lo que resalta ya sea la etapa incipiente del proyecto o la elección estratégica de mantener a los miembros fundadores en el anonimato. Independientemente de la anonimidad, el enfoque sigue siendo las capacidades y el potencial del marco. ¿Quiénes son los Inversores de Agent S? Dado que Agent S es relativamente nuevo en el ecosistema criptográfico, la información detallada sobre sus inversores y patrocinadores financieros no está documentada explícitamente. La falta de información disponible públicamente sobre las bases de inversión u organizaciones que apoyan el proyecto plantea preguntas sobre su estructura de financiamiento y hoja de ruta de desarrollo. Comprender el respaldo es crucial para evaluar la sostenibilidad del proyecto y su posible impacto en el mercado. ¿Cómo Funciona Agent S? En el núcleo de Agent S se encuentra tecnología de vanguardia que le permite funcionar de manera efectiva en diversos entornos. Su modelo operativo se basa en varias características clave: Interacción Humano-Computadora: El marco ofrece planificación avanzada de IA, esforzándose por hacer que las interacciones con las computadoras sean más intuitivas. Al imitar el comportamiento humano en la ejecución de tareas, promete elevar las experiencias de los usuarios. Memoria Narrativa: Empleada para aprovechar experiencias de alto nivel, Agent S utiliza memoria narrativa para hacer un seguimiento de las historias de tareas, mejorando así sus procesos de toma de decisiones. Memoria Episódica: Esta característica proporciona a los usuarios orientación paso a paso, permitiendo que el marco ofrezca apoyo contextual a medida que se desarrollan las tareas. Soporte para OpenACI: Con la capacidad de funcionar localmente, Agent S permite a los usuarios mantener el control sobre sus interacciones y flujos de trabajo, alineándose con la ética descentralizada de Web3. Fácil Integración con APIs Externas: Su versatilidad y compatibilidad con diversas plataformas de IA aseguran que Agent S pueda integrarse sin problemas en ecosistemas tecnológicos existentes, convirtiéndolo en una opción atractiva para desarrolladores y organizaciones. Estas funcionalidades contribuyen colectivamente a la posición única de Agent S dentro del espacio cripto, ya que automatiza tareas complejas y de múltiples pasos con una intervención humana mínima. A medida que el proyecto evoluciona, sus aplicaciones potenciales en Web3 podrían redefinir cómo se desarrollan las interacciones digitales. Cronología de Agent S El desarrollo y los hitos de Agent S pueden encapsularse en una cronología que destaca sus eventos significativos: 27 de septiembre de 2024: Se lanzó el concepto de Agent S en un documento de investigación integral titulado “Un Marco Agente Abierto que Utiliza Computadoras como un Humano”, mostrando las bases del proyecto. 10 de octubre de 2024: El documento de investigación se hizo disponible públicamente en arXiv, ofreciendo una exploración en profundidad del marco y su evaluación de rendimiento basada en el benchmark OSWorld. 12 de octubre de 2024: Se publicó una presentación en video, proporcionando una visión visual de las capacidades y características de Agent S, involucrando aún más a posibles usuarios e inversores. Estos hitos en la cronología no solo ilustran el progreso de Agent S, sino que también indican su compromiso con la transparencia y el compromiso comunitario. Puntos Clave Sobre Agent S A medida que el marco Agent S continúa evolucionando, varios atributos clave destacan, subrayando su naturaleza innovadora y potencial: Marco Innovador: Diseñado para proporcionar un uso intuitivo de las computadoras similar a la interacción humana, Agent S aporta un enfoque novedoso a la automatización de tareas. Interacción Autónoma: La capacidad de interactuar de manera autónoma con las computadoras a través de GUI significa un avance hacia soluciones informáticas más inteligentes y eficientes. Automatización de Tareas Complejas: Con su metodología robusta, puede automatizar tareas complejas y de múltiples pasos, haciendo que los procesos sean más rápidos y menos propensos a errores. Mejora Continua: Los mecanismos de aprendizaje permiten a Agent S mejorar a partir de experiencias pasadas, mejorando continuamente su rendimiento y eficacia. Versatilidad: Su adaptabilidad en diferentes entornos operativos como OSWorld y WindowsAgentArena asegura que pueda servir a una amplia gama de aplicaciones. A medida que Agent S se posiciona en el paisaje de Web3 y criptomonedas, su potencial para mejorar las capacidades de interacción y automatizar procesos significa un avance significativo en las tecnologías de IA. A través de su marco innovador, Agent S ejemplifica el futuro de las interacciones digitales, prometiendo una experiencia más fluida y eficiente para los usuarios en diversas industrias. Conclusión Agent S representa un audaz avance en la unión de la IA y Web3, con la capacidad de redefinir cómo interactuamos con la tecnología. Aunque aún se encuentra en sus primeras etapas, las posibilidades para su aplicación son vastas y atractivas. A través de su marco integral que aborda desafíos críticos, Agent S tiene como objetivo llevar las interacciones autónomas al primer plano de la experiencia digital. A medida que nos adentramos más en los reinos de las criptomonedas y la descentralización, proyectos como Agent S sin duda desempeñarán un papel crucial en la configuración del futuro de la tecnología y la colaboración humano-computadora.

687 Vistas totalesPublicado en 2025.01.14Actualizado en 2025.01.14

Qué es AGENT S

Cómo comprar S

¡Bienvenido a HTX.com! Hemos hecho que comprar Sonic (S) sea simple y conveniente. Sigue nuestra guía paso a paso para iniciar tu viaje de criptos.Paso 1: crea tu cuenta HTXUtiliza tu correo electrónico o número de teléfono para registrarte y obtener una cuenta gratuita en HTX. Experimenta un proceso de registro sin complicaciones y desbloquea todas las funciones.Obtener mi cuentaPaso 2: ve a Comprar cripto y elige tu método de pagoTarjeta de crédito/débito: usa tu Visa o Mastercard para comprar Sonic (S) al instante.Saldo: utiliza fondos del saldo de tu cuenta HTX para tradear sin problemas.Terceros: hemos agregado métodos de pago populares como Google Pay y Apple Pay para mejorar la comodidad.P2P: tradear directamente con otros usuarios en HTX.Over-the-Counter (OTC): ofrecemos servicios personalizados y tipos de cambio competitivos para los traders.Paso 3: guarda tu Sonic (S)Después de comprar tu Sonic (S), guárdalo en tu cuenta HTX. Alternativamente, puedes enviarlo a otro lugar mediante transferencia blockchain o utilizarlo para tradear otras criptomonedas.Paso 4: tradear Sonic (S)Tradear fácilmente con Sonic (S) en HTX's mercado spot. Simplemente accede a tu cuenta, selecciona tu par de trading, ejecuta tus trades y monitorea en tiempo real. Ofrecemos una experiencia fácil de usar tanto para principiantes como para traders experimentados.

1.2k Vistas totalesPublicado en 2025.01.15Actualizado en 2025.03.21

Cómo comprar S

Discusiones

Bienvenido a la comunidad de HTX. Aquí puedes mantenerte informado sobre los últimos desarrollos de la plataforma y acceder a análisis profesionales del mercado. A continuación se presentan las opiniones de los usuarios sobre el precio de S (S).

活动图片