Huang Renxun annonce 8 nouveaux produits en 1,5 heure, NVIDIA mise pleinement sur l'IA de raisonnement et l'IA physique

marsbitPublié le 2026-01-06Dernière mise à jour le 2026-01-06

Résumé

Lors du CES 2026, Jensen Huang, PDG de NVIDIA, a présenté huit nouveautés majeures en 1h30, centrées sur l'infrastructure d'IA pour le raisonnement et l'IA physique. La plateforme Vera Rubin, cœur des annonces, intègre six puces conçues par NVIDIA (CPU Vera, GPU Rubin, commutateur NVLink 6, ConnectX-9 SuperNIC, BlueField-4 DPU et Spectrum-X CPO), offrant une puissance de calcul atteignant 3,6 EFLOPS par baie. Le GPU Rubin, doté d'un moteur Transformer, multiplie par 5 les performances en inférence par rapport à Blackwell. NVIDIA a également dévoilé Spectrum-X Ethernet CPO pour optimiser l'efficacité énergétique, une plateforme de stockage en mémoire pour le contexte d'inférence (réduisant les calculs redondants), et le DGX SuperPOD basé sur Vera Rubin, divisant par 10 le coût par token pour les grands modèles MoE. Côté logiciel, NVIDIA étendu sa gamme de modèles open source, notamment Nemotron pour les agents RAG et la sécurité, et Alpamayo pour l'IA physique. Le modèle Alpha-Mayo, open source, permet aux véhicules autonomes de "raisonner" pour une conduite sécurisée, et équipe déjà la nouvelle Mercedes-Benz CLA. Des partenariats avec Siemens, Boston Dynamics et d'autres renforcent l'écosystème de l'IA physique et robotique. Les infrastructures Rubin seront disponibles via des partenaires cloud dès la seconde moitié de 2026.

Auteur | ZeR0 骏达, 智东西

Éditeur | 漠影

LAS VEGAS, 5 janvier (智东西) — À l'instant, Jensen Huang, fondateur et PDG de NVIDIA, a prononcé le premier discours d'ouverture de 2026 lors du Consumer Electronics Show (CES) 2026. Vêtu de son habituelle veste en cuir, Huang Renxun a annoncé 8 lancements majeurs en 1,5 heure, couvrant des puces aux baies de serveurs en passant par la conception réseau, détaillant toute la nouvelle génération de plateformes.

Dans le domaine de l'infrastructure d'IA et de calcul accéléré, NVIDIA a présenté le supercalculateur d'IA NVIDIA Vera Rubin POD, le dispositif à optique co-emballée Ethernet NVIDIA Spectrum-X, la plateforme de stockage mémoire contextuelle pour l'inférence NVIDIA, et le NVIDIA DGX SuperPOD basé sur DGX Vera Rubin NVL72.

Le NVIDIA Vera Rubin POD utilise 6 puces conçues sur mesure par NVIDIA, couvrant le CPU, le GPU, la montée en charge (Scale-up), l'extension (Scale-out), le stockage et la capacité de traitement. Toutes les parties sont conçues en synergie pour répondre aux besoins des modèles avancés et réduire les coûts de calcul.

Le CPU Vera utilise une architecture de cœur personnalisée Olympus, le GPU Rubin introduit un moteur Transformer offrant des performances d'inférence NBFP4 allant jusqu'à 50 PFLOPS, une bande passante NVLink par GPU allant jusqu'à 3,6 To/s, et prend en charge la troisième génération de calcul confidentiel universel (premier TEE au niveau du baie), réalisant un environnement d'exécution de confiance complet entre les domaines CPU et GPU.

Ces puces ont déjà fait l'objet de retours de silicium (tape-out), NVIDIA a validé l'ensemble du système NVIDIA Vera Rubin NVL72, et les partenaires ont commencé à exécuter leurs modèles et algorithmes d'IA intégrés en interne. L'ensemble de l'écosystème se prépare au déploiement de Vera Rubin.

Parmi les autres annonces, le dispositif à optique co-emballée Ethernet NVIDIA Spectrum-X optimise considérablement l'efficacité énergétique et le temps de fonctionnement des applications ; la plateforme de stockage mémoire contextuelle pour l'inférence NVIDIA redéfinit la pile de stockage pour réduire les calculs redondants et améliorer l'efficacité de l'inférence ; le NVIDIA DGX SuperPOD basé sur DGX Vera Rubin NVL72 réduit le coût par token des grands modèles MoE d'un facteur 10.

Concernant les modèles ouverts, NVIDIA a annoncé l'extension de sa gamme de modèles open source, avec de nouveaux modèles, ensembles de données et bibliothèques, y compris l'ajout d'un modèle Agentic RAG, d'un modèle de sécurité et d'un modèle vocal à la série de modèles open source NVIDIA Nemotron, ainsi que le lancement de nouveaux modèles ouverts pour tous les types de robots. Cependant, Huang Renxun n'a pas détaillé ces points dans son discours.

Dans le domaine de l'IA physique, le moment ChatGPT de l'IA physique est arrivé. La pile technologique complète de NVIDIA permet à l'écosystème mondial de transformer les industries grâce à la robotique pilotée par l'IA ; la vaste bibliothèque d'outils d'IA de NVIDIA, y compris la nouvelle combinaison de modèles open source Alpamayo, permet à l'industrie mondiale des transports d'atteindre rapidement une conduite de niveau L4 sécurisée ; la plateforme de conduite autonome NVIDIA DRIVE est désormais en production, équipant toutes les nouvelles Mercedes-Benz CLA pour une conduite définie par l'IA de niveau L2++.

01. Nouveau supercalculateur d'IA : 6 puces conçues sur mesure, une puissance de calcul de 3,6 EFLOPS par baie

Jensen Huang estime que l'industrie informatique connaît une refonte complète tous les 10 à 15 ans, mais cette fois, deux transformations de plateforme se produisent simultanément : du CPU au GPU, de la « programmation logicielle » à la « formation logicielle ». Le calcul accéléré et l'IA remodèlent toute la pile informatique. L'industrie du calcul, d'une valeur de 10 000 milliards de dollars au cours de la dernière décennie, subit une modernisation.

Simultanément, la demande en puissance de calcul augmente considérablement. La taille des modèles augmente d'un facteur 10 chaque année, le nombre de tokens utilisés par les modèles pour « penser » augmente d'un facteur 5 chaque année, tandis que le coût par token diminue d'un facteur 10 chaque année.

Pour répondre à cette demande, NVIDIA a décidé de publier de nouveaux matériels de calcul chaque année. Huang Renxun a révélé que Vera Rubin est déjà entièrement en production.

Le nouveau supercalculateur d'IA NVIDIA Vera Rubin POD utilise 6 puces conçues sur mesure : le CPU Vera, le GPU Rubin, le commutateur NVLink 6, la carte réseau intelligente ConnectX-9 (CX9), le DPU BlueField-4, et le CPO Spectrum-X 102.4T.

CPU Vera : Conçu pour le mouvement des données et le traitement des agents, il dispose de 88 cœurs Olympus personnalisés NVIDIA, 176 threads de multithreading spatial NVIDIA, 1,8 To/s de NVLink-C2C prenant en charge une mémoire unifiée CPU:GPU, une mémoire système de 1,5 To (3 fois celle du CPU Grace), une bande passante mémoire LPDDR5X SOCAMM de 1,2 To/s, et prend en charge le calcul confidentiel au niveau du baie, doublant les performances de traitement des données.

GPU Rubin : Introduit un moteur Transformer, avec des performances d'inférence NVFP4 atteignant 50 PFLOPS, soit 5 fois celles du GPU Blackwell, rétrocompatible, améliorant les performances au niveau BF16/FP4 tout en maintenant la précision de l'inférence ; les performances d'entraînement NVFP4 atteignent 35 PFLOPS, soit 3,5 fois celles de Blackwell.

Rubin est également la première plateforme à prendre en charge HBM4, avec une bande passante HBM4 de 22 To/s, 2,8 fois celle de la génération précédente, capable de fournir les performances nécessaires pour les modèles MoE exigeants et les charges de travail d'IA.

Commutateur NVLink 6 : Le débit par lane augmente à 400 Gbps, utilisant la technologie SerDes pour une transmission de signal à haute vitesse ; chaque GPU peut atteindre une bande passante de communication interconnectée complète de 3,6 To/s, soit le double de la génération précédente, avec une bande passante totale de 28,8 To/s, des performances de calcul in-network en précision FP8 atteignant 14,4 TFLOPS, et prend en charge le refroidissement liquide à 100%.

NVIDIA ConnectX-9 SuperNIC : Fournit 1,6 Tb/s de bande passante par GPU, optimisé pour l'IA à grande échelle, avec un chemin de données entièrement logiciel, programmable et accéléré.

NVIDIA BlueField-4 : DPU 800 Gbps, utilisé pour les cartes réseau intelligentes et les processeurs de stockage, équipé d'un CPU Grace 64 cœurs, combiné avec la ConnectX-9 SuperNIC, pour décharger les tâches de calcul liées au réseau et au stockage, tout en améliorant les capacités de sécurité réseau. Les performances de calcul sont 6 fois supérieures à la génération précédente, la bande passante mémoire est multipliée par 3, et la vitesse d'accès du GPU au stockage de données est doublée.

NVIDIA Vera Rubin NVL72 : Au niveau du système, intègre tous ces composants en un système de traitement à baie unique, contenant 2 billions de transistors, avec des performances d'inférence NVFP4 atteignant 3,6 EFLOPS et des performances d'entraînement NVFP4 atteignant 2,5 EFLOPS.

Ce système a une capacité mémoire LPDDR5X de 54 To, 2,5 fois celle de la génération précédente ; une mémoire HBM4 totale de 20,7 To, 1,5 fois celle de la génération précédente ; une bande passante HBM4 de 1,6 Po/s, 2,8 fois celle de la génération précédente ; une bande passante d'extension verticale totale atteignant 260 To/s, dépassant l'échelle de la bande passante Internet mondiale totale.

Ce système est basé sur la conception de baie MGX de troisième génération, le plateau de calcul utilise une conception modulaire, sans hôte, sans câble, sans ventilateur, rendant l'assemblage et la maintenance 18 fois plus rapides que le GB200. Un travail d'assemblage qui prenait 2 heures ne prend maintenant qu'environ 5 minutes, et alors que le système utilisait environ 80% de refroidissement liquide, il utilise maintenant 100% de refroidissement liquide. Un seul système pèse à lui seul 2 tonnes, et avec le liquide de refroidissement, il peut atteindre 2,5 tonnes.

Le plateau de commutateur NVLink permet une maintenance avec zéro temps d'arrêt et une tolérance aux pannes, le baie pouvant fonctionner même lorsqu'un plateau est retiré ou partiellement déployé. Le moteur RAS de deuxième génération permet des contrôles de santé avec zéro temps d'arrêt.

Ces caractéristiques améliorent le temps de fonctionnement et le débit du système, réduisant davantage les coûts d'entraînement et d'inférence, répondant aux exigences de haute fiabilité et de haute maintenabilité des centres de données.

Plus de 80 partenaires MGX sont déjà prêts à supporter le déploiement de Rubin NVL72 dans les réseaux hyperscale.

02. Trois nouveaux produits révolutionnent l'efficacité de l'inférence IA : Nouveau dispositif CPO, nouvelle couche de stockage contextuel, nouveau DGX SuperPOD

Simultanément, NVIDIA a lancé 3 nouveaux produits importants : le dispositif à optique co-emballée Ethernet NVIDIA Spectrum-X, la plateforme de stockage mémoire contextuelle pour l'inférence NVIDIA, et le NVIDIA DGX SuperPOD basé sur DGX Vera Rubin NVL72.

1. Dispositif à optique co-emballée Ethernet NVIDIA Spectrum-X

Le dispositif à optique co-emballée Ethernet NVIDIA Spectrum-X est basé sur l'architecture Spectrum-X, utilisant une conception à 2 puces, avec des SerDes 200 Gbps, chaque ASIC pouvant fournir une bande passante de 102,4 Tb/s.

Cette plateforme de commutation comprend un système haute densité à 512 ports et un système compact à 128 ports, chaque port ayant un débit de 800 Gb/s.

Le système de commutation CPO (Co-Packaged Optics) permet une amélioration de l'efficacité énergétique par 5, une fiabilité multipliée par 10, et un temps de fonctionnement des applications multiplié par 5.

Cela signifie que plus de tokens peuvent être traités chaque jour, réduisant ainsi le coût total de possession (TCO) du centre de données.

2. Plateforme de stockage mémoire contextuelle pour l'inférence NVIDIA

La plateforme de stockage mémoire contextuelle pour l'inférence NVIDIA est une infrastructure de stockage IA native au niveau POD, utilisée pour stocker le Cache KV, basée sur BlueField-4 et l'accélération Ethernet Spectrum-X, étroitement couplée avec NVIDIA Dynamo et NVLink, réalisant une planification contextuelle collaborative entre la mémoire, le stockage et le réseau.

Cette plateforme traite le contexte comme un type de données de premier ordre, permettant des performances d'inférence multipliées par 5 et une efficacité énergétique 5 fois meilleure.

Ceci est crucial pour améliorer les applications à contexte long comme les conversations multi-tours, le RAG, l'inférence multi-étapes Agentic, ces charges de travail dépendant fortement de la capacité du contexte à être stocké, réutilisé et partagé efficacement dans l'ensemble du système.

L'IA évolue des chatbots vers l'IA Agentic (agents intelligents), qui raisonnent, appellent des outils et maintiennent un état à long terme. La fenêtre contextuelle s'est étendue à des millions de tokens. Ce contexte est sauvegardé dans le Cache KV, et le recalculer à chaque étape gaspillerait du temps GPU et entraînerait une latence énorme, d'où la nécessité de le stocker.

Mais la mémoire GPU, bien que rapide, est rare, et le stockage réseau traditionnel est trop inefficace pour le contexte à court terme. Le goulot d'étranglement de l'inférence IA passe du calcul au stockage contextuel. Ainsi, une nouvelle couche mémoire, située entre le GPU et le stockage, optimisée pour l'inférence, est nécessaire.

Cette couche n'est plus une rustine ajoutée après coup, mais doit être conçue en synergie avec le stockage réseau pour déplacer les données contextuelles avec une surcharge minimale.

En tant que nouveau niveau de stockage, la plateforme de stockage mémoire contextuelle pour l'inférence NVIDIA n'existe pas directement dans le système hôte, mais est connectée via BlueField-4 en dehors des dispositifs de calcul. Son avantage clé est de pouvoir étendre plus efficacement la taille du pool de stockage, évitant ainsi le recalcul redondant du Cache KV.

NVIDIA collabore étroitement avec des partenaires de stockage pour intégrer la plateforme de stockage mémoire contextuelle pour l'inférence NVIDIA dans la plateforme Rubin, permettant aux clients de la déployer comme partie intégrante d'une infrastructure IA complète.

3. NVIDIA DGX SuperPOD construit sur Vera Rubin

Au niveau système, le NVIDIA DGX SuperPOD sert de plan directeur pour les déploiements d'usines IA à grande échelle, utilisant 8 systèmes DGX Vera Rubin NVL72, avec le réseau d'extension verticale NVLink 6, le réseau d'extension horizontale Ethernet Spectrum-X, intégrant la plateforme de stockage mémoire contextuelle pour l'inférence NVIDIA, et validé par l'ingénierie.

L'ensemble du système est géré par le logiciel NVIDIA Mission Control, pour une efficacité maximale. Les clients peuvent le déployer comme une plateforme clé en main, accomplissant les tâches d'entraînement et d'inférence avec moins de GPU.

Grâce à la conception synergique extrême au niveau des 6 puces, des plateaux, des baies, des Pod, des centres de données et des logiciels, la plateforme Rubin a réalisé une baisse significative des coûts d'entraînement et d'inférence. Par rapport à la génération précédente Blackwell, pour entraîner un modèle MoE de même taille, seulement 1/4 du nombre de GPU est nécessaire ; à latence égale, le coût par token des grands modèles MoE est réduit d'un facteur 10.

Le NVIDIA DGX SuperPOD utilisant le système DGX Rubin NVL8 a également été annoncé.

Avec l'architecture Vera Rubin, NVIDIA, avec ses partenaires et clients, construit les systèmes d'IA les plus grands, les plus avancés et au coût le plus bas au monde, accélérant l'adoption grand public de l'IA.

L'infrastructure Rubin sera disponible au second semestre de cette année via les CSP et les intégrateurs de systèmes, Microsoft étant parmi les premiers déployeurs.

03. L'univers des modèles ouverts s'étend : Nouveaux modèles, données, contributeur majeur à l'écosystème open source

Au niveau des logiciels et des modèles, NVIDIA continue d'intensifier ses investissements dans l'open source.

Les principales plateformes de développement comme OpenRouter montrent qu'au cours de l'année écoulée, l'utilisation des modèles d'IA a été multipliée par 20, environ 1/4 des tokens provenant de modèles open source.

En 2025, NVIDIA a été le plus grand contributeur de modèles open source, de données et de recettes sur Hugging Face, publiant 650 modèles open source et 250 ensembles de données open source.

Les modèles open source de NVIDIA se classent en tête de nombreux classements. Les développeurs peuvent non seulement utiliser ces modèles open source, mais aussi apprendre d'eux, effectuer un apprentissage continu, étendre les ensembles de données et utiliser des outils open source et des techniques documentées pour construire des systèmes d'IA.

Inspiré par Perplexity, Huang Renxun observe que les Agents devraient être multi-modèles, multi-cloud et hybrides, ce qui est également l'architecture fondamentale des systèmes d'IA Agentic, adoptée par presque toutes les startups.

Grâce aux modèles et outils open source fournis par NVIDIA, les développeurs peuvent maintenant personnaliser les systèmes d'IA et utiliser les capacités de modèles les plus avancées. NVIDIA a intégré ce cadre sous forme de « plans directeurs » (blueprints) dans des plateformes SaaS. Les utilisateurs peuvent ainsi déployer rapidement à l'aide de ces plans directeurs.

Dans la démonstration en direct, ce système peut automatiquement déterminer, en fonction de l'intention de l'utilisateur, si une tâche doit être traitée par un modèle privé local ou un modèle de pointe cloud, peut également appeler des outils externes (comme une API email, une interface de contrôle robotique, un service calendrier, etc.), et réaliser une fusion multimodale, traitant de manière unifiée des informations textuelles, vocales, visuelles, des signaux de capteurs robotiques, etc.

Ces capacités complexes étaient absolument inimaginables par le passé, mais sont maintenant devenues banales. Des capacités similaires sont disponibles sur des plateformes d'entreprise comme ServiceNow, Snowflake, etc.

04. Modèle open source Alpha-Mayo, pour faire "penser" les voitures autonomes

NVIDIA croit que l'IA physique et la robotique finiront par devenir le plus grand segment de l'électronique grand public au monde. Tout ce qui peut bouger finira par être entièrement autonome, piloté par l'IA physique.

L'IA a traversé les phases de l'IA perceptive, de l'IA générative, de l'IA Agentic, et entre maintenant dans l'ère de l'IA physique, où l'intelligence entre dans le monde réel. Ces modèles peuvent comprendre les lois physiques et générer des actions directement à partir de la perception du monde physique.

Mais pour atteindre cet objectif, l'IA physique doit apprendre le bon sens du monde — la permanence de l'objet, la gravité, la friction. L'acquisition de ces capacités dépendra de trois ordinateurs : l'ordinateur d'entraînement (DGX) pour créer les modèles d'IA, l'ordinateur d'inférence (puce embarquée robotique/voiture) pour l'exécution en temps réel, et l'ordinateur de simulation (Omniverse) pour générer des données synthétiques et valider la logique physique.

Et le modèle central est le modèle fondamental du monde Cosmos, qui aligne le langage, l'image, la 3D et les lois physiques, soutenant la chaîne complète de génération de données d'entraînement à partir de la simulation.

L'IA physique apparaîtra dans trois types d'entités : les bâtiments (comme les usines, les entrepôts), les robots, les voitures autonomes.

Huang Renxun estime que la conduite autonome sera le premier cas d'utilisation à grande échelle de l'IA physique. De tels systèmes doivent comprendre le monde réel, prendre des décisions et exécuter des actions, avec des exigences extrêmement élevées en matière de sécurité, de simulation et de données.

Pour cela, NVIDIA lance Alpha-Mayo, un système complet composé de modèles open source, d'outils de simulation et d'ensembles de données d'IA physique, pour accélérer le développement d'une IA physique sûre et basée sur le raisonnement.

Sa combinaison de produits fournit les modules de base aux constructeurs automobiles mondiaux, fournisseurs, startups et chercheurs pour construire des systèmes de conduite autonome de niveau L4.

Alpha-Mayo est le premier modèle qui fait véritablement "penser" une voiture autonome, et ce modèle est open source. Il décompose les problèmes en étapes, raisonne sur toutes les possibilités et choisit le chemin le plus sûr.

Ce modèle de tâche-action raisonné permet au système de conduite autonome de résoudre des scénarios complexes de bord qu'il n'a jamais rencontrés auparavant, comme un feu de circulation en panne à une intersection très fréquentée.

Alpha-Mayo possède 10 milliards de paramètres, une taille suffisante pour traiter les tâches de conduite autonome, tout en étant suffisamment léger pour fonctionner sur les stations de travail conçues pour les chercheurs en conduite autonome.

Il peut recevoir des entrées texte, des caméras à 360°, l'état historique du véhicule et la navigation, et produire une trajectoire de conduite et un processus de raisonnement, permettant aux passagers de comprendre pourquoi le véhicule a pris une certaine action.

Dans la bande-annonce diffusée en direct, pilotée par Alpha-Mayo, la voiture autonome peut effectuer des manœuvres comme éviter un piéton, anticiper un véhicule tournant à gauche et changer de voie pour l'éviter, sans intervention.

Huang Renxun a déclaré que la Mercedes-Benz CLA équipée d'Alpha-Mayo est déjà en production et vient d'être classée par le NCAP comme la voiture la plus sûre au monde. Chaque ligne de code, puce et système est certifiée pour la sécurité. Le système sera lancé sur le marché américain et proposera des capacités de conduite encore plus avancées plus tard cette année, incluant la conduite mains libres sur autoroute et la conduite autonome de bout en bout en environnement urbain.

NVIDIA a également publié une partie des ensembles de données utilisés pour entraîner Alpha-Mayo, et le framework de simulation d'évaluation de modèles d'inférence open source Alpha-Sim. Les développeurs peuvent fine-tuner Alpha-Mayo avec leurs propres données, ou utiliser Cosmos pour générer des données synthétiques, et entraîner et tester des applications de conduite autonome sur une combinaison de données réelles et synthétiques. De plus, NVIDIA a annoncé que la plateforme NVIDIA DRIVE est maintenant en production.

NVIDIA a annoncé que des leaders mondiaux de la robotique comme Boston Dynamics, Franka Robotics, Surgical (robot chirurgical), LG Electronics, NEURA, XRLabs, et 智元机器人 (Agibot) construisent tous sur NVIDIA Isaac et GR00T.

Huang Renxun a également officialisé la nouvelle collaboration avec Siemens. Siemens intègre CUDA-X de NVIDIA, les modèles d'IA et Omniverse dans sa suite d'outils et de plateformes EDA, CAE et de jumeaux numériques. L'IA physique sera largement utilisée dans le flux complet, de la conception et la simulation à la production manufacturière et aux opérations.

05. Conclusion : Embrasser l'open source d'une main, rendre le système matériel indispensable de l'autre

Alors que le centre de gravité de l'infrastructure IA passe de l'entraînement à l'inférence à grande échelle, la concurrence des plateformes a évolué de la puissance de calcul ponctuelle à l'ingénierie système couvrant les puces, les baies, le réseau et les logiciels, l'objectif étant de fournir le plus grand débit d'inférence au TCO le plus bas. L'IA entre dans une nouvelle phase de "fonctionnement en usine".

NVIDIA accorde une grande importance à la conception au niveau système. Rubin améliore simultanément les performances et l'économie à la fois pour l'entraînement et l'inférence, et peut servir de remplacement plug-and-play pour Blackwell, permettant une transition transparente depuis Blackwell.

En termes de positionnement de plateforme, NVIDIA considère toujours l'entraînement comme crucial, car seule une formation rapide des modèles les plus avancés profite réellement à la plateforme d'inférence, d'où l'introduction de l'entraînement NVFP4 dans le GPU Rubin, améliorant encore les performances et réduisant le TCO.

Simultanément, ce géant du calcul IA continue de renforcer considérablement les capacités de communication réseau sur les architectures d'extension verticale et horizontale, et considère le contexte comme un goulot d'étranglement clé, réalisant une conception collaborative du stockage, du réseau et du calcul.

NVIDIA, tout en adoptant massivement l'open source, rend le matériel, l'interconnexion et la conception système de plus en plus "indispensables". Cette boucle stratégique consistant à élargir continuellement la demande, à stimuler la consommation de tokens, à pousser la mise à l'échelle de l'inférence et à fournir une infrastructure rentable, construit pour NVIDIA une barrière défensive de plus en plus impénétrable.

Questions liées

QQuels sont les six puces sur mesure développées par NVIDIA pour le supercalculateur AI NVIDIA Vera Rubin POD ?

ALes six puces sur mesure sont : Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 (CX9) SuperNIC, BlueField-4 DPU et Spectrum-X 102.4T CPO.

QQuelle est l'annonce majeure de NVIDIA concernant l'IA physique (Physical AI) et quel modèle a été ouvert en source ?

ANVIDIA a annoncé que le moment 'ChatGPT' de l'IA physique est arrivé et a ouvert en source le modèle Alpha-Mayo, conçu pour permettre aux voitures autonomes de 'penser' et de raisonner pour une conduite plus sûre.

QQuels sont les trois avantages clés du nouvel échangeur Ethernet à optique coplacée (CPO) NVIDIA Spectrum-X ?

ALes trois avantages clés sont : une efficacité énergétique multipliée par 5, une fiabilité multipliée par 10 et un temps de fonctionnement des applications (uptime) multiplié par 5.

QQuel est l'objectif principal de la nouvelle plateforme de stockage mémoire contextuelle pour l'inférence (NVIDIA Inference Context Memory Storage Platform) ?

ASon objectif principal est de stocker efficacement le KV Cache pour éviter de recalculer les contextes à chaque étape, améliorant ainsi les performances d'inférence d'un facteur 5 et l'efficacité énergétique d'un facteur 5 pour les applications à contexte long comme les conversations multi-tours et les agents IA.

QQuel partenariat important NVIDIA a-t-il annoncé dans le domaine de la conception et de la simulation industrielle ?

ANVIDIA a annoncé un partenariat avec Siemens, qui intègre CUDA-X, les modèles d'IA et Omniverse de NVIDIA dans sa suite d'outils et de plateformes de CAO, EDA et jumeaux numériques.

Lectures associées

Trading

Spot
Futures

Articles tendance

Qu'est ce que GROK AI

Grok AI : Révolutionner la technologie conversationnelle à l'ère du Web3 Introduction Dans le paysage en évolution rapide de l'intelligence artificielle, Grok AI se distingue comme un projet remarquable qui fait le lien entre les domaines de la technologie avancée et de l'interaction utilisateur. Développé par xAI, une entreprise dirigée par l'entrepreneur renommé Elon Musk, Grok AI cherche à redéfinir notre engagement avec l'intelligence artificielle. Alors que le mouvement Web3 continue de prospérer, Grok AI vise à tirer parti de la puissance de l'IA conversationnelle pour répondre à des requêtes complexes, offrant aux utilisateurs une expérience à la fois informative et divertissante. Qu'est-ce que Grok AI ? Grok AI est un chatbot IA conversationnel sophistiqué conçu pour interagir dynamiquement avec les utilisateurs. Contrairement à de nombreux systèmes d'IA traditionnels, Grok AI embrasse une gamme plus large de questions, y compris celles généralement jugées inappropriées ou en dehors des réponses standard. Les objectifs principaux du projet incluent : Raisonnement fiable : Grok AI met l'accent sur le raisonnement de bon sens pour fournir des réponses logiques basées sur une compréhension contextuelle. Surveillance évolutive : L'intégration de l'assistance par outils garantit que les interactions des utilisateurs sont à la fois surveillées et optimisées pour la qualité. Vérification formelle : La sécurité est primordiale ; Grok AI intègre des méthodes de vérification formelle pour améliorer la fiabilité de ses résultats. Compréhension à long terme : Le modèle IA excelle dans la rétention et le rappel d'une vaste histoire de conversation, facilitant des discussions significatives et conscientes du contexte. Robustesse face aux adversaires : En se concentrant sur l'amélioration de ses défenses contre les entrées manipulées ou malveillantes, Grok AI vise à maintenir l'intégrité des interactions des utilisateurs. En essence, Grok AI n'est pas seulement un dispositif de récupération d'informations ; c'est un partenaire conversationnel immersif qui encourage un dialogue dynamique. Créateur de Grok AI Le cerveau derrière Grok AI n'est autre qu'Elon Musk, une personne synonyme d'innovation dans divers domaines, y compris l'automobile, le voyage spatial et la technologie. Sous l'égide de xAI, une entreprise axée sur l'avancement de la technologie IA de manière bénéfique, la vision de Musk vise à remodeler la compréhension des interactions avec l'IA. Le leadership et l'éthique fondatrice sont profondément influencés par l'engagement de Musk à repousser les limites technologiques. Investisseurs de Grok AI Bien que les détails spécifiques concernant les investisseurs soutenant Grok AI restent limités, il est publiquement reconnu que xAI, l'incubateur du projet, est fondé et soutenu principalement par Elon Musk lui-même. Les précédentes entreprises et participations de Musk fournissent un soutien solide, renforçant encore la crédibilité et le potentiel de croissance de Grok AI. Cependant, à l'heure actuelle, les informations concernant d'autres fondations d'investissement ou organisations soutenant Grok AI ne sont pas facilement accessibles, marquant un domaine à explorer potentiellement à l'avenir. Comment fonctionne Grok AI ? Les mécanismes opérationnels de Grok AI sont aussi innovants que son cadre conceptuel. Le projet intègre plusieurs technologies de pointe qui facilitent ses fonctionnalités uniques : Infrastructure robuste : Grok AI est construit en utilisant Kubernetes pour l'orchestration de conteneurs, Rust pour la performance et la sécurité, et JAX pour le calcul numérique haute performance. Ce trio garantit que le chatbot fonctionne efficacement, évolue efficacement et sert les utilisateurs rapidement. Accès aux connaissances en temps réel : L'une des caractéristiques distinctives de Grok AI est sa capacité à puiser dans des données en temps réel via la plateforme X—anciennement connue sous le nom de Twitter. Cette capacité permet à l'IA d'accéder aux dernières informations, lui permettant de fournir des réponses et des recommandations opportunes que d'autres modèles d'IA pourraient manquer. Deux modes d'interaction : Grok AI offre aux utilisateurs un choix entre le « Mode Amusant » et le « Mode Régulier ». Le Mode Amusant permet un style d'interaction plus ludique et humoristique, tandis que le Mode Régulier se concentre sur la fourniture de réponses précises et exactes. Cette polyvalence garantit une expérience sur mesure qui répond à diverses préférences des utilisateurs. En essence, Grok AI marie performance et engagement, créant une expérience à la fois enrichissante et divertissante. Chronologie de Grok AI Le parcours de Grok AI est marqué par des jalons clés qui reflètent ses étapes de développement et de déploiement : Développement initial : La phase fondamentale de Grok AI a eu lieu sur une période d'environ deux mois, au cours de laquelle l'entraînement initial et le réglage du modèle ont été réalisés. Lancement de la version bêta de Grok-2 : Dans une avancée significative, la bêta de Grok-2 a été annoncée. Ce lancement a introduit deux versions du chatbot—Grok-2 et Grok-2 mini—chacune équipée des capacités de discussion, de codage et de raisonnement. Accès public : Après son développement bêta, Grok AI est devenu accessible aux utilisateurs de la plateforme X. Ceux ayant des comptes vérifiés par un numéro de téléphone et actifs depuis au moins sept jours peuvent accéder à une version limitée, rendant la technologie disponible pour un public plus large. Cette chronologie encapsule la croissance systématique de Grok AI depuis sa création jusqu'à son engagement public, soulignant son engagement envers l'amélioration continue et l'interaction utilisateur. Caractéristiques clés de Grok AI Grok AI englobe plusieurs caractéristiques clés qui contribuent à son identité innovante : Intégration des connaissances en temps réel : L'accès à des informations actuelles et pertinentes différencie Grok AI de nombreux modèles statiques, permettant une expérience utilisateur engageante et précise. Styles d'interaction polyvalents : En offrant des modes d'interaction distincts, Grok AI répond à des préférences variées des utilisateurs, invitant à la créativité et à la personnalisation dans la conversation avec l'IA. Infrastructure technologique avancée : L'utilisation de Kubernetes, Rust et JAX fournit au projet un cadre solide pour garantir fiabilité et performance optimale. Considération du discours éthique : L'inclusion d'une fonction de génération d'images met en avant l'esprit innovant du projet. Cependant, elle soulève également des considérations éthiques concernant le droit d'auteur et la représentation respectueuse de figures reconnaissables—une discussion en cours au sein de la communauté IA. Conclusion En tant qu'entité pionnière dans le domaine de l'IA conversationnelle, Grok AI encapsule le potentiel d'expériences utilisateur transformantes à l'ère numérique. Développé par xAI et guidé par l'approche visionnaire d'Elon Musk, Grok AI intègre des connaissances en temps réel avec des capacités d'interaction avancées. Il s'efforce de repousser les limites de ce que l'intelligence artificielle peut accomplir tout en maintenant un accent sur les considérations éthiques et la sécurité des utilisateurs. Grok AI incarne non seulement l'avancement technologique mais aussi un nouveau paradigme de conversation dans le paysage Web3, promettant d'engager les utilisateurs avec à la fois une connaissance experte et une interaction ludique. Alors que le projet continue d'évoluer, il se dresse comme un témoignage de ce que l'intersection de la technologie, de la créativité et de l'interaction humaine peut accomplir.

445 vues totalesPublié le 2024.12.26Mis à jour le 2024.12.26

Qu'est ce que GROK AI

Qu'est ce que ERC AI

Euruka Tech : Un aperçu de $erc ai et de ses ambitions dans le Web3 Introduction Dans le paysage en évolution rapide de la technologie blockchain et des applications décentralisées, de nouveaux projets émergent fréquemment, chacun avec des objectifs et des méthodologies uniques. L'un de ces projets est Euruka Tech, qui opère dans le vaste domaine des cryptomonnaies et du Web3. L'objectif principal d'Euruka Tech, en particulier de son token $erc ai, est de présenter des solutions innovantes conçues pour exploiter les capacités croissantes de la technologie décentralisée. Cet article vise à fournir un aperçu complet d'Euruka Tech, une exploration de ses objectifs, de sa fonctionnalité, de l'identité de son créateur, de ses investisseurs potentiels et de son importance dans le contexte plus large du Web3. Qu'est-ce qu'Euruka Tech, $erc ai ? Euruka Tech est caractérisé comme un projet qui tire parti des outils et des fonctionnalités offerts par l'environnement Web3, en se concentrant sur l'intégration de l'intelligence artificielle dans ses opérations. Bien que les détails spécifiques sur le cadre du projet soient quelque peu évasifs, il est conçu pour améliorer l'engagement des utilisateurs et automatiser les processus dans l'espace crypto. Le projet vise à créer un écosystème décentralisé qui facilite non seulement les transactions, mais qui intègre également des fonctionnalités prédictives grâce à l'intelligence artificielle, d'où la désignation de son token, $erc ai. L'objectif est de fournir une plateforme intuitive qui facilite des interactions plus intelligentes et un traitement efficace des transactions dans la sphère Web3 en pleine expansion. Qui est le créateur d'Euruka Tech, $erc ai ? À l'heure actuelle, les informations concernant le créateur ou l'équipe fondatrice derrière Euruka Tech restent non spécifiées et quelque peu opaques. Cette absence de données soulève des préoccupations, car la connaissance des antécédents de l'équipe est souvent essentielle pour établir la crédibilité dans le secteur de la blockchain. Par conséquent, nous avons classé cette information comme inconnue jusqu'à ce que des détails concrets soient rendus disponibles dans le domaine public. Qui sont les investisseurs d'Euruka Tech, $erc ai ? De même, l'identification des investisseurs ou des organisations de soutien pour le projet Euruka Tech n'est pas facilement fournie par les recherches disponibles. Un aspect crucial pour les parties prenantes potentielles ou les utilisateurs envisageant de s'engager avec Euruka Tech est l'assurance qui découle de partenariats financiers établis ou du soutien d'entreprises d'investissement réputées. Sans divulgations sur les affiliations d'investissement, il est difficile de tirer des conclusions complètes sur la sécurité financière ou la pérennité du projet. Conformément aux informations trouvées, cette section se trouve également au statut de inconnue. Comment fonctionne Euruka Tech, $erc ai ? Malgré le manque de spécifications techniques détaillées pour Euruka Tech, il est essentiel de considérer ses ambitions innovantes. Le projet cherche à exploiter la puissance de calcul de l'intelligence artificielle pour automatiser et améliorer l'expérience utilisateur dans l'environnement des cryptomonnaies. En intégrant l'IA avec la technologie blockchain, Euruka Tech vise à fournir des fonctionnalités telles que des transactions automatisées, des évaluations de risques et des interfaces utilisateur personnalisées. L'essence innovante d'Euruka Tech réside dans son objectif de créer une connexion fluide entre les utilisateurs et les vastes possibilités offertes par les réseaux décentralisés. Grâce à l'utilisation d'algorithmes d'apprentissage automatique et d'IA, il vise à minimiser les défis rencontrés par les utilisateurs pour la première fois et à rationaliser les expériences transactionnelles dans le cadre du Web3. Cette symbiose entre l'IA et la blockchain souligne l'importance du token $erc ai, agissant comme un pont entre les interfaces utilisateur traditionnelles et les capacités avancées des technologies décentralisées. Chronologie d'Euruka Tech, $erc ai Malheureusement, en raison des informations limitées dont nous disposons concernant Euruka Tech, nous ne sommes pas en mesure de présenter une chronologie détaillée des développements majeurs ou des étapes importantes dans le parcours du projet. Cette chronologie, généralement inestimable pour tracer l'évolution d'un projet et comprendre sa trajectoire de croissance, n'est pas actuellement disponible. À mesure que des informations sur des événements notables, des partenariats ou des ajouts fonctionnels deviennent évidentes, des mises à jour amélioreront sûrement la visibilité d'Euruka Tech dans la sphère crypto. Clarification sur d'autres projets “Eureka” Il est à noter que plusieurs projets et entreprises partagent une nomenclature similaire avec “Eureka”. Des recherches ont identifié des initiatives comme un agent IA de NVIDIA Research, qui se concentre sur l'enseignement de tâches complexes aux robots en utilisant des méthodes génératives, ainsi que Eureka Labs et Eureka AI, qui améliorent l'expérience utilisateur dans l'éducation et l'analyse du service client, respectivement. Cependant, ces projets sont distincts d'Euruka Tech et ne doivent pas être confondus avec ses objectifs ou ses fonctionnalités. Conclusion Euruka Tech, aux côtés de son token $erc ai, représente un acteur prometteur mais actuellement obscur dans le paysage du Web3. Bien que les détails concernant son créateur et ses investisseurs restent non divulgués, l'ambition centrale de combiner l'intelligence artificielle avec la technologie blockchain constitue un point d'intérêt focal. Les approches uniques du projet pour favoriser l'engagement des utilisateurs grâce à une automatisation avancée pourraient le distinguer à mesure que l'écosystème Web3 progresse. Alors que le marché des cryptomonnaies continue d'évoluer, les parties prenantes devraient garder un œil attentif sur les avancées concernant Euruka Tech, car le développement d'innovations documentées, de partenariats ou d'une feuille de route définie pourrait présenter des opportunités significatives dans un avenir proche. En l'état, nous attendons des informations plus substantielles qui pourraient révéler le potentiel d'Euruka Tech et sa position dans le paysage concurrentiel des cryptomonnaies.

421 vues totalesPublié le 2025.01.02Mis à jour le 2025.01.02

Qu'est ce que ERC AI

Qu'est ce que DUOLINGO AI

DUOLINGO AI : Intégration de l'apprentissage des langues avec l'innovation Web3 et IA À une époque où la technologie redéfinit l'éducation, l'intégration de l'intelligence artificielle (IA) et des réseaux blockchain annonce une nouvelle frontière pour l'apprentissage des langues. Entrez dans DUOLINGO AI et sa cryptomonnaie associée, $DUOLINGO AI. Ce projet aspire à fusionner la puissance éducative des principales plateformes d'apprentissage des langues avec les avantages de la technologie décentralisée Web3. Cet article explore les aspects clés de DUOLINGO AI, en examinant ses objectifs, son cadre technologique, son développement historique et son potentiel futur tout en maintenant une clarté entre la ressource éducative originale et cette initiative de cryptomonnaie indépendante. Vue d'ensemble de DUOLINGO AI Au cœur de DUOLINGO AI, l'objectif est d'établir un environnement décentralisé où les apprenants peuvent gagner des récompenses cryptographiques pour atteindre des jalons éducatifs en matière de compétence linguistique. En appliquant des contrats intelligents, le projet vise à automatiser les processus de vérification des compétences et d'attribution de jetons, en respectant les principes de Web3 qui mettent l'accent sur la transparence et la propriété des utilisateurs. Le modèle s'écarte des approches traditionnelles de l'acquisition des langues en s'appuyant fortement sur une structure de gouvernance pilotée par la communauté, permettant aux détenteurs de jetons de suggérer des améliorations au contenu des cours et à la distribution des récompenses. Parmi les objectifs notables de DUOLINGO AI, on trouve : Apprentissage ludique : Le projet intègre des réalisations basées sur la blockchain et des jetons non fongibles (NFT) pour représenter les niveaux de compétence linguistique, favorisant la motivation grâce à des récompenses numériques engageantes. Création de contenu décentralisée : Il ouvre des voies pour que les éducateurs et les passionnés de langues contribuent à leurs cours, facilitant un modèle de partage des revenus qui bénéficie à tous les contributeurs. Personnalisation alimentée par l'IA : En utilisant des modèles d'apprentissage automatique avancés, DUOLINGO AI personnalise les leçons pour s'adapter aux progrès d'apprentissage individuels, semblable aux fonctionnalités adaptatives trouvées dans les plateformes établies. Créateurs du projet et gouvernance À partir d'avril 2025, l'équipe derrière $DUOLINGO AI reste pseudonyme, une pratique fréquente dans le paysage décentralisé des cryptomonnaies. Cette anonymat est destiné à promouvoir la croissance collective et l'engagement des parties prenantes plutôt qu'à se concentrer sur des développeurs individuels. Le contrat intelligent déployé sur la blockchain Solana note l'adresse du portefeuille du développeur, ce qui signifie l'engagement envers la transparence concernant les transactions malgré l'identité inconnue des créateurs. Selon sa feuille de route, DUOLINGO AI vise à évoluer vers une Organisation Autonome Décentralisée (DAO). Cette structure de gouvernance permet aux détenteurs de jetons de voter sur des questions critiques telles que les mises en œuvre de fonctionnalités et les allocations de trésorerie. Ce modèle s'aligne avec l'éthique de l'autonomisation communautaire que l'on trouve dans diverses applications décentralisées, soulignant l'importance de la prise de décision collective. Investisseurs et partenariats stratégiques Actuellement, il n'y a pas d'investisseurs institutionnels ou de capital-risqueurs identifiables publiquement liés à $DUOLINGO AI. Au lieu de cela, la liquidité du projet provient principalement des échanges décentralisés (DEX), marquant un contraste frappant avec les stratégies de financement des entreprises de technologie éducative traditionnelles. Ce modèle de base indique une approche pilotée par la communauté, reflétant l'engagement du projet envers la décentralisation. Dans son livre blanc, DUOLINGO AI mentionne la formation de collaborations avec des “plateformes d'éducation blockchain” non spécifiées visant à enrichir ses offres de cours. Bien que des partenariats spécifiques n'aient pas encore été divulgués, ces efforts collaboratifs laissent entrevoir une stratégie visant à mélanger l'innovation blockchain avec des initiatives éducatives, élargissant l'accès et l'engagement des utilisateurs à travers diverses voies d'apprentissage. Architecture technologique Intégration de l'IA DUOLINGO AI intègre deux composants majeurs alimentés par l'IA pour améliorer ses offres éducatives : Moteur d'apprentissage adaptatif : Ce moteur sophistiqué apprend des interactions des utilisateurs, similaire aux modèles propriétaires des grandes plateformes éducatives. Il ajuste dynamiquement la difficulté des leçons pour répondre aux défis spécifiques des apprenants, renforçant les points faibles par des exercices ciblés. Agents conversationnels : En utilisant des chatbots alimentés par GPT-4, DUOLINGO AI offre une plateforme permettant aux utilisateurs de s'engager dans des conversations simulées, favorisant une expérience d'apprentissage des langues plus interactive et pratique. Infrastructure blockchain Construit sur la blockchain Solana, $DUOLINGO AI utilise un cadre technologique complet qui comprend : Contrats intelligents de vérification des compétences : Cette fonctionnalité attribue automatiquement des jetons aux utilisateurs qui réussissent des tests de compétence, renforçant la structure d'incitation pour des résultats d'apprentissage authentiques. Badges NFT : Ces jetons numériques signifient divers jalons que les apprenants atteignent, tels que la complétion d'une section de leur cours ou la maîtrise de compétences spécifiques, leur permettant d'échanger ou de montrer leurs réalisations numériquement. Gouvernance DAO : Les membres de la communauté dotés de jetons peuvent participer à la gouvernance en votant sur des propositions clés, facilitant une culture participative qui encourage l'innovation dans les offres de cours et les fonctionnalités de la plateforme. Chronologie historique 2022–2023 : Conceptualisation Les bases de DUOLINGO AI commencent avec la création d'un livre blanc, mettant en avant la synergie entre les avancées de l'IA dans l'apprentissage des langues et le potentiel décentralisé de la technologie blockchain. 2024 : Lancement Beta Un lancement beta limité introduit des offres dans des langues populaires, récompensant les premiers utilisateurs avec des incitations en jetons dans le cadre de la stratégie d'engagement communautaire du projet. 2025 : Transition vers la DAO En avril, un lancement complet sur le mainnet a lieu avec la circulation de jetons, suscitant des discussions communautaires concernant d'éventuelles expansions vers les langues asiatiques et d'autres développements de cours. Défis et orientations futures Obstacles techniques Malgré ses objectifs ambitieux, DUOLINGO AI fait face à des défis significatifs. La scalabilité reste une préoccupation constante, en particulier pour équilibrer les coûts associés au traitement de l'IA et le maintien d'un réseau décentralisé réactif. De plus, garantir la qualité de la création et de la modération de contenu au sein d'une offre décentralisée pose des complexités pour maintenir des normes éducatives. Opportunités stratégiques En regardant vers l'avenir, DUOLINGO AI a le potentiel de tirer parti de partenariats de micro-certification avec des institutions académiques, fournissant des validations vérifiées par blockchain des compétences linguistiques. De plus, une expansion inter-chaînes pourrait permettre au projet de toucher des bases d'utilisateurs plus larges et d'autres écosystèmes blockchain, améliorant son interopérabilité et sa portée. Conclusion DUOLINGO AI représente une fusion innovante de l'intelligence artificielle et de la technologie blockchain, présentant une alternative axée sur la communauté aux systèmes d'apprentissage des langues traditionnels. Bien que son développement pseudonyme et son modèle économique émergent présentent certains risques, l'engagement du projet envers l'apprentissage ludique, l'éducation personnalisée et la gouvernance décentralisée éclaire une voie à suivre pour la technologie éducative dans le domaine de Web3. Alors que l'IA continue d'avancer et que l'écosystème blockchain évolue, des initiatives comme DUOLINGO AI pourraient redéfinir la manière dont les utilisateurs s'engagent dans l'éducation linguistique, autonomisant les communautés et récompensant l'engagement grâce à des mécanismes d'apprentissage innovants.

455 vues totalesPublié le 2025.04.11Mis à jour le 2025.04.11

Qu'est ce que DUOLINGO AI

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de AI (AI) sont présentées ci-dessous.

活动图片