L'équipe de recherche de l'Université du Zhejiang propose une nouvelle approche : Enseigner à l'IA la façon dont le cerveau humain comprend le monde

marsbitPublié le 2026-04-05Dernière mise à jour le 2026-04-05

Résumé

Une équipe de recherche de l’Université du Zhejiang a proposé une nouvelle approche pour améliorer l’intelligence artificielle : enseigner aux modèles la manière dont le cerveau humain comprend le monde. Contrairement à l’idée répandue selon laquelle l’augmentation des paramètres des modèles les rapproche de la pensée humaine, l’étude publiée dans *Nature Communications* montre que les grands modèles (comme SimCLR, CLIP, DINOv2) voient leurs capacités de reconnaissance concrète s’améliorer avec l’échelle, mais leurs compétences conceptuelles abstraites stagnent ou régressent. Par exemple, avec une augmentation des paramètres de 22,06 millions à 304,37 millions, les performances sur les tâches concrètes sont passées de 74,94 % à 85,87 %, tandis que les tâches abstraites sont tombées de 54,37 % à 52,82 %. La différence fondamentale réside dans la manière dont les humains et les modèles organisent les concepts : les humains catégorisent de manière hiérarchique et flexible, tandis que les modèles s’appuient excessivement sur des motifs statistiques dans les données, sans structuration conceptuelle robuste. L’équipe a utilisé des signaux cérébraux enregistrés lorsque des humains observaient des images pour superviser l’apprentissage des modèles. Cette méthode a permis de transférer la structure conceptuelle humaine aux réseaux de neurones profonds. Les résultats montrent que la représentation interne du modèle se rapproche de celle du cerveau, améliorant ainsi sa capacité à gé...

Les grands modèles n'ont cessé de grossir, et l'opinion dominante estime que plus le nombre de paramètres d'un modèle est élevé, plus il se rapproche de la façon de penser humaine. Cependant, une étude publiée le 1er avril dans Nature Communications par une équipe de l'Université du Zhejiang présente un point de vue différent (lien vers l'article original : https://www.nature.com/articles/s41467-026-71267-5). Ils ont découvert que lorsque la taille des modèles (principalement SimCLR, CLIP, DINOv2) augmente, leur capacité à reconnaître des objets concrets continue effectivement de s'améliorer, mais leur capacité à comprendre des concepts abstraits non seulement ne s'améliore pas, mais peut même diminuer. Lorsque le nombre de paramètres est passé de 22,06 millions à 304,37 millions, la performance sur les tâches de concepts concrets est passée de 74,94 % à 85,87 %, tandis que celle sur les tâches de concepts abstraits est passée de 54,37 % à 52,82 %.

La différence entre la façon de penser humaine et celle des modèles

Lorsque le cerveau humain traite des concepts, il forme d'abord un système de relations de classification. Un cygne et un hibou ne se ressemblent pas, mais l'homme les classera tous deux dans la catégorie des oiseaux. À un niveau supérieur, les oiseaux et les chevaux peuvent encore être classés ensemble dans la catégorie des animaux. Lorsqu'un être humain voit quelque chose de nouveau, il pense souvent d'abord à ce à quoi cela ressemble parmi les choses vues auparavant et à quelle catégorie cela appartient大概. L'homme apprend continuellement de nouveaux concepts, puis organise son expérience, utilisant ce système de relations pour identifier de nouvelles choses et s'adapter à de nouvelles situations.

Les modèles classent également, mais leur mode de formation est différent. Ils reposent principalement sur des patterns qui apparaissent de manière répétée dans des données à grande échelle. Plus un objet concret apparaît fréquemment, plus le modèle le reconnaît facilement. Lorsqu'il s'agit de catégories plus larges, le modèle a plus de difficultés. Il doit saisir les points communs entre plusieurs objets, puis regrouper ces points communs dans la même catégorie. Les modèles existants présentent encore des lacunes évidentes à ce niveau. Lorsque le nombre de paramètres continue d'augmenter, la performance sur les tâches de concepts concrets s'améliore, tandis que celle sur les tâches de concepts abstraits peut parfois diminuer.

Le point commun entre le cerveau humain et les modèles est qu'ils forment tous deux en interne un système de relations de classification. Mais leurs points d'accent diffèrent : les régions visuelles supérieures du cerveau humain distinguent naturellement de grandes catégories comme le biotique et le non-biotique. Alors que les modèles peuvent distinguer des objets concrets, ils ont du mal à former stablement ce type de classifications plus larges. Cette différence fait que le cerveau humain applique plus facilement une expérience antérieure à de nouveaux objets, nous permettant ainsi de classer rapidement des choses jamais vues. Le modèle, quant à lui, dépend davantage des connaissances existantes, il a donc tendance à rester à la surface des caractéristiques lorsqu'il rencontre un nouvel objet. La méthode proposée dans l'article s'articule autour de cette caractéristique, utilisant les signaux cérébraux pour contraindre la structure interne du modèle, le rapprochant ainsi de la façon dont le cerveau humain classe.

La solution de l'équipe de l'Université du Zhejiang

La solution proposée par l'équipe est également unique : il ne s'agit pas d'empiler plus de paramètres, mais d'utiliser une petite quantité de signaux cérébraux comme supervision. Ici, les signaux cérébraux proviennent d'enregistrements de l'activité cérébrale de personnes regardant des images. L'article original indique qu'il s'agit de transférer les structures conceptuelles humaines (human conceptual structures) aux réseaux de neurones profonds (DNNs). Cela signifie qu'on enseigne autant que possible au modèle la façon dont le cerveau humain classe, généralise et regroupe des concepts similaires.

L'équipe a mené une expérience avec 150 catégories d'entraînement connues et 50 catégories de test jamais vues. Les résultats montrent qu'au fur et à mesure de cet entraînement, la distance entre le modèle et la représentation cérébrale diminue continuellement. Ce changement se produit simultanément dans les deux types de catégories, ce qui indique que le modèle n'apprend pas des échantillons individuels, mais commence véritablement à apprendre une manière d'organiser les concepts plus proche de celle du cerveau humain.

Après cet entraînement, le modèle a une meilleure capacité d'apprentissage avec très peu d'échantillons et performe également mieux face à de nouvelles situations. Dans une tâche où très peu d'exemples sont donnés mais où le modèle doit distinguer des concepts abstraits comme le biotique et le non-biotique, le modèle a progressé en moyenne de 20,5 %, dépassant même des modèles de contrôle ayant un nombre de paramètres bien supérieur. L'équipe a également réalisé 31 tests spécifiques supplémentaires, où plusieurs types de modèles ont montré une amélioration proche de dix pour cent.

Ces dernières années, la voie familière pour l'industrie des modèles était l'augmentation de la taille. L'équipe de l'Université du Zhejiang a choisi une autre direction, passant de "bigger is better" (plus grand est meilleur) à "structured is smarter" (structuré est plus intelligent). L'expansion de l'échelle est certes utile, mais elle améliore principalement les performances dans les tâches familières. La capacité de compréhension abstraite et de transfert, typique des humains, est tout aussi cruciale pour l'IA. Cela nécessite de rendre à l'avenir la structure de pensée de l'IA plus proche de celle du cerveau humain. La valeur de cette direction réside dans le fait qu'elle ramène l'attention de l'industrie de la simple expansion d'échelle vers la structure cognitive elle-même.

Neosoul et le futur

Cela ouvre une possibilité plus grande : l'évolution de l'IA ne se produit pas nécessairement uniquement pendant la phase d'entraînement du modèle. L'entraînement du modèle peut déterminer comment l'IA organise les concepts, comment elle forme des structures de jugement de meilleure qualité. Ce n'est qu'après être entrée dans le monde réel qu'une autre couche de l'évolution de l'IA commence : comment les jugements de l'agent IA sont enregistrés, vérifiés, comment ils grandissent et évoluent constamment dans une compétition mutuelle réelle, apprenant et évoluant par eux-mêmes comme les humains. C'est précisément ce que fait Neosoul actuellement. Neosoul ne se contente pas de faire produire des réponses par des agents IA, mais place les agents IA dans un système de prédiction continue, de vérification continue, de règlement continu et de filtrage continu, les faisant optimiser constamment eux-mêmes entre prédictions et résultats, permettant aux meilleures structures d'être conservées et aux moins bonnes d'être éliminées. Ce vers quoi pointent conjointement l'équipe de l'Université du Zhejiang et Neosoul, c'est en réalité le même objectif : que l'IA ne sache pas seulement résoudre des exercices, mais qu'elle ait une capacité de pensée complète, évoluant constamment.

Questions liées

QQuelle est la conclusion de l'équipe de recherche de l'Université du Zhejiang concernant la relation entre la taille des modèles d'IA et leur capacité à comprendre les concepts abstraits ?

AL'équipe a constaté qu'avec l'augmentation des paramètres (de 22,06 millions à 304,37 millions), la capacité à reconnaître des objets concrets s'est améliorée (de 74,94% à 85,87%), mais la compréhension des concepts abstraits a diminué (de 54,37% à 52,82%).

QComment le cerveau humain et les modèles d'IA diffèrent-ils dans leur manière de traiter et de classer les concepts ?

ALe cerveau humain forme une structure de classification hiérarchique (par exemple, regrouper des oiseaux et des chevaux dans la catégorie 'animaux') et utilise l'expérience pour s'adapter à de nouvelles situations. Les modèles d'IA s'appuient principalement sur des motifs répétitifs dans les données et excellent à reconnaître des objets spécifiques, mais ont du mal à former des catégories plus larges et abstraites.

QQuelle méthode unique l'équipe de l'Université du Zhejiang a-t-elle proposée pour améliorer la capacité des modèles d'IA à comprendre les concepts abstraits ?

AL'équipe a utilisé un petit nombre de signaux cérébraux (enregistrements de l'activité cérébrale lorsque des humains regardent des images) comme supervision pour transférer la structure conceptuelle humaine aux réseaux de neurones profonds, afin de les rendre plus proches de la manière dont le cerveau classe et généralise les concepts.

QQuels ont été les résultats des expériences après avoir appliqué la méthode de l'équipe ?

ALa distance entre les représentations du modèle et les représentations cérébrales a diminué. Dans une tâche de distinction entre concepts abstraits (comme biotique vs abiotique) avec très peu d'exemples, les performances du modèle se sont améliorées de 20,5% en moyenne, dépassant même des modèles témoins beaucoup plus grands.

QQuel est le lien entre la recherche de l'équipe de l'Université du Zhejiang et le travail de Neosoul mentionné à la fin de l'article ?

ATous deux visent à permettre à l'IA de développer une capacité de réflexion complète et une capacité d'évolution continue. La recherche de Zhejiang se concentre sur la formation de structures conceptuelles de haute qualité, tandis que Neosoul se concentre sur la création d'un système où les agents IA peuvent optimiser continuellement leurs prédictions et leurs performances dans des environnements réels.

Lectures associées

Ce PDG de la Finance Choisit Solana Plutôt Que Bitcoin — Voici Pourquoi

Le PDG du secteur financier Raoul Pal a exprimé une préférence nette pour Solana par rapport au Bitcoin, lors de l'événement Consensus 2026. Sa position ne relève pas d'une simple comparaison d'actifs mais d'une conviction sur l'avenir de la cryptographie à l'ère de l'intelligence artificielle. Il estime que l'industrie se dirige vers une phase dominée par les réseaux à haute vitesse et faible coût, mieux adaptés aux activités de masse, plutôt que par le rôle de réserve de valeur du Bitcoin. Selon lui, Solana, avec son débit élevé et ses faibles frais de transaction, est idéal pour les microtransactions entre machines, les activités basées sur l'IA et les interactions DeFi rapides. Pal prédit par ailleurs que d'ici cinq ans, les agents IA représenteront 60% des utilisateurs de la finance décentralisée (DeFi), surpassant les utilisateurs humains. Cette vision d'un futur où les transactions fréquentes et automatisées seront cruciales explique son choix en faveur de Solana pour capturer les opportunités de croissance. Bien qu'il soit improbable que Solana surpasse Bitcoin en termes de taille à court terme, cette perspective s'inscrit dans un thème majeur de la conférence, centré sur la convergence entre l'IA, la DeFi et l'infrastructure institutionnelle. D'autres intervenants, comme Arthur Hayes, ont également souligné la nature distincte de la cryptographie par rapport aux systèmes traditionnels.

bitcoinistIl y a 9 h

Ce PDG de la Finance Choisit Solana Plutôt Que Bitcoin — Voici Pourquoi

bitcoinistIl y a 9 h

GensynAI : Ne laissez pas l'IA répéter les erreurs d'Internet

Au cours des derniers mois, l'essor de l'IA a attiré de nombreux talents de la cryptographie. Une question centrale émerge : la blockchain peut-elle faire partie de l'infrastructure de l'IA ? Gensyn se distingue en s'attaquant non pas aux applications, mais au cœur du développement de l'IA : **l'entraînement des modèles**. Le projet vise à organiser les ressources GPU mondiales dispersées en un réseau ouvert d'entraînement d'IA. Les développeurs peuvent soumettre des tâches, les nœuds fournissent la puissance de calcul, et le réseau vérifie les résultats avant de distribuer les incitations. L'enjeu dépasse la simple décentralisation : il s'agit de contrer la **concentration croissante des ressources de calcul** entre les mains de quelques géants, qui deviennent un goulot d'étranglement pour l'innovation. Gensyn propose ainsi une nouvelle façon d'organiser les ressources. Premièrement, il opère au niveau de l'infrastructure fondamentale, la couche la plus exigeante techniquement et en ressources. Deuxièmement, il offre un modèle de collaboration plus ouvert, permettant une meilleure utilisation des GPU inactifs et une réduction potentielle des coûts. Troisièmement, sa technologie de vérification probabiliste des résultats et de coordination des nœuds constitue un véritable avantage technique. Enfin, il répond à une demande réelle et croissante du marché, évitant le piège des récits sans utilité pratique. En somme, Gensyn incite la convergence entre la cryptographie (expertise en coordination et incitations mondiales) et l'IA (besoins massifs en ressources). Son ambition est de transformer l'entraînement de l'IA en un système plus ouvert et accessible, au-delà du contrôle exclusif des grands acteurs, posant les bases d'une infrastructure essentielle pour l'ère de l'IA.

marsbitIl y a 10 h

GensynAI : Ne laissez pas l'IA répéter les erreurs d'Internet

marsbitIl y a 10 h

Pourquoi la Chine se développe-t-elle si rapidement en IA ? La réponse se cache dans les laboratoires

L'auteur, après une visite dans des laboratoires d'IA chinois de premier plan, explore les raisons du développement rapide de l'IA en Chine. Il constate que l'écosystème chinois se distingue de celui des États-Unis par son approche organisationnelle : moins de concepts, plus de modèles concrets ; moins d'importance accordée aux vedettes individuelles, plus au travail d'équipe ; et une forte préférence pour maîtriser en interne la pile technologique plutôt que de dépendre de services externes. La culture de travail, valorisant l'humilité, l'exécution et l'ingénierie rapide, est bien adaptée à la construction de grands modèles de langage. Une grande partie des contributeurs clés sont des étudiants, intégrés directement aux équipes, apportant un regard neuf et une forte capacité d'adaptation. L'accent est mis sur l'amélioration itérative et l'optimisation plutôt que sur la recherche "de 0 à 1". Les scientifiques chinois se montrent très concentrés sur la construction technique, moins sur les débats philosophiques ou économiques autour de l'IA. L'écosystème industriel présente également des différences : une demande précoce en IA (ressemblant plus au marché du cloud qu'au SaaS), une forte influence des modèles comme Claude sur les développeurs, et une mentalité répandue de "contrôle technologique" poussant de nombreuses grandes entreprises (plateformes, hardware) à développer leurs propres modèles fondateurs, souvent en open source par pragmatisme. Le soutien gouvernemental existe mais est décentralisé, l'industrie des données est moins mature qu'en Occident, et l'accès aux puces Nvidia est une contrainte majeure. L'auteur conclut que la Chine développe sa propre voie, marquée par une culture de construction, un esprit d'écosystème collaboratif et un pragmatisme profond. Cette approche, différente de la course aux sommets menée par le capital et les "stars" aux États-Unis, fait de la compétition mondiale en IA une rivalité de capacités organisationnelles, d'écosystèmes développeurs et d'exécution industrielle. Il exprime un souhait pour une écologie open source mondiale florissante, tout en notant les défis géopolitiques actuels.

marsbitIl y a 11 h

Pourquoi la Chine se développe-t-elle si rapidement en IA ? La réponse se cache dans les laboratoires

marsbitIl y a 11 h

3 ans, 5 fois la valeur, la renaissance d'une verrerie centenaire

D'après CRU, la demande de fibre optique pour les centres de données IA a augmenté de 75,9 % sur un an, et l'écart entre l'offre et la demande s'est creusé de 6 % à 15 %. Les prix des fibres ont plus que triplé en quelques mois, révélant une capacité de production insuffisante. Cela explique les investissements massifs de NVIDIA chez Corning, ainsi que chez Lumentum et Coherent, pour un total de 45 milliards de dollars, visant à sécuriser la chaîne d'approvisionnement optique (lasers, puces photoniques, fibres). Corning, une entreprise de verrerie fondée en 1851, a vu son cours de bourse multiplié par plus de 3 en un an, atteignant une capitalisation de 160 milliards de dollars. Cette renaissance est portée par les infrastructures IA. La fibre optique est devenue le « nerf » des centres de données IA, avec une consommation 5 à 10 fois supérieure aux serveurs traditionnels. La transition du cuivre vers la lumière (interconnexions optiques, CPO) est nécessaire pour les débits élevés (au-delà de 800G) et pour réduire la consommation d'énergie. Corning se distingue par sa technologie de fibres spécialisées à très faible atténuation et haute densité, cruciales pour l'IA. Son activité "Enterprise" (centres de données), désormais plus de 40% de ses revenus en communication optique, connaît une croissance explosive, soutenue par des contrats pluriannuels avec Meta, NVIDIA et d'autres géants. Bien que ne détenant pas la plus grande part de marché mondiale de la fibre, Corning tire parti de décennies de R&D et d'un savoir-faire matériel de pointe, notamment dans le domaine émergent du CPO (Co-Packaged Optics). La pénurie et la hausse des prix profitent à tout le secteur, comme en témoignent les résultats des concurrents chinois. Le rythme de déploiement du CPO par NVIDIA et l'identité des autres grands clients non divulgués de Corning sont des catalyseurs clés pour son avenir. Des technologies disruptives comme la fibre à cœur creux pourraient également remodeler le paysage à plus long terme. Après une forte appréciation boursière, l'exécution des commandes et le respect des délais seront désormais plus importants que le récit de croissance lui-même.

marsbitIl y a 12 h

3 ans, 5 fois la valeur, la renaissance d'une verrerie centenaire

marsbitIl y a 12 h

Trading

Spot
Futures
活动图片