L'équipe de recherche de l'Université du Zhejiang propose une nouvelle approche : Enseigner à l'IA la façon dont le cerveau humain comprend le monde

marsbitPublié le 2026-04-05Dernière mise à jour le 2026-04-05

Résumé

Une équipe de recherche de l’Université du Zhejiang a proposé une nouvelle approche pour améliorer l’intelligence artificielle : enseigner aux modèles la manière dont le cerveau humain comprend le monde. Contrairement à l’idée répandue selon laquelle l’augmentation des paramètres des modèles les rapproche de la pensée humaine, l’étude publiée dans *Nature Communications* montre que les grands modèles (comme SimCLR, CLIP, DINOv2) voient leurs capacités de reconnaissance concrète s’améliorer avec l’échelle, mais leurs compétences conceptuelles abstraites stagnent ou régressent. Par exemple, avec une augmentation des paramètres de 22,06 millions à 304,37 millions, les performances sur les tâches concrètes sont passées de 74,94 % à 85,87 %, tandis que les tâches abstraites sont tombées de 54,37 % à 52,82 %. La différence fondamentale réside dans la manière dont les humains et les modèles organisent les concepts : les humains catégorisent de manière hiérarchique et flexible, tandis que les modèles s’appuient excessivement sur des motifs statistiques dans les données, sans structuration conceptuelle robuste. L’équipe a utilisé des signaux cérébraux enregistrés lorsque des humains observaient des images pour superviser l’apprentissage des modèles. Cette méthode a permis de transférer la structure conceptuelle humaine aux réseaux de neurones profonds. Les résultats montrent que la représentation interne du modèle se rapproche de celle du cerveau, améliorant ainsi sa capacité à gé...

Les grands modèles n'ont cessé de grossir, et l'opinion dominante estime que plus le nombre de paramètres d'un modèle est élevé, plus il se rapproche de la façon de penser humaine. Cependant, une étude publiée le 1er avril dans Nature Communications par une équipe de l'Université du Zhejiang présente un point de vue différent (lien vers l'article original : https://www.nature.com/articles/s41467-026-71267-5). Ils ont découvert que lorsque la taille des modèles (principalement SimCLR, CLIP, DINOv2) augmente, leur capacité à reconnaître des objets concrets continue effectivement de s'améliorer, mais leur capacité à comprendre des concepts abstraits non seulement ne s'améliore pas, mais peut même diminuer. Lorsque le nombre de paramètres est passé de 22,06 millions à 304,37 millions, la performance sur les tâches de concepts concrets est passée de 74,94 % à 85,87 %, tandis que celle sur les tâches de concepts abstraits est passée de 54,37 % à 52,82 %.

La différence entre la façon de penser humaine et celle des modèles

Lorsque le cerveau humain traite des concepts, il forme d'abord un système de relations de classification. Un cygne et un hibou ne se ressemblent pas, mais l'homme les classera tous deux dans la catégorie des oiseaux. À un niveau supérieur, les oiseaux et les chevaux peuvent encore être classés ensemble dans la catégorie des animaux. Lorsqu'un être humain voit quelque chose de nouveau, il pense souvent d'abord à ce à quoi cela ressemble parmi les choses vues auparavant et à quelle catégorie cela appartient大概. L'homme apprend continuellement de nouveaux concepts, puis organise son expérience, utilisant ce système de relations pour identifier de nouvelles choses et s'adapter à de nouvelles situations.

Les modèles classent également, mais leur mode de formation est différent. Ils reposent principalement sur des patterns qui apparaissent de manière répétée dans des données à grande échelle. Plus un objet concret apparaît fréquemment, plus le modèle le reconnaît facilement. Lorsqu'il s'agit de catégories plus larges, le modèle a plus de difficultés. Il doit saisir les points communs entre plusieurs objets, puis regrouper ces points communs dans la même catégorie. Les modèles existants présentent encore des lacunes évidentes à ce niveau. Lorsque le nombre de paramètres continue d'augmenter, la performance sur les tâches de concepts concrets s'améliore, tandis que celle sur les tâches de concepts abstraits peut parfois diminuer.

Le point commun entre le cerveau humain et les modèles est qu'ils forment tous deux en interne un système de relations de classification. Mais leurs points d'accent diffèrent : les régions visuelles supérieures du cerveau humain distinguent naturellement de grandes catégories comme le biotique et le non-biotique. Alors que les modèles peuvent distinguer des objets concrets, ils ont du mal à former stablement ce type de classifications plus larges. Cette différence fait que le cerveau humain applique plus facilement une expérience antérieure à de nouveaux objets, nous permettant ainsi de classer rapidement des choses jamais vues. Le modèle, quant à lui, dépend davantage des connaissances existantes, il a donc tendance à rester à la surface des caractéristiques lorsqu'il rencontre un nouvel objet. La méthode proposée dans l'article s'articule autour de cette caractéristique, utilisant les signaux cérébraux pour contraindre la structure interne du modèle, le rapprochant ainsi de la façon dont le cerveau humain classe.

La solution de l'équipe de l'Université du Zhejiang

La solution proposée par l'équipe est également unique : il ne s'agit pas d'empiler plus de paramètres, mais d'utiliser une petite quantité de signaux cérébraux comme supervision. Ici, les signaux cérébraux proviennent d'enregistrements de l'activité cérébrale de personnes regardant des images. L'article original indique qu'il s'agit de transférer les structures conceptuelles humaines (human conceptual structures) aux réseaux de neurones profonds (DNNs). Cela signifie qu'on enseigne autant que possible au modèle la façon dont le cerveau humain classe, généralise et regroupe des concepts similaires.

L'équipe a mené une expérience avec 150 catégories d'entraînement connues et 50 catégories de test jamais vues. Les résultats montrent qu'au fur et à mesure de cet entraînement, la distance entre le modèle et la représentation cérébrale diminue continuellement. Ce changement se produit simultanément dans les deux types de catégories, ce qui indique que le modèle n'apprend pas des échantillons individuels, mais commence véritablement à apprendre une manière d'organiser les concepts plus proche de celle du cerveau humain.

Après cet entraînement, le modèle a une meilleure capacité d'apprentissage avec très peu d'échantillons et performe également mieux face à de nouvelles situations. Dans une tâche où très peu d'exemples sont donnés mais où le modèle doit distinguer des concepts abstraits comme le biotique et le non-biotique, le modèle a progressé en moyenne de 20,5 %, dépassant même des modèles de contrôle ayant un nombre de paramètres bien supérieur. L'équipe a également réalisé 31 tests spécifiques supplémentaires, où plusieurs types de modèles ont montré une amélioration proche de dix pour cent.

Ces dernières années, la voie familière pour l'industrie des modèles était l'augmentation de la taille. L'équipe de l'Université du Zhejiang a choisi une autre direction, passant de "bigger is better" (plus grand est meilleur) à "structured is smarter" (structuré est plus intelligent). L'expansion de l'échelle est certes utile, mais elle améliore principalement les performances dans les tâches familières. La capacité de compréhension abstraite et de transfert, typique des humains, est tout aussi cruciale pour l'IA. Cela nécessite de rendre à l'avenir la structure de pensée de l'IA plus proche de celle du cerveau humain. La valeur de cette direction réside dans le fait qu'elle ramène l'attention de l'industrie de la simple expansion d'échelle vers la structure cognitive elle-même.

Neosoul et le futur

Cela ouvre une possibilité plus grande : l'évolution de l'IA ne se produit pas nécessairement uniquement pendant la phase d'entraînement du modèle. L'entraînement du modèle peut déterminer comment l'IA organise les concepts, comment elle forme des structures de jugement de meilleure qualité. Ce n'est qu'après être entrée dans le monde réel qu'une autre couche de l'évolution de l'IA commence : comment les jugements de l'agent IA sont enregistrés, vérifiés, comment ils grandissent et évoluent constamment dans une compétition mutuelle réelle, apprenant et évoluant par eux-mêmes comme les humains. C'est précisément ce que fait Neosoul actuellement. Neosoul ne se contente pas de faire produire des réponses par des agents IA, mais place les agents IA dans un système de prédiction continue, de vérification continue, de règlement continu et de filtrage continu, les faisant optimiser constamment eux-mêmes entre prédictions et résultats, permettant aux meilleures structures d'être conservées et aux moins bonnes d'être éliminées. Ce vers quoi pointent conjointement l'équipe de l'Université du Zhejiang et Neosoul, c'est en réalité le même objectif : que l'IA ne sache pas seulement résoudre des exercices, mais qu'elle ait une capacité de pensée complète, évoluant constamment.

Questions liées

QQuelle est la conclusion de l'équipe de recherche de l'Université du Zhejiang concernant la relation entre la taille des modèles d'IA et leur capacité à comprendre les concepts abstraits ?

AL'équipe a constaté qu'avec l'augmentation des paramètres (de 22,06 millions à 304,37 millions), la capacité à reconnaître des objets concrets s'est améliorée (de 74,94% à 85,87%), mais la compréhension des concepts abstraits a diminué (de 54,37% à 52,82%).

QComment le cerveau humain et les modèles d'IA diffèrent-ils dans leur manière de traiter et de classer les concepts ?

ALe cerveau humain forme une structure de classification hiérarchique (par exemple, regrouper des oiseaux et des chevaux dans la catégorie 'animaux') et utilise l'expérience pour s'adapter à de nouvelles situations. Les modèles d'IA s'appuient principalement sur des motifs répétitifs dans les données et excellent à reconnaître des objets spécifiques, mais ont du mal à former des catégories plus larges et abstraites.

QQuelle méthode unique l'équipe de l'Université du Zhejiang a-t-elle proposée pour améliorer la capacité des modèles d'IA à comprendre les concepts abstraits ?

AL'équipe a utilisé un petit nombre de signaux cérébraux (enregistrements de l'activité cérébrale lorsque des humains regardent des images) comme supervision pour transférer la structure conceptuelle humaine aux réseaux de neurones profonds, afin de les rendre plus proches de la manière dont le cerveau classe et généralise les concepts.

QQuels ont été les résultats des expériences après avoir appliqué la méthode de l'équipe ?

ALa distance entre les représentations du modèle et les représentations cérébrales a diminué. Dans une tâche de distinction entre concepts abstraits (comme biotique vs abiotique) avec très peu d'exemples, les performances du modèle se sont améliorées de 20,5% en moyenne, dépassant même des modèles témoins beaucoup plus grands.

QQuel est le lien entre la recherche de l'équipe de l'Université du Zhejiang et le travail de Neosoul mentionné à la fin de l'article ?

ATous deux visent à permettre à l'IA de développer une capacité de réflexion complète et une capacité d'évolution continue. La recherche de Zhejiang se concentre sur la formation de structures conceptuelles de haute qualité, tandis que Neosoul se concentre sur la création d'un système où les agents IA peuvent optimiser continuellement leurs prédictions et leurs performances dans des environnements réels.

Lectures associées

Le projet de loi CLARITY atteint un moment charnière : la cryptomonnaie américaine à un carrefour réglementaire

Un tournant historique pour la régulation des cryptomonnaies aux États-Unis se joue en 2026. Le « CLARITY Act », loi cruciale pour définir la structure du marché des actifs numériques, doit être approuvé par la commission bancaire du Sénat avant fin avril, sans quoi son adoption pourrait être reportée de plusieurs années. Parallèlement, le « GENIUS Act », déjà adopté, impose un cadre prudentiel aux stablecoins, favorisant une concentration du marché autour d’acteurs conformes comme USDC et USAT (la nouvelle entité de Tether pour le marché institutionnel américain), tout en comprimant la place de l’USDT. Un compromis bipartisan, mené par les sénateurs Tillis et Alsobrooks, propose d’autoriser les récompenses sur les stablecoins liées à des activités, mais d’interdire les rendements passifs purs, une question au cœur des tensions avec le secteur bancaire traditionnel. La Maison Blanche, sous Trump, pousse pour une adoption rapide, mais fait face à des défis politiques, notamment sur les conflits d’intérêts des responsables gouvernementaux. Si la loi est adoptée, elle pourrait déclencher l’entrée de billions de dollars de capitaux institutionnels (fonds de pension, assureurs) et aligner les standards américains avec le règlement européen MiCA, renforçant la compétitivité mondiale des États-Unis. Son rejet profiterait aux places financières concurrentes comme l’UE, Hong Kong ou Singapour, et retarderait considérablement l’intégration des cryptomonnaies dans le système financier traditionnel. La conformité réglementaire devient l’avantage compétitif décisif pour l’avenir.

marsbitIl y a 4 h

Le projet de loi CLARITY atteint un moment charnière : la cryptomonnaie américaine à un carrefour réglementaire

marsbitIl y a 4 h

Trading

Spot
Futures
活动图片