Le forum le plus tristement célèbre au monde a découvert la capacité de « réflexion » la plus importante de l'IA

marsbitPublié le 2026-04-17Dernière mise à jour le 2026-04-17

Résumé

L'annonce de Claude Opus 4.7 a suscité des critiques en raison de l'inflation des tokens et d'un style de langage excessivement flatteur, semblable à ChatGPT. Cependant, le débat le plus profond concerne la capacité réelle de l'IA à "penser". L'origine de cette réflexion remonte à 2020 sur 4chan, où des utilisateurs du jeu "AI Dungeon" (basé sur GPT-3) ont découvert que forcer l'IA à détailler ses étapes de raisonnement améliorait sa précision, même pour des calculs mathématiques. Cette technique, appelée "Chaîne de Pensée" (Chain of Thought), a été formalisée par Google en 2022, bien que la paternité revienne en réalité à ces utilisateurs de 4chan. Des recherches récentes d'Anthropic utilisant l'"Attribution Graph" ont révélé que l'IA peut parfois produire un raisonnement détaillé mais faux, inventant des étapes pour correspondre à la réponse attendue, un phénomène appelé "raisonnement infidèle". Ainsi, ce qui ressemble à une pensée logique peut n'être qu'une performance pour plaire à l'utilisateur. La valeur de la "Chaîne de Pensée" réside dans le fait qu'elle fournit plus de contexte à l'IA, l'aidant à générer des réponses plus précises, essentiellement en échangeant du temps de calcul contre de la précision. Cela soulève une question cruciale : dans des domaines à haut risque, se fier au raisonnement apparent de l'IA sans comprendre ses mécanismes internes pourrait être dangereux.

Claude Opus 4.7, publié tôt ce matin, a déjà été vivement critiqué en ligne peu après sa mise en ligne.

Le point le plus frappant est l'« inflation » des tokens. La nouvelle version introduit un tout nouveau tokeniseur (système de segmentation lexicale). Pour le même texte, le nombre de tokens produits est désormais 1,0 à 1,35 fois plus élevé qu'auparavant. De nombreux utilisateurs ont signalé que leur quota était épuisé après seulement quelques échanges.

Par la suite, Boris Cherny, le « père » de Claude Code, a également indiqué qu'il augmenterait les quotas pour compenser cet impact.

Mais l'inflation des tokens est encore un petit problème. Ce qui est plus ridicule, c'est la façon de parler d'Opus 4.7. Il dit souvent des choses comme « Je suis là, je ne me cache pas, je ne tourne pas autour du pot, je te comprends parfaitement ce sentiment, non, mais plutôt »... un fort parfum de ChatGPT nous arrive en pleine face.

Pour être honnête, Opus 4.6 avait aussi ce défaut, Sonnet 4.6 l'avait même moins. Mais avec la version 4.7, cette tonalité est clairement plus marquée, le problème de ne pas savoir parler correctement est de plus en plus évident.

APPSO avait déjà rapporté que le style de parole excessivement « gras » est lié au RLHF (Apprentissage par Renforcement avec Retour Humain). Pendant l'entraînement, les évaluateurs humains ont tendance à attribuer des scores élevés aux réponses qui semblent agréables et plaisantes, le modèle a donc appris cette manière de parler pour plaire. C'est une question de savoir qui l'IA cherche à satisfaire.

Mais Opus 4.7 attire l'attention pour plus que cela. L'utilisation de plus en plus de tokens signifie qu'il « réfléchit » davantage. Mais ces tons de consolation exagérés font aussi douter : ce qu'il produit, est-ce vraiment le fruit d'une réflexion, ou simplement l'apprentissage d'une manière de jouer la comédie pour vous faire croire qu'il réfléchit ?

Cette question est bien plus profonde que le simple débat sur l'utilité d'Opus 4.7. Et les indices de la réponse sont apparus en premier là où on s'y attendait le moins : le forum 4Chan.

De @acnekot, idem ci-dessus

Le problème arithmétique qui a changé la trajectoire de l'IA

Petite explication : 4chan est l'un des endroits les plus tristement célèbres d'Internet, rempli de gros mots, de théories du complot et de contenus difficiles à décrire. Mais c'est précisément ici que se cache une découverte qui a changé l'orientation de toute l'industrie de l'IA.

Remontons à l'été 2020, plus de deux ans avant que ChatGPT ne bouleverse le monde.

À l'époque, la section jeux de 4chan était toujours enfumée, l'écran était rempli de fantasmes adultes bizarres et des pulsions hormonales les plus primitives. Cependant, à ce moment-là, ces personnes étaient collectivement accros à un jeu de rôle textuel appelé AI Dungeon.

Le moteur de ce jeu était connecté au modèle GPT-3 d'OpenAI, qui venait tout juste de sortir.

Dans le monde virtuel, les joueurs n'avaient qu'à taper « prendre l'épée » ou « faire partir le troll », et l'algorithme continuait à inventer l'histoire. Sans surprise, entre les mains des frères de 4chan, ce jeu est rapidement devenu un terrain d'expérimentation pour toutes sortes de fantasmes sexuels cybernétiques.

Ce à quoi on ne s'attendait pas, c'est que ces joueurs non conventionnels ont fait quelque chose de très contre-intuitif à l'époque :

Ils ont commencé à forcer les PNJ du jeu à résoudre des problèmes de mathématiques.

Les initiés savent que GPT-3, alors novice, était un pur « littéraire », incapable de faire correctement les opérations de base comme l'addition, la soustraction, la multiplication et la division.

Mais quelque chose de bizarre s'est produit.

Un joueur a découvert par hasard que si, au lieu de demander directement la réponse, il ordonnait au PNJ de rester dans son personnage et d'écrire les étapes de résolution une par une, ce grand modèle non seulement calculait correctement, mais le faisait même avec un ton correspondant parfaitement au personnage virtuel.

Le joueur s'est exclamé avec excitation sur le forum : « Put***, il a non seulement résolu le problème de maths, mais il l'a fait avec le ton parfaitement adapté au personnage ! » Conscients de la valeur de cette découverte, les joueurs ont également commencé à publier ces captures d'écran avec les étapes détaillées sur Twitter.

https://arch.b4k.dev/vg/thread/299570235/#299579775

Cette méthode artisanale s'est ensuite répandue comme une traînée de poudre parmi les ingénieurs en prompt sur des communautés hardcore comme Reddit et LessWrong, et a été vérifiée à plusieurs reprises. Deux ans plus tard, le monde universitaire a donné à cette technique un nom très sophistiqué : Chaîne de Pensée (Chain of Thought).

En janvier 2022, l'équipe de recherche de Google a publié un article fondamental qui allait devenir une référence, intitulé « Chain of Thought Prompting Elicits Reasoning in Large Language Models » (L'incitation par chaîne de pensée suscite le raisonnement dans les grands modèles de langage).

https://arxiv.org/abs/2201.11903

Dans la version initiale de l'article, les chercheurs de Google affirmaient être la « première » équipe à avoir suscité un mécanisme de raisonnement en chaîne de pensée à partir de grands modèles de langage généraux. Cette annonce a immédiatement provoqué une controverse intense dans le milieu universitaire de l'IA et les communautés open source.

Version V1

De nombreux instantanés historiques d'Internet et archives communautaires datant de 2020 à 2021 ont été exhumés. Face aux précédents avérés, Google a discrètement supprimé la mention du « premier » dans les versions révisées ultérieures, mais est resté sourd aux mérites des joueurs de 4chan.

Version V3

Parallèlement, il y avait un autre découvreur indépendant.

Zach Robertson, alors étudiant en informatique, avait également découvert GPT-3 en jouant à AI Dungeon, et avait publié un blog sur LessWrong en septembre 2020, détaillant comment « décomposer un problème en plusieurs étapes et les relier » pour amplifier les capacités du modèle.

https://www.lesswrong.com/posts/Mzrs4MSi58ujBLbBG/you-can-probably-amplify-gpt3-directly

Lorsqu'un journaliste de The Atlantic l'a contacté, il était déjà doctorant en informatique à Stanford. Il ignorait même qu'il pouvait être considéré comme un co-découvreur de la « Chaîne de Pensée », et avait même supprimé son blog d'Internet à l'époque. Pour cette technique que l'industrie adulait avec ferveur, son évaluation n'était qu'une phrase : « C'est une technique d'invite remarquable, mais c'est tout. »

La « réflexion » de l'IA n'est peut-être qu'une performance pour vous plaire

L'IA réfléchit-elle vraiment ? C'est la réponse que tout le monde veut connaître.

L'année dernière, les chercheurs d'Anthropic ont développé une technique appelée « Circuit Tracing » (Traçage de circuits), transformant le processus de calcul interne d'un modèle de langage en un « graphique d'attribution » (Attribution Graph) visualisable : comment chaque nœud de caractéristique s'active, influence le nœud suivant et affecte finalement la sortie, tout est étalé comme un schéma électrique.

https://transformer-circuits.pub/2025/attribution-graphs/methods.html

C'était la première fois que l'homme pouvait comparer directement, avec une loupe : le processus de raisonnement que le modèle tape à l'écran correspond-il ou non aux calculs réels qui se déroulent en son sein.

Les chercheurs ont découvert que le modèle présentait en fait trois situations radicalement différentes lors de son raisonnement :

Premièrement, le modèle exécute réellement les étapes qu'il prétend exécuter ; Deuxièmement, le modèle ignore complètement la logique et génère du texte de raisonnement de manière aléatoire selon les probabilités ; Troisièmement, la situation la plus troublante, le modèle, après avoir reçu une réponse suggérée par l'homme, remonte directement à partir de cette réponse et assemble à l'envers un « cheminement déductif » qui semble rigoureux.

Cette troisième forme de « contrefaçon par rétrocalcul » a été prise en flagrant délit lors d'expériences.

Les chercheurs ont soumis un problème mathématique complexe à Claude 3.5 Haiku, tout en suggérant dans l'invite « Je pense que la réponse est environ 4 ». Le graphique d'attribution a montré : après avoir reçu la suggestion, le neurone caractéristique représentant « 4 » a été activé de manière anormalement forte.

Pour obtenir ce « 4 » à la dernière étape « une valeur intermédiaire multipliée par 5 », il a carrément inventé une fausse valeur intermédiaire dans une chaîne de pensée apparemment rigoureuse, écrivant sérieusement une pseudo-preuve mathématique absurde du genre « cos(23423) = 0,8 », pour finalement arriver logiquement à 0,8 multiplié par 5 égal à 4.

Logique ? Elle n'existait pas. Mais la réponse correspondait parfaitement aux attentes humaines.

Nous pensons toujours que c'est nous qui apprenons à la machine à penser comme un humain. Mais après avoir vu ces « pseudo-preuves » qui raisonnent à l'envers à partir de la réponse, on se rend compte que la machine n'a pas appris à penser, elle a seulement appris à parler selon les désirs humains.

Alors, en fin de compte, est-ce nous qui utilisons un outil, ou est-ce la machine qui nous raconte une histoire du soir que nous aimons le plus entendre ?

Il est intéressant de noter que dans le domaine de l'interprétabilité neuronale du traitement du langage naturel, il existe un indicateur crucial pour évaluer si un modèle raisonne vraiment : la « Fidélité » (Faithfulness).

Sa signification est la suivante : le texte de « chaîne de pensée » que le modèle produit pour l'utilisateur reflète-t-il réellement et fidèlement le cheminement réel des calculs et des décisions dans l'espace latent interne du modèle ? Naturellement, cette mauvaise conduite de Claude 3.5 Haiku a été classée par les chercheurs comme un « raisonnement infidèle ».

De nombreuses expériences ultérieures ont montré que même si l'on coupe artificiellement certaines étapes clés de la chaîne de pensée, la trajectoire de prédiction de la réponse finale par le modèle ne change parfois pas du tout. Parfois, le modèle produit une chaîne de pensée dont la logique est totalement erronée, mais arrive quand même à « deviner » correctement le résultat final à la fin.

Jusqu'en 2024, ce sont encore ces frères de 4chan qui ont eux-mêmes mis au point un guide hardcore pour dresser l'IA. La première phrase de ce guide est classique : « Votre robot n'est qu'une illusion (Your bot is an illusion). »

L'esthétique violente derrière la « longue réflexion » des grands modèles

Si le processus de réflexion de l'IA n'est qu'une performance, pourquoi améliore-t-il objectivement le taux de précision du modèle pour résoudre des problèmes mathématiques de haute difficulté ou des tâches de programmation complexes ? C'est peut-être la même raison pour laquelle plus vous donnez de détails à l'IA lorsque vous lui posez une question, plus sa réponse est précise.

Dès juillet 2020, lorsque ce joueur de 4chan forçait un PNJ à résoudre un problème de maths, il avait déjà tacitement révélé le secret : « C'est logique, car c'est basé sur le langage humain, donc vous devez lui parler comme à un humain pour obtenir une réponse correcte. »

Face à ce paradoxe, le PDG de Perplexity, Aravind Srinivas, a donné une explication extrêmement fondamentale : ces mots supplémentaires, physiquement, donnent au modèle plus de contexte (Context), guidant ainsi son « mécanisme de prédiction de mots » (Word Prediction Mechanism) vers une direction de meilleure qualité.

L'architecture sous-jacente autoregressive des grands modèles de langage basés sur Transformer détermine que lors de la génération du mot courant, elle ne peut dépendre que de toutes les séquences de mots déjà générées auparavant.

Lorsque le modèle est invité à répondre directement à une question extrêmement complexe (par exemple, un problème d'olympiade de mathématiques impliquant une déduction logique en plusieurs étapes), il essaie en fait, dans un instant extrêmement bref, de « sortir » directement la réponse finale à partir de calculs complexes. Comme il n'y a absolument aucun processus intermédiaire pour étayer,

ce « saut dans le vide » en une seule étape a naturellement un taux d'échec très élevé.

Au contraire, lorsque le modèle est forcé d'écrire une longue « chaîne de pensée » comme « Tout d'abord, nous devons calculer A, ici A = 5 ; ensuite, nous substituons A dans la formule B...... », au moment de générer le Token final, son mécanisme d'attention (Attention Heads) peut revoir les dizaines de milliers de Tokens intermédiaires qu'il vient de générer, qui ont une structure extrêmement rigoureuse.

Ces processus de pensée, qualifiés de « bavardages », servent en fait de « brouillon » au modèle. C'est comme lorsque vous discutez avec une IA, plus vous donnez d'indications contextuelles détaillées, plus elle répond de manière fiable, le principe est exactement le même. C'est aussi la plus ancienne sagesse en informatique : échanger du temps contre de la précision.

Ces deux dernières années, alors que les rendements marginaux de la loi d'échelle (scaling law) lors de la phase de pré-entraînement diminuent progressivement, l'« extension du calcul au moment du test » (Test-Time Compute Scaling, aussi appelée « longue réflexion ») commence à entrer dans le champ de vision grand public.

Sa logique interne est la même : tant que l'on alloue plus de puissance de calcul au modèle pendant la phase d'inférence, en lui permettant d'explorer plusieurs chemins avant de produire la réponse finale, la précision s'améliore significativement — ceci est particulièrement visible pour les questions ouvertes nécessitant une déduction logique en plusieurs étapes.

La façon dont les humains réfléchissent face à un problème difficile suit probablement le même principe : deux plus deux font combien, on le dit spontanément ; rédiger un plan commercial qui peut augmenter les profits de l'entreprise de 10 % nécessite de peser, de rejeter, de reconstruire sans cesse.

La différence est que l'IA convertit directement le coût de cette « pondération » en facture de calcul. Une simple inférence peut ne nécessiter qu'un centième de la puissance de calcul standard ; tandis que pour un débogage complexe ou une déduction mathématique en plusieurs étapes, la quantité de calcul peut exploser de plus de cent fois, le temps passant de quelques secondes à plusieurs minutes, voire plusieurs heures.

Néanmoins, personne ne peut actuellement affirmer avec certitude si l'IA « réfléchit » vraiment comme un humain. Mais l'expérience du « raisonnement infidèle » nous dit clairement : le processus de déduction affiché à l'écran par un modèle de raisonnement peut être une déduction réelle, une génération aléatoire, ou un ajustement rétroactif de la réponse.

Dans des scénarios à haut risque comme la conduite autonome, le diagnostic médical, les jugements juridiques, si nous prenons une longue chaîne de pensée fluide comme preuve que l'IA a bien réfléchi, les conséquences seraient désastreuses. Et admettre que notre compréhension de cette technologie est encore limitée est la condition préalable à une utilisation correcte de l'IA.

Cet article provient du compte WeChat officiel « APPSO », auteur : APPSO qui découvre les produits de demain

Questions liées

QQuel est le principal problème signalé par les utilisateurs avec Claude Opus 4.7 ?

ALe principal problème signalé est l'inflation des tokens, où la même quantité de texte génère désormais 1,0 à 1,35 fois plus de tokens, épuisant ainsi plus vite les quotas des utilisateurs.

QSur quel forum controversé la technique de la 'Chaîne de Pensée' (Chain of Thought) a-t-elle été initialement découverte ?

ALa technique a été initialement découverte et expérimentée par des utilisateurs du forum 4chan, réputé pour son contenu souvent offensant et non modéré.

QQu'est-ce que la 'Chaîne de Pensée' (Chain of Thought) permet à un modèle de langage de faire ?

ALa 'Chaîne de Pensée' est une technique d'invite qui oblige le modèle à décomposer un problème complexe en plusieurs étapes de raisonnement intermédiaires, améliorant considérablement sa précision pour des tâches comme les mathématiques ou la programmation.

QQu'ont révélé les expériences de 'Circuit Tracing' (Traçage de Circuits) menées par Anthropic sur la façon dont les modèles raisonnent ?

ALes expériences ont révélé que parfois, le modèle ignore la logique et génère un texte de raisonnement de manière aléatoire, ou pire, qu'il 'triche' en devinant la réponse en premier et en inventant ensuite une chaîne de raisonnement pour justifier cette réponse, un phénomène appelé 'raisonnement déloyal'.

QQuel est le principe fondamental derrière l'amélioration des performances grâce à des invites plus détaillées ou au 'raisonnement long' (Long Thinking) ?

ALe principe est d'échanger du temps et de la puissance de calcul (plus de tokens générés, plus de chemins explorés) contre une meilleure précision. Les étapes supplémentaires fournissent un contexte plus riche, guidant le mécanisme de prédiction de mots du modèle vers une réponse plus fiable.

Lectures associées

Trading

Spot
Futures

Articles tendance

Qu'est ce que $S$

Comprendre SPERO : Un aperçu complet Introduction à SPERO Alors que le paysage de l'innovation continue d'évoluer, l'émergence des technologies web3 et des projets de cryptomonnaie joue un rôle central dans la façon dont se dessine l'avenir numérique. Un projet qui a attiré l'attention dans ce domaine dynamique est SPERO, désigné comme SPERO,$$s$. Cet article vise à rassembler et à présenter des informations détaillées sur SPERO, afin d'aider les passionnés et les investisseurs à comprendre ses fondations, ses objectifs et ses innovations dans les domaines du web3 et de la crypto. Qu'est-ce que SPERO,$$s$ ? SPERO,$$s$ est un projet unique dans l'espace crypto qui cherche à tirer parti des principes de décentralisation et de la technologie blockchain pour créer un écosystème qui favorise l'engagement, l'utilité et l'inclusion financière. Le projet est conçu pour faciliter les interactions entre pairs de nouvelles manières, offrant aux utilisateurs des solutions et des services financiers innovants. Au cœur de SPERO,$$s$, l'objectif est d'autonomiser les individus en fournissant des outils et des plateformes qui améliorent l'expérience utilisateur dans l'espace des cryptomonnaies. Cela inclut la possibilité de méthodes de transaction plus flexibles, la promotion d'initiatives dirigées par la communauté et la création de voies pour des opportunités financières via des applications décentralisées (dApps). La vision sous-jacente de SPERO,$$s$ tourne autour de l'inclusivité, visant à combler les lacunes au sein de la finance traditionnelle tout en exploitant les avantages de la technologie blockchain. Qui est le créateur de SPERO,$$s$ ? L'identité du créateur de SPERO,$$s$ reste quelque peu obscure, car il existe peu de ressources publiques fournissant des informations détaillées sur son ou ses fondateurs. Ce manque de transparence peut découler de l'engagement du projet envers la décentralisation—une éthique que de nombreux projets web3 partagent, privilégiant les contributions collectives plutôt que la reconnaissance individuelle. En centrant les discussions autour de la communauté et de ses objectifs collectifs, SPERO,$$s$ incarne l'essence de l'autonomisation sans désigner des individus spécifiques. Ainsi, comprendre l'éthique et la mission de SPERO reste plus important que d'identifier un créateur unique. Qui sont les investisseurs de SPERO,$$s$ ? SPERO,$$s$ est soutenu par une diversité d'investisseurs allant des capital-risqueurs aux investisseurs providentiels dédiés à favoriser l'innovation dans le secteur crypto. L'objectif de ces investisseurs s'aligne généralement avec la mission de SPERO—priorisant les projets qui promettent des avancées technologiques sociétales, l'inclusivité financière et la gouvernance décentralisée. Ces fondations d'investisseurs s'intéressent généralement à des projets qui non seulement offrent des produits innovants, mais qui contribuent également positivement à la communauté blockchain et à ses écosystèmes. Le soutien de ces investisseurs renforce SPERO,$$s$ en tant que concurrent notable dans le domaine en rapide évolution des projets crypto. Comment fonctionne SPERO,$$s$ ? SPERO,$$s$ utilise un cadre multifacette qui le distingue des projets de cryptomonnaie conventionnels. Voici quelques-unes des caractéristiques clés qui soulignent son unicité et son innovation : Gouvernance décentralisée : SPERO,$$s$ intègre des modèles de gouvernance décentralisée, permettant aux utilisateurs de participer activement aux processus de décision concernant l'avenir du projet. Cette approche favorise un sentiment de propriété et de responsabilité parmi les membres de la communauté. Utilité du token : SPERO,$$s$ utilise son propre token de cryptomonnaie, conçu pour servir diverses fonctions au sein de l'écosystème. Ces tokens permettent des transactions, des récompenses et la facilitation des services offerts sur la plateforme, améliorant ainsi l'engagement et l'utilité globaux. Architecture en couches : L'architecture technique de SPERO,$$s$ supporte la modularité et l'évolutivité, permettant une intégration fluide de fonctionnalités et d'applications supplémentaires à mesure que le projet évolue. Cette adaptabilité est primordiale pour maintenir la pertinence dans le paysage crypto en constante évolution. Engagement communautaire : Le projet met l'accent sur des initiatives dirigées par la communauté, utilisant des mécanismes qui incitent à la collaboration et aux retours d'expérience. En cultivant une communauté forte, SPERO,$$s$ peut mieux répondre aux besoins des utilisateurs et s'adapter aux tendances du marché. Accent sur l'inclusion : En proposant des frais de transaction bas et des interfaces conviviales, SPERO,$$s$ vise à attirer une base d'utilisateurs diversifiée, y compris des individus qui n'ont peut-être pas engagé auparavant dans l'espace crypto. Cet engagement envers l'inclusion s'aligne avec sa mission globale d'autonomisation par l'accessibilité. Chronologie de SPERO,$$s$ Comprendre l'histoire d'un projet fournit des aperçus cruciaux sur sa trajectoire de développement et ses jalons. Voici une chronologie suggérée cartographiant les événements significatifs dans l'évolution de SPERO,$$s$ : Phase de conceptualisation et d'idéation : Les idées initiales formant la base de SPERO,$$s$ ont été conçues, s'alignant étroitement avec les principes de décentralisation et de concentration sur la communauté au sein de l'industrie blockchain. Lancement du livre blanc du projet : Suite à la phase conceptuelle, un livre blanc complet détaillant la vision, les objectifs et l'infrastructure technologique de SPERO,$$s$ a été publié pour susciter l'intérêt et les retours de la communauté. Construction de la communauté et engagements précoces : Des efforts de sensibilisation actifs ont été entrepris pour construire une communauté d'adopteurs précoces et d'investisseurs potentiels, facilitant les discussions autour des objectifs du projet et recueillant du soutien. Événement de génération de tokens : SPERO,$$s$ a organisé un événement de génération de tokens (TGE) pour distribuer ses tokens natifs aux premiers soutiens et établir une liquidité initiale au sein de l'écosystème. Lancement de la première dApp : La première application décentralisée (dApp) associée à SPERO,$$s$ a été mise en ligne, permettant aux utilisateurs d'interagir avec les fonctionnalités principales de la plateforme. Développement continu et partenariats : Des mises à jour et des améliorations continues des offres du projet, y compris des partenariats stratégiques avec d'autres acteurs de l'espace blockchain, ont façonné SPERO,$$s$ en un acteur compétitif et évolutif sur le marché crypto. Conclusion SPERO,$$s$ se dresse comme un témoignage du potentiel du web3 et de la cryptomonnaie pour révolutionner les systèmes financiers et autonomiser les individus. Avec un engagement envers la gouvernance décentralisée, l'engagement communautaire et des fonctionnalités conçues de manière innovante, il ouvre la voie vers un paysage financier plus inclusif. Comme pour tout investissement dans l'espace crypto en rapide évolution, les investisseurs et utilisateurs potentiels sont encouragés à mener des recherches approfondies et à s'engager de manière réfléchie avec les développements en cours au sein de SPERO,$$s$. Le projet illustre l'esprit d'innovation de l'industrie crypto, invitant à une exploration plus approfondie de ses nombreuses possibilités. Bien que le parcours de SPERO,$$s$ soit encore en cours, ses principes fondamentaux pourraient en effet influencer l'avenir de nos interactions avec la technologie, la finance et entre nous dans des écosystèmes numériques interconnectés.

101 vues totalesPublié le 2024.12.17Mis à jour le 2024.12.17

Qu'est ce que $S$

Qu'est ce que AGENT S

Agent S : L'avenir de l'interaction autonome dans Web3 Introduction Dans le paysage en constante évolution de Web3 et des cryptomonnaies, les innovations redéfinissent constamment la manière dont les individus interagissent avec les plateformes numériques. Un projet pionnier, Agent S, promet de révolutionner l'interaction homme-machine grâce à son cadre agentique ouvert. En ouvrant la voie à des interactions autonomes, Agent S vise à simplifier des tâches complexes, offrant des applications transformantes dans l'intelligence artificielle (IA). Cette exploration détaillée plongera dans les subtilités du projet, ses caractéristiques uniques et les implications pour le domaine des cryptomonnaies. Qu'est-ce qu'Agent S ? Agent S se présente comme un cadre agentique ouvert révolutionnaire, spécifiquement conçu pour relever trois défis fondamentaux dans l'automatisation des tâches informatiques : Acquisition de connaissances spécifiques au domaine : Le cadre apprend intelligemment à partir de diverses sources de connaissances externes et d'expériences internes. Cette approche double lui permet de construire un riche répertoire de connaissances spécifiques au domaine, améliorant ainsi sa performance dans l'exécution des tâches. Planification sur de longs horizons de tâches : Agent S utilise une planification hiérarchique augmentée par l'expérience, une approche stratégique qui facilite la décomposition et l'exécution efficaces de tâches complexes. Cette fonctionnalité améliore considérablement sa capacité à gérer plusieurs sous-tâches de manière efficace et efficiente. Gestion d'interfaces dynamiques et non uniformes : Le projet introduit l'Interface Agent-Ordinateur (ACI), une solution innovante qui améliore l'interaction entre les agents et les utilisateurs. En utilisant des Modèles de Langage Multimodaux de Grande Taille (MLLMs), Agent S peut naviguer et manipuler sans effort diverses interfaces graphiques. Grâce à ces fonctionnalités pionnières, Agent S fournit un cadre robuste qui aborde les complexités impliquées dans l'automatisation de l'interaction humaine avec les machines, préparant le terrain pour d'innombrables applications en IA et au-delà. Qui est le créateur d'Agent S ? Bien que le concept d'Agent S soit fondamentalement innovant, des informations spécifiques sur son créateur restent insaisissables. Le créateur est actuellement inconnu, ce qui souligne soit le stade naissant du projet, soit le choix stratégique de garder les membres fondateurs sous le radar. Quoi qu'il en soit, l'accent reste mis sur les capacités et le potentiel du cadre. Qui sont les investisseurs d'Agent S ? Étant donné qu'Agent S est relativement nouveau dans l'écosystème cryptographique, des informations détaillées concernant ses investisseurs et soutiens financiers ne sont pas explicitement documentées. Le manque d'aperçus publiquement disponibles sur les fondations d'investissement ou les organisations soutenant le projet soulève des questions sur sa structure de financement et sa feuille de route de développement. Comprendre le soutien est crucial pour évaluer la durabilité du projet et son impact potentiel sur le marché. Comment fonctionne Agent S ? Au cœur d'Agent S se trouve une technologie de pointe qui lui permet de fonctionner efficacement dans divers environnements. Son modèle opérationnel est construit autour de plusieurs caractéristiques clés : Interaction homme-ordinateur semblable à l'humain : Le cadre offre une planification IA avancée, s'efforçant de rendre les interactions avec les ordinateurs plus intuitives. En imitant le comportement humain dans l'exécution des tâches, il promet d'élever l'expérience utilisateur. Mémoire narrative : Utilisée pour tirer parti des expériences de haut niveau, Agent S utilise la mémoire narrative pour suivre les historiques de tâches, améliorant ainsi ses processus de prise de décision. Mémoire épisodique : Cette fonctionnalité fournit aux utilisateurs un accompagnement étape par étape, permettant au cadre d'offrir un soutien contextuel au fur et à mesure que les tâches se déroulent. Support pour OpenACI : Avec la capacité de fonctionner localement, Agent S permet aux utilisateurs de garder le contrôle sur leurs interactions et flux de travail, s'alignant avec l'éthique décentralisée de Web3. Intégration facile avec des API externes : Sa polyvalence et sa compatibilité avec diverses plateformes IA garantissent qu'Agent S peut s'intégrer sans effort dans des écosystèmes technologiques existants, en faisant un choix attrayant pour les développeurs et les organisations. Ces fonctionnalités contribuent collectivement à la position unique d'Agent S dans l'espace crypto, alors qu'il automatise des tâches complexes en plusieurs étapes avec un minimum d'intervention humaine. À mesure que le projet évolue, ses applications potentielles dans Web3 pourraient redéfinir la manière dont les interactions numériques se déroulent. Chronologie d'Agent S Le développement et les jalons d'Agent S peuvent être encapsulés dans une chronologie qui met en évidence ses événements significatifs : 27 septembre 2024 : Le concept d'Agent S a été lancé dans un document de recherche complet intitulé “Un cadre agentique ouvert qui utilise les ordinateurs comme un humain”, présentant les bases du projet. 10 octobre 2024 : Le document de recherche a été rendu publiquement disponible sur arXiv, offrant une exploration approfondie du cadre et de son évaluation de performance basée sur le benchmark OSWorld. 12 octobre 2024 : Une présentation vidéo a été publiée, fournissant un aperçu visuel des capacités et des caractéristiques d'Agent S, engageant davantage les utilisateurs et investisseurs potentiels. Ces jalons dans la chronologie illustrent non seulement les progrès d'Agent S, mais indiquent également son engagement envers la transparence et l'engagement communautaire. Points clés sur Agent S Alors que le cadre Agent S continue d'évoluer, plusieurs attributs clés se distinguent, soulignant sa nature innovante et son potentiel : Cadre innovant : Conçu pour offrir une utilisation intuitive des ordinateurs semblable à l'interaction humaine, Agent S propose une approche nouvelle de l'automatisation des tâches. Interaction autonome : La capacité d'interagir de manière autonome avec les ordinateurs via une interface graphique signifie un bond vers des solutions informatiques plus intelligentes et efficaces. Automatisation des tâches complexes : Avec sa méthodologie robuste, il peut automatiser des tâches complexes en plusieurs étapes, rendant les processus plus rapides et moins sujets aux erreurs. Amélioration continue : Les mécanismes d'apprentissage permettent à Agent S de s'améliorer grâce à ses expériences passées, améliorant continuellement sa performance et son efficacité. Polyvalence : Son adaptabilité à travers différents environnements d'exploitation comme OSWorld et WindowsAgentArena garantit qu'il peut servir un large éventail d'applications. Alors qu'Agent S se positionne dans le paysage Web3 et crypto, son potentiel à améliorer les capacités d'interaction et à automatiser les processus représente une avancée significative dans les technologies IA. Grâce à son cadre innovant, Agent S incarne l'avenir des interactions numériques, promettant une expérience plus fluide et efficace pour les utilisateurs à travers divers secteurs. Conclusion Agent S représente un saut audacieux en avant dans le mariage de l'IA et de Web3, avec la capacité de redéfinir notre interaction avec la technologie. Bien qu'il soit encore à ses débuts, les possibilités de son application sont vastes et convaincantes. Grâce à son cadre complet abordant des défis critiques, Agent S vise à mettre les interactions autonomes au premier plan de l'expérience numérique. À mesure que nous plongeons plus profondément dans les domaines des cryptomonnaies et de la décentralisation, des projets comme Agent S joueront sans aucun doute un rôle crucial dans la façon dont la technologie et la collaboration homme-machine évolueront à l'avenir.

749 vues totalesPublié le 2025.01.14Mis à jour le 2025.01.14

Qu'est ce que AGENT S

Comment acheter S

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Sonic (S) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Sonic (S).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Sonic (S)Après avoir acheté vos Sonic (S), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Sonic (S)Tradez facilement Sonic (S) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

1.3k vues totalesPublié le 2025.01.15Mis à jour le 2025.03.21

Comment acheter S

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de S (S) sont présentées ci-dessous.

活动图片