Fondateur d'a16z : À l'ère des agents, ce qui compte vraiment a changé

marsbitPublié le 2026-04-25Dernière mise à jour le 2026-04-25

Résumé

Marc Andreessen, fondateur d'a16z, explique que l'ère de l'IA actuelle n'est pas une apparition soudaine mais le résultat de 80 ans de développement technologique. Il souligne que les agents IA, combinant LLM, shell, système de fichiers et autres outils logiciels, représentent un changement architectural profond. À l'avenir, les interfaces utilisateur pourraient disparaître au profit d'interactions via des agents, et les logiciels seront principalement utilisés par d'autres bots. Il compare le cycle d'investissement actuel à la bulle Internet de 2000, mais note des différences structurelles. L'open source, l'inférence en périphérie et l'exécution locale sont essentiels. Enfin, les défis de l'IA incluent la sécurité, l'identité, les flux financiers et les résistances organisationnelles, et son adoption sera progressive malgré les avancées techniques.

Source du signal :

Il s'agit de la dernière interview de Marc Andreessen, fondateur d'a16z, sur le podcast Latent Space.

Il est un entrepreneur Internet renommé aux États-Unis, une figure clé du développement précoce d'Internet ; après avoir fondé a16z, il est également devenu une figure emblématique des investisseurs de premier plan de la Silicon Valley.

L'ensemble de la conversation tourne autour de l'histoire du développement de l'IA et des dernières tendances, et elle vaut vraiment la peine d'être lue.

I. Cette vague d'IA n'est pas apparue soudainement, mais est la première fois, après une longue course technologique de 80 ans, qu'elle se met « vraiment au travail »

· Cette vague d'IA n'est pas apparue soudainement, mais est le résultat d'une longue course technologique de 80 ans

· Marc Andreessen qualifie directement le moment présent de « succès nocturne de 80 ans », signifiant que l'explosion soudaine perçue par le public est en réalité la libération concentrée de décennies de réserves technologiques.

· Il retrace cette piste technologique jusqu'aux premières recherches sur les réseaux neuronaux et souligne qu'aujourd'hui, l'industrie a en fait accepté le jugement selon lequel « les réseaux neuronaux sont l'architecture correcte ».

· Dans son récit, les points clés ne sont pas des moments uniques, mais une série d'empilements : AlexNet, Transformer, ChatGPT, les modèles de raisonnement, puis les agents et l'auto-amélioration.

· Il souligne particulièrement que cette fois, ce n'est pas seulement la génération de texte qui devient plus forte, mais quatre types de fonctionnalités apparaissent simultanément : LLMs, raisonnement, codage, et agents / auto-amélioration récursive.

· La raison pour laquelle il pense que « cette fois, c'est différent » n'est pas due à un récit plus attrayant, mais parce que ces capacités ont commencé à travailler sur des tâches réelles.

II. L'architecture d'agent représentée par Pi et OpenClaw est un changement d'architecture logicielle plus profond que celui des chatbots

· Il décrit l'agent de manière très concrète : essentiellement, c'est « LLM + shell + système de fichiers + markdown + cron/boucle ». Dans cette structure, le LLM est le noyau de raisonnement et de génération, le shell fournit l'environnement d'exécution, le système de fichiers sauvegarde l'état, le markdown rend l'état lisible, et cron/boucle fournit le réveil périodique et l'avancement des tâches.

· Il pense que l'importance de cette combinaison réside dans le fait qu'à part le modèle lui-même qui est nouveau, tous les autres composants sont des parties déjà matures, compréhensibles et réutilisables du monde logiciel.

· L'état de l'agent est sauvegardé dans des fichiers, il peut donc migrer à travers les modèles et les runtimes ; le modèle sous-jacent peut être remplacé, mais la mémoire et l'état sont conservés.

· Il souligne à plusieurs reprises l'introspection : l'agent connaît ses propres fichiers, peut lire son propre état, et même réécrire ses propres fichiers et fonctionnalités, avançant vers la direction « étends-toi toi-même ».

· À ses yeux, la véritable percée n'est pas seulement que « le modèle répond », mais que l'agent peut utiliser la chaîne d'outils Unix existante et connecter toute la capacité potentielle de l'ordinateur.

III. Le navigateur, les GUI traditionnelles et l'ère du « logiciel cliqué à la main » seront progressivement remplacés par des modes d'interaction axés sur les agents

· Marc Andreessen a clairement déclaré qu'à l'avenir, « vous pourriez ne plus avoir besoin d'interface utilisateur ».

· Il précise en outre que les principaux utilisateurs des logiciels futurs pourraient ne pas être des humains, mais des « autres bots ».

· Cela signifie que de nombreuses interfaces conçues aujourd'hui pour les clics humains, la navigation et le remplissage de formulaires pourraient se réduire à une couche d'exécution appelée en arrière-plan par les agents.

· Dans ce monde, l'humain ressemble plus à celui qui définit l'objectif : il dit au système ce qu'il veut, et l'agent appelle les services, opère les logiciels et achève les processus.

· Il relie ce changement à un avenir plus large du logiciel : les logiciels de haute qualité deviendront de plus en plus « abondants », cessant d'être des produits rares fabriqués artisanalement par quelques ingénieurs.

· Il estime également que l'importance des langages de programmation diminuera ; les modèles écriront du code dans différentes langues, se traduiront mutuellement, et à l'avenir, les humains se soucieront plus d'expliquer pourquoi l'IA organise le code de cette manière plutôt que de s'accrocher à une langue spécifique.

· Il mentionne même une direction plus radicale : conceptuellement, l'IA pourrait non seulement produire du code, mais aussi directement produire du code binaire (binary) ou des poids de modèle (model weights) de plus bas niveau.

IV. Ce cycle d'investissement en IA présente des similitudes avec la bulle Internet de 2000, mais les structures sous-jacentes de l'offre et de la demande sont différentes

· En revenant sur l'année 2000, il souligne que l'effondrement n'était largement pas dû au fait qu'« Internet ne fonctionnait pas », mais à une surconstruction des infrastructures télécoms et de bande passante, avec une pose anticipée de fibres optiques et de centres de données, suivie d'une longue période de digestion.

· Il pense qu'aujourd'hui, on peut effectivement voir des inquiétudes de « surconstruction », mais les principaux investisseurs sont principalement de grandes entreprises disposant de liquidités abondantes comme Microsoft, Amazon, Google, et non des acteurs fragiles hautement endettés.

· Il souligne particulièrement que dès qu'un investissement en GPU opérationnel est formé, il peut généralement être rapidement converti en revenus, ce qui diffère des grandes capacités inutilisées de 2000.

· Il souligne également que nous utilisons actuellement une version de la technologie « sandbagged » (alourdie) : en raison de pénuries d'approvisionnement en GPU, mémoire, centres de données, etc., le potentiel des modèles n'est pas pleinement libéré.

· Selon son jugement, les véritables contraintes des prochaines années ne seront pas seulement les GPU, mais aussi les goulots d'étranglement liés au CPU, à la mémoire, au réseau et à l'ensemble de l'écosystème des puces.

· Il place les lois de scaling de l'IA (AI scaling laws) côte à côte avec la loi de Moore passée, estimant qu'elles ne décrivent pas seulement des règles, mais stimulent également continuellement le capital, l'ingénierie et l'avancement synergique de l'industrie.

· Il mentionne un phénomène très inhabituel mais important : à mesure que l'optimisation logicielle s'accélère, certaines puces de l'ancienne génération pourraient même avoir plus de valeur économique qu'au moment de leur achat.

V. L'open source, l'inférence en périphérie (edge) et l'exécution locale ne sont pas des à-côtés, mais font partie du paysage concurrentiel de l'IA

· Marc Andreessen estime clairement que l'open source est très important, non seulement parce que c'est gratuit, mais parce que cela « permet au monde entier d'apprendre comment c'est fait ».

· Il décrit les publications open source comme celles de DeepSeek comme un « cadeau au monde », car le code + le document diffusent rapidement les connaissances, élevant le niveau de base de toute l'industrie.

· Dans son récit, l'open source n'est pas seulement un choix technique, mais peut aussi être une stratégie géopolitique et de marché : différents pays et entreprises adopteront différentes stratégies d'ouverture basées sur leurs propres restrictions commerciales et objectifs d'influence.

· Il souligne simultanément l'importance de l'inférence en périphérie (« Edge inference ») : dans les prochaines années, le coût de l'inférence centralisée ne sera pas nécessairement suffisamment bas, et de nombreuses applications grand public ne pourront pas supporter des coûts d'inférence cloud élevés à long terme.

· Il mentionne un modèle qui revient souvent : ce qui semble « impossible à exécuter sur un PC » aujourd'hui, devient souvent réalité sur une machine locale quelques mois plus tard.

· Outre le coût, la confiance, la vie privée, la latence et les scénarios d'utilisation poussent également vers l'exécution locale : les wearables, serrures, appareils portables, etc., sont plus adaptés à une inférence à faible latence et sur place.

· Son jugement est très direct : presque tout ce qui contient une puce pourrait contenir un modèle d'IA à l'avenir.

VI. Le véritable défi de l'IA ne réside pas seulement dans la capacité des modèles, mais aussi dans la sécurité, l'identité, les flux financiers, les organisations et les résistances institutionnelles

· En matière de sécurité, son jugement est très tranché : presque tous les bogues de sécurité potentiels seront plus faciles à découvrir, et à court terme, une période de « grande catastrophe de la sécurité informatique » pourrait survenir.

· Mais il pense également que les intelligences de programmation permettront de mettre à l'échelle la capacité à corriger les vulnérabilités ; à l'avenir, la manière de « protéger les logiciels » pourrait simplement être de laisser un bot les scanner et les réparer.

· Sur la question de l'identité, il estime que la « preuve de bot (proof of bot) » n'est pas viable, car les bots deviendront de plus en plus puissants ; la direction réellement viable est la « preuve d'humanité (proof of human) », c'est-à-dire une combinaison de biométrie, de vérification cryptographique et de divulgation sélective (selective disclosure).

· Il aborde également un problème souvent négligé : si les agents doivent vraiment agir dans le monde réel, ils auront finalement besoin d'argent, de capacités de paiement, et même d'une forme de compte bancaire, de carte ou d'infrastructure de type stablecoin. Au niveau organisationnel, il utilise le cadre du capitalisme managérial (managerial capitalism), estimant que l'IA pourrait renforcer les entreprises dirigées par des fondateurs, car les bots sont très doués pour les rapports, la coordination, la paperasse et大量 (un grand nombre) de « travaux de gestion ».

· Mais il ne pense pas que la société acceptera rapidement et facilement l'IA : il cite des exemples de licences professionnelles, syndicats, grèves des dockers, organismes gouvernementaux, éducation K-12, santé, etc., montrant que le monde réel compte de nombreux ralentisseurs institutionnels.

· Son jugement est que les utopistes et les partisans de l'apocalypse de l'IA ignorent facilement un point : ce qui est techniquement possible ne signifie pas que 8 milliards de personnes changeront immédiatement.

Questions liées

QSelon Marc Andreessen, pourquoi l'IA actuelle n'est-elle pas une apparition soudaine mais plutôt le résultat d'une longue évolution ?

AMarc Andreessen décrit l'IA actuelle comme un « succès nocturne de 80 ans », soulignant que son apparition soudaine dans le discours public est en réalité le résultat de décennies de préparation technique, remontant aux premières recherches sur les réseaux neuronaux, avec des étapes clés comme AlexNet, Transformer, ChatGPT, et l'émergence des agents et de l'auto-amélioration.

QQuels sont les composants clés d'un agent IA selon la vision de Marc Andreessen ?

AAndreessen décrit un agent IA comme une combinaison de « LLM + shell + système de fichiers + markdown + cron/boucle ». Le LLM est le noyau de raisonnement, le shell fournit l'environnement d'exécution, le système de fichiers conserve l'état, le markdown rend l'état lisible, et cron/boucle permet un réveil périodique et l'avancement des tâches.

QComment Marc Andreessen envisage-t-il l'évolution de l'interaction homme-machine à l'ère des agents ?

AIl prédit que les interfaces utilisateur traditionnelles (GUI) et l'ère du « clic manuel » seront progressivement remplacées par des interactions de type « agent-first ». Les logiciels seront principalement utilisés par d'autres bots, et les humains deviendront des définisseurs d'objectifs, laissant les agents exécuter les tâches en arrière-plan.

QQuelles sont les différences fondamentales entre le cycle d'investissement actuel en IA et la bulle Internet de 2000 selon Andreessen ?

AAndreessen souligne que si des craintes de « surconstruction » existent aujourd'hui, les investisseurs sont majoritairement de grandes entreprises solvables (Microsoft, Amazon, Google) et non des acteurs fragiles et fortement endettés. De plus, les investissements en GPU se convertissent rapidement en revenus, contrairement à la surcapacité inactive de 2000.

QQuel est l'importance de l'open source et de l'inférence en périphérie (edge) dans le paysage de l'IA selon Andreessen ?

AAndreessen considère l'open source comme crucial, non seulement pour la gratuité, mais comme un « cadeau au monde » qui diffuse la connaissance et élève les standards. Il souligne également l'importance de l'inférence en périphérie pour des raisons de coût, de confidentialité, de latence et pour permettre l'exécution locale sur divers appareils, des wearables aux dispositifs embarqués.

Lectures associées

Trading

Spot
Futures

Articles tendance

Comment acheter ERA

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Caldera (ERA) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Caldera (ERA).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Caldera (ERA)Après avoir acheté vos Caldera (ERA), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Caldera (ERA)Tradez facilement Caldera (ERA) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

467 vues totalesPublié le 2025.07.17Mis à jour le 2025.07.17

Comment acheter ERA

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de ERA (ERA) sont présentées ci-dessous.

活动图片