Source du signal :
Il s'agit de la dernière interview de Marc Andreessen, fondateur d'a16z, sur le podcast Latent Space.
Il est un entrepreneur Internet renommé aux États-Unis, une figure clé du développement précoce d'Internet ; après avoir fondé a16z, il est également devenu une figure emblématique des investisseurs de premier plan de la Silicon Valley.
L'ensemble de la conversation tourne autour de l'histoire du développement de l'IA et des dernières tendances, et elle vaut vraiment la peine d'être lue.
I. Cette vague d'IA n'est pas apparue soudainement, mais est la première fois, après une longue course technologique de 80 ans, qu'elle se met « vraiment au travail »
· Cette vague d'IA n'est pas apparue soudainement, mais est le résultat d'une longue course technologique de 80 ans
· Marc Andreessen qualifie directement le moment présent de « succès nocturne de 80 ans », signifiant que l'explosion soudaine perçue par le public est en réalité la libération concentrée de décennies de réserves technologiques.
· Il retrace cette piste technologique jusqu'aux premières recherches sur les réseaux neuronaux et souligne qu'aujourd'hui, l'industrie a en fait accepté le jugement selon lequel « les réseaux neuronaux sont l'architecture correcte ».
· Dans son récit, les points clés ne sont pas des moments uniques, mais une série d'empilements : AlexNet, Transformer, ChatGPT, les modèles de raisonnement, puis les agents et l'auto-amélioration.
· Il souligne particulièrement que cette fois, ce n'est pas seulement la génération de texte qui devient plus forte, mais quatre types de fonctionnalités apparaissent simultanément : LLMs, raisonnement, codage, et agents / auto-amélioration récursive.
· La raison pour laquelle il pense que « cette fois, c'est différent » n'est pas due à un récit plus attrayant, mais parce que ces capacités ont commencé à travailler sur des tâches réelles.
II. L'architecture d'agent représentée par Pi et OpenClaw est un changement d'architecture logicielle plus profond que celui des chatbots
· Il décrit l'agent de manière très concrète : essentiellement, c'est « LLM + shell + système de fichiers + markdown + cron/boucle ». Dans cette structure, le LLM est le noyau de raisonnement et de génération, le shell fournit l'environnement d'exécution, le système de fichiers sauvegarde l'état, le markdown rend l'état lisible, et cron/boucle fournit le réveil périodique et l'avancement des tâches.
· Il pense que l'importance de cette combinaison réside dans le fait qu'à part le modèle lui-même qui est nouveau, tous les autres composants sont des parties déjà matures, compréhensibles et réutilisables du monde logiciel.
· L'état de l'agent est sauvegardé dans des fichiers, il peut donc migrer à travers les modèles et les runtimes ; le modèle sous-jacent peut être remplacé, mais la mémoire et l'état sont conservés.
· Il souligne à plusieurs reprises l'introspection : l'agent connaît ses propres fichiers, peut lire son propre état, et même réécrire ses propres fichiers et fonctionnalités, avançant vers la direction « étends-toi toi-même ».
· À ses yeux, la véritable percée n'est pas seulement que « le modèle répond », mais que l'agent peut utiliser la chaîne d'outils Unix existante et connecter toute la capacité potentielle de l'ordinateur.
III. Le navigateur, les GUI traditionnelles et l'ère du « logiciel cliqué à la main » seront progressivement remplacés par des modes d'interaction axés sur les agents
· Marc Andreessen a clairement déclaré qu'à l'avenir, « vous pourriez ne plus avoir besoin d'interface utilisateur ».
· Il précise en outre que les principaux utilisateurs des logiciels futurs pourraient ne pas être des humains, mais des « autres bots ».
· Cela signifie que de nombreuses interfaces conçues aujourd'hui pour les clics humains, la navigation et le remplissage de formulaires pourraient se réduire à une couche d'exécution appelée en arrière-plan par les agents.
· Dans ce monde, l'humain ressemble plus à celui qui définit l'objectif : il dit au système ce qu'il veut, et l'agent appelle les services, opère les logiciels et achève les processus.
· Il relie ce changement à un avenir plus large du logiciel : les logiciels de haute qualité deviendront de plus en plus « abondants », cessant d'être des produits rares fabriqués artisanalement par quelques ingénieurs.
· Il estime également que l'importance des langages de programmation diminuera ; les modèles écriront du code dans différentes langues, se traduiront mutuellement, et à l'avenir, les humains se soucieront plus d'expliquer pourquoi l'IA organise le code de cette manière plutôt que de s'accrocher à une langue spécifique.
· Il mentionne même une direction plus radicale : conceptuellement, l'IA pourrait non seulement produire du code, mais aussi directement produire du code binaire (binary) ou des poids de modèle (model weights) de plus bas niveau.
IV. Ce cycle d'investissement en IA présente des similitudes avec la bulle Internet de 2000, mais les structures sous-jacentes de l'offre et de la demande sont différentes
· En revenant sur l'année 2000, il souligne que l'effondrement n'était largement pas dû au fait qu'« Internet ne fonctionnait pas », mais à une surconstruction des infrastructures télécoms et de bande passante, avec une pose anticipée de fibres optiques et de centres de données, suivie d'une longue période de digestion.
· Il pense qu'aujourd'hui, on peut effectivement voir des inquiétudes de « surconstruction », mais les principaux investisseurs sont principalement de grandes entreprises disposant de liquidités abondantes comme Microsoft, Amazon, Google, et non des acteurs fragiles hautement endettés.
· Il souligne particulièrement que dès qu'un investissement en GPU opérationnel est formé, il peut généralement être rapidement converti en revenus, ce qui diffère des grandes capacités inutilisées de 2000.
· Il souligne également que nous utilisons actuellement une version de la technologie « sandbagged » (alourdie) : en raison de pénuries d'approvisionnement en GPU, mémoire, centres de données, etc., le potentiel des modèles n'est pas pleinement libéré.
· Selon son jugement, les véritables contraintes des prochaines années ne seront pas seulement les GPU, mais aussi les goulots d'étranglement liés au CPU, à la mémoire, au réseau et à l'ensemble de l'écosystème des puces.
· Il place les lois de scaling de l'IA (AI scaling laws) côte à côte avec la loi de Moore passée, estimant qu'elles ne décrivent pas seulement des règles, mais stimulent également continuellement le capital, l'ingénierie et l'avancement synergique de l'industrie.
· Il mentionne un phénomène très inhabituel mais important : à mesure que l'optimisation logicielle s'accélère, certaines puces de l'ancienne génération pourraient même avoir plus de valeur économique qu'au moment de leur achat.
V. L'open source, l'inférence en périphérie (edge) et l'exécution locale ne sont pas des à-côtés, mais font partie du paysage concurrentiel de l'IA
· Marc Andreessen estime clairement que l'open source est très important, non seulement parce que c'est gratuit, mais parce que cela « permet au monde entier d'apprendre comment c'est fait ».
· Il décrit les publications open source comme celles de DeepSeek comme un « cadeau au monde », car le code + le document diffusent rapidement les connaissances, élevant le niveau de base de toute l'industrie.
· Dans son récit, l'open source n'est pas seulement un choix technique, mais peut aussi être une stratégie géopolitique et de marché : différents pays et entreprises adopteront différentes stratégies d'ouverture basées sur leurs propres restrictions commerciales et objectifs d'influence.
· Il souligne simultanément l'importance de l'inférence en périphérie (« Edge inference ») : dans les prochaines années, le coût de l'inférence centralisée ne sera pas nécessairement suffisamment bas, et de nombreuses applications grand public ne pourront pas supporter des coûts d'inférence cloud élevés à long terme.
· Il mentionne un modèle qui revient souvent : ce qui semble « impossible à exécuter sur un PC » aujourd'hui, devient souvent réalité sur une machine locale quelques mois plus tard.
· Outre le coût, la confiance, la vie privée, la latence et les scénarios d'utilisation poussent également vers l'exécution locale : les wearables, serrures, appareils portables, etc., sont plus adaptés à une inférence à faible latence et sur place.
· Son jugement est très direct : presque tout ce qui contient une puce pourrait contenir un modèle d'IA à l'avenir.
VI. Le véritable défi de l'IA ne réside pas seulement dans la capacité des modèles, mais aussi dans la sécurité, l'identité, les flux financiers, les organisations et les résistances institutionnelles
· En matière de sécurité, son jugement est très tranché : presque tous les bogues de sécurité potentiels seront plus faciles à découvrir, et à court terme, une période de « grande catastrophe de la sécurité informatique » pourrait survenir.
· Mais il pense également que les intelligences de programmation permettront de mettre à l'échelle la capacité à corriger les vulnérabilités ; à l'avenir, la manière de « protéger les logiciels » pourrait simplement être de laisser un bot les scanner et les réparer.
· Sur la question de l'identité, il estime que la « preuve de bot (proof of bot) » n'est pas viable, car les bots deviendront de plus en plus puissants ; la direction réellement viable est la « preuve d'humanité (proof of human) », c'est-à-dire une combinaison de biométrie, de vérification cryptographique et de divulgation sélective (selective disclosure).
· Il aborde également un problème souvent négligé : si les agents doivent vraiment agir dans le monde réel, ils auront finalement besoin d'argent, de capacités de paiement, et même d'une forme de compte bancaire, de carte ou d'infrastructure de type stablecoin. Au niveau organisationnel, il utilise le cadre du capitalisme managérial (managerial capitalism), estimant que l'IA pourrait renforcer les entreprises dirigées par des fondateurs, car les bots sont très doués pour les rapports, la coordination, la paperasse et大量 (un grand nombre) de « travaux de gestion ».
· Mais il ne pense pas que la société acceptera rapidement et facilement l'IA : il cite des exemples de licences professionnelles, syndicats, grèves des dockers, organismes gouvernementaux, éducation K-12, santé, etc., montrant que le monde réel compte de nombreux ralentisseurs institutionnels.
· Son jugement est que les utopistes et les partisans de l'apocalypse de l'IA ignorent facilement un point : ce qui est techniquement possible ne signifie pas que 8 milliards de personnes changeront immédiatement.








