Fondateur d'a16z : À l'ère des agents, ce qui compte vraiment a changé

marsbitPublié le 2026-04-20Dernière mise à jour le 2026-04-20

Résumé

Le fondateur d'a16z, Marc Andreessen, analyse l'ère des agents IA et ses implications profondes. Il souligne que l'IA actuelle n'est pas une innovation soudaine mais le résultat de 80 ans de recherche, avec des avancées comme les transformers et ChatGPT. Les agents IA combinent LLM, shell, système de fichiers et boucles d'exécution, permettant une autonomie et une introspection inédites. Andreessen prédit le déclin des interfaces utilisateur traditionnelles au profit d'interactions agent-first, où les bots deviennent les principaux utilisateurs des logiciels. Il compare le cycle d'investissement actuel à la bulle internet de 2000, mais note que les grandes entreprises tech dominent avec une demande réelle. L'open source et l'inférence en local sont cruciaux pour la diffusion et l'accessibilité de l'IA. Enfin, il identifie des défis majeurs : sécurité, identité numérique, intégration financière des agents, et résistances institutionnelles. La technologie avance, mais son adoption sociale restera progressive.

Titre original : Marc Andreessen introspects on Death of the Browser, Pi + OpenClaw, and Why "This Time Is Different"

Compilation originale : FuturePulse

Source du signal : Il s'agit de la dernière interview de Marc Andreessen, fondateur d'a16z, sur le podcast Latent Space. C'est un entrepreneur Internet américain renommé, l'une des figures clés du développement précoce d'Internet ; après avoir fondé a16z, il est également devenu une figure emblématique des investisseurs de premier plan de la Silicon Valley. L'ensemble de la conversation tourne autour de l'histoire et des tendances récentes de l'IA, et vaut vraiment la peine d'être lue.

I. Cette vague d'IA n'est pas apparue de nulle part, mais est le premier "démarrage" complet après 80 ans de course technologique

  • Cette vague d'IA n'est pas apparue de nulle part, mais est le résultat de 80 ans de course technologique

  • Marc Andreessen qualifie directement le présent de "succès nocturne de 80 ans" (80-year overnight success), signifiant que l'éruption soudaine perçue par le public est en réalité la libération concentrée de décennies de réserves technologiques.

  • Il retrace cette piste technologique jusqu'aux premières recherches sur les réseaux neuronaux et souligne qu'aujourd'hui, l'industrie a effectivement accepté le jugement selon lequel "les réseaux neuronaux sont l'architecture correcte".

  • Dans son récit, les points clés ne sont pas des moments uniques, mais une série d'empilements : AlexNet, Transformer, ChatGPT, les modèles de raisonnement, puis les agents et l'auto-amélioration.

  • Il souligne particulièrement que cette fois, ce n'est pas seulement la génération de texte qui devient plus forte, mais que quatre types de fonctionnalités apparaissent simultanément : LLMs, raisonnement, codage, et agents / auto-amélioration récursive.

  • La raison pour laquelle il pense que "this time is different" n'est pas que le récit est plus attrayant, mais parce que ces capacités ont commencé à travailler sur des tâches réelles.

II. L'architecture d'agent représentée par Pi et OpenClaw est un changement d'architecture logicielle plus profond que le chatbot

  • Il décrit l'agent de manière très concrète : essentiellement "LLM + shell + système de fichiers + markdown + cron/boucle". Dans cette structure, le LLM est le noyau de raisonnement et de génération, le shell fournit l'environnement d'exécution, le système de fichiers sauvegarde l'état, le markdown rend l'état lisible, et cron/boucle fournit le réveil périodique et l'avancement des tâches.

  • Il pense que l'importance de cette combinaison réside dans le fait qu'à part le modèle lui-même qui est nouveau, les autres composants sont tous des parties matures, compréhensibles et réutilisables du monde logiciel.

  • L'état de l'agent est sauvegardé dans des fichiers, il peut donc migrer entre modèles et runtimes ; le modèle sous-jacent peut être remplacé, mais la mémoire et l'état sont conservés.

  • Il souligne反复强调 l'introspection : l'agent connaît ses propres fichiers, peut lire son propre état, et peut même réécrire ses propres fichiers et fonctions, avançant vers la direction "étends-toi toi-même" (extend yourself).

  • À ses yeux, la véritable percée n'est pas seulement que "le modèle répond", mais que l'agent puisse utiliser la chaîne d'outils Unix existante, connectant ainsi toute la capacité potentielle de l'ordinateur.

III. Le navigateur, les GUI traditionnelles et l'ère du "logiciel cliqué à la main" seront progressivement remplacés par des modes d'interaction axés sur les agents

  • Marc Andreessen a clairement dit qu'à l'avenir, "vous pourriez ne plus avoir besoin d'interface utilisateur".

  • Il souligne en outre que les principaux utilisateurs des logiciels futurs pourraient ne pas être des humains, mais "d'autres bots".

  • Cela signifie que de nombreuses interfaces conçues aujourd'hui pour les clics, la navigation et le remplissage de formulaires par les humains, se dégraderont en couches d'exécution appelées en arrière-plan par les agents.

  • Dans ce monde, l'humain ressemble plus à celui qui propose l'objectif : dire au système ce qu'il veut, puis l'agent appelle les services, opère les logiciels, et complète le flux.

  • Il relie ce changement à un avenir logiciel plus large : les logiciels de haute qualité deviendront de plus en plus "abondants",不再是少数工程师手工打造的稀缺品 (ne seront plus des produits rares fabriqués artisanalement par une poignée d'ingénieurs).

  • Il estime également que l'importance des langages de programmation diminuera ; les modèles écriront du code跨语言 (跨语言 - cross-language), se traduiront mutuellement, et à l'avenir, les humains se soucieront plus d'expliquer pourquoi l'IA organise le code de cette manière, plutôt que de s'accrocher à un langage particulier lui-même.

  • Il mentionne même une direction plus radicale : conceptuellement, l'IA pourrait non seulement输出代码 (输出代码 - output code), mais aussi输出更底层的二进制代码(binary) ou model weights(poids de modèle).

IV. Ce cycle d'investissement en IA présente des similitudes avec la bulle Internet de 2000, mais les structures sous-jacentes de l'offre et de la demande sont différentes

  • En revenant sur l'année 2000, il souligne que l'effondrement n'était pas tant dû au fait qu'"Internet ne fonctionnait pas", qu'à une surconstruction des infrastructures de télécommunications et de bande passante, les fibres optiques et les centres de données ayant été déployés de manière超前 (avancée), puis digérés sur une longue période.

  • Il pense qu'aujourd'hui, on peut effectivement voir des inquiétudes de "surconstruction", mais les principaux investisseurs sont principalement de grandes entreprises disposant de liquidités abondantes comme Microsoft, Amazon, Google, et non des acteurs fragiles hautement杠杆化 (levier)).

  • Il souligne particulièrement que maintenant, dès qu'un investissement en GPU opérationnel est formé, il peut通常很快 (souvent très rapidement) se transformer en revenus, ce qui est différent de 2000 où il y avait大量闲置容量 (beaucoup de capacités inutilisées).

  • Il souligne également que nous utilisons en fait une version de la technologie "entravée (sandbagged)" : en raison de l'offre insuffisante de GPU, de mémoire, de centres de données, etc., le potentiel des modèles n'est pas pleinement libéré.

  • Dans son jugement,les véritables contraintes des prochaines années ne seront pas seulement les GPU, mais aussi l'interaction des goulots d'étranglement de l'écosystème des puces,包括 CPU, mémoire, réseau et l'ensemble de l'écosystème des puces.

  • Il place les lois de mise à l'échelle de l'IA (AI scaling laws) aux côtés de la ancienne loi de Moore, estimant qu'elles ne décrivent pas seulement des规律 (règles), mais stimulent également持续 (en continu) le capital, l'ingénierie et la synergie industrielle pour avancer.

  • Il mentionne un phénomène très反常 (anormal) mais important : à mesure que l'optimisation logicielle s'accélère, certaines puces de l'ancienne génération pourraient même devenir plus économiquement précieuses qu'au moment de leur achat.

V. L'open source, l'inférence en périphérie (edge) et l'exécution locale ne sont pas des accessoires, mais font partie du paysage concurrentiel de l'IA

  • Marc Andreessen estime clairement que l'open source est très important, non seulement parce qu'il est gratuit, mais parce qu'il "permet au monde entier d'apprendre comment c'est fait".

  • Il décrit les publications open source comme celles de DeepSeek comme un "cadeau au monde" (gift to the world), car le code + le document扩散知识 (diffusent rapidement les connaissances), élevant ainsi le niveau de base de toute l'industrie.

  • Dans son récit, l'open source n'est pas seulement un choix technique, mais peut aussi être une stratégie géopolitique et de marché : différents pays et entreprises adopteront différentes stratégies d'ouverture basées sur leurs propres restrictions commerciales et objectifs d'influence.

  • Il souligne simultanément l'importance de l'inférence en périphérie ("Edge inference") : dans les prochaines années, le coût de l'inférence centralisée未必足够低 (n'est pas nécessairement assez bas), de nombreuses applications grand public ne pourront pas supporter des coûts d'inférence云端 (cloud) élevés à long terme.

  • Il mentionne un modèle qui revient反复出现 : ce qui semble "impossible à exécuter sur un PC" aujourd'hui,常常 (souvent) quelques mois plus tard, peut vraiment fonctionner sur une machine locale.

  • Outre le coût, ce qui favorise l'exécution locale comprend la confiance, la vie privée, la latence et les scénarios d'utilisation : les appareils穿戴 (wearables), les serrures de porte, les appareils随身 (portables), etc., sont plus adaptés à une inférence就地 (locale) à faible latence.

  • Son jugement est très direct : presque tout ce qui contient une puce pourrait contenir un modèle d'IA à l'avenir.

VI. Le véritable défi de l'IA ne réside pas seulement dans la capacité des modèles, mais aussi dans la sécurité, l'identité, les flux financiers, les organisations et les résistances institutionnelles

  • En matière de sécurité, son jugement est très tranchant : presque tous les bogues de sécurité potentiels seront plus faciles à découvrir, et à court terme, une "catastrophe majeure de la sécurité informatique" pourrait survenir.

  • Mais il pense également que les intelligences de programmation mettront à l'échelle la capacité de corriger les vulnérabilités ; à l'avenir, la manière de "protéger les logiciels" pourrait simplement être de laisser un bot les scanner et les réparer.

  • Sur la question de l'identité, il estime que la "preuve de robot (proof of bot)" n'est pas viable, car les bots deviendront de plus en plus puissants ; la direction réellement viable est la "preuve d'humanité (proof of human)", c'est-à-dire la combinaison de la biométrie, de la vérification cryptographique et de la divulgation sélective (selective disclosure).

  • Il aborde également un problème souvent négligé : si les agents doivent vraiment agir dans le monde réel, ils auront最终 (finalement) besoin d'argent, de capacités de paiement, et même d'une forme de compte bancaire, de carte ou d'infrastructure de type stablecoin. Au niveau organisationnel, il utilise le cadre ducapitalisme managérial (managerial capitalism), estimant que l'IA pourrait renforcer à nouveau les entreprises dirigées par leur fondateur (founder-led company), car les bots sont très doués pour les rapports, la coordination, la paperasse et大量 "travaux de gestion".

  • Mais il ne pense pas que la société acceptera rapidement et facilement l'IA : il cite des exemples professionnels执照 (licences professionnelles), syndicats, grèves des dockers,政府部门 (départements gouvernementaux), éducation K-12, santé, etc., pour illustrer le fait que le monde réel comporte大量制度性减速器 (beaucoup de ralentisseurs institutionnels).

  • Son jugement est que les utopistes et les prophètes de l'apocalypse de l'IA忽略一点 (négligent un point) : le fait que la technologie soit possible ne signifie pas que 8 milliards de personnes changeront immédiatement.

Questions liées

QSelon Marc Andreessen, pourquoi l'IA actuelle est-elle qualifiée de 'succès nocturne de 80 ans' ?

AParce que le public perçoit l'IA comme une explosion soudaine, mais en réalité, elle est le résultat de décennies de préparation technique et de réserves technologiques qui sont maintenant libérées de manière concentrée.

QQuels sont les quatre types de fonctionnalités qui apparaissent simultanément dans l'IA moderne, selon Andreessen ?

ALes quatre fonctionnalités sont : les modèles de langage (LLMs), le raisonnement (reasoning), le codage (coding), et les agents / l'auto-amélioration récursive (agents / recursive self-improvement).

QComment Marc Andreessen définit-il la structure d'un agent IA ?

AIl décrit un agent comme une combinaison de 'LLM + shell + système de fichiers + markdown + cron/loop', où le LLM est le noyau de raisonnement, le shell fournit l'environnement d'exécution, le système de fichiers sauvegarde l'état, le markdown rend l'état lisible, et cron/loop permet un réveil périodique et l'avancement des tâches.

QQuelle est la différence fondamentale entre l'investissement en IA aujourd'hui et la bulle Internet de 2000, selon Andreessen ?

AAujourd'hui, les investissements sont principalement portés par de grandes entreprises solvables comme Microsoft, Amazon et Google, et la capacité GPU investie peut rapidement être convertie en revenus, contrairement à la bulle de 2000 où il y avait une surconstruction d'infrastructures avec une forte utilisation de leviers financiers et une capacité excédentaire importante.

QPourquoi l'open source est-il crucial dans le développement de l'IA, d'après Marc Andreessen ?

AL'open source est important non seulement parce qu'il est gratuit, mais aussi parce qu'il 'apprend au monde entier comment c'est fait', diffusant rapidement les connaissances et élevant le niveau de base de toute l'industrie.

Lectures associées

Turbulences sur le marché crypto : qui achète à contre-courant ?

Le marché crypto a connu une correction sévère au premier trimestre 2026, avec Bitcoin en baisse de plus de 25 % et Ethereum de 35 %. Pourtant, les flux institutionnels sont restés robustes, marqués par une forte dichotomie. Les acheteurs institutionnels ont été actifs : Strategy (ex-MicroStrategy) a accru ses réserves de Bitcoin pour atteindre 815 061 BTC, tandis que des fonds souverains comme Mubadala ont augmenté leurs positions dans les ETF Bitcoin. Plusieurs nouveaux ETF ont été lancés, notamment par Morgan Stanley (MSBT, premier ETF Bitcoin d'une grande banque) et BlackRock (ETHB, premier ETF de staking d'Ethereum). Les banques européennes ont formé un consortium pour un stablecoin euro (Qivalos), et des institutions comme UBS et Citi ont élargi leurs services crypto. À l’inverse, certains hedge funds (Brevan Howard, Tudor) et mineurs ont massivement vendu. Les investissements en capital-risque ont chuté de 49 % en nombre de transactions, mais trois méga-deals (BVNK, Kalshi, Polymarket) ont représenté la moitié des fonds levés (environ 34 milliards de dollars). Les secteurs dominants sont les paiements/stablecoins et les marchés prédictifs, supplantant la DeFi. En résumé, l’accumulation institutionnelle se poursuit, portée par les trésoreries d’entreprise, les fonds souverains et les nouveaux produits ETF, tandis que le risque se concentre sur quelques acteurs majeurs.

marsbitIl y a 13 mins

Turbulences sur le marché crypto : qui achète à contre-courant ?

marsbitIl y a 13 mins

Test pratique de Hunyuan Hy3 preview : L'IA de Tencent est-elle enfin compétitive ?

Le modèle de langage Hy3 preview de Tencent, récemment lancé en open source, présente des capacités améliorées en raisonnement complexe, génération de code, compréhension contextuelle et interaction naturelle. Avec 295 milliards de paramètres et une prise en charge de contexte jusqu'à 256K, il est présenté comme le modèle le plus performant de la série Hunyuan. Les tests montrent des forces dans le raisonnement logique structuré et l'extraction d'informations en contexte bruité, mais une certaine instabilité face aux pièges logiques ou aux questions ambiguës. En génération de code et en tant qu'agent intelligent (via WorkBuddy), il excède dans les tâches simples et fermées (comme créer un jeu Snake) mais peine à mener à bien des missions complexes nécessitant une analyse approfondie et une livraison complète de résultats. Ses progrès les plus notables concernent le dialogue naturel et l'écriture créative, où il produit des textes fluides, moins stéréotypés et mieux contextualisés, imitant même des styles littéraires spécifiques avec succès. Bien que Hy3 preview ne soit pas révolutionnaire dans tous les domaines, il se positionne comme un modèle pratique et polyvalent. Son lancement marque un virage important pour Tencent, qui cherche à rattraper son retard perçu dans la course à l'IA et à intégrer un modèle performant dans son écosystème de produits (QQ, Tencent Docs, etc.). Une version plus grande est attendue prochainement.

marsbitIl y a 2 h

Test pratique de Hunyuan Hy3 preview : L'IA de Tencent est-elle enfin compétitive ?

marsbitIl y a 2 h

DeepSeek V4 fait sensation : La Silicon Valley « construit des murs », la Chine « construit des routes »

**DeepSeek V4 et l'approche collaborative chinoise face au modèle fermé de la Silicon Valley** Le 24 avril, DeepSeek a lancé son modèle V4, acclamé pour ses innovations majeures : une capacité de contexte étendue à un million de tokens avec une réduction de 90% de la consommation mémoire (KV Cache), et une compatibilité native avec les puces chinoises comme celles de Huawei. Contrairement à la concurrence agressive observée entre OpenAI, Google et Anthropic — marquée par des rivalités techniques et des guerres médiatiques — la Chine adopte une stratégie collaborative et open-source. Des entreprises comme DeepSeek et MoonShot AI (créateur de Kimi) partagent ouvertement leurs avancées, comme l’architecture MLA (Multi-head Latent Attention) ou l’optimiseur Muon, permettant une évolution synergique plutôt qu’une compétition destructive. Cette approche open-source réduit les coûts de formation (ex. : DeepSeek V3 formé pour moins de 600M$ contre 5Mds$ pour GPT-5) et stimule l’adoption. Alors que les géants américains se enferment dans des modèles fermés pour préserver leurs avantages, la Chine construit écosystème ouvert, optimisé pour les puces locales et orienté vers les agents IA. Malgré des revenus encore inférieurs à ceux des acteurs US, la croissance du trafic de tokens et la réduction des coûts laissent présager un avantage à long terme grâce à l’innovation collective et l’autonomie technologique.

marsbitIl y a 2 h

DeepSeek V4 fait sensation : La Silicon Valley « construit des murs », la Chine « construit des routes »

marsbitIl y a 2 h

Trading

Spot
Futures

Articles tendance

Comment acheter ERA

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Caldera (ERA) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Caldera (ERA).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Caldera (ERA)Après avoir acheté vos Caldera (ERA), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Caldera (ERA)Tradez facilement Caldera (ERA) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

467 vues totalesPublié le 2025.07.17Mis à jour le 2025.07.17

Comment acheter ERA

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de ERA (ERA) sont présentées ci-dessous.

活动图片