Pourquoi OpenAI est-il en train de rattraper Claude Code ?

marsbitPublié le 2026-03-13Dernière mise à jour le 2026-03-13

Résumé

Face à l'ascension rapide des agents d'IA pour la programmation, OpenAI, pourtant pionnier de l'IA générative avec ChatGPT, s’est retrouvé en position de rattrapage face à Anthropic et son produit phare, Claude Code. Alors qu’OpenAI avait initialement développé Codex, l'outil a été délaissé au profit de ChatGPT et des modèles multimodales, permettant à Anthropic, fondée par d'anciens membres d'OpenAI, de prendre une avance significative sur le marché de la programmation assistée par IA. Des entretiens avec des dirigeants et ingénieurs d’OpenAI révèlent un changement de stratégie : après avoir sous-estimé le potentiel du secteur, la société réorganise désormais ses équipes et accélère le développement de produits dédiés. Les contraintes liées au partenariat avec Microsoft, qui utilise les modèles d’OpenAI pour GitHub Copilot, ont également influencé cette dynamique. Aujourd’hui, OpenAI investit massivement pour combler son retard, avec des modèles comme o1 et o3 optimisés pour le code, et tente de repositionner Codex comme un moteur central de productivité. La concurrence avec Claude Code reste féroce, mais l’enjeu dépasse désormais la rivalité technologique : il questionne la reconfiguration du travail intellectuel et les implications sociétales de l’automatisation cognitive.

Note de la rédaction : Dans le contexte de l'essor rapide des agents d'IA pour la programmation, OpenAI, qui avait pourtant lancé la vague de l'IA générative avec ChatGPT, est devenu de manière inattendue un « suiveur » dans cette piste cruciale. En contraste frappant, Anthropic, fondée par d'anciens membres d'OpenAI, a rapidement gagné en popularité auprès des communautés de développeurs et sur le marché des entreprises grâce à Claude Code, devenant l'un des leaders importants dans le domaine des outils de programmation IA.

Cet article, basé sur des entretiens avec des cadres et ingénieurs d'OpenAI ainsi que plusieurs développeurs, révèle le processus réel derrière cette course : du démantèlement précoce du projet OpenAI Codex et du redéploiement des ressources vers ChatGPT et les modèles multimodaux, à la réintégration interne des équipes et à l'accélération du lancement de produits de programmation IA, OpenAI vit un tournant stratégique, passant de l'ignorance à la poursuite totale. Dans un certain sens, il ne s'agit pas d'un retard de capacité technique, mais d'un décalage de rythme stratégique : l'explosion de ChatGPT a changé les priorités de l'entreprise, la relation de coopération avec Microsoft a limité les trajectoires produits, tandis qu'Anthropic a parié plus tôt sur la piste de la programmation IA.

Derrière cette course, des questions plus profondes émergent progressivement : alors que les agents IA commencent à assumer de plus en plus de travail cognitif, les processus de développement logiciel, voire le travail intellectuel lui-même, pourraient être redéfinis.

Voici l'article original :

Sam Altman, PDG d'OpenAI, a croisé les jambes sur son fauteuil de bureau, regardant le plafond, comme s'il réfléchissait à une réponse qui n'avait pas encore pris forme. D'une certaine manière, l'environnement y est aussi pour quelque chose.

Le nouveau siège d'OpenAI, situé à Mission Bay à San Francisco, est un bâtiment moderne constitué de verre et de bois clair, d'une aura proche du « temple technologique ». Sur le présentoir derrière la réception sont posés des manuels présentant « Les Ères de l'IA » (Eras of AI), comme pour décrire un chemin vers la révélation technologique. Sur les murs de l'escalier sont collées des affiches des jalons du développement de l'intelligence artificielle, dont une immortalise ce moment : des milliers de spectateurs ont regardé en direct une machine battre une équipe d'e-sport de haut niveau dans une partie de Dota 2. Dans les couloirs, des chercheurs vont et viennent, portant des t-shirts d'équipe floqués de slogans, dont un qui dit : « La bonne recherche prend du temps. » Bien sûr, idéalement, pas trop.

Nous sommes assis dans une immense salle de réunion. La question que je pose à Altman concerne la révolution de la programmation IA qui balaie l'industrie, et pourquoi OpenAI ne semble pas occuper une position leader dans cette vague.

Aujourd'hui, des millions d'ingénieurs logiciel ont commencé à confier une partie de leur travail de programmation à l'IA, ce qui a confronté pour la première fois nombre de personnes dans la Silicon Valley à une réalité : l'automatisation pourrait toucher leurs propres postes. Les agents de programmation (coding agents) sont ainsi devenus l'un des rares cas d'utilisation pour lesquels les entreprises sont prêtes à payer cher pour l'IA. En principe, un tel moment aurait parfaitement pu, voire aurait dû, devenir le prochain « moment de victoire » sur les affiches du mur d'escalier d'OpenAI. Mais actuellement, le nom qui occupe la une n'est pas le sien.

Son adversaire est Anthropic, une entreprise d'IA fondée par d'anciens membres d'OpenAI. Grâce à son produit agent de programmation Claude Code, Anthropic a connu une croissance explosive. L'entreprise a révélé en février que ce produit contribuait à près d'un cinquième de son chiffre d'affaires, correspondant à un revenu annualisé de plus de 2,5 milliards de dollars. En comparaison, selon une source informée, fin janvier, le produit de programmation maison d'OpenAI, OpenAI Codex, n'avait qu'un revenu annualisé légèrement supérieur à 1 milliard de dollars.

La question est : pourquoi, dans cette course à la programmation IA, OpenAI est-il à la traîne ?

« La valeur de l'avantage du premier arrivé est très importante », réfléchit Sam Altman un instant avant de dire, « nous en avons fait l'expérience avec ChatGPT. »

Cependant, selon lui, le moment est venu pour OpenAI de se consacrer pleinement à la programmation IA. Il estime que les capacités actuelles des modèles de l'entreprise sont suffisamment puissantes pour supporter des agents de programmation hautement complexes. Bien sûr, cette capacité n'est pas accidentelle ; l'entreprise a investi des dizaines de milliards de dollars dans l'entraînement des modèles.

« Ce sera une énorme affaire », déclare Altman, « non seulement pour la valeur économique qu'elle apporte en soi, mais aussi pour la productivité générale que la programmation peut libérer. » Il marque une pause, puis ajoute : « J'utilise rarement ce mot à la légère, mais je pense que c'est probablement l'un de ces marchés qui atteindront des milliers de milliards de dollars. »

Plus loin, il estime qu'OpenAI Codex est peut-être la « voie la plus probable » vers l'intelligence artificielle générale (IAG). Selon la définition d'OpenAI, l'IAG est un système d'IA capable de surpasser les performances humaines dans la grande majorité des travaux ayant une valeur économique.

Cependant, bien qu'Altman affiche une attitude décontractée et des jugements confiants, la réalité interne de l'entreprise au cours des dernières années était bien plus complexe. Pour comprendre l'histoire interne plus complète, j'ai interviewé plus de 30 personnes informées, y compris des cadres et employés actuels d'OpenAI interviewés avec l'approbation de l'entreprise, ainsi que certains anciens employés décrivant les opérations internes sous condition d'anonymat. La synthèse de ces récits révèle une situation peu commune : OpenAI est en train de rattraper son retard.

Retour en 2021. À l'époque, Altman et d'autres cadres d'OpenAI ont invité le journaliste de WIRED Steven Levy dans leur premier bureau du quartier Mission à San Francisco pour assister à une démonstration d'une nouvelle technologie. Il s'agissait d'un projet dérivé de GPT-3, entraîné sur une grande quantité de code open source de GitHub.

Lors de la démonstration en direct, les cadres ont montré comment cet outil, nommé OpenAI Codex, pouvait recevoir des instructions en langage naturel et générer de simples fragments de code.

« Il peut en fait exécuter des opérations pour vous dans le monde informatique », expliquait alors Greg Brockman, président et cofondateur d'OpenAI, « vous avez un système qui peut réellement exécuter des commandes. » Même à cette époque, les chercheurs d'OpenAI pensaient généralement que Codex deviendrait une technologie clé pour construire un « super assistant » (super assistant).

À cette période, l'emploi du temps d'Altman et Brockman était presque entièrement rempli de réunions avec Microsoft – ce géant du logiciel étant le plus grand investisseur d'OpenAI. Microsoft prévoyait d'utiliser Codex pour l'un de ses premiers produits commerciaux IA : un outil de complétion de code nommé GitHub Copilot, qui pouvait être intégré directement dans les environnements de développement utilisés quotidiennement par les programmeurs.

Un ancien employé d'OpenAI se souvient qu'à ce stade, Codex « ne faisait essentiellement que de la complétion automatique ». Mais les cadres de Microsoft le voyaient toujours comme un signal important de l'avènement de l'ère de l'IA.

En juin 2022, lorsque GitHub Copilot a été officiellement lancé publiquement, il a attiré des centaines de milliers d'utilisateurs en quelques mois.

L'équipe initialement responsable de Codex chez OpenAI a ensuite été réaffectée à d'autres projets. Un ancien employé se souvient que le jugement de l'entreprise à l'époque était : à l'avenir, les modèles eux-mêmes auraient des capacités de programmation, il n'était donc pas nécessaire de maintenir à long terme une équipe de projet Codex distincte. Une partie des ingénieurs ont été transférés pour participer au développement de DALL-E 2, une autre s'est tournée vers l'entraînement de GPT-4. À l'époque, cela semblait être le chemin clé pour rapprocher OpenAI de l'IAG.

Puis, en novembre 2022, ChatGPT est sorti et a atteint plus de 100 millions d'utilisateurs en deux mois. Presque tous les autres projets internes ont été mis en pause. Durant les années suivantes, OpenAI n'a pratiquement pas eu d'équipe dédiée spécifiquement aux produits de programmation IA. Un ancien membre ayant participé au projet Codex a déclaré qu'après le succès de ChatGPT, la programmation IA ne semblait plus faire partie de la nouvelle stratégie « priorité aux produits grand public » de l'entreprise. Parallèlement, le secteur considérait généralement que ce domaine était déjà « couvert » par GitHub Copilot, qui était essentiellement le terrain de jeu de Microsoft. OpenAI ne fournissait principalement qu'un support de modèle sous-jacent.

Ainsi, en 2023 et 2024, les ressources d'OpenAI se sont davantage tournées vers les modèles d'IA multimodaux et les agents intelligents (agents). Ces systèmes sont conçus pour pouvoir comprendre simultanément le texte, les images, la vidéo et l'audio, et opérer comme un humain avec un curseur et un clavier. Cette direction semblait à l'époque plus conforme à la tendance du secteur : les modèles de génération d'images de Midjourney sont devenus rapidement populaires sur les réseaux sociaux, et le secteur pensait généralement que les grands modèles de langage devaient pouvoir « voir » et « entendre » le monde pour vraiment progresser vers une intelligence de niveau supérieur.

En comparaison, Anthropic a choisi un chemin différent. Bien que l'entreprise développe également des chatbots et des modèles multimodaux, elle semble avoir réalisé plus tôt le potentiel des capacités de programmation. Dans un récent podcast, Brockman a également reconnu qu'Anthropic s'était « fortement concentrée sur les capacités de programmation » dès les premiers stades. Il a noté qu'Anthropic avait entraîné ses modèles non seulement sur des problèmes de programmation complexes provenant de compétitions académiques, mais aussi sur de nombreux problèmes de code « désordonnés » provenant de vrais dépôts de code.

« C'est une leçon que nous avons apprise plus tard », a déclaré Brockman.

Début 2024, Anthropic a commencé à utiliser ces données de vrais dépôts de code pour entraîner Claude 3.5 Sonnet. Lorsque ce modèle a été publié en juin, de nombreux utilisateurs ont été impressionnés par ses capacités de programmation.

Cette performance a été particulièrement validée par une startup appelée Cursor. Fondée par un groupe de jeunes dans la vingtaine, cette entreprise a développé un outil de programmation IA permettant aux développeurs de décrire leurs besoins en langage naturel, l'IA modifiant directement le code. Lorsque Cursor a intégré le nouveau modèle d'Anthropic, sa base d'utilisateurs a rapidement augmenté, a révélé une source proche de l'entreprise.

Quelques mois plus tard, Anthropic a commencé à tester en interne son propre produit agent de programmation, Claude Code.

Alors que la popularité de Cursor augmentait, OpenAI a tenté de racheter cette startup. Mais selon plusieurs sources proches de l'entreprise, l'équipe fondatrice de Cursor a refusé cette proposition avant que les négociations ne s'approfondissent. Ils estimaient que le potentiel de l'industrie de la programmation IA était énorme et souhaitaient donc rester indépendants.

À l'époque, OpenAI était en train d'entraîner son premier soi-disant « modèle de raisonnement », OpenAI o1. Ce type de modèle est capable de raisonner étape par étape sur un problème avant de donner une réponse. OpenAI a déclaré lors de sa sortie que le modèle était particulièrement performant dans la « génération précise et le débogage de code complexe ».

Mishchenko a expliqué qu'une raison importante pour laquelle les modèles d'IA ont fait des progrès évidents dans les capacités de programmation est que la programmation est une « tâche vérifiable » (verifiable task). Le code fonctionne ou ne fonctionne pas, ce qui fournit un signal de retour très clair au modèle. En cas d'erreur, le système sait rapidement où est le problème. OpenAI a utilisé cette boucle de rétroaction pour continuer à entraîner o1 sur des problèmes de programmation plus complexes.

« Sans la capacité d'explorer librement une base de code, d'y apporter des modifications et de tester ses propres résultats – ce qui fait partie des capacités de 'raisonnement' – les agents de programmation d'aujourd'hui n'auraient pas pu atteindre leur niveau actuel », a-t-il déclaré.

Fin 2024, plusieurs petites équipes au sein d'OpenAI commençaient déjà à se concentrer sur les agents de programmation IA. L'une d'elles était co-dirigée par Mishchenko et Thibault Sottiaux. Sottiaux, anciennement chez Google DeepMind, est responsable de Codex chez OpenAI.

Au début, leur intérêt pour les agents de programmation provenait principalement des besoins de R&D interne, espérant utiliser l'IA pour automatiser un grand nombre de tâches d'ingénierie répétitives, comme la gestion des tâches d'entraînement de modèles, la surveillance de l'état des clusters GPU, etc.

Un autre effort parallèle était dirigé par Alexander Embiricos. Il était auparavant responsable du projet d'agents multimodaux chez OpenAI et est maintenant responsable produit de Codex. Embiricos avait développé un projet de démonstration nommé Jam, qui s'était rapidement propagé en interne.

Contrairement au contrôle de l'ordinateur via la souris et le clavier, Jam pouvait accéder directement à la ligne de commande de l'ordinateur. La démonstration de Codex en 2021 montrait que l'IA générait du code pour les humains, qui l'exécutaient manuellement ; la version d'Embiricos pouvait exécuter ce code elle-même. Il se souvient avoir été presque stupéfait en regardant une page web en temps réel enregistrant les actions de Jam se rafraîchir constamment sur son ordinateur portable.

« Pendant un moment, j'ai pensé que l'interaction multimodale pourrait être la voie pour accomplir notre mission. Par exemple, des humains partageant leur écran toute la journée et travaillant avec l'IA », a déclaré Embiricos. « Puis c'est soudainement devenu très clair : peut-être que donner au modèle un accès programmatique à l'ordinateur est la vraie façon d'atteindre cet objectif. »

Ces projets dispersés ont mis plusieurs mois à se consolider en une direction unifiée. Début 2025, lorsque OpenAI a terminé l'entraînement d'OpenAI o3, un modèle encore plus optimisé pour les tâches de programmation qu'OpenAI o1, l'entreprise avait enfin la base technique pour construire un véritable produit de programmation IA. Mais entre-temps, Claude Code d'Anthropic était déjà sur le point d'être publié.

Avant la sortie de Claude Code (lancement en « préversion de recherche limitée » en février 2025, mise en ligne complète en mai), le mode dominant dans le domaine de la programmation IA était encore appelé le « vibe coding ». Les développeurs faisaient avancer des projets avec des outils d'assistance IA, les humains contrôlant la direction, tandis que l'IA complétait la mise en œuvre spécifique. Ces outils avaient déjà attiré des centaines de millions de dollars d'investissement.

Mais le nouveau produit d'Anthropic a changé ce modèle. Comme la démonstration Jam, Claude Code pouvait s'exécuter directement via la ligne de commande de l'ordinateur, ce qui signifie qu'il pouvait accéder à tous les fichiers et applications du développeur. La programmation n'était plus seulement de l'« assistance IA », mais les développeurs pouvaient confier des travaux entiers directement à un agent IA.

Face à ce changement, OpenAI a commencé à accélérer le lancement d'un produit concurrent. Sottiaux se souvient qu'en mars 2025, il a formé une « équipe de sprint » (sprint team), chargée d'intégrer plusieurs équipes internes en quelques semaines pour lancer rapidement un produit de programmation IA.

Parallèlement, Altman a également tenté de « dépasser en virage » par acquisition, en proposant 3 milliards de dollars pour racheter la startup de programmation IA Windsurf. Les dirigeants d'OpenAI pensaient que cette transaction apporterait à l'entreprise un produit de programmation IA mature, une équipe expérimentée et une base de clients entreprises existante.

Mais cette acquisition s'est ensuite enlisée. Selon le Wall Street Journal, le problème venait du plus grand partenaire d'OpenAI, Microsoft. Microsoft souhaitait obtenir l'accès à la propriété intellectuelle de Windsurf. Depuis 2021, Microsoft utilisait les modèles d'OpenAI pour alimenter GitHub Copilot, un produit devenu un point fort de ses conférences téléphoniques sur les résultats. Mais avec le lancement de nouvelles expériences d'agents de programmation IA par Cursor, Windsurf et Claude Code, GitHub Copilot commençait à sembler relever de la génération précédente d'outils IA. Si OpenAI lançait un nouveau produit de programmation, ce ne serait pas nécessairement une bonne nouvelle pour Microsoft.

Les négociations de cette acquisition ont coïncidé avec la période la plus tendue des relations entre OpenAI et Microsoft. Les deux parties étaient alors en train de renégocier leur accord de coopération, et OpenAI tentait de réduire le contrôle de Microsoft sur ses produits IA et ses ressources de calcul. Finalement, l'acquisition de Windsurf est devenue une victime de ce bras de fer. En juillet, OpenAI a abandonné l'affaire. Par la suite, Google a embauché l'équipe fondatrice de Windsurf, et les autres employés ont été rachetés par une autre entreprise de programmation IA, Cognition.

« J'aurais bien sûr souhaité que cette transaction aboutisse », a déclaré Altman, « mais on ne peut pas contrôler toutes les transactions. » Il a déclaré que bien qu'il ait espéré que l'acquisition de Windsurf « accélère dans une certaine mesure nos progrès », il était également impressionné par l'élan de l'équipe Codex. Pendant les négociations, Sottiaux et Embiricos continuaient de développer le produit et de publier des mises à jour.

En août, Altman a décidé d'accélérer pleinement.

La façon préférée de Greg Brockman pour mesurer les capacités de l'IA est un petit jeu qu'il a conçu lui-même, le « test de Turing inversé » (Reverse Turing Test). Il y a quelques années, il avait écrit le code de ce jeu lui-même, mais maintenant il confie la tâche à un agent IA pour le réimplémenter à partir de zéro.

Les règles du jeu sont simples : deux joueurs humains sont assis devant des ordinateurs différents, chacun voyant deux fenêtres de chat sur son écran. Une fenêtre est connectée à l'autre joueur humain, l'autre à une IA. Les joueurs doivent deviner quelle fenêtre est l'IA, tout en essayant de tromper leur adversaire pour qu'il pense qu'ils sont l'IA.

Brockman a déclaré que pendant la majeure partie de l'année dernière, le modèle le plus puissant d'OpenAI prenait plusieurs heures pour construire un tel jeu, et nécessitait beaucoup d'instructions et d'assistance humaine explicites pendant le processus. Mais en décembre dernier, Codex était capable de générer une version entièrement fonctionnelle grâce à une invite (prompt) soigneusement conçue, utilisant en backend le nouveau modèle GPT-5.2.

Ce changement n'a pas été remarqué que par Brockman. Les développeurs du monde entier ont également commencé à réaliser que les capacités des agents de programmation IA avaient soudainement fait un bond significatif. Les discussions autour de la programmation IA, initialement centrées sur Claude Code, ont rapidement dépassé le cercle technologique de la Silicon Valley pour devenir un sujet d'intérêt pour les médias grand public.

Même certains utilisateurs ordinaires sans expérience de la programmation ont commencé à utiliser l'IA pour créer directement leurs propres projets logiciels.

Cette flambée d'utilisation n'était pas accidentelle. Pendant cette période, Anthropic et OpenAI ont tous deux investi des sommes importantes pour acquérir plus d'utilisateurs d'agents de programmation IA. Plusieurs développeurs ont déclaré à WIRED que leur abonnement mensuel de 200 dollars à Codex ou Claude Code leur offrait en réalité un quota d'utilisation d'une valeur de plus de 1000 dollars. Cette limite assez « généreuse » était essentiellement une stratégie de marché : habituer d'abord les développeurs à utiliser les outils de programmation IA dans leur travail quotidien, puis facturer à l'utilisation dans les contextes enterprise.

Selon plusieurs sources informées, en septembre 2025, l'utilisation de Codex n'était qu'environ 5 % de celle de Claude Code. Mais en janvier 2026, la base d'utilisateurs de Codex était passée à environ 40 % de celle de Claude Code.

George Pickett, un développeur avec 10 ans d'expérience dans les startups technologiques, a même récemment commencé à organiser des rencontres en personne sur le thème de Codex.

« Je pense qu'il est évident que nous remplaçons le travail intellectuel par des agents IA », a déclaré Pickett, « quant à ce que cela signifie pour la société, honnêtement, personne ne peut le dire avec certitude. Cela va certainement avoir un impact énorme, mais je suis globalement plutôt optimiste pour l'avenir. »

Parallèlement, Simon Last, cofondateur de l'entreprise de logiciels d'efficacité Notion, évaluée à environ 110 milliards de dollars, a déclaré qu'après la sortie de GPT-5.2, lui et l'équipe d'ingénierie principale de l'entreprise étaient passés à Codex, principalement en raison d'une meilleure stabilité.

« J'ai trouvé que Claude Code me 'trompait' souvent », a déclaré Last, « il disait que la tâche était en cours d'exécution, mais en réalité, ce n'était pas le cas. »

Katy Shi, responsable chez OpenAI de la recherche sur le comportement des modèles Codex, a déclaré que bien que certains décrivent le style par défaut de Codex comme du « pain sec » (dry bread), de plus en plus d'utilisateurs commencent à apprécier cette manière de communiquer qui ne cherche pas à plaire. « Beaucoup de travaux d'ingénierie consistent essentiellement à accepter des retours critiques sans les prendre comme une offense », a-t-elle déclaré.

Parallèlement, certaines grandes entreprises ont déjà commencé à adopter Codex. Fidji Simo, PDG des activités applicatives d'OpenAI, a déclaré : « ChatGPT est devenu synonyme d'IA, ce qui nous donne un énorme avantage sur le marché B2B. Les entreprises préfèrent déployer des technologies que leurs employés connaissent déjà. » Elle a ajouté que la stratégie centrale de vente de Codex par OpenAI était de le proposer groupé avec ChatGPT et d'autres produits OpenAI.

Jeetu Patel, président et directeur des produits de Cisco, a quant à lui clairement indiqué à ses employés de ne pas s'inquiéter du coût d'utilisation de Codex, car l'essentiel était de se familiariser rapidement avec cet outil. Lorsque les employés s'inquiétaient de savoir si « utiliser ces outils leur ferait perdre leur emploi », la réponse de Patel était : « Non. Mais je peux vous garantir que si vous ne les utilisez pas, vous perdrez votre emploi, car vous deviendrez non compétitif. »

Aujourd'hui, l'anxiété entourant les agents de programmation IA s'est étendue bien au-delà du cercle technologique de la Silicon Valley. Le Wall Street Journal a attribué le mois dernier une vente massive d'actions technologiques d'une valeur de 1 000 milliards de dollars en partie à Claude Code, les investisseurs craignant que le développement logiciel ne soit bientôt massivement remplacé par l'IA. Quelques semaines plus tard, après qu'Anthropic ait annoncé que Claude Code pouvait être utilisé pour moderniser les anciens systèmes fonctionnant en COBOL (systèmes courants sur les machines IBM), l'action IBM a connu sa pire journée depuis 25 ans.

Parallèlement, OpenAI s'efforce également de placer les agents de programmation IA au centre du débat public. L'entreprise a même dépensé des millions de dollars pour diffuser une publicité sur OpenAI Codex pendant le Super Bowl, plutôt que de promouvoir ChatGPT.

Au sein du siège d'OpenAI à Mission Bay, presque personne n'a besoin d'être convaincu d'utiliser Codex. De nombreux ingénieurs que j'ai interviewés ont déclaré qu'ils tapent désormais rarement du code eux-mêmes, passant la plupart de leur temps simplement à converser avec Codex. Parfois, ils ont même des « conversations de groupe ».

Au siège, j'ai assisté à un hackathon Codex. Environ 100 ingénieurs étaient entassés dans une grande salle, chacun ayant quatre heures pour réaliser le meilleur projet de démonstration avec Codex. Un cadre d'OpenAI se tenait devant, regardant son ordinateur portable et annonçant dans un microphone les noms des équipes. Les représentants des équipes montaient nerveusement sur l'estrade, présentant leurs projets IA d'une voix légèrement tremblante. Le gagnant final a reçu un sac à dos Patagonia comme récompense.

De nombreux projets étaient à la fois développés avec Codex et visaient à aider les ingénieurs à mieux utiliser Codex. Par exemple, une équipe a développé un outil pour organiser automatiquement les messages Slack en rapports hebdomadaires ; un autre groupe a créé un guide IA interne semblable à Wikipedia, pour expliquer les différents services internes d'OpenAI. Auparavant, ce type de prototype prenait souvent des jours, voire des semaines, à réaliser, mais maintenant, un après-midi suffit.

En partant, j'ai rencontré Kevin Weil, ancien cadre d'Instagram, maintenant responsable du département « OpenAI for Science ». Il m'a dit que Codex travaillait toute la nuit sur certaines tâches de projet pour lui, et qu'il vérifiait les résultats le lendemain matin. Cette façon de travailler est devenue quotidienne pour lui et des centaines d'employés d'OpenAI. L'un des objectifs d'OpenAI pour 2026 est de développer un « stagiaire automatisé » pour la recherche sur l'IA elle-même.

Simo a déclaré qu'à l'avenir, Codex ne servirait pas seulement à la programmation, mais serait le moteur d'exécution des tâches dans ChatGPT et tous les produits OpenAI, accomplissant divers travaux réels pour les utilisateurs. Altman a également déclaré qu'il aimerait beaucoup lancer une version générale de Codex, mais qu'il s'inquiétait encore des risques de sécurité.

Il a dit qu'à la fin du mois de janvier 2026, un ami sans formation technique lui avait demandé de l'aide pour installer un agent de programmation IA très populaire, OpenClaw. Altman a refusé cette demande, car selon lui, « ce n'était clairement pas une bonne idée pour le moment », OpenClaw pouvant par exemple supprimer par erreur des fichiers importants.

Ironiquement, quelques semaines plus tard, OpenAI a annoncé avoir embauché le développeur d'OpenClaw.

De nombreux développeurs m'ont dit que la concurrence entre Codex et Claude Code n'avait jamais été aussi féroce. Mais à mesure que ces outils deviennent plus puissants et sont de plus en plus introduits dans les flux de travail par les gestionnaires d'entreprise, les questions auxquelles la société doit faire face vont bien au-delà du simple « quel outil de programmation IA utiliser ».

Certains organismes de surveillance craignent que, dans sa course pour rattraper Claude Code, OpenAI ne relègue les questions de sécurité au second plan. Une organisation à but non lucratif appelée Midas Project a accusé OpenAI d'avoir affaibli ses engagements en matière de sécurité lors de la publication de GPT-5.3-Codex, ne divulguant pas suffisamment les risques potentiels de ce modèle en matière de cybersécurité.

Glaese a contesté cela, affirmant qu'OpenAI n'avait pas sacrifié la sécurité pour faire avancer Codex, et l'entreprise a également déclaré que Midas Project avait mal interprété ses engagements de sécurité.

Même Greg Brockman, qui l'année dernière a donné 25 millions de dollars chacun à un super PAC pro-IA et à une organisation soutenant Donald Trump, et qui reste optimiste en disant « nous sommes sur la bonne voie vers l'IAG », éprouve des sentiments mitigés face à cette nouvelle réalité.

Dans le cercle des ingénieurs de la Silicon Valley, Brockman est connu pour son style de gestion « extrêmement impliqué » : le genre de patron qui vérifie les détails de la base de code la veille d'une sortie de produit. D'une certaine manière, cette façon de travailler plus « détachée » le soulage. « Vous réalisez que votre cerveau était occupé par beaucoup de détails qui n'étaient en fait pas nécessaires », dit-il.

Mais en même temps, lorsque l'on devient le « PDG d'une flotte de centaines de milliers d'agents IA », chargés d'exécuter vos objectifs et votre vision, il est également difficile de s'immerger dans les détails spécifiques de la résolution de chaque problème.

« D'une certaine manière, cela peut donner l'impression de perdre le 'pouls' du problème lui-même », a déclaré Brockman.

Questions liées

QPourquoi OpenAI est-il en train de rattraper son retard sur Claude Code dans le domaine de la programmation IA ?

AOpenAI a initialement dépriorisé la programmation IA après le succès de ChatGPT, redirigeant les ressources vers les modèles multimodaux. Anthropic, fondé par d'anciens membres d'OpenAI, a capitalisé sur cet espace plus tôt avec Claude Code. OpenAI a ensuite réorganisé ses équipes et accéléré le développement d'OpenAI Codex pour combler son retard stratégique.

QQuel rôle Microsoft a-t-il joué dans la stratégie de programmation IA d'OpenAI ?

AMicrosoft, principal investisseur d'OpenAI, a utilisé les modèles d'OpenAI pour GitHub Copilot, limitant initialement les ambitions produit directes d'OpenAI. Le conflit autour de l'acquisition de Windsurf a exacerbé les tensions, Microsoft refusant l'accès à la propriété intellectuelle, ce qui a retardé les plans d'OpenAI.

QComment Anthropic a-t-il réussi à devancer OpenAI avec Claude Code ?

AAnthropic s'est concentré précocement sur la programmation IA, en entraînant ses modèles avec des données de dépôts de code réels et complexes. Le lancement de Claude 3.5 Sonnet et son adoption par des startups comme Cursor ont accru sa popularité, lui donnant une avance significative sur le marché.

QQuelles sont les implications sociétales de l'essor des agents de programmation IA comme Codex et Claude Code ?

ACes agents automatisent de plus en plus les tâches cognitives, risquant de remplacer les travailleurs intellectuels. Cela provoque des inquiétudes sur l'emploi, la compétitivité et même l'instabilité boursière, comme le montre la chute des actions IBM après l'annonce de Claude Code pour moderniser les systèmes COBOL.

QQuelles sont les préoccupations de sécurité liées au développement rapide des agents de programmation IA ?

ADes organismes comme le Midas Project critiquent OpenAI pour avoir potentiellement sacrifié la sécurité dans la course contre Claude Code, notamment en ne divulguant pas pleinement les risques cybersécurité de GPT-5.3-Codex. OpenAI affirme que ces préoccupations sont mal interprétées et maintient que la sécurité reste une priorité.

Lectures associées

Allbirds, la chaussure star de la Silicon Valley, se tourne aussi vers l'IA

Le fabricant de chaussures écoresponsable Allbirds, autrefois porté par des célébrités comme Obama et Tim Cook, a annoncé son abandon total de la fabrication de chaussures pour se reconvertir dans l'infrastructure d'IA, sous le nom de "NewBird AI". Cette décision radicale a fait exploser son action de plus de 800% en une journée, alors que l'entreprise venait de vendre ses actifs pour seulement 39 millions de dollars, soit 1% de sa valeur maximale. Créée en 2015, Allbirds était devenue un symbole de mode durable et du modèle DTC, atteignant une valorisation de 4,1 milliards de dollars. Mais des erreurs stratégiques, une expansion trop rapide et une concurrence accrue ont conduit à des pertes cumulées de 419 millions de dollars et un déclin constant. Sa nouvelle stratégie consiste à acquérir des GPU pour louer de la puissance de calcul, financée par 50 millions de dollars de dette convertible. Cependant, aucun détail concret n'a été fourni sur les clients, l'équipe technique ou la stratégie, ce qui soulève des doutes sur la viabilité face aux géants du cloud. L'entreprise a même abandonné sa certification B Corp, marquant un revirement complet de ses valeurs. Ce mouvement reflète une tendance où les entreprises en difficulté adoptent le récit de l'IA pour relancer leur valorisation, malgré les risques évidents. La magie du storytelling IA reste puissante sur les marchés financiers.

marsbitIl y a 6 mins

Allbirds, la chaussure star de la Silicon Valley, se tourne aussi vers l'IA

marsbitIl y a 6 mins

Le fondateur de Hyperliquid révélé dans son cercle d'amis : Ce groupe de "médaillés d'or aux Olympiades" domine le cercle de l'IA de la Silicon Valley

Fondateur de Hyperliquid, Jeff Yan, a révélé dans une interview un groupe d'anciens camarades des Olympiades internationales (informatique, mathématiques) dominant désormais l'écosystème de l'IA en Silicon Valley. Ce réseau, formé à Harvard et lors d'un stage chez le géant du trading quantifié Hudson River Trading (HRT), comprend des figures emblématiques : Alexandr Wang (Meta) : Fondateur de Scale AI (racheté à 49% par Meta pour 14,3 milliards de dollars), il dirige maintenant les efforts d'IA de Meta et a récemment lancé le modèle Muse Spark. Scott Wu (Cognition) : CEO de Cognition, évaluée à 102 milliards de dollars, créateur de Devin, l'ingénieur logiciel IA autonome. Johnny Ho (Perplexity) : Co-fondateur du moteur de recherche conversationnel Perplexity, évalué à 200 milliards de dollars. Fortune personnelle : 2,1 milliards de dollars. Jesse Zhang (Decagon) : Fondateur de Decagon, spécialisé dans l'automatisation des services clients via des agents IA, évalué à 4,5 milliards de dollars. Demi Guo (Pika) : CEO de Pika, pionnier de la génération de vidéos par IA, évalué à 4,7 milliards de dollars. Steven Hao (Cognition) : CTO de Cognition, ancien partenaire d'Alexandr Wang chez Scale AI. Fortune personnelle : 1,3 milliard de dollars. Animés par une amitié forgée lors de compétitions et une vision commune de l'IA, ils représentent une nouvelle génération de fondateurs, comparée au "PayPal Mafia", qui redefinit l'industrie technologique par leur densité intellectuelle et leur quête d'efficacité.

marsbitIl y a 1 h

Le fondateur de Hyperliquid révélé dans son cercle d'amis : Ce groupe de "médaillés d'or aux Olympiades" domine le cercle de l'IA de la Silicon Valley

marsbitIl y a 1 h

Trading

Spot
Futures
活动图片