Mai 2026, dans un tribunal fédéral d'Oakland, le voile se lève progressivement sur OpenAI.
Devant le jury, un véritable "Rashomon" chaotique se dévoile :
Le journal intime de Greg Brockman, tissé d'anxiété et de calculs ; l'intransigeance d'Elon Musk sur la question du pouvoir ; les problèmes d'intégrité de Sam Altman flirtant avec les limites ; l'ombre immense de Microsoft, entre puissance de calcul et capital ; et enfin, le coup d'état du conseil d'administration, aussi spectaculaire que précipité, survenu fin 2023.
Au milieu de ce champ de bataille, une question, vaste dans son principe mais devenue très concrète devant la justice : la promesse faite jadis par OpenAI de "bénéficier à l'humanité entière" est-elle toujours d'actualité ?
Au 15 mai 2026, le verdict final n'est pas encore rendu, l'avis du jury reste en suspens. Mais une chose est déjà acquise : OpenAI a été tirée de son mythe et ramenée sur Terre.
Ces dernières années, OpenAI était souvent narrée comme une histoire d'avenir. L'explosion de ChatGPT, les tournées mondiales d'Altman, les grands modèles s'infiltrant dans les bureaux, les écoles, les téléphones et les processus d'entreprise. Une société née avec une aura quasi religieuse, parlant du destin de l'humanité, de l'éveil de l'intelligence, des frontières de la sécurité et de l'aube de demain, telle un phare érigé par avance pour l'humanité.
Mais le tribunal s'en moque. Le tribunal exige des faits.
L'« humanité entière » à la barre
À sa naissance en 2015, OpenAI était d'une pureté immaculée.
Elle se présentait comme une société de recherche à but non lucratif en IA, avec pour objectif de développer une intelligence numérique au bénéfice de toute l'humanité, sans la contrainte du rendement financier.
Altman et Musk étaient coprésidents, Brockman le CTO, Ilya Sutskever le directeur de la recherche. OpenAI semblait alors incarner les derniers vestiges de l'idéalisme de l'âge d'or de la Silicon Valley : les esprits les plus brillants ne servaient pas une entreprise, mais veillaient sur l'avenir de l'humanité.
Dix ans plus tard, cette promesse est mise en accusation.
Le camp Musk affirme qu'Altman, Brockman et OpenAI ont utilisé la mission à but non lucratif pour obtenir son financement et sa confiance, avant de se tourner vers une structure lucrative au profit d'individus et de Microsoft.
Le camp OpenAI rétorque : l'argent de Musk était un don, sans conditions spécifiques ; il était au courant des discussions sur une structure à but lucratif, mais n'a pas obtenu le contrôle ; son procès aujourd'hui est motivé par des regrets d'être parti et par la concurrence que représente désormais sa propre société, xAI.
Les propos échangés sont acerbes.
Musk se place en gardien de la mission. OpenAI le dépeint comme un fondateur incontrôlable. L'un accuse : "Vous avez volé une œuvre de charité." L'autre réplique : "Vous n'avez simplement pas réussi à la contrôler." Au final, ce qui est le plus gênant, ce n'est pas la capacité de l'un ou l'autre à raconter une histoire, c'est que cette "humanité entière" si souvent invoquée n'a jamais vraiment pris place à la table.
Le terme "humanité entière" apparaît dans l'annonce de création, les statuts, les discours et les articles de presse, occupant le haut du pavé moral.
Mais devant le tribunal, il est démonté en preuves : Le journal de Brockman reflète-t-il ses intentions réelles ? Que révèlent les emails de 2017 ? Qu'a exactement transféré OpenAI LP en 2019 ? Le cloud et l'argent de Microsoft ont-ils changé la trajectoire de l'entreprise ? Les problèmes d'intégrité d'Altman permettent-ils à la société de continuer à dire "faites-nous confiance" ?
Plus une entreprise d'IA aime prétendre qu'elle représente l'humanité, plus elle doit être questionnée avec précision : Quelle humanité incluez-vous ? Qui signe pour ces gens ? Qui peut vous démettre ? Qui peut inspecter les comptes ? Qui peut dire non ?
Le tribunal n'a pas répondu à ces questions pour le public, mais il les a mises en lumière.
L'histoire d'OpenAI n'est donc plus celle de la croissance d'une entreprise du futur, mais plutôt un vieux contentieux. Et lorsque les livres de compte sont ouverts, on découvre que les fissures ne sont pas apparues après le succès de ChatGPT.
La fissure de 2017
OpenAI n'a pas changé du jour au lendemain.
Si l'on ne regarde qu'à partir de ChatGPT, on pourrait croire qu'OpenAI a été poussée par l'argent après son succès, comme tant d'autres entreprises, parlant d'abord d'idéal avant de calculer les affaires.
Mais le procès remonte le temps, jusqu'en 2017. OpenAI n'avait pas encore la notoriété d'aujourd'hui, l'AGI n'était pas encore un mot à la mode, mais l'équipe fondatrice faisait déjà face à un problème : si elle voulait vraiment créer une intelligence artificielle générale, les dons et l'enthousiasme ne suffiraient pas de loin.
C'est le moment le plus difficile pour l'idéalisme de la Silicon Valley. Plus l'idéal est grand, plus la facture est lourde. Plus la facture est lourde, plus il est difficile pour l'organisation de rester pure. Ces grands discours sur la vision de l'humanité doivent finalement se traduire en puces, serveurs, salaires d'ingénieurs, ressources cloud et capitaux à long terme. Sans cela, l'AGI n'est qu'un vœu pieux ; avec cela, le statut non lucratif devient difficile à maintenir.
Dès 2017, OpenAI discutait en interne de diverses voies : filiale à but lucratif, entreprise à mission (B-corp), partenariat avec des entreprises existantes, dépendance envers Tesla... Musk avait proposé de faire financer OpenAI par Tesla. Le camp OpenAI contre-attaque en affirmant que Musk ne s'opposait pas simplement à la lucrativité, la question du contrôle était au cœur de ses préoccupations.
Il y a aussi une scène de 2017 qui mérite d'être rappelée : Dota.
Après la victoire de l'IA d'OpenAI contre un joueur humain de haut niveau en Dota 1 contre 1, l'équipe a pris conscience plus fortement que cette technologie pouvait vraiment devenir énorme. Le procès a mentionné une discussion dans la maison de Musk à San Francisco, plus tard surnommée la "réunion du manoir hanté", où ils célébraient la percée technique mais débattaient aussi de la transition d'OpenAI vers le lucratif.
Beaucoup d'entreprises commencent à se réinterpréter après le succès d'un produit. OpenAI l'a fait plus tôt. Avant même de devenir le géant d'aujourd'hui, ses fondateurs savaient déjà que la structure à but non lucratif ne soutiendrait pas le récit de l'AGI. L'idéal d'OpenAI avait dès le départ besoin d'une machine bien plus lourde pour le nourrir.
Ainsi, une organisation apparemment dédiée à la sécurité scientifique s'est rapidement engagée dans des négociations sur le contrôle.
Qui tiendra le volant ? Musk ou Altman ? Le conseil d'administration à but non lucratif ou les futurs investisseurs ? Ou cette "humanité entière" jamais vraiment présente ?
En regardant Musk sous cet angle, il fut certes un important bailleur de fonds initial et a participé à la construction du récit non lucratif d'OpenAI. Mais il fut aussi l'un des premiers à voir le pouvoir immense que l'IA pouvait conférer. Et après l'avoir vu, il a voulu le saisir fermement.
Le volant de Musk
Musk répète une chose durant le procès : OpenAI a été volée.
Cette formulation est puissante. Elle réduit la complexité d'un changement organisationnel à une phrase que tout le monde peut comprendre. Une œuvre de charité, censée servir l'humanité, est devenue une immense machine commerciale. Cela ressemble à une appropriation de bien, à une trahison morale.
Mais l'histoire en salle d'audience n'est pas si simple.
L'interrogatoire croisé de Musk par les avocats d'OpenAI vise précisément à déconstruire son image de victime pure. Les avocats produisent emails et documents, l'interrogeant sur sa connaissance précoce de la nécessité potentielle d'une structure lucrative, et sur ses propres tentatives de faire absorber OpenAI par Tesla, ou d'obtenir d'une autre manière un rôle dominant.
Musk n'aime pas être ainsi démonté. Il affirme en audience que les questions de l'autre partie visent à "me piéger". Le juge lui demande à plusieurs reprises de répondre directement. Lorsqu'il tente de ramener le débat sur les risques d'extinction liés à l'IA, le juge lui rappelle que ce procès n'abordera pas beaucoup ce sujet.
Ces moments en disent long sur Musk.
Il est habitué aux grands récits. Le destin de l'humanité, les risques de l'IA, Mars, la liberté d'expression, la survie de la civilisation, autant de sujets qu'il affectionne. Mais le tribunal lui demande de répondre à des questions plus petites, plus pointues : Quand avez-vous su ? Avez-vous consenti ? Vouliez-vous contrôler ? Votre argent pour OpenAI était-il un don ou un investissement ?
La contradiction chez Musk est celle même de l'histoire d'OpenAI. Il peut sincèrement craindre une IA incontrôlée, et sincèrement croire qu'OpenAI a trahi sa mission. Cela n'empêche pas qu'il ait aussi voulu que cette entreprise fonctionne selon sa volonté.
Plus une personne est convaincue de sauver l'humanité, plus elle a tendance à croire avec obstination qu'elle doit tenir elle-même le volant.
Ce n'est pas un problème propre à Musk. C'est la toile de fond de nombreux grands récits de la Silicon Valley. Ils aiment présenter une volonté privée comme une mission pour l'humanité, un désir de contrôle comme un sens des responsabilités, un pouvoir organisationnel comme une nécessité pour l'avenir. Musk incarne simplement cette réalité de manière plus visible, plus intense, plus spectaculaire.
Ainsi, dans cette affaire, Musk n'est pas seulement le plaignant. Il est aussi une pièce à conviction.
Le journal de Brockman
Greg Brockman n'était pas au départ la figure la plus en vue de ce drame.
Musk est trop théâtral, Altman trop central, Sutskever trop tragique, Microsoft trop immense. Brockman est entre les deux, cofondateur initial clé d'OpenAI, mais aussi un rôle pivot dans la réalité opérationnelle de l'entreprise. Pourtant, ce procès l'a propulsé sous les projecteurs, car son journal intime est devenu une pièce à conviction.
La deuxième semaine du procès, Brockman a été longuement interrogé sur son journal, ses emails et ses SMS. Le camp Musk utilise ces documents pour prouver qu'il avait, avec Altman, des motivations intéressées dès le début. Le camp OpenAI affirme que Musk cite hors contexte.
Le journal contient des objectifs de richesse. De l'anxiété sur les voies de revenus de l'entreprise. Des phrases comme "making the billions". Plus gênant encore, le journal contient des auto-rappels sur le fait de ne pas pouvoir "voler" la structure à but non lucratif à Musk, sous peine de faillite morale. L'avocat de Musk revient sans cesse sur ces passages. Brockman nie avoir trompé Musk, et explique que ces écrits privés ne sont pas des comptes rendus d'événements, mais des écrits personnels de type "flux de conscience".
Un journal intime n'est pas un verdict. Il ne prouve pas directement une fraude. Il peut aussi contenir les pensées brutes d'une personne épuisée, anxieuse, en pleine réflexion. Tout rédacteur sait qu'une note privée n'équivaut pas à une position finale, encore moins à la vérité complète.
Mais ce que le journal de Brockman révèle de vraiment important, ce n'est pas ce qu'il prouve comme faute, mais qu'il montre qu'ils connaissaient les limites. Les membres clés fondateurs d'OpenAI ne sont pas passés à la commercialisation en toute innocence. Ils savaient que l'enveloppe "à but non lucratif" avait un poids moral, que le financement initial de Musk reposait sur la confiance, et que basculer vers une autre structure quelques mois plus tard tout en affirmant leur attachement au non lucratif semblerait malhonnête.
Le savoir n'a pas signifié s'arrêter.
Brockman a révélé en audience que la valeur de ses actions OpenAI approchait les 300 milliards de dollars.
Bien que ce ne soit pas du cash, pas une richesse déjà encaissée. C'est la valeur des actions basée sur une estimation, dépendant toujours des perspectives de l'entreprise et de la structure des transactions. Mais la portée symbolique est déjà là. Une personne qui s'inquiétait dans son journal des limites morales, se retrouve en audience, interrogée sur une participation valant près de 300 milliards de dollars. Mission d'intérêt général et richesse privée se retrouvent à la même table à cet instant.
Brockman ressemble à ces personnages clés d'organisations brillantes : intelligent, engagé, compétent, doté d'un sens moral, mais capable aussi de se persuader petit à petit de continuer à avancer.
C'est là que réside la complexité d'OpenAI. Ce n'est pas un groupe de méchants complotant pour détruire un idéal. C'est plutôt un groupe de personnes intelligentes, trouvant à chaque étape une raison de poursuivre, et finissant par emporter la promesse initiale dans une machine qu'elles-mêmes ne contrôlent pas forcément complètement.
Et au centre de cette machine, il y a Altman.
La dette de confiance d'Altman
Ce qui est mis en cause chez Sam Altman durant ce procès, ce n'est pas seulement la véracité de ses propos. Le camp Musk attaque en réalité sa légitimité à gouverner.
Dans sa plaidoirie finale, l'avocat de Musk, Steven Molo, place les problèmes d'intégrité d'Altman au cœur de son argumentation. Il dit au jury que cinq personnes ayant travaillé des années avec Altman - Musk, Sutskever, Murati, Toner, McCauley - le qualifient de "menteur".
Ces cinq noms sont plus importants que l'accusation elle-même.
Musk est un adversaire, on peut penser qu'il a un conflit d'intérêts. Mais Sutskever est cofondateur et ancien directeur scientifique d'OpenAI ; Murati était la CTO, et a brièvement été PDG par intérim en 2023 ; Toner et McCauley étaient membres du conseil d'administration. Ce sont des personnes issues de la structure de pouvoir interne d'OpenAI.
On ne peut pas dire simplement qu'Altman est un bon ou un mauvais homme.
Les sentiments envers Altman au sein d'OpenAI sont clairement complexes. Il peut amener l'organisation au centre du monde, mais il inquiète aussi certains membres clés. Il a une capacité organisationnelle, de levée de fonds, médiatique et politique exceptionnelle, ce qui a permis à l'entreprise d'atteindre sa position actuelle.
Lorsque le conseil d'administration a démis Altman en 2023, la raison officielle donnée par OpenAI était qu'il n'avait pas été "toujours franc" dans sa communication avec le conseil. Quelques jours plus tard, Altman était de retour. En 2024, OpenAI a publié un résumé de l'enquête WilmerHale, reconnaissant une rupture de confiance entre l'ancien conseil et Altman, mais estimant aussi que le conseil avait agi trop hâtivement, sans informer au préalable les parties prenantes clés, ni mener d'enquête complète ou donner à Altman l'opportunité de répondre.
C'est l'ensemble de ces histoires qui constitue la véritable dette de confiance d'Altman.
Il n'est pas un héros au sens traditionnel. Il présente le visage d'une nouvelle élite de la Silicon Valley : il sait parler de mission, trouver des fonds, organiser les talents, gérer les médias, négocier avec les grandes entreprises, et transformer un laboratoire en une entreprise de classe mondiale.
Plus ses compétences sont grandes, plus le problème est important : si une entreprise repose sur sa crédibilité personnelle pour garantir au monde "nous voulons bénéficier à toute l'humanité", alors sa fiabilité n'est plus une question de caractère privé, mais de gouvernance publique.
Altman a aussi sa contre-attaque en audience. Il affirme que Musk a tenté à plusieurs reprises de faire absorber OpenAI par Tesla, ce qui irait à l'encontre de la mission d'OpenAI. Il ajoute qu'OpenAI a en réalité créé une valeur philanthropique à très grande échelle.
C'est là la difficulté d'OpenAI. Elle peut dire qu'elle est toujours contrôlée par une entité à but non lucratif, et que la commercialisation permet à cette dernière d'avoir plus de valeur ; mais le public, en entendant cela, ne peut s'empêcher de se demander : si la mission publique doit être préservée par une entreprise à la valorisation énorme et un PDG puissant, est-ce vraiment une mission, ou un prêt de confiance ?
En 2023, le conseil d'administration a tenté de récupérer ce prêt. Il a échoué.
La mission cède face à la réalité
Le conseil d'administration d'OpenAI n'est pas complètement dénué de pouvoir.
Sur le papier, le conseil à but non lucratif détient le pouvoir de supervision de la mission. Lors de la création d'OpenAI LP en 2019, OpenAI expliquait publiquement qu'il s'agissait d'une structure à "profit plafonné" : les retours pour employés et investisseurs étaient limités, l'excédent revenant à l'entité à but non lucratif, l'ensemble restant sous son contrôle. Ce dispositif semblait être un compromis, permettant à la fois de lever des fonds sans abandonner complètement la mission.
Le problème, c'est que la réalité a évolué bien plus vite que les statuts.
Après 2019, les liens entre OpenAI et Microsoft se sont resserrés. Microsoft a investi des fonds, fourni du cloud et des supercalculateurs, obtenu des droits de commercialisation. Les documents du procès révèlent qu'une grande partie de la propriété intellectuelle et des employés d'OpenAI ont été transférés vers l'entité lucrative. À l'ère de ChatGPT, OpenAI n'était plus seulement un institut de recherche, mais un système commercial connectant utilisateurs, clients, développeurs, ressources cloud, investisseurs et la compétition mondiale.
Un tel système ne s'arrête pas d'un simple clic.
Le PDG de Microsoft, Satya Nadella, interrogé en audience sur les 130 milliards de dollars investis par Microsoft dans OpenAI et les retours potentiels d'environ 920 milliards en cas de succès, répond en substance que si le gâteau grossit, l'entité à but non lucratif en bénéficiera aussi.
Cette logique est classique : la commercialisation n'est pas une trahison de la mission, mais un moyen d'élargir ses sources de financement.
Mais dans le même ensemble de témoignages, les SMS échangés entre Nadella et Altman concernant le lancement de la version payante de ChatGPT sont mentionnés. Nadella demande quand elle sera lancée, Altman répond que la puissance de calcul est insuffisante et que l'expérience n'est pas encore optimale, mais Nadella insiste : le plus vite possible.
Une fois OpenAI liée à Microsoft, les rythmes produits, les engagements clients, les limites de calcul et les retours commerciaux sont indissociables. Le conseil peut discuter de la mission, mais Microsoft doit garantir l'expérience client ; le conseil peut s'inquiéter de la sécurité, mais utilisateurs et entreprises l'utilisent déjà ; le conseil peut démettre le PDG, mais employés, investisseurs, partenaires et opinion publique montent immédiatement au créneau.
Le point de vue de Nadella sur la crise du conseil de 2023 est également révélateur. Il dit ne pas avoir reçu de raison claire pour la destitution d'Altman, et critique un conseil ayant agi comme des "amateurs". Plus crucial encore, il se disait prêt, si Altman et d'autres employés ne pouvaient pas revenir chez OpenAI, à les accueillir chez Microsoft.
C'est la réalité. Le conseil à but non lucratif semble tenir le volant, mais le moteur, l'accélérateur, le carburant et les passagers du véhicule ne relèvent plus uniquement de lui. Quand une entreprise d'IA est déjà connectée à une valorisation colossale, à un géant du cloud, à des clients entreprises, à des stock-options d'employés et à des utilisateurs mondiaux, un conseil censé représenter la mission a du mal à appuyer vraiment sur le frein.
Plus le récit de l'AGI est grand, plus la facture de calcul est lourde ; plus cette facture est lourde, plus le besoin d'un géant du cloud est impératif ; plus ce besoin est impératif, moins la mission peut être protégée par les seuls statuts.
À l'ère de l'IA, la puissance de calcul n'est pas une ressource de back-office. La puissance de calcul est un pouvoir. Celui qui la fournit participe à définir la vitesse, la direction et les bénéficiaires d'une entreprise. Celui qui peut assumer la facture d'un échec d'entraînement peut exiger des retours en cas de succès. Celui qui garantit la signature continue de contrats clients aura plus de poids qu'un conseil d'administration en temps de crise.
Ce procès nous permet de voir les choses clairement : ce n'est pas une personne qui a détruit un idéal. Si un idéal ne dispose pas d'un corps institutionnel suffisamment solide, il finira tôt ou tard par développer une charpente faite de réalité.
Cette charpente n'est pas forcément malveillante, mais elle n'est certainement plus pure.
Les utilisateurs ne sont pas des spectateurs
Musk, Altman, Brockman, Nadella sont des noms très éloignés de nos vies. Des demandes de dommages-intérêts à mille milliards, une participation valant près de 300 milliards, un investissement de 130 milliards, des retours potentiels de 920 milliards... Ces chiffres sont si grands qu'ils en deviennent abstraits. L'ordinaire, au bureau, dans le métro le matin, sur TikTok le soir, sa relation avec l'IA se résume peut-être à ouvrir une app et demander : "Aide-moi à modifier ce projet, écris ce code, traduis cet email."
Mais le problème est justement là.
OpenAI n'est plus un laboratoire lointain. Ses modèles s'insinuent dans l'écriture, la traduction, la programmation, la recherche, le service client, l'éducation, les logiciels de bureau, les processus d'entreprise. Une personne lambda ne sait peut-être pas si OpenAI est une LP, une LLC ou une PBC, et ne se soucie peut-être pas de savoir si Altman ou Musk est le meilleur conteur, mais elle utilise l'IA quotidiennement.
Les enfants l'utilisent pour leurs devoirs, les écoles doivent décider comment gérer les dissertations générées par IA ; les programmeurs lui font écrire du code, les entreprises doivent définir comment mesurer la productivité humaine ; les journalistes l'utilisent pour rechercher, structurer, titrer, les lecteurs font face à plus de contenu dont la source est floue ; les entreprises l'intègrent dans le service client et les processus d'approbation, les employés voient leur temps et leurs performances reconfigurés par le système.
Nous avons cru n'être que des utilisateurs. Mais l'utilisateur utilise l'outil, et l'outil façonne aussi l'utilisateur.
Ce à quoi un modèle peut répondre ou non ; quel contenu est jugé sûr ou risqué ; quelles entreprises auront accès aux modèles les plus puissants, quelles personnes n'auront que des versions encapsulées ; quelles langues, professions, régions et connaissances sont mieux supportées, lesquelles sont traitées grossièrement. Ces questions semblent techniques, mais elles finissent par affecter la vie des gens ordinaires.
Le procès d'OpenAI est donc une fenêtre. À travers elle, on voit que le chantier de construction des infrastructures du futur n'est ni propre, ni transparent. Il y a là des esprits brillants, de l'idéal, de la peur, de l'ambition, des actions, des factures de cloud, des règlements de comptes en conseil d'administration, et quelques documents personnels dont on n'imaginait pas qu'ils seraient lus à haute voix.
L'eau, l'électricité, les routes, les écoles, les hôpitaux, les moteurs de recherche, les systèmes mobiles... Une fois ces choses entrées dans le quotidien, elles ne sont plus de simples produits commerciaux. L'IA se dirige vers cette position. Elle n'est peut-être pas encore aussi stable que l'eau ou l'électricité, mais elle commence déjà à susciter une dépendance similaire. On peut éviter un chatbot particulier, mais il est difficile d'échapper éternellement aux processus de travail, points d'entrée de l'information et règles organisationnelles remodelés par l'IA.
Quel que soit le verdict final de ce procès, l'utilisateur lambda continuera très probablement à utiliser l'IA le lendemain. Les étudiants feront toujours corriger leurs dissertations, les programmeurs compléter leur code, les entreprises intégrer l'IA dans leurs systèmes, les entrepreneurs développer des applications autour des modèles.
Mais le tribunal a au moins déchiré une couche d'emballage. Il nous dit que ces IA qui s'insinuent dans le quotidien ne sont pas nées d'une machine transparente, stable, tournant uniquement pour l'intérêt public. Elles viennent de personnes concrètes, d'un ensemble complexe de contrats, de factures de cloud computing, d'un coup d'état au conseil, de journaux intimes et d'une guerre pour le contrôle.
Ce n'est pas une simple histoire de "capital corrompant l'idéal". Ce qui est plus réel, et plus inquiétant, c'est que l'IA devient une infrastructure pour les gens ordinaires, mais que son volant reste entre les mains d'une poignée de personnes.
Quand l'avenir commence à être fabriqué comme un produit, les gens ordinaires ne peuvent pas se contenter d'être des utilisateurs.










