La personne qui construit des robots pour OpenAI a vu un avenir effrayant

marsbitPublié le 2026-03-09Dernière mise à jour le 2026-03-09

Résumé

L'ingénieure en chef du matériel et de la robotique d'OpenAI, Caitlin Kalinowski, a démissionné en mars 2026, exprimant son opposition à un contrat entre OpenAI et le département américain de la Défense. Elle craignait que cette collaboration ne mène à la surveillance intérieure et au développement d'armes autonomes. Ce départ survient une semaine après l'annonce du contrat, qui a provoqué une vive controverse, une augmentation de 295 % des désinstallations de ChatGPT et le mouvement #QuitGPT. En réponse, Sam Altman a révisé le contrat pour interdire « délibérément » l'utilisation de l'IA pour la surveillance des citoyens américains, une formulation jugée insuffisante par des experts juridiques. Kalinowski, dont l'équipe construisait des robots, a estimé que son travail contribuait concrètement à des applications militaires potentiellement létales. Son départ s'inscrit dans une tendance plus large : 37 % des membres des équipes d'éthique et de sécurité d'OpenAI auraient quitté l'entreprise pour des raisons similaires. Alors qu'OpenAI accélère son expansion commerciale, ce conflit oppose la croissance aux principes éthiques. Contrairement à Anthropic, qui a refusé un contrat similaire et a gagné la confiance des utilisateurs, OpenAI a choisi de s'associer au gouvernement. La démission silencieuse mais puissante de Kalinowski pose une question cruciale à toute l'industrie : jusqu'où est-on prêt à aller pour assumer la responsabilité de ce que l'on crée ?

Auteur :Geek Lao You

Le 7 mars 2026, lorsque j'ai appris la démission de Caitlin Kalinowski, ma première réaction n'a pas été la surprise, mais plutôt — « Enfin, quelqu'un a parlé par ses actes ».

Kalinowski était responsable du matériel et de l'ingénierie robotique chez OpenAI, elle avait rejoint l'entreprise en novembre 2024 et a choisi de partir après moins d'un an et demi.

Sa raison est directe et lourde de sens — elle ne pouvait accepter les applications potentielles de surveillance nationale et d'armes autonomes suite à la signature du contrat entre OpenAI et le Département de la Défense américain.

Ce n'est pas une simple perte de talents. C'est une personne qui a participé à la construction physique de l'IA, qui dit au monde par sa démission : elle ne veut pas être responsable de ce que la chose qu'elle a construite pourrait faire.

Pour comprendre le départ de Kalinowski, il faut revenir à ce qui s'est passé environ une semaine plus tôt.

Le 28 février, Sam Altman a annoncé qu'OpenAI avait conclu un accord avec le Département de la Défense américain, permettant au Pentagone d'utiliser les modèles d'IA d'OpenAI dans ses réseaux classifiés. La nouvelle a provoqué un tollé.

Il est intéressant de noter que le « point de référence » de ce contrat est leur concurrent Anthropic.

Peu de temps auparavant, Anthropic avait refusé une coopération similaire proposée par le Pentagone, insistant pour inclure des garde-fous éthiques plus stricts dans le contrat. Le secrétaire à la Défense Pete Hegseth a directement critiqué Anthropic sur X, qualifiant son comportement de « cours magistral d'arrogance et de trahison », et a fait écho à l'ordre du gouvernement Trump de cesser toute coopération avec Anthropic.

OpenAI a ensuite repris cette affaire.

La réaction des utilisateurs a été vive. Le jour même du 28 février, le nombre de désinstallations de ChatGPT a augmenté de 295 % par rapport à la veille. Le mouvement #QuitGPT a rapidement gagné les médias sociaux, avec plus de 2,5 millions de partisans de la contestation numérique en trois jours. Claude en a profité pour dépasser ChatGPT et devenir l'application la plus téléchargée quotidiennement aux États-Unis, atteignant la première place du classement des applications gratuites de l'Apple App Store.

Sous la pression, Altman a reconnu publiquement le 3 mars qu'il « n'aurait pas dû lancer ce contrat à la hâte », affirmant que « cela semblait simplement opportuniste et négligé », et a annoncé une révision de la formulation du contrat pour préciser que « les systèmes d'IA ne doivent pas être délibérément utilisés pour la surveillance intérieure du personnel et des citoyens américains ».

Mais le mot « délibérément » est en soi une faille. Un avocat de l'Electronic Frontier Foundation a souligné que les agences de renseignement et d'application de la loi comptent souvent sur des données « accidentelles » ou « achetées commercialement » pour contourner une protection plus forte de la vie privée — ajouter « délibérément » n'équivaut pas à une véritable restriction.

La démission de Kalinowski est intervenue dans ce contexte.

01 Ce qu'elle a vu est plus concret que ce que nous imaginons

Alors que la plupart des gens débattaient encore pour savoir si OpenAI cédait face au gouvernement, Kalinowski était confrontée à un problème plus concret et plus cruel — son équipe construisait des robots.

L'ingénierie matérielle et robotique n'est pas un travail abstrait d'écriture de code ou de réglage de paramètres. Il s'agit de donner des mains, des pieds, des yeux à l'IA. Lorsque la coopération entre OpenAI et le Département de la Défense est passée de « l'utilisation de modèles » à de futures « applications militaires potentielles de l'IA incarnée », la nature du travail de Kalinowski a changé.

Les chercheurs dans le domaine des armes autonomes avertissent depuis longtemps de l'arrivée de ce jour.

La politique actuelle du Département de la Défense américain n'exige pas que les armes autonomes obtiennent une approbation humaine avant d'utiliser la force. En d'autres termes, le contrat signé par OpenAI n'empêche pas techniquement ses modèles de faire partie d'un système où GPT déciderait de tuer quelqu'un.

Ce n'est pas une exagération. Jessica Tillipman, chargée de cours en droit des marchés publics à l'Université de Georgetown, en analysant le contrat révisé d'OpenAI, a clairement indiqué que la formulation du contrat « ne donne pas à OpenAI une liberté de type Anthropic pour interdire une utilisation gouvernementale légale » ; il déclare simplement que le Pentagone ne peut pas utiliser la technologie OpenAI en violation des « lois et politiques existantes » — mais les lois existantes présentent d'énormes lacunes en matière de régulation des armes autonomes.

Des experts en gouvernance de l'Université d'Oxford ont émis un jugement similaire, estimant que l'accord d'OpenAI « est peu susceptible de combler » les lacunes structurelles laissées au niveau de la gouvernance par la surveillance intérieure et les systèmes d'armes autonomes pilotés par l'IA.

Le départ de Kalinowski est sa réponse personnelle à ce constat.

02 Ce qui se passe à l'intérieur d'OpenAI

Kalinowski n'est pas la première à partir, et ne sera probablement pas la dernière.

Des données montrent que le taux de départ de l'équipe d'éthique et de l'équipe de sécurité IA d'OpenAI a atteint 37 %, la plupart des personnes citant comme raison de leur départ « un désaccord avec les valeurs de l'entreprise » ou « l'incapacité d'accepter l'utilisation de l'IA à des fins militaires ». Le chercheur scientifique Aidan McLaughlin a écrit en interne : « Personnellement, je ne pense pas que cet accord en vaille la peine ».

Il est important de noter le moment où cette vague de départs se produit — précisément à un stade où OpenAI étend rapidement son empreinte commerciale. Autour de la controverse sur le contrat de défense, l'entreprise a annoncé l'extension de 1000 milliards de dollars de son accord existant de 380 milliards de dollars avec AWS, sur une durée de huit ans ; elle a également révisé ses objectifs de dépenses divulgués publiquement, prévoyant des revenus totaux dépassant 2800 milliards de dollars d'ici 2030.

Accélération commerciale, départ continu de l'équipe de sécurité. Cette divergence est l'axe le plus important pour comprendre la situation actuelle d'OpenAI.

Les valeurs d'une entreprise se reflètent finalement dans les personnes qu'elle retient et celles qu'elle ne peut pas retenir. Lorsque ceux qui se soucient le plus de « la façon dont cette technologie sera utilisée » commencent à partir les uns après les autres, il n'est pas difficile de deviner vers quelle direction la structure organisationnelle restante va glisser.

Anthropic a choisi une autre voie dans ce bras de fer — refuser le contrat, subir la colère du Département de la Défense, mais gagner la confiance de nombreux utilisateurs. Pendant cette période, les téléchargements de Claude ont augmenté contre toute attente, prouvant dans une certaine mesure qu'« un refus fondé sur des principes » n'est pas nécessairement une stratégie perdante sur le plan commercial.

style="text-align: start;">Mais Anthropic a également payé le prix — elle a été évincée par le gouvernement, du moins pour l'instant.

C'est là le véritable dilemme : aucun choix n'est parfait.

Refuser signifie potentiellement perdre de l'influence, voire être exclu de l'élaboration des règles. Accepter signifie utiliser sa propre technologie pour cautionner des actions que l'on ne peut pas contrôler complètement.

La réponse de Kalinowski est une troisième voie — partir.

C'est la chose la plus honnête qu'elle pouvait faire.

03 La bataille pour l'âme de la Silicon Valley ne fait que commencer

Si l'on élargit la perspective, la signification de cet événement va bien au-delà de la démission d'une personne.

L'association de l'IA et du militaire est un choix que tout le secteur devra affronter tôt ou tard. Le Pentagone a un budget, des besoins et une capacité d'intégration technologique, il ne cessera de tendre la main aux entreprises d'IA. Et les entreprises d'IA — qu'il s'agisse d'OpenAI poursuivant l'AGI, d'Anthropic mettant l'accent sur la sécurité, ou d'autres acteurs — devront tôt ou tard donner leur réponse à cette question.

La stratégie d'Altman a été de tenter de tracer une ligne rouge through la formulation contractuelle tout en acceptant la réalité commerciale. Mais comme l'ont souligné de nombreux experts juridiques et de gouvernance, ces formulations ressemblent plus à une protection au niveau des relations publiques qu'à une contrainte technique forte.

Un problème plus fondamental est que lorsque les modèles d'IA sont déployés dans des réseaux classifiés, lorsqu'ils commencent à participer aux décisions militaires, le monde extérieur n'a tout simplement pas la capacité de vérifier si ces « garanties » sont réellement respectées.

L'absence de transparence est en soi le plus grand risque.

Kalinowski est restée chez OpenAI pendant moins d'un an et demi, mais a choisi de partir à ce moment précis. Elle n'a pas publié de longue déclaration publique, n'a critiqué personne nommément, elle a simplement tracé sa limite par son action.

D'une certaine manière, cela a plus de force que n'importe quel article de politique.

L'ingénierie matérielle et robotique de l'IA était l'un des domaines les plus excitants de la Silicon Valley. En partant, Kalinowski n'emporte pas seulement un CV, elle laisse aussi une question à tous ceux qui restent dans cette industrie —

Jusqu'où êtes-vous prêt à être responsable de ce que vous construisez ?

Questions liées

QQui est Caitlin Kalinowski et pourquoi a-t-elle démissionné d'OpenAI ?

ACaitlin Kalinowski était la responsable du matériel et de la robotique chez OpenAI. Elle a démissionné en raison de son opposition à un contrat entre OpenAI et le département de la Défense américain, craignant que cela ne mène à la surveillance intérieure et à des applications d'armes autonomes.

QQuel a été l'impact de l'annonce du contrat avec le Pentagone sur OpenAI et ses utilisateurs ?

AL'annonce du contrat a provoqué une réaction négative immédiate : les désinstallations de ChatGPT ont augmenté de 295% en un jour, le mouvement #QuitGPT a gagné plus de 2,5 millions de soutiens en trois jours, et Claude d'Anthropic a dépassé ChatGPT en nombre de téléchargements aux États-Unis.

QPourquoi le mot « intentionnellement » dans le contrat révisé d'OpenAI est-il considéré comme problématique ?

ALe mot « intentionnellement » est considéré comme une faille car il permet aux agences de renseignement et d'application de la loi de contourner les protections de la vie privée en s'appuyant sur des données collectées « accidentellement » ou achetées commercialement, plutôt que sur une collecte délibérée.

QQuel est le taux de départ au sein des équipes d'éthique et de sécurité d'OpenAI, et pourquoi est-il significatif ?

ALe taux de départ au sein des équipes d'éthique et de sécurité d'OpenAI est de 37%. Ce taux élevé est significatif car il indique un désalignement croissant des valeurs, de nombreux employés quittant l'entreprise en raison de préoccupations concernant l'utilisation militaire de l'IA et la direction commerciale de l'entreprise.

QQuelle stratégie Anthropic a-t-elle adoptée face à la proposition du Pentagone, et quel en a été le résultat ?

AAnthropic a refusé la proposition du Pentagone, insistant pour inclure des garde-fous éthiques plus stricts dans le contrat. Bien que cela ait entraîné des critiques publiques du secrétaire à la Défense et l'exclusion temporaire des contrats gouvernementaux, l'entreprise a gagné la confiance des utilisateurs, permettant à Claude de devenir l'application la plus téléchargée aux États-Unis.

Lectures associées

Le prix d'un rendement annualisé de 11,5% : le STRC de MicroStrategy connaîtra-t-il un moment de retour de flamme ?

L’article interroge la viabilité à long terme de la stratégie financière de MicroStrategy (MSTR), orchestrée par Michael Saylor, centrée sur l’outil STRC (Saylor Treasury Reserve Certificate). Celui-ci permet de lever des fonds massifs — 85 milliards de dollars émis, dont 35 milliards rien que sur les deux dernières semaines — pour acquérir davantage de Bitcoin, tout en promettant aux investisseurs un rendement annualisé attractif de 11,5%. Cependant, cette structure génère une obligation de dividendes importante, environ 4 milliards de dollars par an, qui grève la trésorerie de MSTR. Les réserves destinées au paiement de ces dividendes, initialement couvertes pour 25 mois, ne le sont plus que pour 18 mois en raison des émissions récentes. L’auteur souligne un risque systémique : si le cours du BTC stagne ou baisse, la pression des dividendes pourrait contraindre Saylor à puiser dans les réserves de Bitcoin ou à cesser les paiements aux porteurs de STRC. Un scénario extrême verrait la valorisation de MSTR (mNAV) chuter en dessous de 1, entraînant possiblement des ventes forcées de BTC et une perte de confiance des marchés. La soutenabilité du modèle dépend donc étroitement de la continued appreciation du Bitcoin. Sans celle-ci, le mécanisme pourrait se retourner contre MSTR et ses actionnaires.

marsbitIl y a 56 mins

Le prix d'un rendement annualisé de 11,5% : le STRC de MicroStrategy connaîtra-t-il un moment de retour de flamme ?

marsbitIl y a 56 mins

Trading

Spot
Futures
活动图片