La personne qui construit des robots pour OpenAI a vu un avenir effrayant

marsbitPublié le 2026-03-09Dernière mise à jour le 2026-03-09

Résumé

L'ingénieure en chef du matériel et de la robotique d'OpenAI, Caitlin Kalinowski, a démissionné en mars 2026, exprimant son opposition à un contrat entre OpenAI et le département américain de la Défense. Elle craignait que cette collaboration ne mène à la surveillance intérieure et au développement d'armes autonomes. Ce départ survient une semaine après l'annonce du contrat, qui a provoqué une vive controverse, une augmentation de 295 % des désinstallations de ChatGPT et le mouvement #QuitGPT. En réponse, Sam Altman a révisé le contrat pour interdire « délibérément » l'utilisation de l'IA pour la surveillance des citoyens américains, une formulation jugée insuffisante par des experts juridiques. Kalinowski, dont l'équipe construisait des robots, a estimé que son travail contribuait concrètement à des applications militaires potentiellement létales. Son départ s'inscrit dans une tendance plus large : 37 % des membres des équipes d'éthique et de sécurité d'OpenAI auraient quitté l'entreprise pour des raisons similaires. Alors qu'OpenAI accélère son expansion commerciale, ce conflit oppose la croissance aux principes éthiques. Contrairement à Anthropic, qui a refusé un contrat similaire et a gagné la confiance des utilisateurs, OpenAI a choisi de s'associer au gouvernement. La démission silencieuse mais puissante de Kalinowski pose une question cruciale à toute l'industrie : jusqu'où est-on prêt à aller pour assumer la responsabilité de ce que l'on crée ?

Auteur :Geek Lao You

Le 7 mars 2026, lorsque j'ai appris la démission de Caitlin Kalinowski, ma première réaction n'a pas été la surprise, mais plutôt — « Enfin, quelqu'un a parlé par ses actes ».

Kalinowski était responsable du matériel et de l'ingénierie robotique chez OpenAI, elle avait rejoint l'entreprise en novembre 2024 et a choisi de partir après moins d'un an et demi.

Sa raison est directe et lourde de sens — elle ne pouvait accepter les applications potentielles de surveillance nationale et d'armes autonomes suite à la signature du contrat entre OpenAI et le Département de la Défense américain.

Ce n'est pas une simple perte de talents. C'est une personne qui a participé à la construction physique de l'IA, qui dit au monde par sa démission : elle ne veut pas être responsable de ce que la chose qu'elle a construite pourrait faire.

Pour comprendre le départ de Kalinowski, il faut revenir à ce qui s'est passé environ une semaine plus tôt.

Le 28 février, Sam Altman a annoncé qu'OpenAI avait conclu un accord avec le Département de la Défense américain, permettant au Pentagone d'utiliser les modèles d'IA d'OpenAI dans ses réseaux classifiés. La nouvelle a provoqué un tollé.

Il est intéressant de noter que le « point de référence » de ce contrat est leur concurrent Anthropic.

Peu de temps auparavant, Anthropic avait refusé une coopération similaire proposée par le Pentagone, insistant pour inclure des garde-fous éthiques plus stricts dans le contrat. Le secrétaire à la Défense Pete Hegseth a directement critiqué Anthropic sur X, qualifiant son comportement de « cours magistral d'arrogance et de trahison », et a fait écho à l'ordre du gouvernement Trump de cesser toute coopération avec Anthropic.

OpenAI a ensuite repris cette affaire.

La réaction des utilisateurs a été vive. Le jour même du 28 février, le nombre de désinstallations de ChatGPT a augmenté de 295 % par rapport à la veille. Le mouvement #QuitGPT a rapidement gagné les médias sociaux, avec plus de 2,5 millions de partisans de la contestation numérique en trois jours. Claude en a profité pour dépasser ChatGPT et devenir l'application la plus téléchargée quotidiennement aux États-Unis, atteignant la première place du classement des applications gratuites de l'Apple App Store.

Sous la pression, Altman a reconnu publiquement le 3 mars qu'il « n'aurait pas dû lancer ce contrat à la hâte », affirmant que « cela semblait simplement opportuniste et négligé », et a annoncé une révision de la formulation du contrat pour préciser que « les systèmes d'IA ne doivent pas être délibérément utilisés pour la surveillance intérieure du personnel et des citoyens américains ».

Mais le mot « délibérément » est en soi une faille. Un avocat de l'Electronic Frontier Foundation a souligné que les agences de renseignement et d'application de la loi comptent souvent sur des données « accidentelles » ou « achetées commercialement » pour contourner une protection plus forte de la vie privée — ajouter « délibérément » n'équivaut pas à une véritable restriction.

La démission de Kalinowski est intervenue dans ce contexte.

01 Ce qu'elle a vu est plus concret que ce que nous imaginons

Alors que la plupart des gens débattaient encore pour savoir si OpenAI cédait face au gouvernement, Kalinowski était confrontée à un problème plus concret et plus cruel — son équipe construisait des robots.

L'ingénierie matérielle et robotique n'est pas un travail abstrait d'écriture de code ou de réglage de paramètres. Il s'agit de donner des mains, des pieds, des yeux à l'IA. Lorsque la coopération entre OpenAI et le Département de la Défense est passée de « l'utilisation de modèles » à de futures « applications militaires potentielles de l'IA incarnée », la nature du travail de Kalinowski a changé.

Les chercheurs dans le domaine des armes autonomes avertissent depuis longtemps de l'arrivée de ce jour.

La politique actuelle du Département de la Défense américain n'exige pas que les armes autonomes obtiennent une approbation humaine avant d'utiliser la force. En d'autres termes, le contrat signé par OpenAI n'empêche pas techniquement ses modèles de faire partie d'un système où GPT déciderait de tuer quelqu'un.

Ce n'est pas une exagération. Jessica Tillipman, chargée de cours en droit des marchés publics à l'Université de Georgetown, en analysant le contrat révisé d'OpenAI, a clairement indiqué que la formulation du contrat « ne donne pas à OpenAI une liberté de type Anthropic pour interdire une utilisation gouvernementale légale » ; il déclare simplement que le Pentagone ne peut pas utiliser la technologie OpenAI en violation des « lois et politiques existantes » — mais les lois existantes présentent d'énormes lacunes en matière de régulation des armes autonomes.

Des experts en gouvernance de l'Université d'Oxford ont émis un jugement similaire, estimant que l'accord d'OpenAI « est peu susceptible de combler » les lacunes structurelles laissées au niveau de la gouvernance par la surveillance intérieure et les systèmes d'armes autonomes pilotés par l'IA.

Le départ de Kalinowski est sa réponse personnelle à ce constat.

02 Ce qui se passe à l'intérieur d'OpenAI

Kalinowski n'est pas la première à partir, et ne sera probablement pas la dernière.

Des données montrent que le taux de départ de l'équipe d'éthique et de l'équipe de sécurité IA d'OpenAI a atteint 37 %, la plupart des personnes citant comme raison de leur départ « un désaccord avec les valeurs de l'entreprise » ou « l'incapacité d'accepter l'utilisation de l'IA à des fins militaires ». Le chercheur scientifique Aidan McLaughlin a écrit en interne : « Personnellement, je ne pense pas que cet accord en vaille la peine ».

Il est important de noter le moment où cette vague de départs se produit — précisément à un stade où OpenAI étend rapidement son empreinte commerciale. Autour de la controverse sur le contrat de défense, l'entreprise a annoncé l'extension de 1000 milliards de dollars de son accord existant de 380 milliards de dollars avec AWS, sur une durée de huit ans ; elle a également révisé ses objectifs de dépenses divulgués publiquement, prévoyant des revenus totaux dépassant 2800 milliards de dollars d'ici 2030.

Accélération commerciale, départ continu de l'équipe de sécurité. Cette divergence est l'axe le plus important pour comprendre la situation actuelle d'OpenAI.

Les valeurs d'une entreprise se reflètent finalement dans les personnes qu'elle retient et celles qu'elle ne peut pas retenir. Lorsque ceux qui se soucient le plus de « la façon dont cette technologie sera utilisée » commencent à partir les uns après les autres, il n'est pas difficile de deviner vers quelle direction la structure organisationnelle restante va glisser.

Anthropic a choisi une autre voie dans ce bras de fer — refuser le contrat, subir la colère du Département de la Défense, mais gagner la confiance de nombreux utilisateurs. Pendant cette période, les téléchargements de Claude ont augmenté contre toute attente, prouvant dans une certaine mesure qu'« un refus fondé sur des principes » n'est pas nécessairement une stratégie perdante sur le plan commercial.

style="text-align: start;">Mais Anthropic a également payé le prix — elle a été évincée par le gouvernement, du moins pour l'instant.

C'est là le véritable dilemme : aucun choix n'est parfait.

Refuser signifie potentiellement perdre de l'influence, voire être exclu de l'élaboration des règles. Accepter signifie utiliser sa propre technologie pour cautionner des actions que l'on ne peut pas contrôler complètement.

La réponse de Kalinowski est une troisième voie — partir.

C'est la chose la plus honnête qu'elle pouvait faire.

03 La bataille pour l'âme de la Silicon Valley ne fait que commencer

Si l'on élargit la perspective, la signification de cet événement va bien au-delà de la démission d'une personne.

L'association de l'IA et du militaire est un choix que tout le secteur devra affronter tôt ou tard. Le Pentagone a un budget, des besoins et une capacité d'intégration technologique, il ne cessera de tendre la main aux entreprises d'IA. Et les entreprises d'IA — qu'il s'agisse d'OpenAI poursuivant l'AGI, d'Anthropic mettant l'accent sur la sécurité, ou d'autres acteurs — devront tôt ou tard donner leur réponse à cette question.

La stratégie d'Altman a été de tenter de tracer une ligne rouge through la formulation contractuelle tout en acceptant la réalité commerciale. Mais comme l'ont souligné de nombreux experts juridiques et de gouvernance, ces formulations ressemblent plus à une protection au niveau des relations publiques qu'à une contrainte technique forte.

Un problème plus fondamental est que lorsque les modèles d'IA sont déployés dans des réseaux classifiés, lorsqu'ils commencent à participer aux décisions militaires, le monde extérieur n'a tout simplement pas la capacité de vérifier si ces « garanties » sont réellement respectées.

L'absence de transparence est en soi le plus grand risque.

Kalinowski est restée chez OpenAI pendant moins d'un an et demi, mais a choisi de partir à ce moment précis. Elle n'a pas publié de longue déclaration publique, n'a critiqué personne nommément, elle a simplement tracé sa limite par son action.

D'une certaine manière, cela a plus de force que n'importe quel article de politique.

L'ingénierie matérielle et robotique de l'IA était l'un des domaines les plus excitants de la Silicon Valley. En partant, Kalinowski n'emporte pas seulement un CV, elle laisse aussi une question à tous ceux qui restent dans cette industrie —

Jusqu'où êtes-vous prêt à être responsable de ce que vous construisez ?

Questions liées

QQui est Caitlin Kalinowski et pourquoi a-t-elle démissionné d'OpenAI ?

ACaitlin Kalinowski était la responsable du matériel et de la robotique chez OpenAI. Elle a démissionné en raison de son opposition à un contrat entre OpenAI et le département de la Défense américain, craignant que cela ne mène à la surveillance intérieure et à des applications d'armes autonomes.

QQuel a été l'impact de l'annonce du contrat avec le Pentagone sur OpenAI et ses utilisateurs ?

AL'annonce du contrat a provoqué une réaction négative immédiate : les désinstallations de ChatGPT ont augmenté de 295% en un jour, le mouvement #QuitGPT a gagné plus de 2,5 millions de soutiens en trois jours, et Claude d'Anthropic a dépassé ChatGPT en nombre de téléchargements aux États-Unis.

QPourquoi le mot « intentionnellement » dans le contrat révisé d'OpenAI est-il considéré comme problématique ?

ALe mot « intentionnellement » est considéré comme une faille car il permet aux agences de renseignement et d'application de la loi de contourner les protections de la vie privée en s'appuyant sur des données collectées « accidentellement » ou achetées commercialement, plutôt que sur une collecte délibérée.

QQuel est le taux de départ au sein des équipes d'éthique et de sécurité d'OpenAI, et pourquoi est-il significatif ?

ALe taux de départ au sein des équipes d'éthique et de sécurité d'OpenAI est de 37%. Ce taux élevé est significatif car il indique un désalignement croissant des valeurs, de nombreux employés quittant l'entreprise en raison de préoccupations concernant l'utilisation militaire de l'IA et la direction commerciale de l'entreprise.

QQuelle stratégie Anthropic a-t-elle adoptée face à la proposition du Pentagone, et quel en a été le résultat ?

AAnthropic a refusé la proposition du Pentagone, insistant pour inclure des garde-fous éthiques plus stricts dans le contrat. Bien que cela ait entraîné des critiques publiques du secrétaire à la Défense et l'exclusion temporaire des contrats gouvernementaux, l'entreprise a gagné la confiance des utilisateurs, permettant à Claude de devenir l'application la plus téléchargée aux États-Unis.

Lectures associées

Les bourses coréennes « en guerre » contre les autorités de régulation, repoussant les limites de l'application et de la législation

La Corée du Sud est le théâtre d’un conflit réglementaire sans précédent entre les principales plateformes d'échange de crypto-actifs et son régulateur anti-blanchiment, le Financial Intelligence Unit (FIU). Après des années de sanctions administratives lourdes, les échanges contestent désormais activement les décisions du FIU devant les tribunaux. La cour administrative de Séoul a récemment donné raison à Dunamu (opérateur d'Upbit) dans un litige concernant une suspension d'activité, estimant que le FIU n'avait pas suffisamment justifié la gravité de la sanction. Dans une autre affaire concernant Bithumb, le tribunal a suspendu l'exécution d'une lourde peine, craignant des dommages irréparables pour la plateforme. Ces décisions judiciaires imposent désormais au régulateur une charge de preuve plus stricte. Parallèlement, l'association professionnelle DAXA s'oppose à un projet de révision de la loi sur les informations financières spécifiques. L'industrie critique une disposition qui obligerait à signaler systématiquement tout transfert de crypto-actifs supérieur à 10 millions de wons (environ 6 800 dollars) comme transaction suspecte (STR). DAXA estime que cette approche basée uniquement sur le montant, et non sur le risque, submergerait le système de rapports et réduirait son efficacité. Ce conflit révèle une tension structurelle dans la régulation coréenne : un cadre législatif global sur les actifs numériques fait encore défaut, tandis que les actions du FIU, basées sur les règles anti-blanchiment, se font plus denses et sévères. Les échanges, par des recours juridiques et des interventions dans le débat législatif, remettent en question la légitimité et la proportionnalité des sanctions. Cette confrontation pourrait à terme conduire à un cadre réglementaire plus équilibré et durable pour l'industrie des crypto-actifs en Corée du Sud.

marsbitIl y a 6 mins

Les bourses coréennes « en guerre » contre les autorités de régulation, repoussant les limites de l'application et de la législation

marsbitIl y a 6 mins

Après un stockage multiplié par 50, Sun Yuchen regarde toujours vers les dix prochaines années

La plupart des gens connaissent Sun Yuchen pour ses excentricités, comme avoir payé 30 millions pour un déjeuner avec Warren Buffett avant d'annuler pour une crise de colique néphrétique, ou avoir mangé une banane scotchée achetée 6,2 millions de dollars. Cependant, derrière ces anecdotes se cache un investisseur perspicace. Dès 2016, il recommandait aux jeunes d'investir dans le Bitcoin, NVIDIA, Tesla et Tencent plutôt que dans l'immobilier. Une stratégie qui se serait avérée extrêmement rentable, avec des rendements exponentiels sur NVIDIA et Tesla. Récemment, son soutien public au secteur du stockage (comme SanDisk) a précédé une envolée des cours. Aujourd'hui, son regard est tourné vers la prochaine décennie et les "AI physiques". Il identifie quatre axes principaux : 1. **L'intelligence incarnée (Robots)** : Des entreprises comme Unitree et Galaxy General lèvent des fonds massifs pour développer des robots humanoïdes capables de comprendre et d'agir dans le monde physique. 2. **Les drones** : Déjà déployés commercialement (livraisons, agriculture) et militairement, ils représentent la première forme d'IA ayant un impact tangible dans le monde réel. 3. **Le calcul spatial** : Au-delà de la réalité virtuelle, il s'agit de permettre à l'IA de comprendre l'espace 3D (comme avec l'Apple Vision Pro), une base cruciale pour les robots et les véhicules autonomes. 4. **L'exploration spatiale** : Sun Yuchen a lui-même effectué un vol suborbital avec Blue Origin. Il envisage la blockchain comme une infrastructure pour l'économie spatiale (droits de propriété, paiements interplanétaires). Sa logique d'investissement consiste à parier sur des tendances de fond en diversifiant sur plusieurs acteurs clés d'une même chaîne de valeur (ex: Tesla pour le "corps" des robots, NVIDIA pour le "cerveau"). En résumé, Sun Yuchen anticipe une transition profonde : après avoir révolutionné le flux de l'information, les technologies (IA, robots, drones) sont sur le point de transformer radicalement la manière dont le monde physique fonctionne et est organisé, des usines à l'espace.

marsbitIl y a 1 h

Après un stockage multiplié par 50, Sun Yuchen regarde toujours vers les dix prochaines années

marsbitIl y a 1 h

Le plus grand IPO de l'histoire se profile, dépassant SpaceX, 28 ans d'itération autonome de l'IA, le compte à rebours de l'explosion de l'intelligence a commencé

Anthropic, fondée en 2021, approche d'une évaluation proche de 1 000 milliards de dollars en vue d'une introduction en bourse historique qui pourrait surpasser SpaceX. Sa croissance est exponentielle : les revenus annuels récurrents (ARR) ont atteint 45 milliards de dollars en mai 2026, multipliés par 500 en cinq mois. Cette trajectoire vertigineuse est alimentée par ses produits phares, Claude Code et Cowork, qui répondent à la demande explosive d'IA pour le codage et la collaboration. Le cofondateur Jack Clark a émis une prédiction cruciale : d'ici fin 2028, il y a plus de 50% de chances que les systèmes d'IA soient capables de s'auto-améliorer de manière autonome, déclenchant une « explosion de l'intelligence ». Cette perspective de récursivité, où l'IA conçoit de meilleures versions d'elle-même, fonde en grande partie l'évaluation astronomique d'Anthropic. Parallèlement, la société s'attaque aux travaux intellectuels complexes via un partenariat de 1,5 milliard de dollars avec Goldman Sachs et Blackstone, visant à concurrencer les grands cabinets de conseil comme McKinsey. Cela teste la capacité de l'IA à remplacer le travail cognitif de haut niveau. En résumé, la course folle d'Anthropic ne valorise pas seulement une entreprise technologique, mais anticipe une transformation radicale où l'IA pourrait bientôt s'auto-perfectionner, remodelant l'économie et la société. Le compte à rebours vers 2028 est lancé.

marsbitIl y a 1 h

Le plus grand IPO de l'histoire se profile, dépassant SpaceX, 28 ans d'itération autonome de l'IA, le compte à rebours de l'explosion de l'intelligence a commencé

marsbitIl y a 1 h

Trading

Spot
Futures
活动图片