Auteur :Geek Lao You
Le 7 mars 2026, lorsque j'ai appris la démission de Caitlin Kalinowski, ma première réaction n'a pas été la surprise, mais plutôt — « Enfin, quelqu'un a parlé par ses actes ».
Kalinowski était responsable du matériel et de l'ingénierie robotique chez OpenAI, elle avait rejoint l'entreprise en novembre 2024 et a choisi de partir après moins d'un an et demi.
Sa raison est directe et lourde de sens — elle ne pouvait accepter les applications potentielles de surveillance nationale et d'armes autonomes suite à la signature du contrat entre OpenAI et le Département de la Défense américain.
Ce n'est pas une simple perte de talents. C'est une personne qui a participé à la construction physique de l'IA, qui dit au monde par sa démission : elle ne veut pas être responsable de ce que la chose qu'elle a construite pourrait faire.
Pour comprendre le départ de Kalinowski, il faut revenir à ce qui s'est passé environ une semaine plus tôt.
Le 28 février, Sam Altman a annoncé qu'OpenAI avait conclu un accord avec le Département de la Défense américain, permettant au Pentagone d'utiliser les modèles d'IA d'OpenAI dans ses réseaux classifiés. La nouvelle a provoqué un tollé.
Il est intéressant de noter que le « point de référence » de ce contrat est leur concurrent Anthropic.
Peu de temps auparavant, Anthropic avait refusé une coopération similaire proposée par le Pentagone, insistant pour inclure des garde-fous éthiques plus stricts dans le contrat. Le secrétaire à la Défense Pete Hegseth a directement critiqué Anthropic sur X, qualifiant son comportement de « cours magistral d'arrogance et de trahison », et a fait écho à l'ordre du gouvernement Trump de cesser toute coopération avec Anthropic.
OpenAI a ensuite repris cette affaire.
La réaction des utilisateurs a été vive. Le jour même du 28 février, le nombre de désinstallations de ChatGPT a augmenté de 295 % par rapport à la veille. Le mouvement #QuitGPT a rapidement gagné les médias sociaux, avec plus de 2,5 millions de partisans de la contestation numérique en trois jours. Claude en a profité pour dépasser ChatGPT et devenir l'application la plus téléchargée quotidiennement aux États-Unis, atteignant la première place du classement des applications gratuites de l'Apple App Store.
Sous la pression, Altman a reconnu publiquement le 3 mars qu'il « n'aurait pas dû lancer ce contrat à la hâte », affirmant que « cela semblait simplement opportuniste et négligé », et a annoncé une révision de la formulation du contrat pour préciser que « les systèmes d'IA ne doivent pas être délibérément utilisés pour la surveillance intérieure du personnel et des citoyens américains ».
Mais le mot « délibérément » est en soi une faille. Un avocat de l'Electronic Frontier Foundation a souligné que les agences de renseignement et d'application de la loi comptent souvent sur des données « accidentelles » ou « achetées commercialement » pour contourner une protection plus forte de la vie privée — ajouter « délibérément » n'équivaut pas à une véritable restriction.
La démission de Kalinowski est intervenue dans ce contexte.
01 Ce qu'elle a vu est plus concret que ce que nous imaginons
Alors que la plupart des gens débattaient encore pour savoir si OpenAI cédait face au gouvernement, Kalinowski était confrontée à un problème plus concret et plus cruel — son équipe construisait des robots.
L'ingénierie matérielle et robotique n'est pas un travail abstrait d'écriture de code ou de réglage de paramètres. Il s'agit de donner des mains, des pieds, des yeux à l'IA. Lorsque la coopération entre OpenAI et le Département de la Défense est passée de « l'utilisation de modèles » à de futures « applications militaires potentielles de l'IA incarnée », la nature du travail de Kalinowski a changé.
Les chercheurs dans le domaine des armes autonomes avertissent depuis longtemps de l'arrivée de ce jour.
La politique actuelle du Département de la Défense américain n'exige pas que les armes autonomes obtiennent une approbation humaine avant d'utiliser la force. En d'autres termes, le contrat signé par OpenAI n'empêche pas techniquement ses modèles de faire partie d'un système où GPT déciderait de tuer quelqu'un.
Ce n'est pas une exagération. Jessica Tillipman, chargée de cours en droit des marchés publics à l'Université de Georgetown, en analysant le contrat révisé d'OpenAI, a clairement indiqué que la formulation du contrat « ne donne pas à OpenAI une liberté de type Anthropic pour interdire une utilisation gouvernementale légale » ; il déclare simplement que le Pentagone ne peut pas utiliser la technologie OpenAI en violation des « lois et politiques existantes » — mais les lois existantes présentent d'énormes lacunes en matière de régulation des armes autonomes.
Des experts en gouvernance de l'Université d'Oxford ont émis un jugement similaire, estimant que l'accord d'OpenAI « est peu susceptible de combler » les lacunes structurelles laissées au niveau de la gouvernance par la surveillance intérieure et les systèmes d'armes autonomes pilotés par l'IA.
Le départ de Kalinowski est sa réponse personnelle à ce constat.
02 Ce qui se passe à l'intérieur d'OpenAI
Kalinowski n'est pas la première à partir, et ne sera probablement pas la dernière.
Des données montrent que le taux de départ de l'équipe d'éthique et de l'équipe de sécurité IA d'OpenAI a atteint 37 %, la plupart des personnes citant comme raison de leur départ « un désaccord avec les valeurs de l'entreprise » ou « l'incapacité d'accepter l'utilisation de l'IA à des fins militaires ». Le chercheur scientifique Aidan McLaughlin a écrit en interne : « Personnellement, je ne pense pas que cet accord en vaille la peine ».
Il est important de noter le moment où cette vague de départs se produit — précisément à un stade où OpenAI étend rapidement son empreinte commerciale. Autour de la controverse sur le contrat de défense, l'entreprise a annoncé l'extension de 1000 milliards de dollars de son accord existant de 380 milliards de dollars avec AWS, sur une durée de huit ans ; elle a également révisé ses objectifs de dépenses divulgués publiquement, prévoyant des revenus totaux dépassant 2800 milliards de dollars d'ici 2030.
Accélération commerciale, départ continu de l'équipe de sécurité. Cette divergence est l'axe le plus important pour comprendre la situation actuelle d'OpenAI.
Les valeurs d'une entreprise se reflètent finalement dans les personnes qu'elle retient et celles qu'elle ne peut pas retenir. Lorsque ceux qui se soucient le plus de « la façon dont cette technologie sera utilisée » commencent à partir les uns après les autres, il n'est pas difficile de deviner vers quelle direction la structure organisationnelle restante va glisser.
Anthropic a choisi une autre voie dans ce bras de fer — refuser le contrat, subir la colère du Département de la Défense, mais gagner la confiance de nombreux utilisateurs. Pendant cette période, les téléchargements de Claude ont augmenté contre toute attente, prouvant dans une certaine mesure qu'« un refus fondé sur des principes » n'est pas nécessairement une stratégie perdante sur le plan commercial.
style="text-align: start;">Mais Anthropic a également payé le prix — elle a été évincée par le gouvernement, du moins pour l'instant.C'est là le véritable dilemme : aucun choix n'est parfait.
Refuser signifie potentiellement perdre de l'influence, voire être exclu de l'élaboration des règles. Accepter signifie utiliser sa propre technologie pour cautionner des actions que l'on ne peut pas contrôler complètement.
La réponse de Kalinowski est une troisième voie — partir.
C'est la chose la plus honnête qu'elle pouvait faire.
03 La bataille pour l'âme de la Silicon Valley ne fait que commencer
Si l'on élargit la perspective, la signification de cet événement va bien au-delà de la démission d'une personne.
L'association de l'IA et du militaire est un choix que tout le secteur devra affronter tôt ou tard. Le Pentagone a un budget, des besoins et une capacité d'intégration technologique, il ne cessera de tendre la main aux entreprises d'IA. Et les entreprises d'IA — qu'il s'agisse d'OpenAI poursuivant l'AGI, d'Anthropic mettant l'accent sur la sécurité, ou d'autres acteurs — devront tôt ou tard donner leur réponse à cette question.
La stratégie d'Altman a été de tenter de tracer une ligne rouge through la formulation contractuelle tout en acceptant la réalité commerciale. Mais comme l'ont souligné de nombreux experts juridiques et de gouvernance, ces formulations ressemblent plus à une protection au niveau des relations publiques qu'à une contrainte technique forte.
Un problème plus fondamental est que lorsque les modèles d'IA sont déployés dans des réseaux classifiés, lorsqu'ils commencent à participer aux décisions militaires, le monde extérieur n'a tout simplement pas la capacité de vérifier si ces « garanties » sont réellement respectées.
L'absence de transparence est en soi le plus grand risque.
Kalinowski est restée chez OpenAI pendant moins d'un an et demi, mais a choisi de partir à ce moment précis. Elle n'a pas publié de longue déclaration publique, n'a critiqué personne nommément, elle a simplement tracé sa limite par son action.
D'une certaine manière, cela a plus de force que n'importe quel article de politique.
L'ingénierie matérielle et robotique de l'IA était l'un des domaines les plus excitants de la Silicon Valley. En partant, Kalinowski n'emporte pas seulement un CV, elle laisse aussi une question à tous ceux qui restent dans cette industrie —
Jusqu'où êtes-vous prêt à être responsable de ce que vous construisez ?





