# Éthique Articles associés

Le Centre d'actualités HTX fournit les derniers articles et analyses approfondies sur "Éthique", couvrant les tendances du marché, les mises à jour des projets, les développements technologiques et les politiques réglementaires dans l'industrie crypto.

La personne qui construit des robots pour OpenAI a vu un avenir effrayant

L'ingénieure en chef du matériel et de la robotique d'OpenAI, Caitlin Kalinowski, a démissionné en mars 2026, exprimant son opposition à un contrat entre OpenAI et le département américain de la Défense. Elle craignait que cette collaboration ne mène à la surveillance intérieure et au développement d'armes autonomes. Ce départ survient une semaine après l'annonce du contrat, qui a provoqué une vive controverse, une augmentation de 295 % des désinstallations de ChatGPT et le mouvement #QuitGPT. En réponse, Sam Altman a révisé le contrat pour interdire « délibérément » l'utilisation de l'IA pour la surveillance des citoyens américains, une formulation jugée insuffisante par des experts juridiques. Kalinowski, dont l'équipe construisait des robots, a estimé que son travail contribuait concrètement à des applications militaires potentiellement létales. Son départ s'inscrit dans une tendance plus large : 37 % des membres des équipes d'éthique et de sécurité d'OpenAI auraient quitté l'entreprise pour des raisons similaires. Alors qu'OpenAI accélère son expansion commerciale, ce conflit oppose la croissance aux principes éthiques. Contrairement à Anthropic, qui a refusé un contrat similaire et a gagné la confiance des utilisateurs, OpenAI a choisi de s'associer au gouvernement. La démission silencieuse mais puissante de Kalinowski pose une question cruciale à toute l'industrie : jusqu'où est-on prêt à aller pour assumer la responsabilité de ce que l'on crée ?

marsbitIl y a 2 jours 08:49

La personne qui construit des robots pour OpenAI a vu un avenir effrayant

marsbitIl y a 2 jours 08:49

Les soixante-douze heures de crise identitaire d'Anthropic

En l'espace de soixante-douze heures, Anthropic, la société d'IA qui se targue d'avoir une "âme", a été secouée par une triple crise identitaire. Le Pentagone a adressé un ultimatum au PDG Dario Amodei : lever d'ici vendredi les restrictions sur l'utilisation militaire de Claude, y compris pour le ciblage d'armes autonomes et la surveillance de masse, sous peine d'annuler un contrat de 200 millions de dollars et d'être blacklisté. Simultanément, Anthropic a publié sa troisième politique d'extension responsable (RSP 3.0), supprimant son engagement fondamental à ne pas entraîner de modèles plus puissants sans garanties de sécurité suffisantes. Parallèlement, Elon Musk l'a accusée sur X d'avoir "massivement volé des données d'entraînement", une accusation étayée par un règlement de 1,5 milliard de dollars pour l'utilisation de livres piratés. Pour compliquer le tableau, Anthropic a accusé trois entreprises chinoises d'IA d'avoir mené une "attaque par distillation" contre Claude, une allégation perçue comme une tentative de justifier son lobbying pour des restrictions sur les exportations de puces, mais qui a été vivement critiquée pour son hypocrisie. Ces événements contradictoires révèlent les tensions au sein d'une entreprise tiraillée entre ses principes de sécurité fondateurs, les pressions du marché et les exigences gouvernementales. Son récit de "sécurité", autrefois son principal avantage concurrentiel, devient un fardeau politique. Alors que son évaluation atteint 380 milliards de dollars, Anthropic semble devoir choisir à qui se plier en premier, risquant de perdre l'identité unique qui l'a distinguée de ses concurrents comme OpenAI. La crise d'identité pourrait bien signifier la disparition de cette identité.

marsbit02/27 07:52

Les soixante-douze heures de crise identitaire d'Anthropic

marsbit02/27 07:52

活动图片