Un chercheur d'OpenAI démissionne et dénonce : ChatGPT vend des publicités, qui protège votre vie privée ?

marsbitPublié le 2026-02-12Dernière mise à jour le 2026-02-12

Résumé

Une ancienne chercheuse d'OpenAI, Zoë Hitzig, a démissionné pour protester contre l'introduction de publicités dans ChatGPT. Elle alerte sur les risques de manipulation des utilisateurs via leurs données privées, arguant que les conversations humaines recueillies par l'IA – souvent personnelles et vulnérables – pourraient être exploitées à des fins publicitaires. Bien que reconnaissant la nécessité de financer ces outils coûteux, elle rejette le faux dilemme entre exclusivité payante et exploitation publicitaire. Elle propose des alternatives : subventions croisées (les entreprises profitant de l'IA subventionnent son accès public), une gouvernance indépendante pour réguler l’usage des données, et des structures type coopératives où les utilisateurs contrôleraient leurs informations. Son avertissement : éviter qu’OpenAI ne reproduise les dérives de Facebook, où l’engagement des utilisateurs a primé sur leur protection.

Auteur : Zoë Hitzig

Compilation : Deep Tide TechFlow

Introduction de Deep Tide : Alors qu'OpenAI annonce tester des publicités dans ChatGPT, son ancienne chercheuse Zoë Hitzig démissionne avec colère et rédige un article exposant le changement de valeurs au sein de l'entreprise. L'auteure souligne que ChatGPT a accumulé des archives de conversations humaines sans précédent, et qu'une fois le modèle publicitaire introduit, il pourrait facilement devenir un outil de manipulation psychologique exploitant les informations privées des utilisateurs. Elle avertit qu'OpenAI répète l'ancienne voie de Facebook, celle des "promesses initiales suivies de trahisons", en privilégiant l'engagement des utilisateurs au détriment de la sécurité. Cet article explore en profondeur les dilemmes éthiques du financement de l'IA et propose des alternatives telles que les subventions croisées, la supervision indépendante et les fiducies de données, appelant l'industrie à se méfier des motivations lucratives derrière la "psychose des chatbots".

Texte intégral :

Cette semaine, OpenAI a commencé à tester des publicités sur ChatGPT. J'ai également démissionné de l'entreprise. Auparavant, j'y ai travaillé pendant deux ans en tant que chercheuse, responsable d'aider à construire les modèles d'IA et leurs modèles de tarification, et de guider les premières politiques de sécurité avant que les standards de l'industrie ne soient fixés.

Je croyais autrefois que je pouvais aider ceux qui construisent l'IA à devancer les problèmes qu'elle pourrait causer. Mais les événements de cette semaine ont confirmé une réalité que j'avais progressivement perçue : OpenAI semble avoir cessé de se poser les questions auxquelles je voulais initialement aider à répondre.

Je ne pense pas que la publicité soit immorale ou contraire à l'éthique. Le coût de fonctionnement de l'IA est extrêmement élevé, et la publicité peut être une source de revenus cruciale. Mais j'ai de sérieuses réserves sur la stratégie d'OpenAI.

Pendant des années, les utilisateurs de ChatGPT ont généré des archives de conversations humaines d'une franchise sans précédent, en partie parce que les gens croyaient parler à un interlocuteur sans arrière-pensées. Les utilisateurs interagissent avec une voix conversationnelle adaptive et lui révèlent leurs pensées les plus intimes. Les gens parlent au chatbot de leurs craintes pour leur santé, de leurs problèmes sentimentaux, de leurs croyances en Dieu et en l'au-delà. Un modèle publicitaire basé sur ces archives pourrait très probablement manipuler les utilisateurs d'une manière que nous n'avons pas encore les outils pour comprendre (sans parler de prévenir).

Beaucoup présentent le problème du financement de l'IA comme un choix entre "le moindre de deux maux" : soit limiter l'accès à cette technologie transformative à une minorité assez riche pour payer ; soit accepter la publicité, même si cela signifie exploiter les peurs et désirs les plus profonds des utilisateurs pour vendre des produits. Je pense que c'est un faux dilemme. Les entreprises technologiques pourraient tout à fait chercher d'autres solutions, permettant à la fois de maintenir ces outils largement accessibles et de limiter la motivation des entreprises à surveiller, profiler et manipuler leurs utilisateurs.

OpenAI affirme qu'il respectera des principes pour les publicités sur ChatGPT : elles seront clairement étiquetées, apparaîtront en bas des réponses et n'affecteront pas le contenu des réponses. Je crois que la première version des publicités suivra probablement ces principes. Mais je crains que les versions ultérieures ne le fassent pas, car l'entreprise construit un puissant moteur économique qui créera de fortes motivations pour renverser ses propres règles. (Le New York Times a poursuivi OpenAI pour violation de droits d'auteur liée à l'utilisation de contenu d'actualité dynamique par les systèmes d'IA. OpenAI a nié ces accusations.)

À ses débuts, Facebook promettait que les utilisateurs contrôleraient leurs données et pourraient voter sur les changements de politique. Mais ces promesses se sont ensuite effondrées. La société a supprimé le système de vote public sur les politiques. Les changements de confidentialité censés donner aux utilisateurs plus de contrôle sur leurs données ont ensuite été jugés par la Federal Trade Commission (FTC) comme ayant l'effet inverse, rendant en réalité les informations privées publiques. Tout cela s'est produit progressivement sous la pression du modèle publicitaire, qui place l'engagement des utilisateurs au-dessus de tout.

L'érosion des principes mêmes d'OpenAI, motivée par la maximisation de l'engagement, a peut-être déjà commencé. Optimiser l'engagement des utilisateurs uniquement pour générer plus de revenus publicitaires va à l'encontre des principes de l'entreprise, mais il a été rapporté que la société optimisait déjà pour le nombre d'utilisateurs actifs quotidiens, probablement en encourageant le modèle à se comporter de manière plus complaisante et flatteuse. Cette optimisation amenerait les utilisateurs à se sentir plus dépendants du soutien de l'IA dans leur vie. Nous avons déjà vu les conséquences d'une dépendance excessive, y compris des cas de "psychose des chatbots" documentés par des psychiatres, et des allégations selon lesquelles ChatGPT aurait renforcé les idées suicidaires de certains utilisateurs.

Néanmoins, les revenus publicitaires aident à s'assurer que les outils d'IA les plus puissants ne sont pas par défaut réservés à ceux qui peuvent payer. Certes, Anthropic a déclaré qu'elle ne mettrait jamais de publicités sur Claude, mais les utilisateurs actifs hebdomadaires de Claude ne représentent qu'une petite fraction des 800 millions d'utilisateurs de ChatGPT ; sa stratégie de revenus est complètement différente. De plus, les abonnements premium pour ChatGPT, Gemini et Claude coûtent maintenant jusqu'à 200 à 250 dollars par mois – pour un seul logiciel, c'est plus de 10 fois le prix d'un abonnement standard Netflix.

La vraie question n'est donc pas de savoir s'il y a de la publicité ou non, mais si nous pouvons concevoir des structures qui évitent à la fois d'exclure les utilisateurs ordinaires et de les manipuler potentiellement en tant que consommateurs. Je pense que nous le pouvons.

Une méthode est la subvention croisée explicite – utiliser les profits d'un service ou d'un groupe de clients pour compenser les pertes d'un autre. Si une entreprise utilise l'IA à grande échelle pour effectuer un travail à haute valeur ajoutée autrefois effectué par des employés humains (par exemple, une plateforme immobilière utilisant l'IA pour rédiger des descriptions de biens ou des rapports d'évaluation), elle devrait également payer une surtaxe pour subventionner l'accès gratuit ou à faible coût pour d'autres.

Cette approche s'inspire de notre manière de traiter les infrastructures de base. La Federal Communications Commission (FCC) exige que les opérateurs de télécommunications contribuent à un fonds pour maintenir les coûts du téléphone et du haut débit abordables dans les zones rurales et pour les familles à faible revenu. De nombreux États ajoutent une redevance pour les services publics sur les factures d'électricité pour fournir une aide aux bas revenus.

Une deuxième option est d'accepter la publicité, mais avec une gouvernance réelle – pas un article de blog plein de principes, mais une structure contraignante avec une fonction de supervision indépendante chargée de réglementer l'utilisation des données personnelles. Il existe déjà des précédents partiels. La loi allemande sur la codétermination (German co-determination law) exige que les grandes entreprises comme Siemens et Volkswagen réservent jusqu'à la moitié des sièges de leur conseil de surveillance aux travailleurs, montrant que la représentation formelle des parties prenantes au sein d'entreprises privées peut être imposée. Meta est également contraint de suivre les décisions de modération de contenu de son Conseil de surveillance (Oversight Board), un organe indépendant composé d'experts externes (bien que son efficacité ait été critiquée).

L'industrie de l'IA a besoin d'une combinaison de ces approches – un comité incluant à la fois des experts indépendants et des représentants des personnes dont les données sont affectées, ayant le pouvoir contraignant de décider quelles données de conversation peuvent être utilisées pour la publicité ciblée, ce qui constitue un changement de politique majeur et ce qui doit être communiqué aux utilisateurs.

Une troisième méthode implique de placer les données des utilisateurs sous contrôle indépendant via une fiducie ou une coopérative, avec une obligation légale d'agir dans l'intérêt des utilisateurs. Par exemple, la coopérative suisse MIDATA permet à ses membres de stocker leurs données de santé sur une plateforme cryptée et de décider au cas par cas de les partager ou non avec des chercheurs. Les membres de MIDATA gèrent sa politique lors d'assemblées générales, et un comité d'éthique qu'ils élisent examine les demandes d'accès pour la recherche.

Aucune de ces options n'est facile. Mais nous avons encore le temps de les perfectionner pour éviter les deux résultats que je redoute le plus : une technologie qui manipule les gens qui l'utilisent sans leur facturer, ou une autre qui ne sert qu'une élite minoritaire qui peut se la payer.

Questions liées

QPourquoi l'ancienne chercheuse d'OpenAI, Zoë Hitzig, a-t-elle démissionné ?

AZoë Hitzig a démissionné parce qu'elle estime qu'OpenAI a abandonné les valeurs et les questions éthiques qui l'avaient initialement motivée à rejoindre l'entreprise, particulièrement après l'annonce des tests de publicité sur ChatGPT.

QQuel est le principal risque lié à l'introduction de publicités sur ChatGPT selon l'auteure ?

ALe principal risque est que les publicités exploitent les conversations privées et intimes des utilisateurs pour les manipuler psychologiquement, car ChatGPT possède des archives sans précédent de dialogues humains sincères.

QQuelle comparaison est faite entre OpenAI et Facebook dans l'article ?

AL'article compare OpenAI à Facebook en soulignant que les deux entreprises ont fait des promesses initiales sur la protection des données et la gouvernance, mais que ces engagements se sont érodés sous la pression du modèle économique basé sur la publicité et l'engagement des utilisateurs.

QQuelles solutions alternatives sont proposées pour financer l'IA sans publicité ni exclusion ?

ATrois solutions sont proposées : des subventions croisées où les entreprises payantes subventionnent l'accès gratuit, une gouvernance indépendante avec un comité de surveillance, et des structures de confiance (comme des coopératives) pour que les utilisateurs contrôlent leurs données.

QQu'est-ce que le 'chatbot psychosis' mentionné dans le texte ?

ALe 'chatbot psychosis' fait référence à des cas documentés par des psychiatres où une dépendance excessive aux chatbots a provoqué des problèmes psychologiques, comme le renforcement d'idées suicidaires ou une perturbation de la santé mentale des utilisateurs.

Lectures associées

Notes de huit ans d'entrepreneuriat du partenaire IA d'a16z

En 2018, bien avant l'émergence du GPT, l'auteur a fondé Rosebud AI avec la vision de rendre la création aussi simple que de jouer à un jeu. Travaillant initialement avec des modèles comme CycleGAN et StyleGAN, il a exploré le potentiel des médias synthétiques et développé des outils créatifs alimentés par l'IA, tels que TokkingHeads, qui a atteint plus de 2 millions d'utilisateurs. Au cours de ces 8 ans, l'accent a été mis sur la conception d'expériences utilisateur qui masquent les limitations des modèles précoces, en misant sur des solutions "approximatives mais utilisables". La pandémie et les crises bancaires ont rappelé la fragilité de l'écosystème, mais aussi le privilège de pouvoir innover. Avec l'avènement du GPT-4 en 2023, la génération de code est devenue suffisamment mature pour permettre la création des jeux via prompt. L'auteur souligne que les jeux représentent un terrain idéal pour l'IA générative, car ils combinent intuition créative et technicalité, tout en restant en dehors des priorités immédiates des grands labos de recherche. Aujourd’hui, l'auteur rejoint a16z en tant que partenaire pour investir dans la pile de modèles frontière et les infrastructures d'IA. Il passe le flambeau de Rosebud AI à un nouveau CEO, tout en restant convaincu que la prochaine phase de l'IA générative ne dépendra pas seulement des avancées techniques, mais de leur intégration produit, distribution et monétisation dans le monde réel.

marsbitIl y a 8 h

Notes de huit ans d'entrepreneuriat du partenaire IA d'a16z

marsbitIl y a 8 h

Trading

Spot
Futures
活动图片