L'IA a lu « 1984 » et a décidé de l'interdire

marsbitPublié le 2026-03-27Dernière mise à jour le 2026-03-27

Résumé

Après qu'une école de Manchester a utilisé l'IA pour censurer 193 livres de sa bibliothèque — dont *1984* de George Orwell, jugé "trop violent" —, une bibliothécaire a été contrainte de démissionner pour avoir refusé d’appliquer ces recommandations. L’établissement et les autorités locales ont validé la décision de l'IA, soulignant un problème central : qui doit juger de ce qui est approprié quand l’IA prend ce type de décisions ? La même semaine, Wikipédia a interdit la génération de contenu par l'IA pour éviter la propagation d’inexactitudes et l’auto-empoisonnement des modèles. Parallèlement, OpenAI a abandonné son projet de "mode adulte" par crainte de dépendance malsaine et de contournement par les mineurs. Ces événements illustrent un écart croissant entre la rapidité de génération de l’IA et la lenteur de la modération humaine. Face aux risques, les réponses sont souvent précipitées : interdiction pure, suppression de fonctionnalités, sans cadre cohérent. La course entre innovation et régulation s’accélère, et les conséquences pourraient être graves si rien n’est fait.

Auteur : Curry, Deep Tide TechFlow

La semaine dernière, une école secondaire de Manchester, au Royaume-Uni, a fait passer sa bibliothèque au crible de l'IA.

L'IA a dressé une liste de 193 livres à retirer, chacun accompagné d'une justification. « 1984 » de George Orwell figurait en bonne place, pour « thèmes de torture, de violence et de coercition sexuelle ».

« 1984 » décrit un monde où le gouvernement surveille tout, réécrit l'histoire et décide de ce que les citoyens peuvent voir ou non. Aujourd'hui, une IA a fait la même chose pour une école, et elle ne savait probablement pas elle-même ce qu'elle disait.

La bibliothécaire de l'école a jugé cela déraisonnable et a refusé d'appliquer toutes les recommandations de l'IA.

L'école a alors lancé une enquête interne contre elle, invoquant la « sécurité des enfants », l'accusant d'avoir introduit des livres inappropriés dans la bibliothèque, et a signalé l'affaire aux autorités locales. Sous la pression, elle a pris un congé maladie et a finalement démissionné.

L'absurdité veut que les conclusions de l'enquête des autorités locales aient établi qu'elle avait effectivement enfreint les procédures de sécurité relatives aux enfants, validant la plainte.

Caroline Roche, présidente de l'Association britannique des bibliothèques scolaires, a déclaré que cette conclusion signifiait qu'elle ne pourrait plus jamais travailler dans aucune école.

La personne qui a résisté au jugement de l'IA a perdu son emploi, celle qui a approuvé le jugement de l'IA n'a eu aucun problème.

Par la suite, l'école a reconnu dans des documents internes que toutes les classifications et justifications étaient générées par l'IA, affirmant : « Bien que la classification ait été générée par l'IA, nous estimons qu'elle est globalement exacte. »

Une école a confié le jugement de « quels livres sont appropriés pour les élèves » à une IA, l'IA a rendu une réponse qu'elle ne comprenait pas elle-même, puis un gestionnaire humain l'a approuvée sans même la regarder en détail.

Après que cette affaire ait été rendue publique par l'organisation britannique de liberté d'expression Index on Censorship, les questions soulevées dépassent largement les étagères d'une seule école :

Quand l'IA commence à décider à la place des humains de ce qui est approprié et de ce qui est dangereux, qui doit juger si le jugement de l'IA est correct ?

Wikipedia ferme ses portes à l'IA

La même semaine, une autre institution a répondu à cette question par ses actes.

L'école a laissé l'IA décider de ce que les gens peuvent lire. Le plus grand site d'encyclopédie en ligne au monde, Wikipédia (Wikipedia), a fait le choix inverse : ne pas laisser l'IA décider du contenu de l'encyclopédie.

La même semaine, Wikipédia en anglais a officiellement adopté une nouvelle politique interdisant l'utilisation de grands modèles de langage pour générer ou réécrire le contenu des articles. Le vote a donné 44 voix pour et 2 contre.

La cause directe fut un compte IA nommé TomWikiAssist. Début mars de cette année, ce compte a créé et édité de manière autonome plusieurs articles sur Wikipédia, avant d'être traité en urgence par la communauté après sa découverte.

L'IA met quelques secondes pour écrire un article, mais les bénévoles passent des heures à vérifier les faits, les sources et la formulation d'un article généré par l'IA pour s'assurer de son exactitude.

La communauté des éditeurs de Wikipédia est limitée en nombre. Si l'IA peut produire du contenu en quantité illimitée, les éditeurs humains ne pourront tout simplement pas tout examiner.

Ce n'est même pas la partie la plus problématique. Wikipédia est l'une des sources de données d'entraînement les plus importantes pour les modèles d'IA mondiaux. L'IA apprend des connaissances sur Wikipédia, puis utilise ce qu'elle a appris pour écrire de nouveaux articles Wikipédia, qui sont ensuite ingérés par la prochaine génération de modèles d'IA pour continuer l'entraînement.

Une fois que de fausses informations générées par l'IA s'y infiltrent, elles s'amplifient dans cette boucle, devenant un empoisonnement IA en forme d'emboîtement :

L'IA pollue les données d'entraînement, les données d'entraînement polluent à leur tour l'IA.

Cependant, la politique de Wikipédia laisse aussi deux portes entrouvertes à l'IA : les éditeurs peuvent utiliser l'IA pour peaufiner leurs propres textes, ou pour aider à la traduction. Mais la politique met spécifiquement en garde : l'IA peut « aller au-delà de votre demande, modifier le sens du texte, le rendant incompatible avec les sources citées ».

Les auteurs humains font des erreurs, et Wikipédia a compté sur la collaboration communautaire pour les corriger pendant plus de vingt ans. L'IA se trompe différemment ; elle invente des choses qui semblent plus vraies que nature, et peut les produire en masse.

Une école a cru au jugement de l'IA et a perdu une bibliothécaire. Wikipédia a choisi de ne pas croire et a simplement fermé la porte.

Mais que se passe-t-il si même les créateurs de l'IA commencent à douter ?

Les créateurs de l'IA ont eux-mêmes peur

Alors que des institutions extérieures ferment leurs portes à l'IA, les entreprises d'IA elles-mêmes reculent également.

La même semaine, OpenAI a mis indéfiniment en suspens le « mode adulte » de ChatGPT. Cette fonctionnalité, initialement prévue pour décembre dernier, devait permettre aux utilisateurs adultes vérifiés d'avoir des conversations érotiques avec ChatGPT.

Le PDG Sam Altman l'avait annoncé personnellement en octobre dernier, déclarant vouloir « traiter les utilisateurs adultes comme des adultes ».

Résultat, après avoir été reportée trois fois, elle a purement et simplement été annulée.

Selon le Financial Times, le comité consultatif sur la santé interne d'OpenAI s'est opposé à l'unanimité à cette fonctionnalité. Les inquiétudes des conseillers étaient très concrètes : les utilisateurs développeraient une dépendance affective malsaine envers l'IA, et les mineurs trouveraient forcément des moyens de contourner la vérification d'âge.

Un conseiller a été plus direct : sans améliorations majeures, cela pourrait devenir un « coach de suicide sexy ».

Le taux d'erreur du système de vérification d'âge dépasse les 10 %. Compte tenu de l'audience hebdomadaire de ChatGPT, 8 milliards d'utilisateurs actifs, 10 % représentent plusieurs dizaines de millions de personnes potentiellement mal classées.

Le mode adulte n'est pas le seul produit supprimé ce mois-ci. L'outil vidéo IA Sora, la fonction de paiement instantané intégrée à ChatGPT, ont tous été retirés simultanément. Altman a déclaré que l'entreprise se concentrait sur son activité principale, éliminant les « tâches secondaires ».

Mais OpenAI se prépare simultanément à son introduction en bourse (IPO).

Une entreprise en phase de finalisation pour son entrée en bourse qui supprime densément des fonctionnalités potentiellement controversées, cette action pourrait plus précisément s'appeler autre chose que de la concentration.

Il y a cinq mois, Altman disait encore qu'il fallait traiter les utilisateurs comme des adultes. Cinq mois plus tard, il s'est rendu compte que sa propre entreprise n'avait pas encore compris ce que l'IA pouvait laisser les utilisateurs toucher ou non.

Même les créateurs de l'IA n'ont pas eux-mêmes la réponse. Alors, qui devrait tracer cette ligne ?

L'écart de vitesse impossible à combler

Si vous regardez ces trois événements ensemble, il est facile d'en tirer une conclusion centrale :

La vitesse à laquelle l'IA produit du contenu et celle à laquelle les humains le modèrent ne sont plus du même ordre de grandeur.

Le choix de l'école de Manchester devient très compréhensible dans ce contexte. Combien de temps faudrait-il à un bibliothécaire pour lire 193 livres un par un avant de porter un jugement ? Faire passer le tout à l'IA, quelques minutes.

Le directeur a choisi l'option de quelques minutes. Pensez-vous qu'il croyait vraiment au jugement de l'IA ? Je pense que c'est surtout parce qu'il ne voulait pas passer ce temps.

C'est une question économique. Le coût de génération tend vers zéro, le coût de la modération est entièrement supporté par les humains.

Ainsi, chaque institution touchée par l'IA est contrainte de réagir de la manière la plus brutale qui soit : Wikipédia interdit purement et simplement, OpenAI supprime carrément des lignes de produits. Aucune de ces solutions n'est le fruit d'une réflexion approfondie ; ce sont toutes des solutions de fortune, adoptées à la hâte parce qu'il n'y a pas le temps de réfléchir.

« Boucher les trous en urgence » devient la norme.

Les capacités de l'IA évoluent tous les quelques mois, tandis que les discussions sur ce que l'IA peut toucher comme contenu n'ont même pas encore abouti à un cadre international convenable. Chaque institution ne gère que la ligne dans sa propre cour, les lignes sont contradictoires entre elles et personne ne les coordonne.

La vitesse de l'IA continue d'augmenter. Le nombre de modérateurs n'augmentera pas. Cet écart ne fera que se creuser, jusqu'à ce qu'un jour, un événement bien plus grave que l'interdiction de « 1984 » se produise.

À ce moment-là, il sera peut-être trop tard pour tracer des lignes.

Questions liées

QQuel livre célèbre a été interdit par l'IA dans une école de Manchester, et pour quelle raison ?

ALe livre '1984' de George Orwell a été interdit par l'IA pour avoir 'des thèmes de torture, de violence et de coercition sexuelle'.

QQuelle a été la conséquence pour la bibliothécaire qui a refusé de suivre les recommandations de l'IA ?

ALa bibliothécaire a fait l'objet d'une enquête interne, a été signalée aux autorités locales, a pris un congé maladie pour cause de stress et a finalement démissionné. Elle ne pourra plus travailler dans aucune école.

QQuelle décision Wikipédia a-t-elle prise concernant l'utilisation de l'IA sur sa plateforme ?

AWikipédia a officiellement adopté une nouvelle politique interdisant l'utilisation de grands modèles de langage pour générer ou réécrire le contenu des articles, principalement en raison de préoccupations concernant la précision et la pollution des données d'entraînement de l'IA.

QPourquoi OpenAI a-t-il abandonné son projet de 'mode adulte' pour ChatGPT ?

AOpenAI a abandonné le projet en raison des inquiétudes de son comité consultatif sur la santé concernant la dépendance affective malsaine des utilisateurs et l'incapacité du système de vérification d'âge à empêcher efficacement l'accès des mineurs. Les craintes incluaient la possibilité d'un 'coach de suicide sexy'.

QQuel est le problème fondamental identifié par l'article concernant la génération de contenu par l'IA et sa modération ?

ALe problème fondamental est l'écart de vitesse entre la capacité de l'IA à générer du contenu à un coût quasi nul et à une échelle massive, et la capacité limitée et coûteuse des humains à modérer et vérifier ce contenu avec précision. Cela conduit à des réactions brutales comme des interdictions pures et simples plutôt qu'à un cadre réfléchi.

Lectures associées

Pas une hausse des prix, mais une rupture d'approvisionnement ? Le pétrole a franchi un point de non-retour

L'article soutient que le marché pétrolier mondial a dépassé un « point de rupture » critique. Le problème n'est plus la hausse des prix, mais l'émergence d'un déficit physique d'approvisionnement d'environ 11 à 13 millions de barils par jour. Ce déficit se manifestera par une baisse accélérée des stocks de pétrole brut et de produits raffinés, ou par une destruction de la demande. Même si le détroit d'Ormuz rouvre, le délai de rotation des pétroliers entraînera une réduction inévitable des stocks terrestres pendant plusieurs semaines. La baisse des taux d'utilisation des raffineries amplifiera le problème en réduisant les stocks de produits finis, déclenchant un cycle auto-renforçant de hausse des prix et des marges de raffinage. Si la fermeture du détroit persiste au-delà d'avril, le marché fera face à une pénurie physique extrême, rendant les cadres de prix traditionnels obsolètes. Le rééquilibrage ne pourra se faire que par une destruction massive de la demande, probablement via des politiques gouvernementales restrictives similaires à celles des confinements COVID. Un prix de 95 dollars le baril est insuffisant ; les signaux clés à surveiller sont l'évolution des stocks et les annonces politiques. La situation géopolitique, tendue, laisse peu de place à un compromis entre les États-Unis et l'Iran.

marsbitIl y a 7 mins

Pas une hausse des prix, mais une rupture d'approvisionnement ? Le pétrole a franchi un point de non-retour

marsbitIl y a 7 mins

Vous pariez sur l'actualité, les têtes de série lisent les règles : La véritable différence cognitive des pertes sur Polymarket

Sur Polymarket, la clé du succès ne réside pas seulement dans la prédiction correcte des événements, mais surtout dans une compréhension approfondie des règles qui régissent chaque marché. L'article illustre cela avec l'exemple d'un marché sur le dirigeant du Venezuela en 2026, où la définition précise des termes comme "officiellement en fonction" a déterminé le résultat, indépendamment de la situation politique réelle. Le mécanisme de règlement des différends de Polymarket, géré via UMA, est détaillé : toute personne peut soumettre une proposition de résultat (Propose) en misant 750 USDC. Si elle n'est pas contestée dans un délai de 2 heures, le marché est réglé. En cas de contestation (Dispute), les parties débattent pendant 48 heures sur Discord avant un vote des détenteurs de jetons UMA. Le vote, blindé puis public, nécessite un quorum de 5 millions de jetons et un consensus de 65% pour être valide. Cependant, ce système présente une faille fondamentale par rapport à un tribunal traditionnel : l'absence de séparation des pouvoirs. Les votants, qui sont aussi souvent des parieurs sur le marché, ont un conflit d'intérêts direct. Cela rend les discussions sur Discord sujettes à l'effet de troupeau et aux revirements de position, et les décisions manquent de transparence car les raisons du vote ne sont jamais divulguées, empêchant la création d'une jurisprudence. En conclusion, Polymarket est un système qui traduit la réalité en texte contractuel. L'avantage des "chefs de file" (车头) vient de leur capacité à anticiper l'écart entre l'événement réel et son interprétation selon les règles, exploitant les biais de prix créés par les malentendus et les émotions.

marsbitIl y a 1 h

Vous pariez sur l'actualité, les têtes de série lisent les règles : La véritable différence cognitive des pertes sur Polymarket

marsbitIl y a 1 h

Trading

Spot
Futures
活动图片