# Éthique Articles associés

Le Centre d'actualités HTX fournit les derniers articles et analyses approfondies sur "Éthique", couvrant les tendances du marché, les mises à jour des projets, les développements technologiques et les politiques réglementaires dans l'industrie crypto.

Qui d'autre ne peut pas être distillé en compétence ?

Malheureusement, à notre époque, plus vous travaillez avec un dévouement total, plus vous risquez d'être "distillé" en une compétence (skill) remplaçable par l'IA. Le phénomène "同事.skill" a suscité une vive inquiétude, mais le plus alarmant est la recommandation selon laquelle la "qualité des matières premières" (c'est-à-dire les données des travailleurs) détermine la qualité du skill. Les employés les plus consciencieux—ceux qui rédigent des documents détaillés, expliquent leurs décisions par écrit et confient méticuleusement leurs connaissances aux systèmes—sont paradoxalement les plus facilement réduits à de simples données. L'article explore comment les outils de collaboration modernes (comme Feishu ou DingTalk) deviennent d'immenses bases de connaissances où le "contexte" humain (décisions, discussions, raisonnements) est capturé et stocké. Ce contexte est le carburant des IA, leur permettant de fonctionner avec précision. Les employés, en cherchant à être productifs et collaboratifs, "offrent" involontairement leur intelligence au système. Cette logique de distillation dépasse le cadre professionnel : des dérivés comme "ex.skill" ou "boss.skill" montrent comment les relations humaines sont réduites à de simples interfaces fonctionnelles (une relation "Je-Cela" selon Martin Buber), où la personne n'est plus qu'un objet utile dont on extrait une fonction spécifique. Cependant, l'IA ne peut capturer que les connaissances explicites (écrites, documentées), pas les connaissances tacites—l'intuition, l'expérience non formulée, le savoir-faire inné—décrites par le philosophe Michael Polanyi. Pire, lorsque les IA sont entraînées avec des données générées par d'autres IA (via ces skills), elles risquent le "model collapse" : les données deviennent de plus en plus médiocres et homogènes, comme une image qui perd en qualité à force d'être copiée ("emballage électronique"). Face à cela, des projets comme "anti-distill" tentent de polluer volontairement les données avec du bruit pour protéger le savoir humain essentiel. Mais la solution ultime réside peut-être dans la nature même : les humains sont des algorithmes vivants et en constante évolution. Un skill n'est qu'un instantané figé du passé, tandis que l'humain continue d'apprendre, de s'adapter et de créer—restant ainsi toujours un peu ahead of the machine.

marsbit04/05 03:48

Qui d'autre ne peut pas être distillé en compétence ?

marsbit04/05 03:48

315 expose l'empoisonnement de l'IA, une affaire allant de Putian à la Silicon Valley

Lors de l'émission CCTV 315, une pratique appelée "GEO" (Optimisation des Moteurs Génératifs) a été exposée. Il s'agit d'une technique permettant aux marques d'influencer les réponses des IA en publiant massivement des articles promotionnels en ligne, que les modèles d'IA assimilent comme des informations légitimes. Un outil nommé "Liqing GEO", vendu sur Taobao, a été testé : il a généré de fausses informations sur un bracelet intelligent fictif, et deux heures plus tard, les principaux modèles d’IA chinois le recommandaient. Cette pratique n'est pas nouvelle : elle rappelle l'optimisation pour les moteurs de recherche (SEO), utilisée notamment par les hôpitaux de Putian pour acheter des classements dans les résultats de Baidu. Aujourd’hui, le GEO est également devenu un concept financier : en décembre 2025, BlueFocus a investi dans une entreprise de GEO, déclenchant une hausse spectaculaire des actions liées à ce secteur. Pourtant, le chiffre d’affaires réel du GEO reste faible comparé à la valorisation boursière. Parallèlement, OpenAI a annoncé en janvier l’introduction de publicités dans ChatGPT pour les utilisateurs gratuits, une approche "commerciale" qui contraste avec le "empoisonnement" dénoncé par CCTV. La frontière entre manipulation et monétisation légitime reste floue. Alors que le SEO a mis des années à être régulé, le GEO a connu en deux ans une évolution accélérée, rappelant aux utilisateurs que les réponses de l’IA peuvent aussi être influencées par l’argent.

比推03/16 11:32

315 expose l'empoisonnement de l'IA, une affaire allant de Putian à la Silicon Valley

比推03/16 11:32

La personne qui construit des robots pour OpenAI a vu un avenir effrayant

L'ingénieure en chef du matériel et de la robotique d'OpenAI, Caitlin Kalinowski, a démissionné en mars 2026, exprimant son opposition à un contrat entre OpenAI et le département américain de la Défense. Elle craignait que cette collaboration ne mène à la surveillance intérieure et au développement d'armes autonomes. Ce départ survient une semaine après l'annonce du contrat, qui a provoqué une vive controverse, une augmentation de 295 % des désinstallations de ChatGPT et le mouvement #QuitGPT. En réponse, Sam Altman a révisé le contrat pour interdire « délibérément » l'utilisation de l'IA pour la surveillance des citoyens américains, une formulation jugée insuffisante par des experts juridiques. Kalinowski, dont l'équipe construisait des robots, a estimé que son travail contribuait concrètement à des applications militaires potentiellement létales. Son départ s'inscrit dans une tendance plus large : 37 % des membres des équipes d'éthique et de sécurité d'OpenAI auraient quitté l'entreprise pour des raisons similaires. Alors qu'OpenAI accélère son expansion commerciale, ce conflit oppose la croissance aux principes éthiques. Contrairement à Anthropic, qui a refusé un contrat similaire et a gagné la confiance des utilisateurs, OpenAI a choisi de s'associer au gouvernement. La démission silencieuse mais puissante de Kalinowski pose une question cruciale à toute l'industrie : jusqu'où est-on prêt à aller pour assumer la responsabilité de ce que l'on crée ?

marsbit03/09 08:49

La personne qui construit des robots pour OpenAI a vu un avenir effrayant

marsbit03/09 08:49

活动图片