OpenAI expose le projet « Polaris », « le grand chômage de 2028 » pourrait vraiment arriver

marsbitPublié le 2026-03-24Dernière mise à jour le 2026-03-24

Résumé

OpenAI a dévoilé son projet « Étoile Polaire », visant à créer un système de recherche entièrement automatisé et multi-agents d'ici 2028. L'objectif initial, prévu pour septembre 2024, est de développer un « assistant de recherche IA autonome » capable de traiter des problèmes spécifiques. Ce projet prioritaire mobilise toutes les ressources de l'entreprise, intégrant des modèles de raisonnement, des agents intelligents et l'explicabilité dans un même cadre. Anthropic suit une voie parallèle, avec des outils comme Claude Code Channels, intégré aux workflows des développeurs via Telegram et Discord, transformant l'IA en « collègue » plutôt qu'en simple outil. Cependant, Jakub Pachocki, scientifique en chef d'OpenAI, reconnaît les défis de contrôle et de sécurité, notant que la compréhension des modèles linguistiques est encore insuffisante pour une maîtrise totale. Sur le plan commercial, des abonnements pouvant atteindre 20 000 dollars par mois pour un « agent de recherche » sont envisagés, recalibrant radicalement la productivité scientifique. Si cet objectif est atteint, l'IA pourrait accélérer ses propres progrès, sans être limitée par les contraintes humaines, potentialisant ainsi une transformation profonde du marché du travail.

Il n'y a pas longtemps, un article de « prédiction pour 2028 » a circulé frénétiquement sur Internet. L'article indiquait qu'en raison des progrès de l'IA, une grande vague de chômage surviendrait en 2028, et de nombreux emplois seraient remplacés par l'IA.

Dès la parution de l'article, superposé à la situation au Moyen-Orient, il a fortement fait chuter le marché boursier américain ce jour-là. Cette affaire peut être qualifiée de fantastique, car cet article était visiblement écrit par une IA, mais il semblait correspondre parfaitement à la peur des gens concernant « le grand chômage causé par l'IA », d'où un impact si important.

Récemment, une information divulguée par OpenAI a fait prendre conscience aux gens que « le grand chômage de 2028 » pourrait ne pas être sans fondement.

Récemment, le scientifique en chef d'OpenAI, Jakub Pachocki, a prononcé une phrase qui glace le sang lors d'un entretien exclusif avec MIT Technology Review — leur « Polaris » est de construire un système de recherche multi-agents entièrement automatisé d'ici 2028.

Dès septembre de cette année, l'objectif de la première phase sera atteint :

un « stagiaire de recherche IA autonome » capable de traiter indépendamment des problèmes de recherche spécifiques.

Ce n'est pas un espace réservé dans le plan de produit, ni une déclaration hasardeuse d'Altman sur X. C'est OpenAI qui mise toutes les ressources de l'entreprise sur une seule direction.

La signification de « Polaris »

Lorsqu'une entreprise technologique parle de « Polaris », cela signifie généralement deux choses : premièrement, les autres choses doivent lui laisser la place, et deuxièmement, un consensus interne a été atteint.

D'après les actions d'OpenAI ces deux dernières semaines, ce jugement est globalement correct.

Le 19 mars, OpenAI a annoncé l'acquisition de l'entreprise d'outils pour développeurs Astral, l'équipe étant intégrée au département Codex ; au même moment, l'entreprise a annoncé l'intégration de ChatGPT, Codex et du navigateur en une « super application » de bureau unifiée, dirigée par la responsable des applications Fidji Simo, avec Greg Brockman assistant à la promotion de la réforme organisationnelle.

L'ère des produits fragmentés est révolue, OpenAI pousse maintenant tous ses jetons dans une seule direction.

Et cette direction pointe vers « faire faire de la recherche par l'IA elle-même ».

La logique de Pachocki est en fait très claire : les modèles de raisonnement, les agents intelligents, l'explicabilité, ces trois axes technologiques se battaient auparavant séparément en interne chez OpenAI, maintenant ils doivent être intégrés sous un seul objectif — créer un chercheur IA capable de fonctionner de manière autonome pendant de longues périodes dans un centre de données. Il a dit qu'une fois cette chose réalisée, « c'est ce dont nous dépendons vraiment. »

L'avis de l'ancien chercheur d'OpenAI Andrej Karpathy est plus direct — « Tous les laboratoires de pointe en modèles de langage volumineux feront ainsi, c'est le combat final du BOSS. » Il a ajouté une phrase qui mérite d'être savourée : « La mise à l'échelle sera bien sûr plus complexe, mais faire cela est juste un problème d'ingénierie, cela réussira. »

Notez son choix de mots : pas « est-ce possible », mais « quand ».

Anthropic en action

Le même jour où OpenAI a annoncé « Polaris », Anthropic a discrètement mis en ligne Claude Code Channels — une fonctionnalité permettant aux développeurs d'interagir directement avec une session Claude Code en cours d'exécution via Telegram et Discord.

Cette chose semble petite prise isolément, mais vue dans la tendance globale, elle est très importante.

La logique d'Anthropic est : plutôt que de dire aux développeurs ce que l'IA pourra faire à l'avenir, autant la faire intégrer dès maintenant dans le flux de travail réel des développeurs. Telegram et Discord ne sont pas des articles académiques, ce sont les lieux de travail quotidiens des programmeurs. Faire vivre Claude Code ici signifie qu'il passe d'« outil » à « collègue ».

Les réactions de la communauté confirment ce jugement.

Un utilisateur a directement dit : « Claude a tué OpenClaw avec cette mise à jour, vous n'avez plus besoin d'acheter un Mac Mini. » La signification derrière cette phrase est que les améliorations d'infrastructure d'Anthropic ont déjà fait perdre l'avantage de coût aux solutions open source alternatives.

Et d'un point de vue chronologique plus macro, la vitesse d'itération d'Anthropic sur Claude Code est en effet stupéfiante. En quelques semaines seulement, il a fusionné le traitement de texte, l'intégration de milliers de compétences MCP et la capacité de correction autonome de bugs. Alors qu'OpenAI renforce Codex en acquérant Astral, Anthropic a déjà directement placé Claude Code dans la fenêtre de chat des développeurs.

Les deux entreprises se dirigent vers le même point d'arrivée, mais les routes sont totalement différentes — OpenAI fait le « chercheur entièrement automatisé de 2028 », Anthropic fait les « outils d'agents intelligents utilisables aujourd'hui ».

Le vrai défi

Cependant, il y a un détail qui ne peut être contourné.

Pachocki a fait une chose très rare lors de l'entretien exclusif — il a volontairement parlé des défis de sécurité et de contrôlabilité, et de manière assez franche.

Il a dit que leur idée était d'utiliser d'autres modèles de langage volumineux pour « surveiller les notes du chercheur IA », pour capturer les mauvais comportements avant qu'ils ne deviennent problématiques. Mais il a immédiatement reconnu : « La compréhension des modèles de langage volumineux n'est pas suffisante pour que nous puissions les contrôler complètement, il faudra encore beaucoup de temps pour pouvoir vraiment dire 'ce problème est résolu'. »

Le scientifique en chef d'une entreprise dit « nous n'avons pas un contrôle total », tout en annonçant qu'il livrera un système de recherche IA entièrement automatisé en 2028, ces deux choses mises côte à côte méritent que tout le monde y réfléchisse sérieusement.

Ce n'est pas du pessimisme, mais comprendre la difficulté réelle de la chose. Le fait que Pachocki puisse dire cette phrase montre en soi qu'OpenAI a une conscience claire de la difficulté de cette voie en interne.

Au niveau technique, il y a une « boucle de Karpathy » résumée par les chercheurs qui mérite d'être consultée — un cadre de recherche IA automatisé réussi nécessite trois éléments : un agent ayant le droit de modifier un fichier individuel, une métrique unique pouvant être testée objectivement, une limite de temps d'expérimentation fixe.

Ce cadre a déjà commencé à produire des résultats dans des environnements réels. Le PDG de Shopify, Tobias Lütke, a partagé publiquement un cas : il a fait fonctionner un agent autoresearch pendant la nuit, et le lendemain matin, l'agent avait exécuté 37 expériences, améliorant les performances du modèle de 19%.

Du concept à la mise en œuvre, cette route est plus courte qu'imaginé.

Le futur avec un abonnement de 20 000 dollars

Le projet « Polaris » n'est pas seulement un avantage technique, c'est aussi un enjeu commercial décisif.

Un ensemble de chiffres de Paul Roetzer donne à réfléchir : il cite des prédictions internes d'OpenAI, d'ici 2029, le business des agents intelligents à lui seul pourrait générer 29 milliards de dollars de revenus annuels, incluant un « agent de connaissance » à 2000 dollars par mois et un « agent de recherche » à 20000 dollars par mois.

Cet ensemble de chiffres montre que le « chercheur IA » n'a jamais été juste un objectif technique, c'est une feuille de route de revenus.

Un « agent de recherche » à 20000 dollars par mois, converti, c'est une fraction du salaire annuel d'un chercheur senior, mais il peut travailler 24 heures sur 24 sans interruption, tout en exécutant 37 expériences simultanément. Ce n'est pas remplacer une personne spécifique, mais redéfinir ce qu'est la « productivité de la recherche » elle-même.

Cela me rappelle cette phrase de Karpathy — « C'est le combat final du BOSS ». Le BOSS dont il parle, ce n'est pas un concurrent, mais le plafond des capacités de l'IA lui-même.

Une fois que l'IA pourra faire avancer la recherche scientifique de manière autonome, la vitesse de progression de l'IA ne sera plus limitée par le nombre d'heures de travail et le nombre de chercheurs humains.

Pachocki a dit la même chose, juste de manière plus retenue — « Une fois que le système pourra fonctionner de manière autonome pendant de longues périodes dans un centre de données, c'est ce dont nous dépendons vraiment. »

Le stagiaire de recherche IA de septembre 2026 n'est pas le point d'arrivée, mais un point de départ important.

Questions liées

QQuel est le projet 'Polaris' d'OpenAI et quel est son objectif principal ?

ALe projet 'Polaris' d'OpenAI vise à construire un système de recherche multi-agents entièrement automatisé d'ici 2028. Son objectif est de créer un système d'IA capable de mener de manière autonome des recherches scientifiques pendant de longues périodes dans un centre de données.

QQuelle est la première étape du projet Polaris prévue pour septembre 2024 ?

ALa première étape, prévue pour septembre 2024, est le déploiement d'un 'assistant de recherche en IA autonome' capable de traiter de manière indépendante des problèmes de recherche spécifiques.

QComment Anthropic, un concurrent d'OpenAI, aborde-t-il le développement des agents IA ?

AAnthropic adopte une approche différente en se concentrant sur la création d'outils d'agents IA utilisables aujourd'hui. Ils ont intégré Claude Code directement dans les flux de travail des développeurs via des plateformes comme Telegram et Discord, le transformant ainsi d'un simple 'outil' en un 'collègue'.

QQuel est le principal défi mentionné par le scientifique en chef d'OpenAI concernant le contrôle des modèles de langage ?

ALe scientifique en chef d'OpenAI, Jakub Pachocki, a reconnu que la compréhension des grands modèles de langage n'est pas encore suffisante pour les contrôler complètement. Il a admis qu'il faudra beaucoup de temps avant de pouvoir considérer le problème de contrôle comme 'résolu'.

QQuelles sont les implications commerciales potentielles des agents de recherche IA, selon les prévisions internes d'OpenAI ?

ASelon les prévisions internes d'OpenAI citées, les activités des agents IA pourraient générer 29 milliards de dollars de revenus annuels d'ici 2029. Cela inclurait un 'agent de connaissance' avec un abonnement mensuel de 2000 dollars et un 'agent de recherche' à 20 000 dollars par mois, redéfinissant ainsi la productivité de la recherche.

Lectures associées

Turbulences sur le marché crypto : qui achète à contre-courant ?

Le marché crypto a connu une correction sévère au premier trimestre 2026, avec Bitcoin en baisse de plus de 25 % et Ethereum de 35 %. Pourtant, les flux institutionnels sont restés robustes, marqués par une forte dichotomie. Les acheteurs institutionnels ont été actifs : Strategy (ex-MicroStrategy) a accru ses réserves de Bitcoin pour atteindre 815 061 BTC, tandis que des fonds souverains comme Mubadala ont augmenté leurs positions dans les ETF Bitcoin. Plusieurs nouveaux ETF ont été lancés, notamment par Morgan Stanley (MSBT, premier ETF Bitcoin d'une grande banque) et BlackRock (ETHB, premier ETF de staking d'Ethereum). Les banques européennes ont formé un consortium pour un stablecoin euro (Qivalos), et des institutions comme UBS et Citi ont élargi leurs services crypto. À l’inverse, certains hedge funds (Brevan Howard, Tudor) et mineurs ont massivement vendu. Les investissements en capital-risque ont chuté de 49 % en nombre de transactions, mais trois méga-deals (BVNK, Kalshi, Polymarket) ont représenté la moitié des fonds levés (environ 34 milliards de dollars). Les secteurs dominants sont les paiements/stablecoins et les marchés prédictifs, supplantant la DeFi. En résumé, l’accumulation institutionnelle se poursuit, portée par les trésoreries d’entreprise, les fonds souverains et les nouveaux produits ETF, tandis que le risque se concentre sur quelques acteurs majeurs.

marsbitIl y a 1 h

Turbulences sur le marché crypto : qui achète à contre-courant ?

marsbitIl y a 1 h

Test pratique de Hunyuan Hy3 preview : L'IA de Tencent est-elle enfin compétitive ?

Le modèle de langage Hy3 preview de Tencent, récemment lancé en open source, présente des capacités améliorées en raisonnement complexe, génération de code, compréhension contextuelle et interaction naturelle. Avec 295 milliards de paramètres et une prise en charge de contexte jusqu'à 256K, il est présenté comme le modèle le plus performant de la série Hunyuan. Les tests montrent des forces dans le raisonnement logique structuré et l'extraction d'informations en contexte bruité, mais une certaine instabilité face aux pièges logiques ou aux questions ambiguës. En génération de code et en tant qu'agent intelligent (via WorkBuddy), il excède dans les tâches simples et fermées (comme créer un jeu Snake) mais peine à mener à bien des missions complexes nécessitant une analyse approfondie et une livraison complète de résultats. Ses progrès les plus notables concernent le dialogue naturel et l'écriture créative, où il produit des textes fluides, moins stéréotypés et mieux contextualisés, imitant même des styles littéraires spécifiques avec succès. Bien que Hy3 preview ne soit pas révolutionnaire dans tous les domaines, il se positionne comme un modèle pratique et polyvalent. Son lancement marque un virage important pour Tencent, qui cherche à rattraper son retard perçu dans la course à l'IA et à intégrer un modèle performant dans son écosystème de produits (QQ, Tencent Docs, etc.). Une version plus grande est attendue prochainement.

marsbitIl y a 4 h

Test pratique de Hunyuan Hy3 preview : L'IA de Tencent est-elle enfin compétitive ?

marsbitIl y a 4 h

DeepSeek V4 fait sensation : La Silicon Valley « construit des murs », la Chine « construit des routes »

**DeepSeek V4 et l'approche collaborative chinoise face au modèle fermé de la Silicon Valley** Le 24 avril, DeepSeek a lancé son modèle V4, acclamé pour ses innovations majeures : une capacité de contexte étendue à un million de tokens avec une réduction de 90% de la consommation mémoire (KV Cache), et une compatibilité native avec les puces chinoises comme celles de Huawei. Contrairement à la concurrence agressive observée entre OpenAI, Google et Anthropic — marquée par des rivalités techniques et des guerres médiatiques — la Chine adopte une stratégie collaborative et open-source. Des entreprises comme DeepSeek et MoonShot AI (créateur de Kimi) partagent ouvertement leurs avancées, comme l’architecture MLA (Multi-head Latent Attention) ou l’optimiseur Muon, permettant une évolution synergique plutôt qu’une compétition destructive. Cette approche open-source réduit les coûts de formation (ex. : DeepSeek V3 formé pour moins de 600M$ contre 5Mds$ pour GPT-5) et stimule l’adoption. Alors que les géants américains se enferment dans des modèles fermés pour préserver leurs avantages, la Chine construit écosystème ouvert, optimisé pour les puces locales et orienté vers les agents IA. Malgré des revenus encore inférieurs à ceux des acteurs US, la croissance du trafic de tokens et la réduction des coûts laissent présager un avantage à long terme grâce à l’innovation collective et l’autonomie technologique.

marsbitIl y a 4 h

DeepSeek V4 fait sensation : La Silicon Valley « construit des murs », la Chine « construit des routes »

marsbitIl y a 4 h

Trading

Spot
Futures
活动图片