Il n'y a pas longtemps, un article de « prédiction pour 2028 » a circulé frénétiquement sur Internet. L'article indiquait qu'en raison des progrès de l'IA, une grande vague de chômage surviendrait en 2028, et de nombreux emplois seraient remplacés par l'IA.
Dès la parution de l'article, superposé à la situation au Moyen-Orient, il a fortement fait chuter le marché boursier américain ce jour-là. Cette affaire peut être qualifiée de fantastique, car cet article était visiblement écrit par une IA, mais il semblait correspondre parfaitement à la peur des gens concernant « le grand chômage causé par l'IA », d'où un impact si important.
Récemment, une information divulguée par OpenAI a fait prendre conscience aux gens que « le grand chômage de 2028 » pourrait ne pas être sans fondement.
Récemment, le scientifique en chef d'OpenAI, Jakub Pachocki, a prononcé une phrase qui glace le sang lors d'un entretien exclusif avec MIT Technology Review — leur « Polaris » est de construire un système de recherche multi-agents entièrement automatisé d'ici 2028.
Dès septembre de cette année, l'objectif de la première phase sera atteint :
un « stagiaire de recherche IA autonome » capable de traiter indépendamment des problèmes de recherche spécifiques.
Ce n'est pas un espace réservé dans le plan de produit, ni une déclaration hasardeuse d'Altman sur X. C'est OpenAI qui mise toutes les ressources de l'entreprise sur une seule direction.
La signification de « Polaris »
Lorsqu'une entreprise technologique parle de « Polaris », cela signifie généralement deux choses : premièrement, les autres choses doivent lui laisser la place, et deuxièmement, un consensus interne a été atteint.
D'après les actions d'OpenAI ces deux dernières semaines, ce jugement est globalement correct.
Le 19 mars, OpenAI a annoncé l'acquisition de l'entreprise d'outils pour développeurs Astral, l'équipe étant intégrée au département Codex ; au même moment, l'entreprise a annoncé l'intégration de ChatGPT, Codex et du navigateur en une « super application » de bureau unifiée, dirigée par la responsable des applications Fidji Simo, avec Greg Brockman assistant à la promotion de la réforme organisationnelle.
L'ère des produits fragmentés est révolue, OpenAI pousse maintenant tous ses jetons dans une seule direction.
Et cette direction pointe vers « faire faire de la recherche par l'IA elle-même ».
La logique de Pachocki est en fait très claire : les modèles de raisonnement, les agents intelligents, l'explicabilité, ces trois axes technologiques se battaient auparavant séparément en interne chez OpenAI, maintenant ils doivent être intégrés sous un seul objectif — créer un chercheur IA capable de fonctionner de manière autonome pendant de longues périodes dans un centre de données. Il a dit qu'une fois cette chose réalisée, « c'est ce dont nous dépendons vraiment. »
L'avis de l'ancien chercheur d'OpenAI Andrej Karpathy est plus direct — « Tous les laboratoires de pointe en modèles de langage volumineux feront ainsi, c'est le combat final du BOSS. » Il a ajouté une phrase qui mérite d'être savourée : « La mise à l'échelle sera bien sûr plus complexe, mais faire cela est juste un problème d'ingénierie, cela réussira. »
Notez son choix de mots : pas « est-ce possible », mais « quand ».
Anthropic en action
Le même jour où OpenAI a annoncé « Polaris », Anthropic a discrètement mis en ligne Claude Code Channels — une fonctionnalité permettant aux développeurs d'interagir directement avec une session Claude Code en cours d'exécution via Telegram et Discord.
Cette chose semble petite prise isolément, mais vue dans la tendance globale, elle est très importante.
La logique d'Anthropic est : plutôt que de dire aux développeurs ce que l'IA pourra faire à l'avenir, autant la faire intégrer dès maintenant dans le flux de travail réel des développeurs. Telegram et Discord ne sont pas des articles académiques, ce sont les lieux de travail quotidiens des programmeurs. Faire vivre Claude Code ici signifie qu'il passe d'« outil » à « collègue ».
Les réactions de la communauté confirment ce jugement.
Un utilisateur a directement dit : « Claude a tué OpenClaw avec cette mise à jour, vous n'avez plus besoin d'acheter un Mac Mini. » La signification derrière cette phrase est que les améliorations d'infrastructure d'Anthropic ont déjà fait perdre l'avantage de coût aux solutions open source alternatives.
Et d'un point de vue chronologique plus macro, la vitesse d'itération d'Anthropic sur Claude Code est en effet stupéfiante. En quelques semaines seulement, il a fusionné le traitement de texte, l'intégration de milliers de compétences MCP et la capacité de correction autonome de bugs. Alors qu'OpenAI renforce Codex en acquérant Astral, Anthropic a déjà directement placé Claude Code dans la fenêtre de chat des développeurs.
Les deux entreprises se dirigent vers le même point d'arrivée, mais les routes sont totalement différentes — OpenAI fait le « chercheur entièrement automatisé de 2028 », Anthropic fait les « outils d'agents intelligents utilisables aujourd'hui ».
Le vrai défi
Cependant, il y a un détail qui ne peut être contourné.
Pachocki a fait une chose très rare lors de l'entretien exclusif — il a volontairement parlé des défis de sécurité et de contrôlabilité, et de manière assez franche.
Il a dit que leur idée était d'utiliser d'autres modèles de langage volumineux pour « surveiller les notes du chercheur IA », pour capturer les mauvais comportements avant qu'ils ne deviennent problématiques. Mais il a immédiatement reconnu : « La compréhension des modèles de langage volumineux n'est pas suffisante pour que nous puissions les contrôler complètement, il faudra encore beaucoup de temps pour pouvoir vraiment dire 'ce problème est résolu'. »
Le scientifique en chef d'une entreprise dit « nous n'avons pas un contrôle total », tout en annonçant qu'il livrera un système de recherche IA entièrement automatisé en 2028, ces deux choses mises côte à côte méritent que tout le monde y réfléchisse sérieusement.
Ce n'est pas du pessimisme, mais comprendre la difficulté réelle de la chose. Le fait que Pachocki puisse dire cette phrase montre en soi qu'OpenAI a une conscience claire de la difficulté de cette voie en interne.
Au niveau technique, il y a une « boucle de Karpathy » résumée par les chercheurs qui mérite d'être consultée — un cadre de recherche IA automatisé réussi nécessite trois éléments : un agent ayant le droit de modifier un fichier individuel, une métrique unique pouvant être testée objectivement, une limite de temps d'expérimentation fixe.
Ce cadre a déjà commencé à produire des résultats dans des environnements réels. Le PDG de Shopify, Tobias Lütke, a partagé publiquement un cas : il a fait fonctionner un agent autoresearch pendant la nuit, et le lendemain matin, l'agent avait exécuté 37 expériences, améliorant les performances du modèle de 19%.
Du concept à la mise en œuvre, cette route est plus courte qu'imaginé.
Le futur avec un abonnement de 20 000 dollars
Le projet « Polaris » n'est pas seulement un avantage technique, c'est aussi un enjeu commercial décisif.
Un ensemble de chiffres de Paul Roetzer donne à réfléchir : il cite des prédictions internes d'OpenAI, d'ici 2029, le business des agents intelligents à lui seul pourrait générer 29 milliards de dollars de revenus annuels, incluant un « agent de connaissance » à 2000 dollars par mois et un « agent de recherche » à 20000 dollars par mois.
Cet ensemble de chiffres montre que le « chercheur IA » n'a jamais été juste un objectif technique, c'est une feuille de route de revenus.
Un « agent de recherche » à 20000 dollars par mois, converti, c'est une fraction du salaire annuel d'un chercheur senior, mais il peut travailler 24 heures sur 24 sans interruption, tout en exécutant 37 expériences simultanément. Ce n'est pas remplacer une personne spécifique, mais redéfinir ce qu'est la « productivité de la recherche » elle-même.
Cela me rappelle cette phrase de Karpathy — « C'est le combat final du BOSS ». Le BOSS dont il parle, ce n'est pas un concurrent, mais le plafond des capacités de l'IA lui-même.
Une fois que l'IA pourra faire avancer la recherche scientifique de manière autonome, la vitesse de progression de l'IA ne sera plus limitée par le nombre d'heures de travail et le nombre de chercheurs humains.
Pachocki a dit la même chose, juste de manière plus retenue — « Une fois que le système pourra fonctionner de manière autonome pendant de longues périodes dans un centre de données, c'est ce dont nous dépendons vraiment. »
Le stagiaire de recherche IA de septembre 2026 n'est pas le point d'arrivée, mais un point de départ important.





