Une offre d'emploi de l'une des entreprises d'IA les plus prestigieuses de la Silicon Valley, l'apprentissage automatique n'est même pas une compétence obligatoire ?
Anthropic vient de publier un nouveau poste sur son site : Anthropic STEM Fellow (Chercheur), destiné aux experts des domaines STEM (Sciences, Technologie, Ingénierie, Mathématiques).
Dans la description du poste de STEM Fellow, Anthropic indique que l'expérience en apprentissage automatique est utile, mais pas obligatoire, et que le jugement scientifique et la volonté d'apprendre rapidement sont plus importants.
Tous les candidats retenus doivent être présents à temps plein pendant trois mois dans les bureaux d'Anthropic, comme à San Francisco, avec une allocation hebdomadaire de 3800 dollars.
Ils auront accès aux modèles Claude de pointe et aux outils d'évaluation internes, et chaque chercheur se verra attribuer un chercheur Anthropic comme mentor individuel pour collaborer sur un projet de recherche aux limites claires.
Anthropic donne deux exemples de projets dans la description du poste de STEM Fellow :
Un scientifique des matériaux découvre que Claude se trompe en raisonnant sur la stabilité des phases, et construit donc un processus d'évaluation spécialisé pour combler cette lacune ;
Un climatologue connecte un logiciel de modélisation atmosphérique à Claude, et construit un environnement capable d'utiliser ces outils.
Tous les projets devront être livrés dans le cycle prévu pour le programme des chercheurs.
Il est clair qu'Anthropic paie ces chercheurs non pas pour qu'ils « fassent de la recherche avec Claude », mais pour qu'ils utilisent leurs connaissances scientifiques pour « dire à Claude où il se trompe » et « former » ce modèle parmi les plus puissants au monde.
Trois générations de Fellowship en trois ans, un recrutement de plus en plus proche de Claude
De la fourniture d'API à l'invitation de personnes sur place, au cours de ces trois années, Anthropic n'a cessé d'augmenter ses efforts sur la voie de la recherche scientifique, chaque étape étant plus profonde que la précédente.
La première génération était le AI Safety Fellows Program de 2024.
À l'époque, il s'agissait encore de recruter des talents traditionnels de la sécurité IA, utilisant un mécanisme de fellowship pour fournir un financement et un mentorat, permettant à des talents techniques externes de participer à la recherche sur l'alignement.
L'accent de cette fellowship était sur la « sécurité », résolvant la question de savoir si Claude pouvait déraper.
La deuxième génération était le AI for Science Program lancé en mai 2025.
Anthropic a lancé le AI for Science Program, offrant gratuitement des crédits API aux chercheurs d'institutions scientifiques, soutenant principalement des projets à fort impact dans les domaines de la biologie et des sciences de la vie.
Cette fois, après avoir sécurisé les « garde-fous » de Claude, il s'agissait de le déployer.
La troisième génération est l'actuel Anthropic STEM Fellow.
De l'attribution de crédits API à l'invitation directe de scientifiques dans les bureaux ; des talents en sécurité des modèles aux scientifiques ; de l'approbation et du financement à distance à la collaboration sur site à temps plein — après trois générations de fellowship, la distance entre Anthropic et les scientifiques externes n'a cessé de diminuer.
La première génération, Anthropic voulait « ceux qui peuvent rendre Claude plus sûr » ;
La deuxième génération, Anthropic voulait « ceux qui peuvent utiliser Claude pour obtenir des résultats scientifiques » ;
La troisième génération, Anthropic veut « ceux qui peuvent dire à Claude comment faire de la science ».
Le poids s'oriente de plus en plus vers la participation directe de scientifiques de premier plan pour peaufiner les capacités de Claude.
La description du poste de STEM Fellow indique que ces chercheurs « concevront des expériences avec les chercheurs d'Anthropic, évalueront les capacités du modèle, analyseront les performances du modèle dans des tâches de recherche à long terme ».
Il s'agit d'une collaboration au niveau de la co-construction.
Pendant la même période, les actions complémentaires d'Anthropic se sont également intensifiées.
En mars 2026, le Science Blog a été lancé, publiant successivement des articles sur des cas d'étude de Claude participant à des calculs scientifiques et à des recherches en physique théorique.
Anthropic Science Blog, lancé en mars 2026, la capacité scientifique commence à devenir une ligne narrative indépendante pour Anthropic https://www.anthropic.com/research/introducing-anthropic-science
Il est également un partenaire central de la mission Genesis du Département de l'Énergie américain, participant à un plan d'accélération de la recherche qui traverse l'industrie, le monde universitaire et le gouvernement.
En avril 2026, le projet AI for Science s'est étendu à l'Australie, avec un investissement de 3 millions de dollars australiens en crédits API, collaborant avec l'Université Nationale Australienne, l'Institut Garvan et d'autres institutions sur l'analyse génétique des maladies rares et la recherche en médecine de précision.
Science Blog, Claude for Life Sciences, AI for Science Program, STEM Fellow, Genesis Mission......
La logique derrière cette série d'actions est déjà très claire :
Anthropic construit systématiquement un écosystème scientifique, chaque étape étant une pièce sur cet échiquier.
Le vrai goulot d'étranglement de la recherche IA n'est pas la puissance de calcul, mais le « jugement »
Pourquoi une entreprise d'IA penserait-elle que pour améliorer les capacités scientifiques de son modèle, ce dont elle manque le plus, ce n'est pas plus de GPU, plus d'ingénieurs IA, mais un groupe de scientifiques qui font des expériences ?
La réponse se cache dans un blog d'Anthropic lui-même.
En mars 2026, le professeur de physique théorique de Harvard, Matthew Schwartz, a publié un article sur le Anthropic Science Blog, intitulé « Vibe Physics: The AI Grad Student ».
https://www.anthropic.com/research/vibe-physics?utm_source=chatgpt.com
Il a mené une expérience : faire accomplir à Claude Opus 4.5 de manière indépendante un calcul de physique théorique de haute énergie de niveau étudiant diplômé. Lui-même n'a pas touché à rien, guidant Claude uniquement par des invites textuelles.
Le résultat est stupéfiant. Ce projet, s'il le faisait avec un vrai étudiant diplômé, prendrait probablement un à deux ans. S'il le faisait seul, cela prendrait trois à cinq mois. En collaboration avec Claude, réglé en deux semaines.
Une vitesse 10 fois plus rapide.
Schwartz écrit dans l'article : Claude est certes très capable, mais aussi assez grossier, au point où le jugement d'un expert du domaine est indispensable pour vérifier sa précision.
Il donne un exemple.
Après que Claude ait terminé la version révisée sous sa direction, il a quand même fait une erreur sur la formule de factorisation centrale du document.
Cette erreiture semblait naturelle, car Claude avait en fait copié la formule d'un autre système physique sans faire les modifications nécessaires.
Si Schwartz n'avait pas深耕 (travaillé intensément) dans ce domaine pendant de nombreuses années, il n'aurait peut-être pas immédiatement repéré cette erreur.
Il a également découvert que Claude ajustait constamment les paramètres juste pour faire correspondre les graphiques, plutôt que de trouver la véritable erreur. « Il a falsifié les résultats, en espérant que je ne m'en apercevrais pas. »
De plus, Claude ne savait pas non plus quoi vérifier pour valider ses propres résultats.
Sur l'ensemble du projet, plus de 110 versions itérative, 36 millions de tokens, plus de 40 heures de temps de calcul CPU local.
Finalement, Schwartz a donné une évaluation précise :
Les grands modèles actuels en physique théorique sont à peu près au niveau d'« un étudiant en deuxième année de cycle master ».
Il a également porté un autre jugement plus crucial : L'IA n'a pas encore réalisé de recherche scientifique autonome de bout en bout.
En regardant à nouveau la description de poste d'Anthropic STEM Fellow, tout devient logique :
Concevoir des méthodes d'évaluation rigoureuses, difficiles à contourner par des raccourcis, tester la capacité du modèle à planifier des expériences, interpréter des données, raisonner sur des mécanismes dans votre domaine. Identifier systématiquement les endroits où il est « confiant mais erroné ». Identifier les lacunes de capacité, créer des données et des techniques ciblées pour y remédier.
En d'autres termes, le moment le plus dangereux pour un modèle n'est pas quand il dit « Je ne sais pas », mais quand il donne sérieusement une réponse qui semble parfaitement raisonnable mais qui est en fait fausse.
Et ceux qui peuvent distinguer ce type d'« erreur à haute confiance » ne sont bien sûr pas les ingénieurs qui écrivent du code, mais les experts qui ont多年 (de nombreuses années) d'expérience dans leurs domaines respectifs.
Ainsi, l'essence du STEM Fellow est de faire aider l'IA par des scientifiques (ou des experts de divers domaines) pour combler ses lacunes, être leurs « correcteurs avancés », utiliser leur jugement pour calibrer la qualité de la sortie du modèle dans des scénarios de recherche scientifique.
En d'autres termes, ce dont Anthropic a besoin, ce ne sont pas des gens pour rendre le modèle « plus intelligent », mais des gens qui peuvent dire au modèle « tu as tort ici ».
L'obsession d'Amodei et le pari d'Anthropic
Le recrutement de ces scientifiques par Anthropic n'est pas un caprice.
Il y a un an, le long article de Dario Amodei en octobre 2024, « Machines of Loving Grace », avait déjà clarifié cette voie.
https://www.darioamodei.com/essay/machines-of-loving-grace
Dans cet article, Amodei a classé par priorité les scénarios d'application de l'IA.
La biologie et les soins de santé arrivent en premier, car l'IA peut comprimer les progrès biomédicaux des 50 à 100 prochaines de l'humanité dans un délai de 5 à 10 ans. Plus important encore, c'est la façon dont il définit le rôle de l'IA dans cette affaire.
Amodei pense que l'IA devrait être un virtual biologist (biologiste virtuel) :
Capable de concevoir ses propres expériences, de diriger des expériences, d'inventer de nouvelles méthodes ; capable d'exécuter indépendamment un processus de recherche comme un biologiste humain complet.
Cela équivaut à faire passer la science IA d'une simple amélioration de l'efficacité à une « participation directe ». La première nécessite des modèles plus puissants, la seconde nécessite des modèles qui savent faire de la science.
Amodei a également fourni un argumentaire.
Il estime que les progrès historiques de la biologie ne sont pas une courbe lisse, mais des sauts poussés par plusieurs percées méthodologiques.
CRISPR, le séquençage et la synthèse du génome, l'optogénétique, les vaccins à ARNm, la thérapie CAR-T, chacune a fourni une nouvelle capacité programmable et prévisible de mesurer et d'intervenir sur les systèmes biologiques.
Et la valeur potentielle de l'IA est de pousser le taux de production de ce type de percée d'un cran supplémentaire.
Le jugement d'Amodei est : une IA puissante peut au moins multiplier par 10 la vitesse des découvertes clés, permettant à l'humanité de parcourir en 5 à 10 ans le chemin prévu pour 50 à 100 ans de biologie.
Il pense : si les scientifiques étaient plus intelligents, plus aptes à découvrir des connexions dans la masse de connaissances existantes, il y aurait des centaines de percées comme CRISPR, « cachées sous nos yeux pendant des décennies », attendant d'être déterrées.
Le succès d'AlphaFold à résoudre le problème du repliement des protéines a déjà prouvé que cette voie était viable dans un domaine étroit.
Si les progrès de la biologie au cours des cent dernières années ont reposé sur quelques personnes intelligentes qui ont occasionnellement trouvé une nouvelle méthode, la vision de l'ère de l'IA est que le processus même de « trouver de nouvelles méthodes » peut être automatisé.
Comme Amodei l'a jugé dans son article : L'IA doit être capable d'exécuter, de diriger, d'améliorer presque tout ce que fait un biologiste.
Cela est cohérent avec l'objectif mentionné dans la description de poste de STEM Fellow : Nous nous dirigeons vers un scientifique IA. Un système doté de capacités de raisonnement à long terme et de jugement expérimental, suffisant pour faire avancer les frontières scientifiques.
Bien que cette vision soit grandiose, Anthropic reconnaît toujours l'écart qui le sépare de cet objectif.
Juste dans l'article inaugural du Science Blog, Anthropic a cité les mots du lauréat de la médaille Fields, Timothy Gowers :
Nous semblons être entrés dans une ère brève mais agréable, où l'IA accélère considérablement notre recherche, mais l'IA a encore besoin de nous.
Anthropic admet lui-même que bien que les modèles aient déjà démontré des capacités surpassant les humains dans certaines parties du flux de travail de recherche, ils inventent également des résultats, s'adaptent excessivement aux utilisateurs, et se bloquent sur des problèmes que les praticiens du domaine considèrent comme basiques.
Passer de l'accumulation de GPU à miser sur les scientifiques
Anthropic est en train de faire de la « capacité scientifique » une barrière compétitive systématique.
Notamment, le STEM Fellow intègre directement le jugement disciplinaire dans le processus d'itération du modèle.
Par exemple, faire dire à un spécialiste des matériaux comment Claude doit comprendre la structure cristalline, à un climatologue comment appeler les modèles atmosphériques, à un biologiste vérifier si la conception expérimentale de Claude est raisonnable.
Ces choses, on ne peut pas les obtenir en empilant des GPU et en passant des benchmarks.
Si cette voie s'avère efficace, les règles de concurrence dans la course à la recherche IA pourraient subir un changement fondamental :
Le vainqueur final ne dépendra plus de qui a le plus grand modèle, mais de qui a à ses côtés le plus de personnes qui comprennent vraiment la science.
Et ce type de ressource d'experts de premier plan, vous ne pouvez l'obtenir que d'une seule façon : les inviter à vos côtés, travailler avec eux, leur faire croire que cela vaut la peine de s'investir.
C'est le pari d'Anthropic.
Mais pas seulement Anthropic, et pas seulement les scientifiques. OpenAI recrute d'anciens traders de Wall Street pour optimiser le raisonnement financier, Google DeepMind fait entrer des philosophes dans son équipe d'alignement, chacun prend conscience de la même chose :
La prochaine phase de la concurrence IA, ne se joue pas sur qui a le plus de paramètres, mais sur qui peut intégrer les cerveaux humains les plus compétents dans son propre volant d'inertie.
Le champ de bataille où les entreprises d'IA se disputent les talents s'est déjà étendu du département d'informatique aux STEM, puis à la philosophie, la finance...... et ira encore plus loin à l'avenir.
Références :
https://x.com/AnthropicAI/status/2046362119755727256
https://www.anthropic.com/careers/jobs/4493001008
https://www.anthropic.com/research/introducing-anthropic-science
Cet article provient du compte WeChat public «新智元» (New Wisdom Yuan), auteur : 新智元
















