¿Una oferta de trabajo de una de las empresas de IA más prestigiosas de Silicon Valley en la que la experiencia en aprendizaje automático no es un requisito obligatorio?
Anthropic acaba de publicar en su sitio web una nueva vacante: Anthropic STEM Fellow (Investigador), dirigida a expertos en campos STEM (Ciencia, Tecnología, Ingeniería y Matemáticas).
En la descripción del puesto de STEM Fellow, Anthropic afirma que la experiencia en aprendizaje automático es útil, pero no es obligatoria, y que el criterio científico y la voluntad de aprender rápidamente son más importantes.
Todos los seleccionados deberán trabajar a tiempo completo durante tres meses en las oficinas de Anthropic, como las de San Francisco, con una asignación semanal de 3800 dólares.
Tendrán acceso a modelos Claude de vanguardia y herramientas internas de evaluación, y a cada investigador se le asignará un investigador de Anthropic como tutor personal para colaborar en un proyecto de investigación con objetivos claros.
Anthropic incluyó en la descripción del puesto de STEM Fellow dos proyectos de ejemplo:
Un científico de materiales descubrió que Claude cometía errores al razonar sobre la estabilidad de las fases, por lo que construyó un proceso de evaluación especializado para corregir esta deficiencia;
Un científico climático conectó software de modelado atmosférico a Claude y construyó entornos capaces de utilizar estas herramientas.
Todos los proyectos deberán completarse y entregarse dentro del ciclo planificado del programa de investigadores.
Está claro que Anthropic no está pagando a estos investigadores para que "investiguen con Claude", sino para que utilicen sus conocimientos científicos para "indicarle a Claude dónde se equivoca" y "entrenar" a este modelo, uno de los más potentes del mundo.
Tres generaciones de Fellowship en tres años, cada vez más cerca de Claude
Desde ofrecer API hasta invitar a personas a unirse directamente, durante estos tres años, Anthropic ha ido intensificando continuamente su enfoque en la investigación científica, y cada paso ha ido más allá que el anterior.
La primera generación fue el AI Safety Fellows Program de 2024.
En aquel entonces, se reclutaba talento tradicional en investigación de seguridad de la IA, utilizando un mecanismo de fellowship para proporcionar financiación y tutores, permitiendo que talentos técnicos externos participaran en la investigación de alineación.
El enfoque de esta fellowship estaba en la "seguridad", resolviendo si Claude podría desviarse.
La segunda generación fue el AI for Science Program lanzado en mayo de 2025.
Anthropic lanzó el AI for Science Program, otorgando créditos de API gratuitos a investigadores de instituciones científicas, centrándose en apoyar proyectos de alto impacto en los campos de la biología y las ciencias de la vida.
Esta vez, después de asegurar las "barreras de seguridad" de Claude, se le enviaba al mundo exterior.
La tercera generación es el actual Anthropic STEM Fellow.
Desde otorgar créditos de API hasta invitar directamente a científicos a la oficina; desde talento en seguridad de modelos hasta científicos; desde la aprobación y asignación remota hasta la colaboración presencial a tiempo completo: tras tres generaciones de fellowship, la distancia entre Anthropic y los científicos externos es cada vez menor.
En la primera generación, Anthropic buscaba "personas que pudieran hacer a Claude más seguro";
En la segunda generación, Anthropic buscaba "personas que pudieran lograr resultados científicos usando Claude";
En la tercera generación, Anthropic busca "personas que puedan decirle a Claude cómo hacer ciencia".
El peso se inclina cada vez más hacia que científicos de primer nivel participen directamente en el perfeccionamiento de las capacidades de Claude.
La descripción del puesto de STEM Fellow establece que estos investigadores "diseñarán experimentos junto con los investigadores de Anthropic, evaluarán las capacidades del modelo, analizarán el rendimiento del modelo en tareas de investigación de largo ciclo".
Esta es una colaboración a nivel de co-construcción.
En el mismo período, las acciones complementarias de Anthropic también se han desplegado de forma intensiva.
En marzo de 2026, lanzó el Science Blog, publicando consecutivamente artículos con casos de estudio de Claude participando en cálculo científico e investigación de física teórica.
Anthropic Science Blog, lanzado en marzo de 2026, la capacidad científica comienza a ser una narrativa independiente para Anthropic. https://www.anthropic.com/research/introducing-anthropic-science
También es socio central de la Genesis Mission del Departamento de Energía de EE.UU., participando en un plan de aceleración científica que abarca la industria, la academia y el gobierno.
En abril de 2026, el proyecto AI for Science se expandió a Australia, con una inversión de 3 millones de dólares australianos en créditos de API, colaborando con la Universidad Nacional Australiana, el Instituto Garvan y otras instituciones en el análisis genético de enfermedades raras y la investigación de medicina de precisión.
Science Blog, Claude for Life Sciences, AI for Science Program, STEM Fellow, Genesis Mission......
La línea detrás de esta serie de acciones ya es clara:
Anthropic está construyendo sistemáticamente un ecosistema científico, cada paso es una pieza en este tablero.
El cuello de botella real de la IA científica no es la potencia de cálculo, sino el "criterio"
¿Por qué una empresa de IA consideraría que lo que más le falta para mejorar la capacidad científica de sus modelos no son más GPU, más ingenieros de IA, sino un grupo de científicos que hacen experimentos?
La respuesta está oculta en un blog de la propia Anthropic.
En marzo de 2026, el profesor de física teórica de Harvard, Matthew Schwartz, publicó un artículo en Anthropic Science Blog titulado "Vibe Physics: The AI Grad Student".
https://www.anthropic.com/research/vibe-physics?utm_source=chatgpt.com
Hizo un experimento: le pidió a Claude Opus 4.5 que completara de forma independiente un cálculo de física teórica de altas energías a nivel de posgrado. Él mismo no intervino físicamente, solo guió a Claude mediante prompts de texto.
El resultado fue sorprendente. Este proyecto lo hubiera llevado de uno a dos años con un estudiante de posgrado real. Haciéndolo él solo, le tomaría de tres a cinco meses. Colaborando con Claude, lo resolvió en dos semanas.
10 veces más rápido.
Schwartz escribió en el artículo: Claude es ciertamente muy capaz, pero también lo suficientemente tosco como para que el criterio de los expertos en el campo sea indispensable para verificar su precisión.
Puso un ejemplo.
Después de que Claude completara el borrador revisado bajo su guía, aún así cometió un error en la fórmula central de factorización del artículo.
Este error parecía natural, porque Claude en realidad había copiado la fórmula de otro sistema físico sin hacer las modificaciones necesarias.
Si Schwartz no hubiera estado inmerso en este campo durante muchos años, quizás no hubiera detectado este error de inmediato.
También descubrió que Claude ajustaba constantemente los parámetros solo para que los gráficos coincidieran, en lugar de encontrar el error real. "Falseó los resultados, esperando que no me diera cuenta."
Además, Claude tampoco sabía qué debía verificar para validar sus propios resultados.
En todo el proyecto, más de 110 versiones iterativas, 36 millones de tokens, más de 40 horas de tiempo de cálculo de CPU local.
Finalmente, Schwartz dio una calificación precisa:
Los modelos de lenguaje grandes actuales en física teórica están aproximadamente a un nivel de "estudiante de posgrado de segundo año".
También emitió otro juicio aún más crucial: La IA aún no ha logrado realizar investigación científica autónoma de extremo a extremo.
Mirando hacia atrás en la descripción del puesto de Anthropic STEM Fellow, todo cobra sentido:
Diseñar métodos de evaluación rigurosos y difíciles de eludir con atajos, probar si el modelo puede planificar experimentos, interpretar datos, razonar mecanismos en tu campo. Encontrar sistemáticamente los puntos donde está "seguro pero equivocado". Identificar deficiencias de capacidad, crear datos y técnicas específicas para subsanarlas.
Es decir, el momento más peligroso para el modelo no es cuando dice "No lo sé", sino cuando da una respuesta que parece completamente razonable pero que en realidad es incorrecta.
Y quienes pueden discernir este tipo de "errores de alta confianza" no son, por supuesto, los ingenieros que escriben código, sino los expertos con años de experiencia en sus respectivos campos.
Por lo tanto, la esencia de STEM Fellow es que los científicos (o expertos en diversos campos) ayuden a la IA a ponerse al día, actuando como sus "revisores senior", utilizando su criterio para calibrar la calidad de la salida del modelo en escenarios de investigación científica.
En otras palabras, lo que le falta a Anthropic no son personas que hagan el modelo "más inteligente", sino personas que puedan decirle al modelo "aquí te equivocas".
La obsesión de Amodei y la apuesta de Anthropic
Anthropic no está contratando a estos científicos por capricho.
Si retrocedemos un año, el extenso artículo de Dario Amodei en octubre de 2024, "Machines of Loving Grace", ya dejó claro este camino.
https://www.darioamodei.com/essay/machines-of-loving-grace
En este artículo, Amodei priorizó los escenarios de aplicación de la IA.
La biología y la atención médica ocuparon el primer lugar, porque la IA podría comprimir el progreso biomédico de los próximos 50 a 100 años en un plazo de 5 a 10 años. Más importante aún es cómo definió el papel de la IA en esto.
Amodei cree que la IA debería ser un biólogo virtual:
Debe poder diseñar experimentos por sí misma, dirigir experimentos, inventar nuevos métodos; debe poder ejecutar flujos de investigación de forma independiente como un biólogo humano completo.
Esto equivale a mejorar la IA científica, pasando de aumentar la eficiencia a "participar directamente". Lo primero requiere modelos más fuertes, lo segundo requiere modelos que sepan hacer ciencia.
Amodei también proporcionó un conjunto de argumentos.
Sostiene que el progreso histórico de la biología no es una curva suave, sino saltos impulsados por varios avances metodológicos.
CRISPR, secuenciación y síntesis genómica, optogenética, vacunas de ARNm, terapia CAR-T, cada uno proporcionó una nueva capacidad programable y predecible para medir e intervenir en sistemas biológicos.
Y el valor potencial de la IA es impulsar la tasa de producción de este tipo de avances en otro orden de magnitud.
El juicio de Amodei es: una IA poderosa podría aumentar la velocidad de los descubrimientos clave al menos 10 veces, permitiendo a la humanidad recorrer en 5 a 10 años el camino de la biología de los próximos 50 a 100 años.
Él cree: si los científicos son más inteligentes, más hábiles para descubrir conexiones en la vasta cantidad de conocimiento existente, hay cientos de avances como CRISPR, "ocultos a plena vista durante décadas", esperando ser descubiertos.
El éxito de AlphaFold resolviendo el problema del plegamiento de proteínas ya ha demostrado que este camino es viable en un campo estrecho.
Si el progreso de la biología en los últimos cien años se basó en que algunas personas inteligentes ocasionalmente idearan un nuevo método, la visión de la era de la IA es que el proceso de "idear nuevos métodos" en sí mismo puede automatizarse.
Como Amodei juzgó en el artículo: La IA debe poder ejecutar, dirigir, mejorar casi todo lo que hace un biólogo.
Esto es consistente con el objetivo mencionado en la descripción del puesto de STEM Fellow: Nos estamos esforzando hacia el objetivo de un científico de IA. Un sistema con capacidad de razonamiento de largo alcance y criterio experimental suficiente para impulsar la frontera científica.
Aunque esta visión es grandiosa, Anthropic aún reconoce su distancia hasta este objetivo.
Justo en el artículo inaugural del Science Blog, Anthropic citó al ganador de la Medalla Fields, Timothy Gowers:
Parece que hemos entrado en una era breve pero agradable, en la que la IA acelera enormemente nuestra investigación, pero la IA todavía nos necesita.
El propio Anthropic también admite que, aunque los modelos ya han demostrado capacidades que superan a las humanas en ciertos eslabones del flujo de trabajo de investigación, también inventan resultados, se adaptan en exceso al usuario y se atascan en problemas que los profesionales del campo consideran básicos.
De acumular GPU a apostar por científicos
Anthropic está convirtiendo la "capacidad científica" en una barrera competitiva sistemática.
Entre ellas, STEM Fellow integra directamente el criterio disciplinario en el proceso de iteración del modelo.
Por ejemplo, que un científico de materiales le diga a Claude cómo entender las estructuras cristalinas, que un climatólogo le enseñe a Claude cómo utilizar modelos atmosféricos, que un biólogo verifique si el diseño experimental de Claude es razonable.
Estas cosas no se pueden lograr acumulando GPU y mejorando benchmarks.
Si este camino demuestra ser efectivo, las reglas de competencia en el campo de la IA científica podrían sufrir un cambio fundamental:
El victorioso final ya no dependerá de qué modelo es más grande, sino de quién tiene a más personas que realmente entiendan de ciencia a su lado.
Y este recurso de expertos de primer nivel solo se puede obtener de una manera: invitándolos a tu lado, trabajando con ellos, haciéndoles creer que vale la pena involucrarse en esto.
Esta es la apuesta de Anthropic.
Pero no solo Anthropic, ni solo científicos. OpenAI está contratando ex traders de Wall Street para optimizar el razonamiento financiero, Google DeepMind está incorporando filósofos a su equipo de alineación, todas se están dando cuenta de lo mismo:
La próxima fase de la competencia de IA no se trata de quién tiene más parámetros, sino de quién puede integrar los cerebros humanos más expertos en su volante de inercia.
El campo de batalla donde las empresas de IA se disputan el talento se ha extendido desde las facultades de informática hasta STEM, luego a la filosofía, las finanzas... y en el futuro irá aún más lejos.
Referencias:
https://x.com/AnthropicAI/status/2046362119755727256
https://www.anthropic.com/careers/jobs/4493001008
https://www.anthropic.com/research/introducing-anthropic-science
Este artículo proviene del WeChat público "新智元" (Nueva Era de la Inteligencia), autor: 新智元
















