Nota del editor: En el rápido ascenso de los agentes de programación de IA, OpenAI, que una vez lideró la ola de IA generativa con ChatGPT, se ha convertido inesperadamente en un "perseguidor" en esta pista clave. En marcado contraste, Anthropic, fundada por exmiembros de OpenAI, se ha vuelto rápidamente popular en la comunidad de desarrolladores y el mercado empresarial con Claude Code, convirtiéndose en uno de los líderes importantes en el campo de las herramientas de programación de IA.
Este artículo, a través de entrevistas con ejecutivos e ingenieros de OpenAI y varios desarrolladores, revela la verdadera historia detrás de esta competencia: desde la división inicial del proyecto OpenAI Codex y la desviación de recursos hacia ChatGPT y modelos multimodales, hasta la reintegración interna de equipos y el lanzamiento acelerado de productos de programación de IA, OpenAI está experimentando una transición de negligencia estratégica a una persecución total. En cierto sentido, esto no es un retraso en la capacidad técnica, sino un desfase en el ritmo estratégico: el estallido de ChatGPT cambió las prioridades de la empresa, la relación de colaboración con Microsoft limitó la ruta del producto, y Anthropic apostó antes por la pista de programación de IA.
Detrás de esta competencia, surgen gradualmente problemas más profundos: cuando los agentes de IA comienzan a asumir cada vez más trabajo cognitivo, los flujos de desarrollo de software e incluso el trabajo de cuello blanco en sí podrían ser redefinidos.
A continuación, el texto original:
Sam Altman, CEO de OpenAI, cruza las piernas en su silla de oficina, mira hacia el techo, como si estuviera reflexionando sobre una respuesta aún no formada. En cierto modo, esto también tiene que ver con el entorno.
La nueva sede de OpenAI en Mission Bay, San Francisco, es un edificio moderno de vidrio y madera clara, con una atmósfera cercana a un "santuario tecnológico". En el estante de exhibición detrás de la recepción hay folletos que presentan las "Eras de la IA" (Eras of AI), como si describieran un camino hacia la revelación tecnológica. En la pared de la escalera hay carteles de hitos del desarrollo de la inteligencia artificial, uno de los cuales registra un momento: miles de espectadores presenciaron en directo cómo una máquina derrotaba a un equipo de élite de deportes electrónicos en una partida de Dota 2. En los pasillos, investigadores vienen y van con camisetas del equipo con eslóganes, una de las cuales dice: "La buena investigación requiere tiempo". Por supuesto, idealmente, no demasiado tiempo.
Estamos sentados en una enorme sala de conferencias. La pregunta que le planteo a Altman tiene que ver con la revolución de la programación de IA que está arrasando en la industria, y por qué OpenAI parece no estar liderando esta ola.
Hoy, millones de ingenieros de software ya han comenzado a delegar parte de su trabajo de programación a la IA, lo que ha hecho que muchos en Silicon Valley se enfrenten por primera vez a una realidad: la automatización podría afectar sus propios puestos de trabajo. Los agentes de programación (coding agents) se han convertido, por tanto, en una de las pocas aplicaciones por las que las empresas están dispuestas a pagar un alto precio por la IA. En principio, un momento como este bien podría, e incluso debería, convertirse en el próximo "momento de victoria" en los carteles de la escalera de OpenAI. Pero ahora, el nombre que ocupa los titulares no es el suyo.
Su oponente es Anthropic, una empresa de IA fundada por exmiembros de OpenAI. Con su producto agente de programación Claude Code, Anthropic ha experimentado un crecimiento explosivo. La empresa reveló en febrero que este producto ya contribuye con casi una quinta parte de su volumen de negocio, correspondiente a unos ingresos anualizados de más de 25.000 millones de dólares. En comparación, según una persona informada, a finales de enero, los ingresos anualizados del propio producto de programación de OpenAI, OpenAI Codex, eran apenas superiores a los 10.000 millones de dólares.
La pregunta es: ¿Por qué OpenAI se ha quedado atrás en esta carrera de programación de IA?
"El valor de la ventaja del primer moviente es enorme", dijo Sam Altman después de meditarlo un momento. "Ya lo experimentamos con ChatGPT".
Sin embargo, en su opinión, ahora es el momento de que OpenAI se esfuerce al máximo en la programación de IA. Cree que la capacidad actual de los modelos de la empresa es lo suficientemente potente como para soportar agentes de programación (coding agents) altamente complejos. Por supuesto, esta capacidad no es casual, la empresa ha invertido decenas de miles de millones de dólares en el entrenamiento de modelos.
"Este será un negocio enorme", dijo Altman, "no sólo por el valor económico que genera por sí mismo, sino también por la productividad general que la programación puede liberar". Hizo una pausa y añadió: "Rara vez uso esta palabra a la ligera, pero creo que es probablemente uno de esos mercados con un volumen de billones de dólares".
Yendo más allá, cree que OpenAI Codex podría ser "el camino más probable" hacia la inteligencia artificial general (AGI). Según la definición de OpenAI, la AGI es un sistema de IA capaz de superar el rendimiento humano en la gran mayoría de los trabajos con valor económico.
Sin embargo, aunque Altman emite este juicio con confianza y una actitud despreocupada, la situación interna real de la empresa en los últimos años ha sido mucho más compleja. Para conocer la historia interna más completa, entrevisté a más de 30 personas informadas, incluidos ejecutivos y empleados actuales de OpenAI que hablaron con la aprobación de la empresa, así como algunos ex empleados que describieron las operaciones internas de la empresa bajo condición de anonimato. Reuniendo estas narrativas, se puede observar una situación poco común: OpenAI está forcejeando por ponerse al día.
Volvamos a 2021. En aquel entonces, Altman y otros ejecutivos de OpenAI invitaron al periodista de WIRED Steven Levy a su antigua oficina en el distrito Mission de San Francisco para ver una demostración de una nueva tecnología. Era un proyecto derivado de GPT-3, entrenado con una gran cantidad de código abierto de GitHub.
En la demostración en vivo, los ejecutivos mostraron cómo esta herramienta, llamada OpenAI Codex, podía recibir instrucciones en lenguaje natural y generar fragmentos de código simples.
"En realidad puede realizar operaciones por ti en el mundo informático", explicó entonces Greg Brockman, presidente y cofundador de OpenAI. "Lo que tienes es un sistema que realmente puede ejecutar comandos". Incluso en aquel entonces, los investigadores de OpenAI ya creían普遍mente que Codex sería la tecnología clave para construir un "superasistente" (super assistant).
Durante ese período, la agenda de Altman y Brockman estaba casi llena de reuniones con Microsoft, el mayor inversor de OpenAI. El gigante del software planeaba utilizar Codex para potenciar uno de sus primeros productos comerciales de IA: una herramienta de finalización de código llamada GitHub Copilot, que podría integrarse directamente en los entornos de desarrollo que los programadores usan a diario.
Un antiguo empleado de OpenAI recuerda que, en esa etapa, Codex "básicamente sólo podía hacer autocompletado". Pero los ejecutivos de Microsoft aún lo veían como una señal importante de la llegada de la era de la IA.
En junio de 2022, cuando GitHub Copilot se lanzó oficialmente al público, atrajo a cientos de miles de usuarios en pocos meses.
El equipo de OpenAI inicialmente responsable de Codex fue posteriormente reasignado a otros proyectos. Un ex empleado recordó que el juicio de la empresa en ese momento era: los modelos futuros inherentemente tendrían capacidad de programación, por lo que no era necesario mantener un equipo de proyecto Codex independiente a largo plazo. Una parte de los ingenieros fueron transferidos para trabajar en el desarrollo de DALL-E 2, otra parte se volcó en el entrenamiento de GPT-4. En ese momento, parecía el camino clave para acercar a OpenAI a la AGI.
Luego, en noviembre de 2022, se lanzó ChatGPT y ganó más de 100 millones de usuarios en dos meses. Casi todos los demás proyectos dentro de la empresa se detuvieron como resultado. En los años siguientes, OpenAI en realidad no tuvo un equipo dedicado específicamente a productos de programación de IA. Un ex miembro que participó en el proyecto Codex dijo que, después de que ChatGPT se hiciera popular, la programación de IA parecía ya no caer dentro de la nueva estrategia de "prioridad de producto de consumo" de la empresa. Al mismo tiempo, la opinión generalizada en la industria era que este campo ya estaba "cubierto" por GitHub Copilot, que era esencialmente el territorio de Microsoft. OpenAI principalmente solo proporcionaba soporte de modelo subyacente.
Por lo tanto, en 2023 y 2024, los recursos de OpenAI se destinaron más a modelos de IA multimodal y agentes inteligentes (agents). Estos sistemas fueron diseñados para poder entender simultáneamente texto, imágenes, video y audio, y operar el cursor y el teclado como un humano. Esta dirección en ese momento parecía más acorde con la tendencia de la industria: el modelo de generación de imágenes de Midjourney se volvió viral rápidamente en las redes sociales, y la opinión generalizada de la industria era que los grandes modelos de lenguaje debían poder "ver" y "oír" el mundo para avanzar verdaderamente hacia una inteligencia de nivel superior.
En comparación, Anthropic eligió un camino diferente. Aunque la empresa también estaba desarrollando chatbots y modelos multimodales, pareció darse cuenta antes del potencial de la capacidad de programación. En un podcast reciente, Brockman también admitió que Anthropic "se centró mucho en la capacidad de programación desde una etapa muy temprana". Señaló que Anthropic, al entrenar sus modelos, no solo utilizó problemas de programación complejos de competiciones académicas, sino que también incorporó problemas de código "desordenados" de repositorios de código reales.
"Esta es una lección que aprendimos más tarde", dijo Brockman.
A principios de 2024, Anthropic comenzó a utilizar estos datos de repositorios de código reales para entrenar a Claude 3.5 Sonnet. Cuando el modelo se lanzó en junio, muchos usuarios quedaron impresionados por su capacidad de programación.
Este rendimiento se verificó especialmente en una startup llamada Cursor. Fundada por un grupo de jóvenes de veintitantos años, esta empresa desarrolló una herramienta de programación de IA que permite a los desarrolladores describir requisitos en lenguaje natural, y que la IA modifique el código directamente. Cuando Cursor integró el nuevo modelo de Anthropic, su base de usuarios creció rápidamente, reveló una persona cercana a la empresa.
Unos meses después, Anthropic comenzó a probar internamente su propio producto agente de programación, Claude Code.
A medida que la popularidad de Cursor aumentaba, OpenAI intentó en un momento dado adquirir la startup. Pero según múltiples fuentes cercanas a la empresa, el equipo fundador de Cursor rechazó la propuesta antes de que las negociaciones avanzaran. Creían que el potencial de la industria de la programación de IA era enorme y, por lo tanto, esperaban mantenerse independientes.
En ese momento, OpenAI estaba entrenando su primer llamado "modelo de razonamiento", OpenAI o1. Este tipo de modelo es capaz de razonar paso a paso un problema antes de dar una respuesta. OpenAI declaró en el lanzamiento que el modelo se destacaba especialmente en "generar y depurar con precisión código complejo".
Mishchenko explicó que una razón importante por la que los modelos de IA han logrado un progreso明显的 en la capacidad de programación es que la programación es una "tarea verificable" (verifiable task). El código funciona o no funciona, lo que proporciona una señal de retroalimentación muy clara para el modelo. Si hay un error, el sistema puede saber rápidamente dónde está el problema. OpenAI utilizó este ciclo de retroalimentación para entrenar continuamente a o1 en problemas de programación más complejos.
"Sin la capacidad de explorar libremente el código, implementar modificaciones y probar sus propios resultados —todo ello forma parte de la capacidad de 'razonamiento'—, los agentes de programación de hoy no podrían alcanzar el nivel actual", dijo.
Para diciembre de 2024, dentro de OpenAI ya habían surgido varios equipos pequeños centrados en agentes de programación de IA. Uno de estos equipos estaba codirigido por Mishchenko y Thibault Sottiaux. Sottiaux, ex empleado de Google DeepMind, es ahora el responsable de Codex en OpenAI.
Inicialmente, su interés en los agentes de programación provenía principalmente de las necesidades internas de I+D, con la esperanza de utilizar la IA para automatizar una gran cantidad de trabajo de ingeniería repetitivo, como gestionar tareas de entrenamiento de modelos, monitorear el estado de los clústeres de GPU, etc.
Otro esfuerzo paralelo fue dirigido por Alexander Embiricos. Anteriormente responsable del proyecto de agentes multimodales de OpenAI, ahora es el director de producto de Codex. Embiricos había desarrollado un proyecto de demostración llamado Jam, que se propagó rápidamente dentro de la empresa.
A diferencia de controlar la computadora mediante el ratón y el teclado, Jam podía acceder directamente a la línea de comandos de la computadora. La demostración de Codex de 2021 solo mostraba a la IA generando código para los humanos, que luego ejecutaban manualmente; la versión de Embiricos podía ejecutar este código por sí misma. Recuerda que, en ese momento, observar una página web que registraba en tiempo real el comportamiento operativo de Jam actualizándose constantemente en su portátil, lo dejó casi atónito.
"Durante un tiempo, pensé que la interacción multimodal podría ser el camino para cumplir nuestra misión. Por ejemplo, que los humanos compartieran pantalla y trabajaran junto con la IA todo el día", dijo Embiricos. "Luego, de repente, se volvió muy claro: tal vez, dar a los modelos acceso programático directo a la computadora es la forma real de lograr esto".
Estos proyectos dispersos tardaron varios meses en consolidarse gradualmente en una dirección unificada. Para principios de 2025, cuando OpenAI completó el entrenamiento de OpenAI o3, un modelo optimizado aún más para tareas de programación que OpenAI o1, la empresa finalmente tuvo la base técnica para construir un verdadero producto de programación de IA. Pero al mismo tiempo, Claude Code de Anthropic ya estaba listo para su lanzamiento público.
Antes del lanzamiento de Claude Code (lanzado en febrero de "vista previa de investigación limitada" y en mayo completamente disponible), el modo predominante en el campo de la programación de IA todavía se llamaba "vibe coding". Los desarrolladores impulsaban proyectos con herramientas de asistencia de IA, con los humanos controlando la dirección y la IA complementando la implementación específica en el proceso. Este tipo de herramientas ya habían atraído cientos de millones de dólares en inversión.
Pero el nuevo producto de Anthropic cambió este modelo. Al igual que la demostración de Jam, Claude Code podía ejecutarse directamente a través de la línea de comandos de la computadora, lo que significaba que podía acceder a todos los archivos y aplicaciones del desarrollador. La programación ya no era solo "asistida por IA", sino que los desarrolladores podían entregar trabajos completos directamente al agente de IA.
Frente a este cambio, OpenAI comenzó a acelerar el lanzamiento de un producto competitivo. Sottiaux recuerda que en marzo de 2025 formó un "equipo de sprint" (sprint team), con la tarea de integrar a múltiples equipos internos de la empresa en unas pocas semanas para lanzar rápidamente un producto de programación de IA.
Al mismo tiempo, Altman también intentó "adelantar por la curva" mediante una adquisición, ofreciendo 3.000 millones de dólares por la startup de programación de IA Windsurf. Los altos ejecutivos de OpenAI creían que este acuerdo les daría un producto de programación de IA maduro, un equipo con experiencia y una base de clientes empresariales existente.
Pero esta adquisición luego se estancó. Según informó The Wall Street Journal, el problema fue el mayor socio de OpenAI, Microsoft. Microsoft deseaba obtener acceso a la propiedad intelectual de Windsurf. Desde 2021, Microsoft había estado utilizando modelos de OpenAI para potenciar GitHub Copilot, un producto que se había convertido en un punto destacado en sus conferencias telefónicas de resultados. Pero con el lanzamiento de nuevas experiencias de agentes de programación de IA por parte de Cursor, Windsurf y Claude Code, GitHub Copilot comenzó a parecer una herramienta de IA de la generación anterior. Que OpenAI lanzara un nuevo producto de programación no necesariamente una buena noticia para Microsoft.
Las negociaciones de esta adquisición ocurrieron precisamente durante el período de mayor tensión entre OpenAI y Microsoft. Ambas partes estaban renegociando su acuerdo de colaboración, y OpenAI intentaba debilitar el control de Microsoft sobre sus productos de IA y recursos de computación. Finalmente, la adquisición de Windsurf se convirtió en una víctima de esta contienda. Para julio, OpenAI abandonó el acuerdo. Posteriormente, Google contrató al equipo fundador de Windsurf, y el resto de los empleados fueron adquiridos por otra empresa de programación de IA, Cognition.
"Por supuesto, en ese momento deseaba que el acuerdo se concretara", dijo Altman, "pero no se puede controlar cada transacción". Dijo que, aunque originalmente esperaba que la adquisición de Windsurf "acelerara nuestro progreso en cierta medida", también estaba impresionado por el impulso del equipo de Codex. Mientras se desarrollaban las negociaciones, Sottiaux y Embiricos continuaron desarrollando el producto y lanzando actualizaciones.
Para agosto, Altman decidió acelerar全面mente el avance.
La forma favorita de Greg Brockman de medir la capacidad de la IA es un pequeño juego que él mismo diseñó, la "Prueba de Turing inversa" (Reverse Turing Test). Hace unos años escribió personalmente el código de este juego, y ahora le encarga la tarea a un agente de IA para implementarlo desde cero.
Las reglas del juego son simples: dos jugadores humanos se sientan frente a diferentes computadoras, cada uno ve dos ventanas de chat en su pantalla. Una ventana se conecta con el otro jugador humano, la otra con una IA. Los jugadores deben adivinar qué ventana es la IA, mientras intentan hacer que su oponente误以为 ellos son la IA.
Brockman dijo que durante la mayor parte del año pasado, el modelo más fuerte de OpenAI tardaba horas en construir un juego así, y necesitaba una gran cantidad de instrucciones y asistencia humana explícitas en el proceso. Pero para diciembre, Codex ya podía generar una versión completamente funcional con un único prompt cuidadosamente diseñado, utilizando bajo el capó el nuevo modelo GPT-5.2.
Este cambio no solo lo notó Brockman. Desarrolladores de todo el mundo también comenzaron a darse cuenta de que la capacidad de los agentes de programación de IA había dado un salto明显的 de repente. La discusión en torno a la programación de IA, inicialmente centrada en Claude Code, pronto traspasó el círculo tecnológico de Silicon Valley y se convirtió en un tema de interés para los medios de comunicación generalistas.
Incluso algunos usuarios comunes sin experiencia en programación comenzaron a utilizar la IA para crear directamente sus propios proyectos de software.
Este aumento en el uso no fue accidental. Durante este período, tanto Anthropic como OpenAI invirtieron grandes sumas de dinero para adquirir más usuarios de agentes de programación de IA. Múltiples desarrolladores le dijeron a WIRED que sus planes de suscripción mensual de 200 dólares para Codex o Claude Code, en realidad les otorgaban un valor de uso de más de 1000 dólares. Este límite bastante "generoso" era esencialmente una estrategia de mercado: primero acostumbrar a los desarrolladores a usar herramientas de programación de IA en su trabajo diario, para luego cobrar por uso en escenarios empresariales.
Según múltiples fuentes informadas, en septiembre de 2025, el uso de Codex era solo aproximadamente el 5% del de Claude Code. Pero para enero de 2026, la base de usuarios de Codex había aumentado a aproximadamente el 40% de la de Claude Code.
George Pickett, un desarrollador con 10 años de experiencia en startups tecnológicas, incluso comenzó recientemente a organizar reuniones presenciales con temática de Codex.
"Me parece obvio que estamos reemplazando trabajos de cuello blanco con agentes de IA", dijo Pickett. "En cuanto a lo que esto significa para la sociedad, honestamente, nadie lo sabe con seguridad. Definitivamente causará un gran impacto, pero en general soy bastante optimista sobre el futuro".
Mientras tanto, Simon Last, cofundador de la empresa de software de eficiencia Notion, valorada en unos 110.000 millones de dólares, dijo que después del lanzamiento de GPT-5.2, él y el equipo central de ingeniería de la empresa habían cambiado a usar Codex, principalmente debido a una mejor estabilidad.
"Encontré que Claude Code a menudo me 'engañaba'", dijo Last. "Decía que la tarea se estaba ejecutando, pero en realidad no lo estaba".
Katy Shi, responsable en OpenAI de investigar el comportamiento del modelo Codex, dijo que aunque algunos describen el estilo predeterminado de Codex como "pan seco" (dry bread), cada vez más usuarios comienzan a apreciar esta forma de comunicación que no busca主动 agradar. "Mucho trabajo de ingeniería, en esencia, consiste en poder aceptar comentarios críticos sin tomárselo como una ofensa", dijo.
Mientras tanto, algunas grandes empresas también han comenzado a adoptar Codex. Fidji Simo, CEO de Negocios de Aplicaciones de OpenAI, dijo: "ChatGPT se ha convertido en sinónimo de IA, lo que nos da una gran ventaja en el mercado B2B. Las empresas prefieren desplegar tecnología que sus empleados ya conocen". Añadió que la estrategia central de ventas de Codex de OpenAI es ofrecerlo empaquetado junto con ChatGPT y otros productos de OpenAI.
Jeetu Patel, presidente y director de producto de Cisco, les dijo claramente a los empleados que no se preocuparan por el costo de usar Codex, porque la clave era familiarizarse con esta herramienta lo antes posible. Cuando los empleados se preocupaban por "usar estas herramientas会不会让自己失业" (si el uso de estas herramientas les haría perder su trabajo), la respuesta de Patel fue: "No. Pero puedo garantizar que si no las usas, perderás tu trabajo, porque te volverás no competitivo".
Hoy, la ansiedad en torno a los agentes de programación de IA se ha extendido mucho más allá del círculo tecnológico de Silicon Valley. The Wall Street Journal el mes pasado atribuyó parcialmente una venta masiva de acciones tecnológicas por un billón de dólares a Claude Code, ya que los inversores temían que el desarrollo de software pronto podría ser reemplazado a gran escala por la IA. Unas semanas después, después de que Anthropic anunciara que Claude Code podría usarse para modernizar sistemas antiguos que ejecutan COBOL (sistemas comunes en máquinas IBM), las acciones de IBM experimentaron su peor día en 25 años.
Mientras tanto, OpenAI también está trabajando para llevar a los agentes de programación de IA al centro del debate público. La empresa incluso gastó millones de dólares en un anuncio sobre OpenAI Codex durante el Super Bowl, en lugar de promocionar ChatGPT.
Dentro de la sede de OpenAI en Mission Bay, casi nadie necesita ser convencido de usar Codex. Muchos de los ingenieros que entrevisté dijeron que ahora rara vez escriben código personalmente, la mayor parte del tiempo solo conversan con Codex. A veces, incluso "conversan colectivamente".
En la sede, asistí a un hackathon de Codex. Unos 100 ingenieros se apiñaban en una gran sala, cada uno tenía cuatro horas para hacer el mejor proyecto de demostración con Codex. Un ejecutivo de OpenAI se paró al frente, mirando su laptop y anunciando los nombres de los equipos por un micrófono. Los representantes de los equipos subían nerviosos al escenario, con voces ligeramente temblorosas, para presentar sus proyectos de IA. El ganador final recibió una mochila Patagonia como premio.
Muchos proyectos fueron desarrollados con Codex y también destinados a ayudar a los ingenieros a usar Codex mejor. Por ejemplo, un equipo desarrolló una herramienta que puede organizar automáticamente los mensajes de Slack en informes semanales; otro grupo creó una guía interna de IA similar a Wikipedia para explicar los diversos servicios internos de OpenAI. En el pasado, este tipo de prototipos solían tardar días o incluso semanas en completarse, mientras que ahora, una tarde es suficiente.
Al irme, me encontré en la entrada con Kevin Weil, ex ejecutivo de Instagram, ahora responsable del departamento "OpenAI for Science". Me dijo que Codex estaba terminando por él algunos proyectos durante la noche, y que él revisaría los resultados a la mañana siguiente. Esta forma de trabajar se ha convertido en su日常 y en el de cientos de empleados de OpenAI. Uno de los objetivos de OpenAI para 2026 es desarrollar un "pasante automatizado" para investigar la IA itself.
Simo dijo que en el futuro Codex no solo se usará para programar, sino que se espera que se convierta en el motor de ejecución de tareas dentro de ChatGPT y todos los productos de OpenAI, realizando varios trabajos prácticos para los usuarios. Altman también dijo que le encantaría lanzar una versión universal de Codex, pero todavía le preocupan los riesgos de seguridad.
Dijo que a fines de enero de 2026, un amigo sin antecedentes técnicos le pidió ayuda para instalar el popular agente de programación de IA OpenClaw. Altman rechazó la solicitud porque, en su opinión, "claramente aún no es una buena idea", por ejemplo, OpenClaw podría eliminar por error archivos importantes.
Irónicamente, unas semanas después, OpenAI anunció que había contratado al desarrollador de OpenClaw.
Muchos desarrolladores me dijeron que la competencia entre Codex y Claude Code nunca ha sido tan feroz como ahora. Pero a medida que estas herramientas mejoran en capacidad y son introducidas cada vez más en los flujos de trabajo por los gerentes empresariales, los problemas que debemos enfrentar como sociedad van mucho más allá de "qué herramienta de programación de IA usar".
Algunos organismos de supervisión están preocupados de que, en la carrera por alcanzar a Claude Code, OpenAI pueda relegar los problemas de seguridad a un segundo plano. Una organización sin fines de lucro llamada Midas Project acusó a OpenAI de diluir sus compromisos de seguridad al lanzar GPT-5.3-Codex, al no divulgar suficientemente los riesgos potenciales del modelo en materia de ciberseguridad.
Glaese refutó esto, argumentando que OpenAI no sacrificó la seguridad para avanzar con Codex, y la empresa también declaró que Midas Project malinterpretó sus compromisos de seguridad.
Incluso Greg Brockman, quien el año pasado donó 25 millones de dólares a un super PAC pro-IA y a una organización que apoya a Donald Trump para apoyar el desarrollo de la IA, y quien aún optimistamente dice "estamos en camino hacia la AGI", también tiene sentimientos encontrados sobre esta nueva realidad.
En los círculos de ingenieros de Silicon Valley, Brockman siempre ha sido conocido por su estilo de gestión "extremadamente involucrado": ese jefe que revisa los detalles del código la noche anterior al lanzamiento de un producto. En cierto modo, esta forma de trabajo más "dejar hacer" ahora lo hace sentir más aliviado. "Te das cuenta de que antes tu cerebro estaba ocupado con muchos detalles que en realidad eran innecesarios", dijo.
Pero al mismo tiempo, cuando te conviertes en el "CEO de una flota de cientos de miles de agentes de IA", con estos sistemas ejecutando tus objetivos y visión, también es difícil sumergirse en los detalles específicos de la resolución de cada problema.
"En cierto sentido, te hace sentir como si estuvieras perdiendo el 'pulso' del problema mismo", dijo Brockman.












