Autor original: Xiaobing, Shenchao TechFlow
En el otoño de 2023, Ilya Sutskever, científico jefe de OpenAI, se sentó frente a su computadora y completó un documento de 70 páginas.
Este documento, compilado a partir de registros de mensajes de Slack, archivos de comunicación de RRHH y actas de reuniones internas, buscaba responder una sola pregunta: ¿Se puede confiar en Sam Altman, la persona que controla lo que podría ser la tecnología más peligrosa de la historia de la humanidad?
La respuesta de Sutskever, escrita en la primera línea de la primera página del documento, bajo el título "Sam exhibe un patrón de comportamiento consistente..."
Primer punto: Mentir.
Dos años y medio después, los periodistas de investigación Ronan Farrow y Andrew Marantz publicaron un extenso reportaje de investigación en The New Yorker. Entrevistaron a más de 100 personas involucradas, obtuvieron memorandos internos nunca antes revelados, y también las notas privadas de más de 200 páginas que Dario Amodei, fundador de Anthropic, dejó de su época en OpenAI. Estos documentos pintan una historia mucho más fea que el "juego de poder" de 2023: cómo OpenAI pasó de ser una organización sin fines de lucro creada para la seguridad humana a convertirse en una máquina comercial, donde casi todas las barreras de seguridad fueron desmanteladas por la misma persona.
La conclusión de Amodei en sus notas es más directa: "El problema de OpenAI es el propio Sam."
El "pecado original" de OpenAI
Para entender el peso de este reportaje, primero hay que aclarar cuán especial es la empresa OpenAI.
En 2015, Altman y un grupo de élites de Silicon Valley hicieron algo casi sin precedentes en la historia comercial: utilizar una organización sin fines de lucro para desarrollar lo que podría ser la tecnología más poderosa de la historia de la humanidad. El deber de la junta directiva estaba claramente escrito: la seguridad prima sobre el éxito de la empresa, incluso sobre su supervivencia. En pocas palabras, si algún día la IA de OpenAI se volviera peligrosa, la junta tendría la obligación de cerrar la empresa con sus propias manos.
Toda la estructura apostaba por una hipótesis: la persona que controle la AGI debe ser extremadamente honesta.
¿Y si la apuesta sale mal?
La bomba central del reportaje es ese documento de 70 páginas. Sutskever no juega a la política de oficina; es uno de los científicos de IA más destacados del mundo. Pero para 2023, estaba cada vez más convencido de una cosa: Altman mentía continuamente a los altos ejecutivos y a la junta directiva.
Un ejemplo concreto: en diciembre de 2022, Altman aseguró en una reunión de la junta que múltiples funciones del próximo GPT-4 habían pasado las revisiones de seguridad. La miembro de la junta Toner pidió ver los documentos de aprobación, y resultó que dos de las funciones más controvertidas (el ajuste fino personalizado por el usuario y el despliegue de asistentes personales) simplemente no habían recibido la aprobación del panel de seguridad.
Algo aún más absurdo sucedió en India. Un empleado denunció a otro miembro de la junta por "esa violación": Microsoft no había completado las revisiones de seguridad necesarias antes de lanzar una versión temprana de ChatGPT en India.
Sutskever también registró en su memorándum otro incidente: Altman le había dicho a la ex directora de tecnología (CTO) Mira Murati que el proceso de aprobación de seguridad no era tan importante, y que el consejero general legal de la empresa lo había avalado. Murati fue a confirmarlo con el consejero general, quien respondió: "No sé de dónde sacó Sam esa impresión."
Las notas privadas de 200 páginas de Amodei
El documento de Sutskever se parece a un escrito de acusación de un fiscal. Las más de 200 páginas de notas dejadas por Amodei se asemejan más al diario de un testigo en la escena del crimen.
Durante los años que Amodei fue responsable de seguridad en OpenAI, vio cómo la empresa retrocedía paso a paso bajo la presión comercial. En sus notas registró un detalle clave de la inversión de Microsoft en 2019: había insertado una cláusula de "fusión y asistencia" en los estatutos de OpenAI, que básicamente decía que si otra empresa encontraba un camino más seguro hacia la AGI, OpenAI debería dejar de competir y ayudar a esa empresa. Esta era la garantía de seguridad que más valoraba en todo el trato.
Cuando faltaba poco para firmar el acuerdo, Amodei descubrió algo: Microsoft había obtenido poder de veto sobre esta cláusula. ¿Qué significa? Incluso si algún día un competidor encontrara un camino mejor, Microsoft podría bloquear con una palabra la obligación de asistencia de OpenAI. La cláusula seguía en el papel, pero desde el día de la firma era papel mojado.
Amodei luego dejó OpenAI y fundó Anthropic. La competencia entre las dos empresas se basa en una divergencia fundamental sobre "cómo se debe desarrollar la IA".
La promesa desaparecida del 20% de capacidad de cálculo
Hay un detalle en el reportaje que, tras leerlo, da escalofríos, sobre el "equipo de superalineamiento" de OpenAI.
A mediados de 2023, Altman se puso en contacto por correo electrónico con un estudiante de doctorado en Berkeley que investigaba el "alineamiento engañoso" (la IA se porta bien en las pruebas, pero hace lo que quiere una vez desplegada), diciéndole que estaba muy preocupado por este problema y que consideraba establecer un premio global de investigación de 10 mil millones de dólares. El estudiante de doctorado, muy animado, se tomó un permiso de estudios y se unió a OpenAI.
Luego Altman cambió de opinión: no habría premio externo, sino que se formaría un "equipo de superalineamiento" interno. La empresa anunció con gran fanfarria que asignaría "el 20% de su capacidad de cálculo existente" a este equipo, con un valor potencial de más de 10 mil millones de dólares. El anuncio estaba redactado de manera extremadamente seria, diciendo que si el problema de alineamiento no se resolvía, la AGI podría conducir a "la privación de poder de la humanidad, o incluso a la extinción humana".
Jan Leike, nombrado para liderar este equipo, luego le dijo a los periodistas que esta promesa en sí misma era una "herramienta muy efectiva para retener talento".
¿La realidad? Cuatro personas que trabajaron en este equipo o estuvieron en contacto cercano con él dijeron que la capacidad de cálculo realmente asignada fue solo del 1% al 2% de la capacidad total de la empresa, y además con el hardware más antiguo. Este equipo luego fue disuelto, su misión incompleta.
Cuando los periodistas solicitaron entrevistar al personal de OpenAI responsable de la investigación sobre "seguridad existencial", la respuesta de relaciones públicas de la empresa fue para reírse o llorar: "Eso no es una... cosa que exista realmente".
El propio Altman es坦然 (tranquilo). Le dijo a los periodistas que su "intuición no coincide con muchas de las cosas tradicionales de seguridad de la IA", y que OpenAI seguiría haciendo "proyectos de seguridad, o al menos proyectos relacionados con la seguridad".
La CFO marginada y la próxima OPI
El reportaje de The New Yorker es solo la mitad de las malas noticias de este día. El mismo día, The Information filtró otra noticia bomba: había surgido una grave divergencia entre la CFO de OpenAI, Sarah Friar, y Altman.
Friar dijo en privado a sus colegas que creía que OpenAI no estaba preparada para salir a bolsa este año. Dos razones: el volumen de trabajo procesal y organizativo por completar era demasiado grande, y el riesgo financiero derivado de los gastos prometidos por Altman en capacidad de cálculo de 600 mil millones de dólares en 5 años era demasiado alto. Incluso no estaba segura de si el crecimiento de los ingresos de OpenAI podía sostener estas promesas.
Pero Altman quería冲刺 (apresurarse) hacia la OPI en el cuarto trimestre de este año.
Lo más absurdo es que Friar ya no reportaba directamente a Altman. A partir de agosto de 2025, pasó a reportar a Fidji Simo (CEO de Negocios de Aplicaciones de OpenAI). Y Simo acaba de tomar una licencia por enfermedad la semana pasada por razones de salud. Analiza esta situación: una empresa que se apresura hacia una OPI, donde el CEO y la CFO tienen divergencias fundamentales, la CFO no reporta al CEO, y el superior de la CFO está de baja.
Hasta los altos ejecutivos internos de Microsoft se mostraron consternados, diciendo que Altman "distorsiona los hechos, incumple su palabra y constantemente revoca acuerdos ya alcanzados". Un alto ejecutivo de Microsoft incluso dijo esto: "Creo que existe una probabilidad de que finalmente sea recordado como un estafador del nivel de Bernie Madoff o SBF".
El retrato de "doble cara" de Altman
Un exmiembro de la junta directiva de OpenAI describió a los periodistas dos características en Altman. Este pasaje es probablemente el boceto de personaje más duro de todo el reportaje.
Este director dijo que Altman tiene una combinación de rasgos extremadamente rara: en cada interacción cara a cara, tiene un deseo intenso de complacer a la otra persona, de ser querido por ella. Al mismo tiempo, muestra una indiferencia casi sociopática hacia las consecuencias que engañar a otros podría traer.
Que estos dos rasgos aparezcan simultáneamente en una persona es extremadamente raro. Pero para un vendedor, es el talento más perfecto.
Hay una buena metáfora en el reportaje: Jobs era conocido por su "campo de distorsión de la realidad", podía hacer que el mundo creyera en su visión. Pero incluso Jobs nunca le dijo a un cliente "si no compras mi reproductor de MP3, tus seres queridos morirán".
Altman ha dicho cosas similares, sobre la IA.
Un problema de carácter de un CEO, ¿por qué es un riesgo para todos?
Si Altman fuera solo el CEO de una empresa tecnológica ordinaria, estas acusaciones serían como máximo un chisme comercial emocionante. Pero OpenAI no es ordinaria.
Según sus propias declaraciones, está desarrollando lo que podría ser la tecnología más poderosa de la historia de la humanidad. Puede remodelar la economía global y el mercado laboral (OpenAI acaba de publicar un libro blanco de políticas sobre el desempleo causado por la IA), y también puede ser utilizada para fabricar armas bioquímicas a gran escala o lanzar ciberataques.
Todas las barreras de seguridad son nominales. La misión sin fines de lucro de los fundadores ha dado paso a la carrera por la OPI. El ex científico jefe y el ex responsable de seguridad consideran al CEO "poco fiable". Los socios comparan al CEO con SBF. En estas circunstancias, ¿cómo puede este CEO decidir unilateralmente cuándo lanzar modelos de IA que podrían cambiar el destino de la humanidad?
Gary Marcus (profesor de IA de la Universidad de Nueva York, defensor de la seguridad de la IA a largo plazo) escribió una frase después de leer el reportaje: Si algún modelo futuro de OpenAI pudiera crear armas bioquímicas a gran escala o lanzar ciberataques catastróficos, ¿realmente confiarías en que Altman decida solo si lanzarlo o no?
La respuesta de OpenAI a The New Yorker fue concisa: "La mayor parte de este artículo recicla eventos ya reportados, a través de declaraciones anónimas y anécdotas selectivas, cuyas fuentes claramente tienen agendas personales."
Una forma muy Altman de responder: no responder a acusaciones específicas, no negar la autenticidad de los memorandos, solo cuestionar los motivos.
Sobre el cadáver sin fines de lucro, creció un árbol de dinero
La década de OpenAI, escrita como un esquema de historia, es así:
Un grupo de idealistas preocupados por los riesgos de la IA crea una organización sin fines de lucro impulsada por una misión. La organización logra un avance tecnológico extraordinario. El avance atrae capital masivos. El capital necesita retornos. La misión comienza a ceder. El equipo de seguridad es disuelto. Los que cuestionan son purgados. La estructura sin fines de lucro se convierte en una entidad con fines de lucro. La junta directiva que una vez tuvo el poder de cerrar la empresa ahora está llena de aliados del CEO. La empresa que una vez prometió dedicar el 20% de su capacidad de cálculo para proteger la seguridad humana ahora tiene personal de relaciones públicas que dice "eso no es una cosa que exista realmente".
El protagonista de la historia, más de cien testigos le dan la misma etiqueta: "no está limitado por la verdad".
Se prepara para llevar a esta empresa a una OPI, con una valoración superior a los 850.000 millones de dólares.
La información de este artículo proviene de reportajes públicos de múltiples medios como The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, entre otros.





