Interpretación del reportaje de investigación en profundidad de The New Yorker: ¿Por qué los propios miembros de OpenAI consideran que Altman no es de fiar?

marsbitPublicado a 2026-04-07Actualizado a 2026-04-07

Resumen

Resumen: Una investigación del New Yorker revela que Sam Altman, CEO de OpenAI, fue acusado por sus propios colegas de mentir de manera sistemática y socavar la seguridad de la IA. Documentos internos, incluyendo un memorándum de 70 páginas del científico jefe Ilya Sutskever y 200 páginas de notas del fundador de Anthropic, Dario Amodei, detallan cómo Altman ignoró los protocolos de seguridad, incumplió promesas de recursos para investigación y priorizó los intereses comerciales sobre la misión original sin fines de lucro de OpenAI. La empresa, inicialmente diseñada para desarrollar IA de manera segura, ha visto cómo sus salvaguardias se desmantelaron mientras se prepara para una OPI valorada en 86.000 millones de dólares, generando preocupación global sobre los riesgos existenciales de la tecnología bajo el liderazgo de Altman.

Autor original: Xiaobing, Shenchao TechFlow

En el otoño de 2023, Ilya Sutskever, científico jefe de OpenAI, se sentó frente a su computadora y completó un documento de 70 páginas.

Este documento, compilado a partir de registros de mensajes de Slack, archivos de comunicación de RRHH y actas de reuniones internas, buscaba responder una sola pregunta: ¿Se puede confiar en Sam Altman, la persona que controla lo que podría ser la tecnología más peligrosa de la historia de la humanidad?

La respuesta de Sutskever, escrita en la primera línea de la primera página del documento, bajo el título "Sam exhibe un patrón de comportamiento consistente..."

Primer punto: Mentir.

Dos años y medio después, los periodistas de investigación Ronan Farrow y Andrew Marantz publicaron un extenso reportaje de investigación en The New Yorker. Entrevistaron a más de 100 personas involucradas, obtuvieron memorandos internos nunca antes revelados, y también las notas privadas de más de 200 páginas que Dario Amodei, fundador de Anthropic, dejó de su época en OpenAI. Estos documentos pintan una historia mucho más fea que el "juego de poder" de 2023: cómo OpenAI pasó de ser una organización sin fines de lucro creada para la seguridad humana a convertirse en una máquina comercial, donde casi todas las barreras de seguridad fueron desmanteladas por la misma persona.

La conclusión de Amodei en sus notas es más directa: "El problema de OpenAI es el propio Sam."

El "pecado original" de OpenAI

Para entender el peso de este reportaje, primero hay que aclarar cuán especial es la empresa OpenAI.

En 2015, Altman y un grupo de élites de Silicon Valley hicieron algo casi sin precedentes en la historia comercial: utilizar una organización sin fines de lucro para desarrollar lo que podría ser la tecnología más poderosa de la historia de la humanidad. El deber de la junta directiva estaba claramente escrito: la seguridad prima sobre el éxito de la empresa, incluso sobre su supervivencia. En pocas palabras, si algún día la IA de OpenAI se volviera peligrosa, la junta tendría la obligación de cerrar la empresa con sus propias manos.

Toda la estructura apostaba por una hipótesis: la persona que controle la AGI debe ser extremadamente honesta.

¿Y si la apuesta sale mal?

La bomba central del reportaje es ese documento de 70 páginas. Sutskever no juega a la política de oficina; es uno de los científicos de IA más destacados del mundo. Pero para 2023, estaba cada vez más convencido de una cosa: Altman mentía continuamente a los altos ejecutivos y a la junta directiva.

Un ejemplo concreto: en diciembre de 2022, Altman aseguró en una reunión de la junta que múltiples funciones del próximo GPT-4 habían pasado las revisiones de seguridad. La miembro de la junta Toner pidió ver los documentos de aprobación, y resultó que dos de las funciones más controvertidas (el ajuste fino personalizado por el usuario y el despliegue de asistentes personales) simplemente no habían recibido la aprobación del panel de seguridad.

Algo aún más absurdo sucedió en India. Un empleado denunció a otro miembro de la junta por "esa violación": Microsoft no había completado las revisiones de seguridad necesarias antes de lanzar una versión temprana de ChatGPT en India.

Sutskever también registró en su memorándum otro incidente: Altman le había dicho a la ex directora de tecnología (CTO) Mira Murati que el proceso de aprobación de seguridad no era tan importante, y que el consejero general legal de la empresa lo había avalado. Murati fue a confirmarlo con el consejero general, quien respondió: "No sé de dónde sacó Sam esa impresión."

Las notas privadas de 200 páginas de Amodei

El documento de Sutskever se parece a un escrito de acusación de un fiscal. Las más de 200 páginas de notas dejadas por Amodei se asemejan más al diario de un testigo en la escena del crimen.

Durante los años que Amodei fue responsable de seguridad en OpenAI, vio cómo la empresa retrocedía paso a paso bajo la presión comercial. En sus notas registró un detalle clave de la inversión de Microsoft en 2019: había insertado una cláusula de "fusión y asistencia" en los estatutos de OpenAI, que básicamente decía que si otra empresa encontraba un camino más seguro hacia la AGI, OpenAI debería dejar de competir y ayudar a esa empresa. Esta era la garantía de seguridad que más valoraba en todo el trato.

Cuando faltaba poco para firmar el acuerdo, Amodei descubrió algo: Microsoft había obtenido poder de veto sobre esta cláusula. ¿Qué significa? Incluso si algún día un competidor encontrara un camino mejor, Microsoft podría bloquear con una palabra la obligación de asistencia de OpenAI. La cláusula seguía en el papel, pero desde el día de la firma era papel mojado.

Amodei luego dejó OpenAI y fundó Anthropic. La competencia entre las dos empresas se basa en una divergencia fundamental sobre "cómo se debe desarrollar la IA".

La promesa desaparecida del 20% de capacidad de cálculo

Hay un detalle en el reportaje que, tras leerlo, da escalofríos, sobre el "equipo de superalineamiento" de OpenAI.

A mediados de 2023, Altman se puso en contacto por correo electrónico con un estudiante de doctorado en Berkeley que investigaba el "alineamiento engañoso" (la IA se porta bien en las pruebas, pero hace lo que quiere una vez desplegada), diciéndole que estaba muy preocupado por este problema y que consideraba establecer un premio global de investigación de 10 mil millones de dólares. El estudiante de doctorado, muy animado, se tomó un permiso de estudios y se unió a OpenAI.

Luego Altman cambió de opinión: no habría premio externo, sino que se formaría un "equipo de superalineamiento" interno. La empresa anunció con gran fanfarria que asignaría "el 20% de su capacidad de cálculo existente" a este equipo, con un valor potencial de más de 10 mil millones de dólares. El anuncio estaba redactado de manera extremadamente seria, diciendo que si el problema de alineamiento no se resolvía, la AGI podría conducir a "la privación de poder de la humanidad, o incluso a la extinción humana".

Jan Leike, nombrado para liderar este equipo, luego le dijo a los periodistas que esta promesa en sí misma era una "herramienta muy efectiva para retener talento".

¿La realidad? Cuatro personas que trabajaron en este equipo o estuvieron en contacto cercano con él dijeron que la capacidad de cálculo realmente asignada fue solo del 1% al 2% de la capacidad total de la empresa, y además con el hardware más antiguo. Este equipo luego fue disuelto, su misión incompleta.

Cuando los periodistas solicitaron entrevistar al personal de OpenAI responsable de la investigación sobre "seguridad existencial", la respuesta de relaciones públicas de la empresa fue para reírse o llorar: "Eso no es una... cosa que exista realmente".

El propio Altman es坦然 (tranquilo). Le dijo a los periodistas que su "intuición no coincide con muchas de las cosas tradicionales de seguridad de la IA", y que OpenAI seguiría haciendo "proyectos de seguridad, o al menos proyectos relacionados con la seguridad".

La CFO marginada y la próxima OPI

El reportaje de The New Yorker es solo la mitad de las malas noticias de este día. El mismo día, The Information filtró otra noticia bomba: había surgido una grave divergencia entre la CFO de OpenAI, Sarah Friar, y Altman.

Friar dijo en privado a sus colegas que creía que OpenAI no estaba preparada para salir a bolsa este año. Dos razones: el volumen de trabajo procesal y organizativo por completar era demasiado grande, y el riesgo financiero derivado de los gastos prometidos por Altman en capacidad de cálculo de 600 mil millones de dólares en 5 años era demasiado alto. Incluso no estaba segura de si el crecimiento de los ingresos de OpenAI podía sostener estas promesas.

Pero Altman quería冲刺 (apresurarse) hacia la OPI en el cuarto trimestre de este año.

Lo más absurdo es que Friar ya no reportaba directamente a Altman. A partir de agosto de 2025, pasó a reportar a Fidji Simo (CEO de Negocios de Aplicaciones de OpenAI). Y Simo acaba de tomar una licencia por enfermedad la semana pasada por razones de salud. Analiza esta situación: una empresa que se apresura hacia una OPI, donde el CEO y la CFO tienen divergencias fundamentales, la CFO no reporta al CEO, y el superior de la CFO está de baja.

Hasta los altos ejecutivos internos de Microsoft se mostraron consternados, diciendo que Altman "distorsiona los hechos, incumple su palabra y constantemente revoca acuerdos ya alcanzados". Un alto ejecutivo de Microsoft incluso dijo esto: "Creo que existe una probabilidad de que finalmente sea recordado como un estafador del nivel de Bernie Madoff o SBF".

El retrato de "doble cara" de Altman

Un exmiembro de la junta directiva de OpenAI describió a los periodistas dos características en Altman. Este pasaje es probablemente el boceto de personaje más duro de todo el reportaje.

Este director dijo que Altman tiene una combinación de rasgos extremadamente rara: en cada interacción cara a cara, tiene un deseo intenso de complacer a la otra persona, de ser querido por ella. Al mismo tiempo, muestra una indiferencia casi sociopática hacia las consecuencias que engañar a otros podría traer.

Que estos dos rasgos aparezcan simultáneamente en una persona es extremadamente raro. Pero para un vendedor, es el talento más perfecto.

Hay una buena metáfora en el reportaje: Jobs era conocido por su "campo de distorsión de la realidad", podía hacer que el mundo creyera en su visión. Pero incluso Jobs nunca le dijo a un cliente "si no compras mi reproductor de MP3, tus seres queridos morirán".

Altman ha dicho cosas similares, sobre la IA.

Un problema de carácter de un CEO, ¿por qué es un riesgo para todos?

Si Altman fuera solo el CEO de una empresa tecnológica ordinaria, estas acusaciones serían como máximo un chisme comercial emocionante. Pero OpenAI no es ordinaria.

Según sus propias declaraciones, está desarrollando lo que podría ser la tecnología más poderosa de la historia de la humanidad. Puede remodelar la economía global y el mercado laboral (OpenAI acaba de publicar un libro blanco de políticas sobre el desempleo causado por la IA), y también puede ser utilizada para fabricar armas bioquímicas a gran escala o lanzar ciberataques.

Todas las barreras de seguridad son nominales. La misión sin fines de lucro de los fundadores ha dado paso a la carrera por la OPI. El ex científico jefe y el ex responsable de seguridad consideran al CEO "poco fiable". Los socios comparan al CEO con SBF. En estas circunstancias, ¿cómo puede este CEO decidir unilateralmente cuándo lanzar modelos de IA que podrían cambiar el destino de la humanidad?

Gary Marcus (profesor de IA de la Universidad de Nueva York, defensor de la seguridad de la IA a largo plazo) escribió una frase después de leer el reportaje: Si algún modelo futuro de OpenAI pudiera crear armas bioquímicas a gran escala o lanzar ciberataques catastróficos, ¿realmente confiarías en que Altman decida solo si lanzarlo o no?

La respuesta de OpenAI a The New Yorker fue concisa: "La mayor parte de este artículo recicla eventos ya reportados, a través de declaraciones anónimas y anécdotas selectivas, cuyas fuentes claramente tienen agendas personales."

Una forma muy Altman de responder: no responder a acusaciones específicas, no negar la autenticidad de los memorandos, solo cuestionar los motivos.

Sobre el cadáver sin fines de lucro, creció un árbol de dinero

La década de OpenAI, escrita como un esquema de historia, es así:

Un grupo de idealistas preocupados por los riesgos de la IA crea una organización sin fines de lucro impulsada por una misión. La organización logra un avance tecnológico extraordinario. El avance atrae capital masivos. El capital necesita retornos. La misión comienza a ceder. El equipo de seguridad es disuelto. Los que cuestionan son purgados. La estructura sin fines de lucro se convierte en una entidad con fines de lucro. La junta directiva que una vez tuvo el poder de cerrar la empresa ahora está llena de aliados del CEO. La empresa que una vez prometió dedicar el 20% de su capacidad de cálculo para proteger la seguridad humana ahora tiene personal de relaciones públicas que dice "eso no es una cosa que exista realmente".

El protagonista de la historia, más de cien testigos le dan la misma etiqueta: "no está limitado por la verdad".

Se prepara para llevar a esta empresa a una OPI, con una valoración superior a los 850.000 millones de dólares.

La información de este artículo proviene de reportajes públicos de múltiples medios como The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, entre otros.

Preguntas relacionadas

Q¿Por qué Ilya Sutskever, científico jefe de OpenAI, creó un documento de 70 páginas sobre Sam Altman?

AIlya Sutskever creó el documento para investigar si Sam Altman, quien controla una de las tecnologías potencialmente más peligrosas de la historia, era digno de confianza. El documento, basado en registros de Slack, archivos de RRHH y actas de reuniones internas, concluía que Altman tenía un patrón de comportamiento consistente que incluía mentir.

Q¿Qué revelaron las notas privadas de Dario Amodei sobre la relación entre OpenAI y Microsoft?

ALas notas de Dario Amodei revelaron que durante la inversión de Microsoft en 2019, se incluyó una cláusula de 'fusión y asistencia' que obligaba a OpenAI a dejar de competir y ayudar a cualquier empresa que encontrara un camino más seguro hacia la AGI. Sin embargo, Microsoft obtuvo poder de veto sobre esta cláusula, effectively anulándola desde el primer día.

Q¿Qué pasó con el compromiso de OpenAI de dedicar el 20% de su capacidad de computación al equipo de 'superalineación'?

AAunque OpenAI anunció públicamente que dedicaría el 20% de su capacidad de computación al equipo de superalineación, en realidad solo asignó entre el 1% y el 2%, utilizando hardware obsoleto. Finalmente, el equipo fue disuelto sin haber cumplido su misión.

Q¿Qué conflicto existe entre Sam Altman y la CFO de OpenAI, Sarah Friar, respecto a la OPI?

ALa CFO Sarah Friar cree que OpenAI no está preparada para salir a bolsa este año debido a la enorme carga de trabajo procedimental y organizativo, y a los altos riesgos financieros de los compromisos de gasto en computación de Altman. Sin embargo, Altman quiere realizar la OPI en el cuarto trimestre. Además, Friar ya no reporta directamente a Altman, sino a Fidji Simo, quien está de baja por enfermedad.

Q¿Por qué el problema de la integridad personal del CEO de OpenAI es un riesgo para todos, según el artículo?

APorque OpenAI está desarrollando una de las tecnologías más poderosas de la historia, capaz de remodelar la economía global y ser utilizada para crear armas biológicas a gran escala o lanzar ciberataques. Con los mecanismos de seguridad desmantelados, la misión sin ánimo de lucro abandonada y el CEO siendo calificado como 'no confiable' por antiguos altos cargos, se cuestiona su capacidad para decidir unilateralmente cuándo lanzar modelos de IA que podrían alterar el destino de la humanidad.

Lecturas Relacionadas

Bajando las expectativas para el próximo ciclo alcista de BTC

**Resumen del artículo: "Bajar las expectativas para el próximo ciclo alcista de BTC" por Alex Xu** El autor, que tenía a Bitcoin como su mayor activo, ha reducido progresivamente su exposición durante el actual ciclo alcista: eliminó el apalancamiento a 70k y redujo su posición de un 100% a un 30% entre 100k-120k. Recientemente, vendió más a 78k-79k, argumentando una revisión a la baja de las expectativas para el próximo máximo alcista. Las razones principales son: 1. **Narrativa de adopción agotada:** El impulso de adopción masiva (de minorista a institucional vía ETFs) parece agotado. El siguiente paso, la adopción por bancos centrales o fondos soberanos importantes, se ve muy difícil a corto plazo. 2. **Coste de oportunidad:** El autor ha identificado otras oportunidades de inversión en empresas atractivas. 3. **Contracción del ecosistema crypto:** La mayoría de modelos de negocio Web3 (SocialFi, GameFi, DePIN) no han funcionado. Solo DeFi genera valor, pero se contrae por la falta de activos nativos de calidad, lo que reduce la base de usuarios y holders de BTC. 4. **Problemas del mayor comprador:** MicroStrategy, el mayor tenedor corporativo, enfrenta un coste de financiación creciente (11.5% para su préstamo perpetuo), lo que podría ralentizar su ritmo de compra y ejercer presión vendedora. 5. **Competencia del oro tokenizado:** El oro tokenizado ha cerrado la brecha en portabilidad y divisibilidad, erosionando la ventaja competitiva de BTC como "oro digital". 6. **Problema de seguridad:** La reducción de la recompensa por minado (halving) amenaza la seguridad de la red, ya que las nuevas fuentes de ingresos por fees (como las inscripciones) no han podido dar solución. Conclusión: El autor mantiene una posición significativa en BTC y espera que suba, pero es menos optimista sobre su potencial alcista. Vender en la reciente subida fue una decisión táctica. Si sus razones para ser bajista se invalidan, estaría abierto a recomprar, aceptando si se equivoca y el precio sube.

marsbit04/27 02:49

Bajando las expectativas para el próximo ciclo alcista de BTC

marsbit04/27 02:49

Trading

Spot
Futuros
活动图片