En mayo de 2026, en la Corte Federal de Oakland, los filtros de OpenAI fueron quitados, capa por capa.
Presentado ante el jurado, había un "Rashomon" lleno de confusión:
Los diarios privados de Greg Brockman, mezclando ansiedad y cálculo; Elon Musk, firme en no ceder poder; los problemas de integridad de Sam Altman, que caminan al borde del límite; la enorme sombra de Microsoft entre el poder de cómputo y el capital; y ese golpe de estado en la junta directiva a finales de 2023, emocionante pero terminado de manera apresurada.
En medio de todo este desorden, había una pregunta que sonaba grandiosa, pero que en la corte resultaba excepcionalmente específica: Cuando OpenAI dijo que quería "beneficiar a toda la humanidad", ¿esa promesa aún cuenta hasta ahora?
Hasta el 15 de mayo de 2026, este juicio aún no tenía un veredicto final, y la opinión de referencia del jurado seguía suspendida en el aire. Pero una cosa ya había sucedido de manera tangible: OpenAI fue arrastrado del mito de regreso a la tierra.
En los últimos años, OpenAI a menudo se escribía como una historia sobre el futuro. ChatGPT se hizo viral, Altman viajó por varios países, los modelos grandes se infiltraron en oficinas, escuelas, teléfonos y procesos corporativos. Esta era una empresa que nació con un sentido casi religioso de nobleza, hablando abiertamente sobre el destino de la humanidad, el despertar de la inteligencia, los límites de la seguridad y el amanecer del mañana, como un faro construido de antemano para la humanidad.
Pero la corte no se preocupa por eso. La corte pregunta por los hechos.
"Toda la humanidad" en el banquillo de los testigos
En 2015, cuando nació OpenAI, era limpia y pura.
Se describía a sí misma como una empresa de investigación de IA sin fines de lucro, cuyo objetivo era desarrollar la inteligencia digital para beneficiar al máximo a toda la humanidad, sin estar sujeta a presiones de rentabilidad financiera.
Altman y Musk eran co-presidentes, Brockman era el CTO, Ilya Sutskever era el director de investigación. En ese entonces, OpenAI parecía mantener el último vestigio del idealismo de la edad de oro de Silicon Valley: las personas más inteligentes no servían a una empresa en particular, sino que protegían el futuro de la humanidad.
Diez años después, esa promesa fue llevada a la corte.
La parte de Musk dice que Altman, Brockman y OpenAI utilizaron la misión sin fines de lucro para obtener su financiamiento y confianza, pero luego giraron hacia una estructura con fines de lucro, beneficiando a individuos y a Microsoft.
La parte de OpenAI dice que el dinero de Musk era una donación, sin condiciones específicas; que él ya sabía que se había discutido la estructura con fines de lucro, pero no obtuvo el control; y que ahora presenta la demanda porque se arrepiente de haber dejado la empresa y porque su xAI ya es un competidor de OpenAI.
Ambos lados dicen cosas bastante duras.
Musk se coloca en la posición de guardián de la misión. OpenAI lo coloca en la posición de un fundador que perdió el control. Uno dice "robaron una organización benéfica", el otro dice "simplemente no pudiste controlarla". Al final, lo más incómodo no es qué parte cuenta una mejor historia, sino que esa "toda la humanidad" que se menciona repetidamente nunca se sienta realmente a la mesa.
El término "toda la humanidad" aparece en el anuncio de fundación, los estatutos, los discursos y los informes de los medios, ocupando el terreno moral elevado.
Pero en la corte, se descompone en pruebas: ¿Los diarios de Brockman cuentan como una intención real? ¿Qué demuestran los correos electrónicos de 2017? ¿Qué se transfirió realmente con OpenAI LP en 2019? ¿La nube y el dinero de Microsoft cambiaron la dirección de la empresa? ¿Los problemas de integridad de Altman respaldan que la empresa siga diciendo "confía en nosotros"?
Cuanto más le gusta a una empresa de IA decir que representa a la humanidad, más específicamente debería ser cuestionada: ¿A qué humanos te refieres? ¿Quién firma por estas personas? ¿Quién puede destituirte? ¿Quién puede auditar las cuentas? ¿Quién puede decir que no?
La corte no pudo responder estas preguntas en nombre del público, pero las forzó a salir a la luz.
La historia de OpenAI ya no parece una historia de crecimiento de una empresa futura, sino más bien una vieja cuenta pendiente. Cuando se abrió el libro de cuentas, la gente descubrió que las grietas no aparecieron después del éxito de ChatGPT.
La grieta de 2017
OpenAI no cambió de repente.
Si solo se mira desde ChatGPT, se podría pensar erróneamente que OpenAI fue impulsado por el dinero después del éxito, como muchas empresas, primero hablando de ideales y luego haciendo negocios.
Pero el juicio retrocedió en el tiempo, hasta 2017. En ese entonces, OpenAI no tenía la influencia de hoy, AGI aún no era una palabra en boca de todos, pero el equipo fundador ya enfrentaba un problema: si realmente querían crear inteligencia artificial general, las donaciones y el entusiasmo estaban muy lejos de ser suficientes.
Este es el momento más difícil del idealismo de Silicon Valley. Cuanto más grande es el ideal, más grande es la factura. Cuanto más grande es la factura, más difícil es mantener la organización limpia. Esas palabras llenas de visión para toda la humanidad dichas en el escenario finalmente deben traducirse en chips, servidores, salarios de ingenieros, recursos en la nube y capital a largo plazo. Sin esto, AGI es solo un deseo; con esto, la estructura sin fines de lucro comienza a volverse insostenible.
En 2017, dentro de OpenAI ya se discutían varios caminos: la afiliación con fines de lucro, B-corp, la colaboración con empresas existentes, la dependencia de Tesla, entre otros. Musk propuso que OpenAI dependiera de Tesla como fuente de financiamiento. La parte de OpenAI contraatacó diciendo que Musk no se oponía únicamente a la estructura con fines de lucro, sino que el control era su demanda ineludible.
Ese año también hubo una escena muy memorable: Dota.
Después de que la IA de OpenAI derrotara a jugadores humanos de élite en Dota 1v1, el equipo se dio cuenta por primera vez con mayor fuerza de que esto realmente podría llegar lejos. En el juicio se mencionó una discusión en la antigua casa de Musk en San Francisco, posteriormente conocida como la "reunión en la mansión embrujada", donde celebraron el avance tecnológico y discutieron si OpenAI debería orientarse hacia fines de lucro.
Muchas empresas comienzan a redefinirse después del éxito de un producto. OpenAI lo hizo antes. Antes de convertirse en el gigante de hoy, los fundadores ya sabían que la estructura sin fines de lucro no podía sostener la narrativa de AGI. El ideal de OpenAI necesitaba desde el principio una máquina más pesada para sustentarse.
Así, una organización aparentemente dedicada a la seguridad científica rápidamente entró en negociaciones sobre el control.
¿Quién tomaría el volante? ¿Musk o Altman? ¿O la junta directiva sin fines de lucro o futuros inversores? ¿O esa "toda la humanidad" que nunca apareció realmente?
Mirando a Musk ahora, sin duda fue un importante patrocinador temprano y participó en la creación de la narrativa sin fines de lucro de OpenAI. Pero también fue una de las primeras personas en ver cuánto poder podría traer la IA. Y después de verlo, también quiso aferrarse firmemente a él.
El volante de Musk
Musk enfatizó repetidamente una cosa durante el juicio: OpenAI fue robada.
Esta redacción es poderosa. Comprime una compleja reorientación organizacional en una frase que cualquiera puede entender. Una organización benéfica, que originalmente debía servir a la humanidad, se convirtió en una enorme máquina comercial. Suena a apropiación indebida y también a una traición moral.
Pero en la corte no hay historias tan simples.
El interrogatorio cruzado de los abogados de OpenAI a Musk se centró en desmontar su imagen de víctima inocente. Los abogados presentaron correos electrónicos y documentos, preguntándole si ya sabía que OpenAI podría necesitar una estructura con fines de lucro, y si alguna vez quiso absorber OpenAI a través de Tesla, o tomar el liderazgo de otra manera.
A Musk no le gustó esta forma de ser desarmado. En la corte dijo que las preguntas del otro lado eran un intento de "engañarme". El juez le pidió en varias ocasiones que respondiera directamente. Cuando intentó llevar la conversación hacia el riesgo de extinción por IA, el juez también le recordó que este caso no discutiría mucho sobre la extinción.
Estas escenas ilustran bien a Musk.
Le gusta hablar de narrativas grandiosas. El destino de la humanidad, el riesgo de la IA, Marte, la libertad de expresión, la supervivencia de la civilización son temas que le gusta abordar. Pero la corte le pidió que respondiera preguntas más pequeñas y agudas: ¿Cuándo lo supiste? ¿Estuviste de acuerdo? ¿Intentaste tomar el control? ¿El dinero que diste a OpenAI fue una donación o una inversión?...
La contradicción en Musk es precisamente la contradicción en la historia de OpenAI. Puede que realmente tema que la IA se descontrole, y puede que realmente crea que OpenAI traicionó su misión. Pero eso no impide que también quisiera que la empresa funcionara según su voluntad.
Cuanto más cree alguien que está salvando a la humanidad, más fácilmente cree que debe ser él quien controle el volante.
Este no es un problema exclusivo de Musk. Es el trasfondo de muchas narrativas grandiosas en Silicon Valley. Les gusta presentar la voluntad privada como una misión humana, el deseo de control como un sentido de responsabilidad, el poder organizacional como una necesidad futura. Musk simplemente lo expresa de manera más abierta, más intensa y más fácil de ver.
Por lo tanto, en este caso, Musk no es solo el acusador, también es la prueba en sí mismo.
El diario de Brockman
Greg Brockman originalmente no era la persona más destacada en este drama.
Musk es demasiado dramático, Altman es demasiado central, Sutskever es demasiado trágico, Microsoft es demasiado grande. Brockman está en el medio: es un cofundador clave temprano de OpenAI y también un papel crucial en el funcionamiento real posterior de la empresa. Pero este juicio lo puso bajo los reflectores, porque sus diarios privados se convirtieron en pruebas.
En la segunda semana del juicio, Brockman fue interrogado continuamente sobre sus diarios, correos electrónicos y mensajes de texto. La parte de Musk usó estos materiales para demostrar que él y Altman ya tenían motivos de interés propio desde el principio. La parte de OpenAI dijo que Musk estaba sacando las cosas de contexto.
En los diarios había objetivos de riqueza. Había ansiedad sobre las vías de ingresos de la empresa. Había frases como "hacer los miles de millones". Más llamativo aún, en los diarios aparecían recordatorios personales sobre no robar la "organización sin fines de lucro" a Musk, de lo contrario habría riesgo de bancarrota moral. Los abogados de Musk insistieron repetidamente en estos contenidos. Brockman negó haber engañado a Musk, y también dijo que estos escritos privados no eran registros de eventos, sino escritos personales de flujo de conciencia.
Un diario no es una sentencia. No puede probar directamente que estaban cometiendo fraude. También puede contener pensamientos toscos escritos en momentos de cansancio, ansiedad y reflexión interna. Cualquier escritor sabe que las notas privadas no equivalen a una postura final, y mucho menos a la totalidad de los hechos.
Pero lo realmente importante del diario de Brockman no es lo que prueba como culpabilidad, sino que demuestra que conocían los límites. Las figuras centrales tempranas de OpenAI no avanzaron hacia la comercialización de manera completamente inconsciente. Sabían que la cáscara de "sin fines de lucro" tenía un peso moral, sabían que la financiación temprana de Musk implicaba una relación de confianza, sabían que si giraban hacia otra estructura meses después y aún decían que se mantenían firmes en lo no lucrativo, parecería deshonesto.
Saber no es igual a detenerse.
Durante el juicio, Brockman reveló que el valor de las acciones de OpenAI que poseía se acercaba a los 300 mil millones de dólares.
Aunque esta cifra no es dinero en efectivo, no es riqueza ya obtenida. Es el valor de las acciones bajo una valoración, que aún depende de las perspectivas de la empresa y de la estructura de las transacciones. Pero el significado simbólico ya es suficiente. Una persona que alguna vez se preocupó por los límites morales en su diario privado, luego se sentó en la corte y le preguntaron sobre sus acciones en OpenAI valoradas en cerca de 300 mil millones de dólares. La misión de bien público y la riqueza privada fueron puestas sobre la misma mesa en ese momento.
Brockman es como muchas figuras clave en organizaciones excelentes: inteligente, comprometido, capaz, con sentido de la vergüenza, y también capaz de convencerse poco a poco para seguir adelante.
Aquí es donde OpenAI se vuelve más complejo. No es un grupo de personas malvadas conspirando para destruir un ideal. Es más como un grupo de personas inteligentes que, en cada punto de inflexión, encuentran razones para seguir avanzando, llevando finalmente la promesa inicial a una máquina que ni siquiera ellos mismos pueden controlar completamente.
Y en el centro de esta máquina está Altman.
La deuda de confianza de Altman
Lo que Sam Altman enfrentó en este juicio no fue solo si una frase era verdadera o falsa. Lo que realmente atacó la parte de Musk fue su legitimidad para gobernar.
En los alegatos finales, Steven Molo, el abogado de Musk, puso en el centro los problemas de integridad de Altman. Le dijo al jurado que cinco personas que habían trabajado con Altman durante años—Musk, Sutskever, Murati, Toner y McCauley—lo describían como un "mentiroso".
Estos cinco nombres son más importantes que la acusación en sí misma.
Musk es un oponente, se podría pensar que tiene un conflicto de intereses. Pero Sutskever es cofundador y ex científico jefe de OpenAI; Murati fue CTO y también CEO interina brevemente en 2023; Toner y McCauley son ex miembros de la junta directiva. Son personas dentro de la estructura de poder interna de OpenAI.
No podemos simplemente y de manera simplista decir que Altman es bueno o malo.
Los sentimientos internos en OpenAI hacia Altman son claramente complejos. Puede llevar a la organización al centro del mundo, pero también hace que algunas figuras clave se sientan incómodas. Tiene una capacidad organizativa, de financiamiento, mediática y política extremadamente fuerte, y por ello ha llevado a la empresa a su posición actual.
Cuando la junta directiva destituyó a Altman en 2023, la razón oficial de OpenAI fue que su comunicación con la junta "no fue siempre completamente transparente". Días después, Altman regresó. En 2024, OpenAI publicó un resumen de la investigación de WilmerHale, reconociendo que hubo una ruptura de confianza entre la junta anterior y Altman, pero también considerando que la junta actuó con demasiada prisa, sin notificar previamente a las partes interesadas clave, y sin una investigación completa o la oportunidad de que Altman respondiera.
Estas historias conectadas son la verdadera deuda de confianza de Altman.
No es un héroe en el sentido tradicional. Tiene el rostro de un nuevo rico de Silicon Valley: sabe hablar de misiones, conseguir dinero, organizar talento, manejar los medios, negociar con grandes empresas y convertir un laboratorio en una empresa de clase mundial.
Cuanto mayor es su capacidad, mayor es el problema: si una empresa depende de su crédito personal para garantizarle al mundo que "vamos a beneficiar a toda la humanidad", entonces su credibilidad ya no es un problema de carácter privado, sino un problema de gobernanza pública.
Altman también tuvo sus contraataques en la corte. Afirmó que Musk intentó en múltiples ocasiones que Tesla absorbiera a OpenAI, lo que no se ajustaba a la misión de OpenAI. También dijo que OpenAI realmente había creado un valor filantrópico a gran escala.
Esta es la dificultad de OpenAI. Puede decir que todavía está controlada por la organización sin fines de lucro, puede decir que la comercialización permite que la organización sin fines de lucro tenga un valor mayor; pero al escuchar esto, es difícil para una persona común no preguntar: si la misión pública depende de una empresa con una valoración enorme y un CEO poderoso para mantenerse, entonces ¿es realmente una misión o es un préstamo de confianza?
En 2023, la junta directiva intentó recuperar ese préstamo. Falló.
La misión pierde ante la realidad
La junta directiva de OpenAI no carece completamente de poder.
En el papel, la junta directiva sin fines de lucro tiene la autoridad de supervisión de la misión. Cuando se fundó OpenAI LP en 2019, OpenAI explicó públicamente que era una estructura de "beneficios limitados" (capped-profit), donde los rendimientos de empleados e inversores tenían un tope, y cualquier excedente iría a la organización sin fines de lucro, manteniendo el control general en manos de esta. Este diseño sonaba como un compromiso que permitía recaudar fondos sin entregar completamente la misión.
El problema es que la realidad se desarrolló mucho más rápido que los estatutos.
Después de 2019, el vínculo entre OpenAI y Microsoft se hizo cada vez más fuerte. Microsoft invirtió fondos, proporcionó servicios en la nube y supercomputación, y obtuvo derechos de comercialización. Los materiales judiciales mostraron que una gran cantidad de propiedad intelectual y empleados de OpenAI fueron transferidos a la entidad con fines de lucro. En la era de ChatGPT, OpenAI ya no era solo un instituto de investigación, sino un sistema comercial que conectaba usuarios, clientes, desarrolladores, recursos en la nube, inversores y competencia global.
Un sistema así no se detiene con solo presionar un botón.
Cuando se le preguntó en la corte sobre la inversión de 130 mil millones de dólares de Microsoft en OpenAI, y los posibles retornos de aproximadamente 920 mil millones de dólares si tenía éxito, el CEO de Microsoft, Satya Nadella, respondió en esencia que si el pastel crece, la organización sin fines de lucro también se beneficiaría.
Esta lógica es típica: la comercialización no es una traición a la misión, sino una ampliación de las fuentes de financiación para la misión.
Pero en el mismo conjunto de testimonios, también se mencionaron los mensajes de texto entre Nadella y Altman sobre el lanzamiento de la versión de pago de ChatGPT. Nadella preguntó cuándo se lanzaría la versión de pago, Altman dijo que la capacidad de cómputo era insuficiente y que la experiencia aún no era lo suficientemente buena, pero Nadella tenía prisa y dijo "cuanto antes, mejor".
Una vez que OpenAI y Microsoft se vincularon, el ritmo del producto, los compromisos con los clientes, las limitaciones de capacidad de cómputo y los retornos comerciales se entrelazaron. La junta directiva puede discutir la misión, pero Microsoft necesita garantizar la experiencia del cliente; la junta puede preocuparse por los problemas de seguridad, pero los usuarios y las empresas ya están usando el producto; la junta puede destituir al CEO, pero los empleados, inversores, socios y la opinión pública aparecerán de inmediato.
La visión de Nadella sobre la crisis de la junta en 2023 también es importante. Dijo que no recibió una razón clara para la destitución de Altman, y criticó que la junta manejó la situación como "amateurs". Más crucial aún, en ese momento ya estaba preparado para que, si Altman y otros empleados no podían regresar a OpenAI, fueran a Microsoft.
Esta es la realidad. La junta directiva sin fines de lucro parece sostener el volante, pero el motor, el acelerador, el combustible y los pasajeros del vehículo ya no están solo bajo su control. Cuando una empresa de IA ya está conectada a una valoración enorme, proveedores de nube, clientes corporativos, opciones sobre acciones para empleados y usuarios globales, es difícil que una junta directiva que representa la misión realmente pise el freno.
Cuanto más grande es la narrativa de AGI, más grande es la factura de capacidad de cómputo; cuanto más grande es la factura de capacidad de cómputo, más se necesita a los gigantes de la nube; cuanto más se necesita a los gigantes de la nube, menos posible es que la misión sea protegida solo por los estatutos.
En la era de la IA, la capacidad de cómputo no es un recurso de fondo. La capacidad de cómputo es poder en sí mismo. Quien proporciona la capacidad de cómputo participa en definir qué tan rápido puede moverse una empresa, hacia dónde va y a quién sirve. Quien puede asumir la factura de un entrenamiento fallido puede exigir una parte de los beneficios en caso de éxito. Quien puede garantizar que los clientes corporativos continúen firmando contratos tendrá más voz en una crisis que la junta directiva.
Este juicio nos permitió ver claramente todo el asunto: nos dice que en realidad no fue una persona la que destruyó el ideal, sino que si el ideal no tiene un cuerpo institucional lo suficientemente sólido, tarde o temprano desarrollará un esqueleto de realidad.
Ese esqueleto no es necesariamente malvado, pero definitivamente ya no es puro.
Los usuarios no son espectadores
Musk, Altman, Brockman, Nadella son nombres muy lejanos a nuestra vida cotidiana. Reclamaciones de daños por cientos de miles de millones de dólares, valor de acciones cercano a 300 mil millones, inversiones de 130 mil millones, retornos potenciales de 920 mil millones, estas cifras son tan grandes que resultan irreales. La gente común sentada en la oficina, apretujada en el metro por la mañana, desplazando TikTok por la noche, su relación con la IA puede ser simplemente abrir una aplicación y preguntar: ayúdame a modificar un proyecto, escribe un código, traduce un correo.
Pero el problema está precisamente aquí.
OpenAI ya no es un laboratorio distante. Sus modelos están entrando en la escritura, traducción, programación, búsqueda, servicio al cliente, educación, software de oficina, procesos empresariales. Una persona común puede no saber si OpenAI es una LP, una LLC o una PBC, puede no preocuparse por si Altman o Musk cuentan una mejor historia, pero está usando la IA constantemente.
Los niños la usan para hacer la tarea, las escuelas deben decidir cómo enfrentar los ensayos escritos por IA; los programadores la usan para escribir código, las empresas deben decidir cómo medir la productividad humana; los periodistas la usan para buscar información, hacer esquemas, modificar títulos, y los lectores enfrentan más contenido del que no pueden distinguir el origen; las empresas la integran en servicios al cliente y procesos de aprobación, y los empleados encuentran que su tiempo y rendimiento están siendo redefinidos por el sistema.
Alguna vez pensamos que solo éramos usuarios. Pero los usuarios usan herramientas, y las herramientas también moldean a los usuarios.
Qué puede responder un modelo y qué no; qué contenido se considera seguro y qué contenido se considera riesgoso; qué empresas pueden acceder a modelos más potentes y qué personas solo pueden usar versiones encapsuladas; qué idiomas, profesiones, regiones y conocimientos están mejor respaldados y cuáles son tratados de manera rudimentaria. Estas preguntas parecen técnicas, pero finalmente afectan la vida cotidiana de las personas comunes.
Por lo tanto, el juicio de OpenAI es en realidad una ventana. A través de esta ventana, la gente puede ver que el lugar de fabricación de la infraestructura futura no es limpio ni transparente. Allí hay personas inteligentes, ideales, miedos, ambiciones, acciones, facturas de servicios en la nube, peleas en la junta directiva y algunos documentos privados que nunca pensaron que serían leídos en público.
El agua, la electricidad, las carreteras, las escuelas, los hospitales, los motores de búsqueda, los sistemas de teléfonos, una vez que estas cosas entran en la vida cotidiana, ya no son solo productos comerciales. La IA también se está dirigiendo hacia esa posición. Puede que aún no sea tan estable como el agua o la electricidad, pero ya comienza a ser tan dependiente como ellos. Una persona puede no usar un chatbot específico, pero es difícil evitar para siempre los flujos de trabajo transformados por la IA, los puntos de entrada de información y las reglas organizacionales.
Al final, quien gane este juicio, es probable que los usuarios comunes sigan usando la IA al día siguiente. Los estudiantes seguirán pidiéndole que modifique ensayos, los programadores que complete código, las empresas que la integren en sus sistemas, los emprendedores seguirán desarrollando aplicaciones alrededor de los modelos.
Pero al menos la corte rasgó una capa del empaque. Nos dice que esas IAs que están entrando en la vida cotidiana no surgieron de una máquina transparente, estable y puramente dedicada al interés público. Vienen de un grupo de personas concretas, un conjunto de contratos complejos, facturas de computación en la nube, un golpe de estado en la junta directiva, algunos diarios privados y una guerra por el control.
Esta no es una historia que se pueda resumir en "el capital corrompe los ideales". El lugar más real, y también más inquietante, es que la IA se está convirtiendo en infraestructura para las personas comunes, pero su volante sigue en manos de unos pocos.
Cuando el futuro comienza a convertirse en un producto, las personas comunes no pueden ser solo usuarios.










