¿Es realmente Musk la víctima?

marsbitPublicado a 2026-05-15Actualizado a 2026-05-15

Resumen

En mayo de 2026, el juicio de Musk contra OpenAI en un tribunal federal de Oakland reveló las tensiones internas de la compañía. Musk acusa a OpenAI, cofundado por él en 2015 como una organización sin fines de lucro para "beneficiar a la humanidad", de haber traicionado su misión al convertirse en una entidad con fines de lucro que beneficia a Sam Altman, Greg Brockman y a Microsoft, su principal inversor. OpenAI defiende que la estructura fue necesaria para financiar el costoso desarrollo de la IA y que Musk conocía estos planes, pero quería controlar la compañía. El juicio expuso correos electrónicos, mensajes y el diario personal de Brockman, que mostraron discusiones internas ya en 2017 sobre la necesidad de fondos y estructuras rentables, así como preocupaciones sobre los límites éticos. Brockman reveló que su participación en OpenAI está valorada en casi 30.000 millones de dólares. Se cuestionó la credibilidad de Altman, citando a varios ex colegas que lo han llamado "mentiroso". La junta directiva sin fines de lucro, en teoría responsable de la misión, pareció perder poder real frente a los imperativos comerciales y la profunda dependencia de los recursos e inversión de Microsoft (13.000 millones de dólares). El caso subraya una contradicción fundamental: OpenAI se ha convertido en una pieza clave de la infraestructura tecnológica global, cuyos modelos afectan la vida diaria, pero su gobierno y dirección siguen en manos de unos pocos, lejos del ideal de servir a "to...

En mayo de 2026, en la Corte Federal de Oakland, los filtros de OpenAI fueron quitados, capa por capa.

Presentado ante el jurado, había un "Rashomon" lleno de confusión:

Los diarios privados de Greg Brockman, mezclando ansiedad y cálculo; Elon Musk, firme en no ceder poder; los problemas de integridad de Sam Altman, que caminan al borde del límite; la enorme sombra de Microsoft entre el poder de cómputo y el capital; y ese golpe de estado en la junta directiva a finales de 2023, emocionante pero terminado de manera apresurada.

En medio de todo este desorden, había una pregunta que sonaba grandiosa, pero que en la corte resultaba excepcionalmente específica: Cuando OpenAI dijo que quería "beneficiar a toda la humanidad", ¿esa promesa aún cuenta hasta ahora?

Hasta el 15 de mayo de 2026, este juicio aún no tenía un veredicto final, y la opinión de referencia del jurado seguía suspendida en el aire. Pero una cosa ya había sucedido de manera tangible: OpenAI fue arrastrado del mito de regreso a la tierra.

En los últimos años, OpenAI a menudo se escribía como una historia sobre el futuro. ChatGPT se hizo viral, Altman viajó por varios países, los modelos grandes se infiltraron en oficinas, escuelas, teléfonos y procesos corporativos. Esta era una empresa que nació con un sentido casi religioso de nobleza, hablando abiertamente sobre el destino de la humanidad, el despertar de la inteligencia, los límites de la seguridad y el amanecer del mañana, como un faro construido de antemano para la humanidad.

Pero la corte no se preocupa por eso. La corte pregunta por los hechos.

"Toda la humanidad" en el banquillo de los testigos

En 2015, cuando nació OpenAI, era limpia y pura.

Se describía a sí misma como una empresa de investigación de IA sin fines de lucro, cuyo objetivo era desarrollar la inteligencia digital para beneficiar al máximo a toda la humanidad, sin estar sujeta a presiones de rentabilidad financiera.

Altman y Musk eran co-presidentes, Brockman era el CTO, Ilya Sutskever era el director de investigación. En ese entonces, OpenAI parecía mantener el último vestigio del idealismo de la edad de oro de Silicon Valley: las personas más inteligentes no servían a una empresa en particular, sino que protegían el futuro de la humanidad.

Diez años después, esa promesa fue llevada a la corte.

La parte de Musk dice que Altman, Brockman y OpenAI utilizaron la misión sin fines de lucro para obtener su financiamiento y confianza, pero luego giraron hacia una estructura con fines de lucro, beneficiando a individuos y a Microsoft.

La parte de OpenAI dice que el dinero de Musk era una donación, sin condiciones específicas; que él ya sabía que se había discutido la estructura con fines de lucro, pero no obtuvo el control; y que ahora presenta la demanda porque se arrepiente de haber dejado la empresa y porque su xAI ya es un competidor de OpenAI.

Ambos lados dicen cosas bastante duras.

Musk se coloca en la posición de guardián de la misión. OpenAI lo coloca en la posición de un fundador que perdió el control. Uno dice "robaron una organización benéfica", el otro dice "simplemente no pudiste controlarla". Al final, lo más incómodo no es qué parte cuenta una mejor historia, sino que esa "toda la humanidad" que se menciona repetidamente nunca se sienta realmente a la mesa.

El término "toda la humanidad" aparece en el anuncio de fundación, los estatutos, los discursos y los informes de los medios, ocupando el terreno moral elevado.

Pero en la corte, se descompone en pruebas: ¿Los diarios de Brockman cuentan como una intención real? ¿Qué demuestran los correos electrónicos de 2017? ¿Qué se transfirió realmente con OpenAI LP en 2019? ¿La nube y el dinero de Microsoft cambiaron la dirección de la empresa? ¿Los problemas de integridad de Altman respaldan que la empresa siga diciendo "confía en nosotros"?

Cuanto más le gusta a una empresa de IA decir que representa a la humanidad, más específicamente debería ser cuestionada: ¿A qué humanos te refieres? ¿Quién firma por estas personas? ¿Quién puede destituirte? ¿Quién puede auditar las cuentas? ¿Quién puede decir que no?

La corte no pudo responder estas preguntas en nombre del público, pero las forzó a salir a la luz.

La historia de OpenAI ya no parece una historia de crecimiento de una empresa futura, sino más bien una vieja cuenta pendiente. Cuando se abrió el libro de cuentas, la gente descubrió que las grietas no aparecieron después del éxito de ChatGPT.

La grieta de 2017

OpenAI no cambió de repente.

Si solo se mira desde ChatGPT, se podría pensar erróneamente que OpenAI fue impulsado por el dinero después del éxito, como muchas empresas, primero hablando de ideales y luego haciendo negocios.

Pero el juicio retrocedió en el tiempo, hasta 2017. En ese entonces, OpenAI no tenía la influencia de hoy, AGI aún no era una palabra en boca de todos, pero el equipo fundador ya enfrentaba un problema: si realmente querían crear inteligencia artificial general, las donaciones y el entusiasmo estaban muy lejos de ser suficientes.

Este es el momento más difícil del idealismo de Silicon Valley. Cuanto más grande es el ideal, más grande es la factura. Cuanto más grande es la factura, más difícil es mantener la organización limpia. Esas palabras llenas de visión para toda la humanidad dichas en el escenario finalmente deben traducirse en chips, servidores, salarios de ingenieros, recursos en la nube y capital a largo plazo. Sin esto, AGI es solo un deseo; con esto, la estructura sin fines de lucro comienza a volverse insostenible.

En 2017, dentro de OpenAI ya se discutían varios caminos: la afiliación con fines de lucro, B-corp, la colaboración con empresas existentes, la dependencia de Tesla, entre otros. Musk propuso que OpenAI dependiera de Tesla como fuente de financiamiento. La parte de OpenAI contraatacó diciendo que Musk no se oponía únicamente a la estructura con fines de lucro, sino que el control era su demanda ineludible.

Ese año también hubo una escena muy memorable: Dota.

Después de que la IA de OpenAI derrotara a jugadores humanos de élite en Dota 1v1, el equipo se dio cuenta por primera vez con mayor fuerza de que esto realmente podría llegar lejos. En el juicio se mencionó una discusión en la antigua casa de Musk en San Francisco, posteriormente conocida como la "reunión en la mansión embrujada", donde celebraron el avance tecnológico y discutieron si OpenAI debería orientarse hacia fines de lucro.

Muchas empresas comienzan a redefinirse después del éxito de un producto. OpenAI lo hizo antes. Antes de convertirse en el gigante de hoy, los fundadores ya sabían que la estructura sin fines de lucro no podía sostener la narrativa de AGI. El ideal de OpenAI necesitaba desde el principio una máquina más pesada para sustentarse.

Así, una organización aparentemente dedicada a la seguridad científica rápidamente entró en negociaciones sobre el control.

¿Quién tomaría el volante? ¿Musk o Altman? ¿O la junta directiva sin fines de lucro o futuros inversores? ¿O esa "toda la humanidad" que nunca apareció realmente?

Mirando a Musk ahora, sin duda fue un importante patrocinador temprano y participó en la creación de la narrativa sin fines de lucro de OpenAI. Pero también fue una de las primeras personas en ver cuánto poder podría traer la IA. Y después de verlo, también quiso aferrarse firmemente a él.

El volante de Musk

Musk enfatizó repetidamente una cosa durante el juicio: OpenAI fue robada.

Esta redacción es poderosa. Comprime una compleja reorientación organizacional en una frase que cualquiera puede entender. Una organización benéfica, que originalmente debía servir a la humanidad, se convirtió en una enorme máquina comercial. Suena a apropiación indebida y también a una traición moral.

Pero en la corte no hay historias tan simples.

El interrogatorio cruzado de los abogados de OpenAI a Musk se centró en desmontar su imagen de víctima inocente. Los abogados presentaron correos electrónicos y documentos, preguntándole si ya sabía que OpenAI podría necesitar una estructura con fines de lucro, y si alguna vez quiso absorber OpenAI a través de Tesla, o tomar el liderazgo de otra manera.

A Musk no le gustó esta forma de ser desarmado. En la corte dijo que las preguntas del otro lado eran un intento de "engañarme". El juez le pidió en varias ocasiones que respondiera directamente. Cuando intentó llevar la conversación hacia el riesgo de extinción por IA, el juez también le recordó que este caso no discutiría mucho sobre la extinción.

Estas escenas ilustran bien a Musk.

Le gusta hablar de narrativas grandiosas. El destino de la humanidad, el riesgo de la IA, Marte, la libertad de expresión, la supervivencia de la civilización son temas que le gusta abordar. Pero la corte le pidió que respondiera preguntas más pequeñas y agudas: ¿Cuándo lo supiste? ¿Estuviste de acuerdo? ¿Intentaste tomar el control? ¿El dinero que diste a OpenAI fue una donación o una inversión?...

La contradicción en Musk es precisamente la contradicción en la historia de OpenAI. Puede que realmente tema que la IA se descontrole, y puede que realmente crea que OpenAI traicionó su misión. Pero eso no impide que también quisiera que la empresa funcionara según su voluntad.

Cuanto más cree alguien que está salvando a la humanidad, más fácilmente cree que debe ser él quien controle el volante.

Este no es un problema exclusivo de Musk. Es el trasfondo de muchas narrativas grandiosas en Silicon Valley. Les gusta presentar la voluntad privada como una misión humana, el deseo de control como un sentido de responsabilidad, el poder organizacional como una necesidad futura. Musk simplemente lo expresa de manera más abierta, más intensa y más fácil de ver.

Por lo tanto, en este caso, Musk no es solo el acusador, también es la prueba en sí mismo.

El diario de Brockman

Greg Brockman originalmente no era la persona más destacada en este drama.

Musk es demasiado dramático, Altman es demasiado central, Sutskever es demasiado trágico, Microsoft es demasiado grande. Brockman está en el medio: es un cofundador clave temprano de OpenAI y también un papel crucial en el funcionamiento real posterior de la empresa. Pero este juicio lo puso bajo los reflectores, porque sus diarios privados se convirtieron en pruebas.

En la segunda semana del juicio, Brockman fue interrogado continuamente sobre sus diarios, correos electrónicos y mensajes de texto. La parte de Musk usó estos materiales para demostrar que él y Altman ya tenían motivos de interés propio desde el principio. La parte de OpenAI dijo que Musk estaba sacando las cosas de contexto.

En los diarios había objetivos de riqueza. Había ansiedad sobre las vías de ingresos de la empresa. Había frases como "hacer los miles de millones". Más llamativo aún, en los diarios aparecían recordatorios personales sobre no robar la "organización sin fines de lucro" a Musk, de lo contrario habría riesgo de bancarrota moral. Los abogados de Musk insistieron repetidamente en estos contenidos. Brockman negó haber engañado a Musk, y también dijo que estos escritos privados no eran registros de eventos, sino escritos personales de flujo de conciencia.

Un diario no es una sentencia. No puede probar directamente que estaban cometiendo fraude. También puede contener pensamientos toscos escritos en momentos de cansancio, ansiedad y reflexión interna. Cualquier escritor sabe que las notas privadas no equivalen a una postura final, y mucho menos a la totalidad de los hechos.

Pero lo realmente importante del diario de Brockman no es lo que prueba como culpabilidad, sino que demuestra que conocían los límites. Las figuras centrales tempranas de OpenAI no avanzaron hacia la comercialización de manera completamente inconsciente. Sabían que la cáscara de "sin fines de lucro" tenía un peso moral, sabían que la financiación temprana de Musk implicaba una relación de confianza, sabían que si giraban hacia otra estructura meses después y aún decían que se mantenían firmes en lo no lucrativo, parecería deshonesto.

Saber no es igual a detenerse.

Durante el juicio, Brockman reveló que el valor de las acciones de OpenAI que poseía se acercaba a los 300 mil millones de dólares.

Aunque esta cifra no es dinero en efectivo, no es riqueza ya obtenida. Es el valor de las acciones bajo una valoración, que aún depende de las perspectivas de la empresa y de la estructura de las transacciones. Pero el significado simbólico ya es suficiente. Una persona que alguna vez se preocupó por los límites morales en su diario privado, luego se sentó en la corte y le preguntaron sobre sus acciones en OpenAI valoradas en cerca de 300 mil millones de dólares. La misión de bien público y la riqueza privada fueron puestas sobre la misma mesa en ese momento.

Brockman es como muchas figuras clave en organizaciones excelentes: inteligente, comprometido, capaz, con sentido de la vergüenza, y también capaz de convencerse poco a poco para seguir adelante.

Aquí es donde OpenAI se vuelve más complejo. No es un grupo de personas malvadas conspirando para destruir un ideal. Es más como un grupo de personas inteligentes que, en cada punto de inflexión, encuentran razones para seguir avanzando, llevando finalmente la promesa inicial a una máquina que ni siquiera ellos mismos pueden controlar completamente.

Y en el centro de esta máquina está Altman.

La deuda de confianza de Altman

Lo que Sam Altman enfrentó en este juicio no fue solo si una frase era verdadera o falsa. Lo que realmente atacó la parte de Musk fue su legitimidad para gobernar.

En los alegatos finales, Steven Molo, el abogado de Musk, puso en el centro los problemas de integridad de Altman. Le dijo al jurado que cinco personas que habían trabajado con Altman durante años—Musk, Sutskever, Murati, Toner y McCauley—lo describían como un "mentiroso".

Estos cinco nombres son más importantes que la acusación en sí misma.

Musk es un oponente, se podría pensar que tiene un conflicto de intereses. Pero Sutskever es cofundador y ex científico jefe de OpenAI; Murati fue CTO y también CEO interina brevemente en 2023; Toner y McCauley son ex miembros de la junta directiva. Son personas dentro de la estructura de poder interna de OpenAI.

No podemos simplemente y de manera simplista decir que Altman es bueno o malo.

Los sentimientos internos en OpenAI hacia Altman son claramente complejos. Puede llevar a la organización al centro del mundo, pero también hace que algunas figuras clave se sientan incómodas. Tiene una capacidad organizativa, de financiamiento, mediática y política extremadamente fuerte, y por ello ha llevado a la empresa a su posición actual.

Cuando la junta directiva destituyó a Altman en 2023, la razón oficial de OpenAI fue que su comunicación con la junta "no fue siempre completamente transparente". Días después, Altman regresó. En 2024, OpenAI publicó un resumen de la investigación de WilmerHale, reconociendo que hubo una ruptura de confianza entre la junta anterior y Altman, pero también considerando que la junta actuó con demasiada prisa, sin notificar previamente a las partes interesadas clave, y sin una investigación completa o la oportunidad de que Altman respondiera.

Estas historias conectadas son la verdadera deuda de confianza de Altman.

No es un héroe en el sentido tradicional. Tiene el rostro de un nuevo rico de Silicon Valley: sabe hablar de misiones, conseguir dinero, organizar talento, manejar los medios, negociar con grandes empresas y convertir un laboratorio en una empresa de clase mundial.

Cuanto mayor es su capacidad, mayor es el problema: si una empresa depende de su crédito personal para garantizarle al mundo que "vamos a beneficiar a toda la humanidad", entonces su credibilidad ya no es un problema de carácter privado, sino un problema de gobernanza pública.

Altman también tuvo sus contraataques en la corte. Afirmó que Musk intentó en múltiples ocasiones que Tesla absorbiera a OpenAI, lo que no se ajustaba a la misión de OpenAI. También dijo que OpenAI realmente había creado un valor filantrópico a gran escala.

Esta es la dificultad de OpenAI. Puede decir que todavía está controlada por la organización sin fines de lucro, puede decir que la comercialización permite que la organización sin fines de lucro tenga un valor mayor; pero al escuchar esto, es difícil para una persona común no preguntar: si la misión pública depende de una empresa con una valoración enorme y un CEO poderoso para mantenerse, entonces ¿es realmente una misión o es un préstamo de confianza?

En 2023, la junta directiva intentó recuperar ese préstamo. Falló.

La misión pierde ante la realidad

La junta directiva de OpenAI no carece completamente de poder.

En el papel, la junta directiva sin fines de lucro tiene la autoridad de supervisión de la misión. Cuando se fundó OpenAI LP en 2019, OpenAI explicó públicamente que era una estructura de "beneficios limitados" (capped-profit), donde los rendimientos de empleados e inversores tenían un tope, y cualquier excedente iría a la organización sin fines de lucro, manteniendo el control general en manos de esta. Este diseño sonaba como un compromiso que permitía recaudar fondos sin entregar completamente la misión.

El problema es que la realidad se desarrolló mucho más rápido que los estatutos.

Después de 2019, el vínculo entre OpenAI y Microsoft se hizo cada vez más fuerte. Microsoft invirtió fondos, proporcionó servicios en la nube y supercomputación, y obtuvo derechos de comercialización. Los materiales judiciales mostraron que una gran cantidad de propiedad intelectual y empleados de OpenAI fueron transferidos a la entidad con fines de lucro. En la era de ChatGPT, OpenAI ya no era solo un instituto de investigación, sino un sistema comercial que conectaba usuarios, clientes, desarrolladores, recursos en la nube, inversores y competencia global.

Un sistema así no se detiene con solo presionar un botón.

Cuando se le preguntó en la corte sobre la inversión de 130 mil millones de dólares de Microsoft en OpenAI, y los posibles retornos de aproximadamente 920 mil millones de dólares si tenía éxito, el CEO de Microsoft, Satya Nadella, respondió en esencia que si el pastel crece, la organización sin fines de lucro también se beneficiaría.

Esta lógica es típica: la comercialización no es una traición a la misión, sino una ampliación de las fuentes de financiación para la misión.

Pero en el mismo conjunto de testimonios, también se mencionaron los mensajes de texto entre Nadella y Altman sobre el lanzamiento de la versión de pago de ChatGPT. Nadella preguntó cuándo se lanzaría la versión de pago, Altman dijo que la capacidad de cómputo era insuficiente y que la experiencia aún no era lo suficientemente buena, pero Nadella tenía prisa y dijo "cuanto antes, mejor".

Una vez que OpenAI y Microsoft se vincularon, el ritmo del producto, los compromisos con los clientes, las limitaciones de capacidad de cómputo y los retornos comerciales se entrelazaron. La junta directiva puede discutir la misión, pero Microsoft necesita garantizar la experiencia del cliente; la junta puede preocuparse por los problemas de seguridad, pero los usuarios y las empresas ya están usando el producto; la junta puede destituir al CEO, pero los empleados, inversores, socios y la opinión pública aparecerán de inmediato.

La visión de Nadella sobre la crisis de la junta en 2023 también es importante. Dijo que no recibió una razón clara para la destitución de Altman, y criticó que la junta manejó la situación como "amateurs". Más crucial aún, en ese momento ya estaba preparado para que, si Altman y otros empleados no podían regresar a OpenAI, fueran a Microsoft.

Esta es la realidad. La junta directiva sin fines de lucro parece sostener el volante, pero el motor, el acelerador, el combustible y los pasajeros del vehículo ya no están solo bajo su control. Cuando una empresa de IA ya está conectada a una valoración enorme, proveedores de nube, clientes corporativos, opciones sobre acciones para empleados y usuarios globales, es difícil que una junta directiva que representa la misión realmente pise el freno.

Cuanto más grande es la narrativa de AGI, más grande es la factura de capacidad de cómputo; cuanto más grande es la factura de capacidad de cómputo, más se necesita a los gigantes de la nube; cuanto más se necesita a los gigantes de la nube, menos posible es que la misión sea protegida solo por los estatutos.

En la era de la IA, la capacidad de cómputo no es un recurso de fondo. La capacidad de cómputo es poder en sí mismo. Quien proporciona la capacidad de cómputo participa en definir qué tan rápido puede moverse una empresa, hacia dónde va y a quién sirve. Quien puede asumir la factura de un entrenamiento fallido puede exigir una parte de los beneficios en caso de éxito. Quien puede garantizar que los clientes corporativos continúen firmando contratos tendrá más voz en una crisis que la junta directiva.

Este juicio nos permitió ver claramente todo el asunto: nos dice que en realidad no fue una persona la que destruyó el ideal, sino que si el ideal no tiene un cuerpo institucional lo suficientemente sólido, tarde o temprano desarrollará un esqueleto de realidad.

Ese esqueleto no es necesariamente malvado, pero definitivamente ya no es puro.

Los usuarios no son espectadores

Musk, Altman, Brockman, Nadella son nombres muy lejanos a nuestra vida cotidiana. Reclamaciones de daños por cientos de miles de millones de dólares, valor de acciones cercano a 300 mil millones, inversiones de 130 mil millones, retornos potenciales de 920 mil millones, estas cifras son tan grandes que resultan irreales. La gente común sentada en la oficina, apretujada en el metro por la mañana, desplazando TikTok por la noche, su relación con la IA puede ser simplemente abrir una aplicación y preguntar: ayúdame a modificar un proyecto, escribe un código, traduce un correo.

Pero el problema está precisamente aquí.

OpenAI ya no es un laboratorio distante. Sus modelos están entrando en la escritura, traducción, programación, búsqueda, servicio al cliente, educación, software de oficina, procesos empresariales. Una persona común puede no saber si OpenAI es una LP, una LLC o una PBC, puede no preocuparse por si Altman o Musk cuentan una mejor historia, pero está usando la IA constantemente.

Los niños la usan para hacer la tarea, las escuelas deben decidir cómo enfrentar los ensayos escritos por IA; los programadores la usan para escribir código, las empresas deben decidir cómo medir la productividad humana; los periodistas la usan para buscar información, hacer esquemas, modificar títulos, y los lectores enfrentan más contenido del que no pueden distinguir el origen; las empresas la integran en servicios al cliente y procesos de aprobación, y los empleados encuentran que su tiempo y rendimiento están siendo redefinidos por el sistema.

Alguna vez pensamos que solo éramos usuarios. Pero los usuarios usan herramientas, y las herramientas también moldean a los usuarios.

Qué puede responder un modelo y qué no; qué contenido se considera seguro y qué contenido se considera riesgoso; qué empresas pueden acceder a modelos más potentes y qué personas solo pueden usar versiones encapsuladas; qué idiomas, profesiones, regiones y conocimientos están mejor respaldados y cuáles son tratados de manera rudimentaria. Estas preguntas parecen técnicas, pero finalmente afectan la vida cotidiana de las personas comunes.

Por lo tanto, el juicio de OpenAI es en realidad una ventana. A través de esta ventana, la gente puede ver que el lugar de fabricación de la infraestructura futura no es limpio ni transparente. Allí hay personas inteligentes, ideales, miedos, ambiciones, acciones, facturas de servicios en la nube, peleas en la junta directiva y algunos documentos privados que nunca pensaron que serían leídos en público.

El agua, la electricidad, las carreteras, las escuelas, los hospitales, los motores de búsqueda, los sistemas de teléfonos, una vez que estas cosas entran en la vida cotidiana, ya no son solo productos comerciales. La IA también se está dirigiendo hacia esa posición. Puede que aún no sea tan estable como el agua o la electricidad, pero ya comienza a ser tan dependiente como ellos. Una persona puede no usar un chatbot específico, pero es difícil evitar para siempre los flujos de trabajo transformados por la IA, los puntos de entrada de información y las reglas organizacionales.

Al final, quien gane este juicio, es probable que los usuarios comunes sigan usando la IA al día siguiente. Los estudiantes seguirán pidiéndole que modifique ensayos, los programadores que complete código, las empresas que la integren en sus sistemas, los emprendedores seguirán desarrollando aplicaciones alrededor de los modelos.

Pero al menos la corte rasgó una capa del empaque. Nos dice que esas IAs que están entrando en la vida cotidiana no surgieron de una máquina transparente, estable y puramente dedicada al interés público. Vienen de un grupo de personas concretas, un conjunto de contratos complejos, facturas de computación en la nube, un golpe de estado en la junta directiva, algunos diarios privados y una guerra por el control.

Esta no es una historia que se pueda resumir en "el capital corrompe los ideales". El lugar más real, y también más inquietante, es que la IA se está convirtiendo en infraestructura para las personas comunes, pero su volante sigue en manos de unos pocos.

Cuando el futuro comienza a convertirse en un producto, las personas comunes no pueden ser solo usuarios.

Preguntas relacionadas

Q¿Qué reveló el juicio de 2026 sobre la naturaleza inicial y la transformación de OpenAI?

AEl juicio reveló que OpenAI nació como una organización sin fines de lucro en 2015, con el objetivo de beneficiar a la humanidad, pero que ya desde 2017, mucho antes del éxito de ChatGPT, sus fundadores discutían la necesidad de una estructura con fines de lucro debido a los enormes costos del desarrollo de AGI. La transformación no fue repentina, sino un proceso alimentado por negociaciones de control, relaciones con Microsoft y la tensión entre el idealismo y la necesidad de financiación.

QSegún el artículo, ¿cómo se presenta a Elon Musk en la batalla legal contra OpenAI?

AEl artículo presenta a Musk como una figura compleja y contradictoria. Por un lado, se presenta como el guardián de la misión original sin fines de lucro, acusando a OpenAI de haber sido 'robada'. Por otro, la defensa de OpenAI lo describe como un cofundador que, insatisfecho por no obtener el control de la compañía, busca desacreditarla ahora que su propia empresa, xAI, es un competidor. El juicio cuestiona su narrativa de víctima pura, sugiriendo que su deseo de control fue un factor clave en el conflicto.

Q¿Qué importancia tuvieron los diarios personales de Greg Brockman en el juicio y qué sugieren sobre la evolución de OpenAI?

ALos diarios personales de Brockman fueron una evidencia clave. Contenían reflexiones sobre objetivos de riqueza ('making the billions') y advertencias a sí mismo sobre el riesgo de 'bancarrota moral' si 'robaban' la estructura sin fines de lucro a Musk. Esto sugiere que los fundadores centrales eran muy conscientes de la línea ética que estaban cruzando. Muestran que el alejamiento del modelo inicial no fue por ignorancia, sino una decisión tomada a pesar de conocer las implicaciones morales y de confianza.

Q¿Cuál es el 'problema de confianza' central que el artículo señala en torno a Sam Altman y cómo afecta a OpenAI?

AEl 'problema de confianza' central es que varias figuras clave de OpenAI (Sutskever, Murati, Toner, McCauley y el propio Musk) han descrito a Altman como un 'mentiroso' o han expresado una ruptura de confianza con él, culminando en su destitución temporal en 2023. El artículo argumenta que esto trasciende su carácter personal: si una empresa que promete un beneficio público global depende en gran medida de la credibilidad y el control de un solo líder, su misión se convierte en un 'préstamo de confianza' riesgoso, cuestionando su gobernanza y legitimidad a largo plazo.

QSegún el análisis del artículo, ¿por qué la estructura de la junta directiva sin fines de lucro de OpenAI fracasó en mantener el control sobre la misión de la compañía?

ALa junta sin fines de lucro fracasó porque la realidad operativa y comercial de OpenAI superó rápidamente su marco de gobernanza. La dependencia crítica de la inversión, la infraestructura en la nube y el poder comercial de Microsoft (con sus 130.000 millones de dólares de inversión) creó un sistema masivo con su propia inercia. La junta teóricamente tenía el volante, pero Microsoft controlaba el motor, el combustible y muchos pasajeros (empleados, clientes). Cuando intentó 'frenar' destituyendo a Altman en 2023, la presión de empleados, inversores y el propio Microsoft hizo que la medida fuera insostenible, demostrando que el poder real había migrado.

Lecturas Relacionadas

El Fundador de Cardano Dice 'Leios Está Llegando' Mientras la Propuesta Avanza a los DReps

El fundador de Cardano, Charles Hoskinson, anunció que "Leios está en camino" tras presentarse una propuesta de financiación de ₳27,7 millones para su aprobación ante los Delegated Representatives (DReps). La propuesta, presentada por Carlos López de Lara y Sebastian Nagel, busca financiar de 6 a 9 meses de desarrollo para llevar a Leios de su fase actual de prototipo y testnet público a un candidato a versión lista para la red principal (mainnet). Leios es la próxima gran actualización de consenso de Cardano, diseñada para mejorar el protocolo existente, Ouroboros Praos, mediante bloques endorser y validación por comités. Su objetivo es aumentar la capacidad de transacciones entre 10 y 65 veces, clave para la estrategia de escalabilidad de Cardano de cara a 2030, que pretende pasar de unos 800.000 a más de 27 millones de transacciones mensuales. El trabajo se estructuraría en tres objetivos principales: desarrollar el candidato a versión final, realizar pruebas exhaustivas de seguridad y rendimiento, y preparar todos los elementos necesarios para un eventual hard fork. La financiación, gestionada a través de contratos inteligentes del treasury de Intersect, se desembolsaría por hitos. La propuesta reconoce riesgos como la preparación de la comunidad, el momento del hard fork y posibles limitaciones técnicas o de gobernanza. Al momento de la publicación, ADA cotizaba a $0.2661.

bitcoinistHace 3 hora(s)

El Fundador de Cardano Dice 'Leios Está Llegando' Mientras la Propuesta Avanza a los DReps

bitcoinistHace 3 hora(s)

Trading

Spot
Futuros

Artículos destacados

Cómo comprar LAYER

¡Bienvenido a HTX.com! Hemos hecho que comprar Solayer (LAYER) sea simple y conveniente. Sigue nuestra guía paso a paso para iniciar tu viaje de criptos.Paso 1: crea tu cuenta HTXUtiliza tu correo electrónico o número de teléfono para registrarte y obtener una cuenta gratuita en HTX. Experimenta un proceso de registro sin complicaciones y desbloquea todas las funciones.Obtener mi cuentaPaso 2: ve a Comprar cripto y elige tu método de pagoTarjeta de crédito/débito: usa tu Visa o Mastercard para comprar Solayer (LAYER) al instante.Saldo: utiliza fondos del saldo de tu cuenta HTX para tradear sin problemas.Terceros: hemos agregado métodos de pago populares como Google Pay y Apple Pay para mejorar la comodidad.P2P: tradear directamente con otros usuarios en HTX.Over-the-Counter (OTC): ofrecemos servicios personalizados y tipos de cambio competitivos para los traders.Paso 3: guarda tu Solayer (LAYER)Después de comprar tu Solayer (LAYER), guárdalo en tu cuenta HTX. Alternativamente, puedes enviarlo a otro lugar mediante transferencia blockchain o utilizarlo para tradear otras criptomonedas.Paso 4: tradear Solayer (LAYER)Tradear fácilmente con Solayer (LAYER) en HTX's mercado spot. Simplemente accede a tu cuenta, selecciona tu par de trading, ejecuta tus trades y monitorea en tiempo real. Ofrecemos una experiencia fácil de usar tanto para principiantes como para traders experimentados.

393 Vistas totalesPublicado en 2025.02.11Actualizado en 2025.03.21

Cómo comprar LAYER

Discusiones

Bienvenido a la comunidad de HTX. Aquí puedes mantenerte informado sobre los últimos desarrollos de la plataforma y acceder a análisis profesionales del mercado. A continuación se presentan las opiniones de los usuarios sobre el precio de LAYER (LAYER).

活动图片