En 2016, The New Yorker publicó un perfil de Sam Altman titulado "El destino manifiesto de Sam Altman". Tenía 31 años y ya era el presidente de Y Combinator, la incubadora más poderosa de Silicon Valley.
El artículo incluía un detalle: a Altman le gustaba correr con coches deportivos, tenía cinco y también le gustaba alquilar aviones para pilotarlos. Le dijo al periodista que tenía dos mochilas, una de las cuales era un kit de evacuación listo para huir en cualquier momento.
También tenía preparadas armas, oro, yoduro de potasio (para protegerse de la radiación nuclear), antibióticos, baterías, agua, máscaras antigás de nivel de las Fuerzas de Defensa de Israel, y había adquirido un terreno en Big Sur (el famoso destino costero de California) al que podía volar en cualquier momento para refugiarse.
Diez años después, Altman se ha convertido en la persona que más se esfuerza por crear el apocalipsis y también en la que más vende el arca de salvación. Por un lado, advierte al mundo de que la IA destruirá a la humanidad, y por otro, acelera personalmente este proceso; dice que no lo hace por dinero, mientras construye un imperio de inversiones personales valorado en 2.000 millones de dólares; pide regulación, pero echa a todos los que intentan frenar el proceso.
En lugar de considerarlo un loco esquizofrénico o un estafador calculador, es más preciso verlo como el producto más estándar y exitoso de la enorme máquina de Silicon Valley. Su "destino manifiesto" es forjar la ansiedad colectiva de la humanidad en su cetro y corona.
El apocalipsis es un buen negocio
El modelo de negocio de Altman puede resumirse en una frase: empaquetar un negocio como una guerra santa por la supervivencia de la humanidad.
Comenzó a practicar este enfoque en su época en YC. Transformó YC de un pequeño taller que daba unos miles de dólares a startups incipientes en un vasto imperio emprendedor. Creó YC Research, financiando proyectos que no eran rentables pero sonaban grandiosos. Le dijo a los periodistas que el objetivo de YC era financiar "todas las áreas importantes".
En OpenAI, llevó este enfoque al extremo. Vende una cosmovisión empaquetada: Apocalipsis de la IA + Plan de redención.
Es mejor que nadie para describir el "riesgo de extinción" que conlleva la IA. Firmó una carta junto con cientos de científicos diciendo que el riesgo de la IA es comparable al de una guerra nuclear. Testificando ante el Senado dijo: "Sentimos un poco de miedo por (el potencial de la IA), y la gente debería alegrarse por ello". Insinuó que este miedo en sí mismo era una advertencia beneficiosa.
Cada una de estas declaraciones era titular, cada una publicitaba gratuitamente a OpenAI. Este miedo cuidadosamente diseñado es la palanca de atención más eficiente. ¿Qué excita más al capital y a los medios, una tecnología que "mejora la eficiencia" o una que "podría destruir a la humanidad"? La respuesta es obvia.
También tiene un producto listo para la parte de la redención: Worldcoin. Cuando el miedo se implanta en la conciencia pública, vender la solución se vuelve natural. Escaneando el iris de las personas en todo el mundo con una esfera plateada del tamaño de una pelota de baloncesto, dice que es para dar dinero a cada uno en la era de la IA. La historia suena bien, pero esta práctica de intercambiar dinero por datos biométricos pronto alertó a gobiernos de múltiples países. Kenia, España, Brasil, India, Colombia y una decena más han suspendido o investigado Worldcoin por motivos de privacidad de datos.
Pero para Altman, esto quizá no importe. Lo importante es que, a través de este proyecto, se ha posicionado con éxito como la única persona "con una solución".
Vender miedo y esperanza empaquetados es el modelo de negocio más eficiente de nuestra era.
La regulación es mi arma, no mis grilletes
¿Cómo hace negocios alguien que no para de hablar del fin del mundo? La respuesta de Altman es: convertir la regulación en su arma.
En mayo de 2023, testificó por primera vez ante el Congreso de EE.UU. No se quejó de la regulación como otros magnates tecnológicos, sino que pidió activamente: "Por favor, regúlenos". Sugirió un sistema de licencias para la IA, donde solo las empresas que obtuvieran una licencia podrían desarrollar modelos grandes. Externamente, proyectaba la imagen de un líder sectorial muy responsable, pero en ese momento, OpenAI iba muy por delante tecnológicamente. Un sistema regulatorio estricto y con altas barreras de entrada servía, sobre todo, para mantener fuera a todos los competidores potenciales.
Sin embargo, con el tiempo, especialmente cuando competidores como Google y Anthropic alcanzaron tecnológicamente a OpenAI y surgió la fuerza de la comunidad de código abierto, la retórica de Altman sobre la regulación cambió sutilmente. Comenzó a enfatizar en diferentes foros que una regulación demasiado estricta, especialmente exigir a las empresas de IA una revisión obligatoria antes del lanzamiento, podría ahogar la innovación y ser "catastrófica".
Ahora la regulación ya no era un foso defensivo, sino un obstáculo.
Cuando se tiene una ventaja absoluta, se pide regulación para consolidarla; cuando la ventaja desaparece, se pide libertad para buscar avances. Incluso intentó extender su influencia hasta el extremo superior de la cadena de suministro. Propuso un plan de chips de 7 billones de dólares, buscando el apoyo de capitales como el fondo soberano de los Emiratos Árabes Unidos, con la intención de remodelar el panorama global de la industria de los semiconductores. Esto va mucho más allá del alcance de un CEO, se parece más a un ambicioso con intenciones de influir en el panorama global.
Detrás de todo esto está la rápida transformación de OpenAI de una organización sin ánimo de lucro a una bestia comercial. Cuando se fundó en 2015, su misión era "asegurar de manera segura que la AGI beneficie a toda la humanidad". En 2019, creó una subsidiaria de "beneficio limitado". A principios de 2024, se descubrió que la palabra "de manera segura" había sido silenciosamente eliminada de la declaración de misión de OpenAI. Aunque la estructura de la empresa sigue siendo de "beneficio limitado", sus pasos hacia la comercialización se aceleraron notablemente. Esto se corresponde con un crecimiento explosivo de los ingresos, desde decenas de millones de dólares en 2022 hasta más de diez mil millones de dólares en ingresos anualizados en 2024, y su valoración se disparó de 29.000 millones a un nivel de cientos de miles de millones.
Cuando alguien comienza a mirar las estrellas y hablar del destino de la humanidad, es mejor ver primero dónde ha caído su bolsillo.
Personalidad: La inmunidad del líder carismático
El 17 de noviembre de 2023, Altman fue despedido por la junta directiva que él mismo eligió, por "no ser transparente en sus comunicaciones con la junta".
Lo que sucedió en los siguientes cinco días fue más una votación de fe que una lucha comercial. El presidente Greg Brockman dimitió; el 95% de los empleados, más de 700 personas, firmaron una carta pidiendo la dimisión de la junta, de lo contrario se irían en masa a Microsoft; el mayor inversor, el CEO de Microsoft Satya Nadella, se posicionó públicamente, diciendo que siempre daría la bienvenida a Altman. Finalmente, Altman regresó triunfalmente, reinstalado en su cargo, y purgó a casi todos los miembros de la junta que se le oponían.
¿Por qué un CEO declarado oficialmente "poco transparente" por su junta pudo regresar ileso, incluso con más poder?
La miembro destituida de la junta, Helen Toner, reveló después los detalles. Altman ocultó a la junta su control real sobre el fondo de venture capital de OpenAI; mintió múltiples veces sobre los procesos clave de seguridad de la empresa; incluso para un lanzamiento tan importante como ChatGPT, la junta se enteró por Twitter. Cualquiera de estas acusaciones sería suficiente para despedir a un CEO cien veces.
Pero a Altman no le pasó nada. Porque no es un CEO normal, es un "líder carismático".
Este es un concepto que el sociólogo Max Weber propuso hace cien años: existe una autoridad que no proviene del cargo, ni de la ley, sino del "carisma超凡 personal超凡" del líder mismo. Los seguidores creen en él, no porque haga algo correcto, sino porque es él. Esta fe es irracional. Cuando el líder comete un error o es desafiado, la primera reacción de los seguidores no es cuestionar al líder, sino atacar a quien lo desafía.
Así fueron los empleados de OpenAI. No creyeron en la justicia procesal de la junta, solo creyeron en el "destino manifiesto" que Altman representaba, sintieron que la junta estaba "obstruyendo el progreso humano".
Después de que Altman volviera, el equipo de seguridad de OpenAI pronto fue desmantelado. El científico jefe Ilya Sutskever, quien encabezó el despido de Altman, finalmente también se fue. En mayo de 2024, el responsable del equipo de seguridad, Jan Leike, dimitió. Escribió en Twitter: "La cultura y los procesos de seguridad de la empresa han sido sacrificados para lanzar esos productos relucientes".
Frente a un "líder carismático", los hechos no importan, los procesos no importan, la seguridad no importa. Lo único que importa es la fe.
Los profetas de la cadena de montaje
Sam Altman es solo el modelo más nuevo y exitoso de la línea de producción de "profetas" de Silicon Valley.
En esta línea de producción hay muchas otras personas que conocemos bien.
Como Musk. En 2014, decía por todas partes que "la IA está invocando al demonio". Pero su Tesla es una de las mayores empresas de robótica del mundo y el escenario de aplicación de IA más complejo. Tras romper con Altman, fundó xAI en 2023, declarando la guerra abiertamente. Solo un año después, xAI ya estaba valorada en más de 20.000 millones de dólares. Mientras advierte de la llegada del demonio, construye otro demonio con sus propias manos. Esta narrativa binaria de luchar con ambas manos es idéntica a la de Altman.
O Zuckerberg. Hace unos años, apostó todo el futuro de su empresa en el metaverso, quemó casi 90.000 millones de dólares y resultó ser un hoyo. Inmediatamente giró, cambiando la narrativa central de la empresa del metaverso a la AGI. En 2025, anunció la creación del "Super Intelligent Lab", reclutando personal personalmente. La misma gran visión sobre el futuro de la humanidad, la misma historia de capital que requiere inversiones astronómicas, la misma pose de salvador.
Y está Peter Thiel. Como mentor de Altman, es más el diseñador jefe de esta línea de producción. Por un lado, invierte en empresas que promueven la "singularidad tecnológica" y la "vida eterna", por otro, compra tierras en Nueva Zelanda y construye búnkeres apocalípticos; obtuvo la ciudadanía neozelandesa tras solo 12 días en el país. Su empresa Palantir es una de las mayores empresas de vigilancia de datos del mundo, cuyos clientes son principalmente gobiernos y militares. Mientras se prepara para el colapso de la civilización, construye las herramientas de vigilancia más afiladas para los poderosos. En la acción militar contra Irán a principios de 2026, fue la plataforma de IA de Palantir la que actuó como cerebro, integrando cantidades masivas de datos de satélites espías, interceptaciones de comunicaciones, drones y análisis del modelo Claude, transformando la información caótica en tiempo real en inteligencia procesable para la toma de decisiones, que finalmente identificó el objetivo y completó la operación.
Cada uno de ellos interpreta el doble papel de "advertir sobre el inminente apocalipsis" y "impulsar la llegada del apocalipsis". Esto no es esquizofrenia, es un modelo de negocio que el mercado de capitales ha validado como el más eficiente. Capturan atención, capital y poder mediante la creación y venta de ansiedad estructural. Son producto de este sistema y también sus arquitectos, son "la maldad detrás de las grandes narrativas".
Silicon Valley ya no es solo un lugar que produce tecnología, es una fábrica de "mitos modernos".
¿Por qué funciona siempre este truco?
Cada pocos años, Silicon Valley da a luz un nuevo profeta, que arrastra la atención del capital, los medios y el público con una gran narrativa sobre el apocalipsis y la redención. Este truco se repite una y otra vez, y siempre funciona. Cada uno de sus pasos se dirige con precisión a vulnerabilidades específicas de la cognición humana.
Paso 1: Gestionar el ritmo del miedo, no solo crearlo.
Los riesgos potenciales de la IA son reales, pero podrían haberse discutido con calma. Son estas personas quienes eligieron activamente presentarlos de la manera más dramática, y además, tienen un control meticuloso del ritmo de liberación del miedo.
Cuándo hacer que el público sienta miedo, cuándo ofrecer esperanza, cuándo elevar la alerta de nuevo, todo está diseñado. El miedo es el combustible, pero el momento y la forma de encenderlo son la verdadera técnica.
Paso 2: Convertir la incomprensibilidad de la tecnología en una fuente de autoridad.
La IA es una caja negra completamente opaca para la gran mayoría de las personas. Cuando aparece algo tan complejo que no puede ser completamente entendido, la gente instintivamente cede el derecho a explicarlo a "quien mejor lo entiende". Ellos entienden esto profundamente y lo convierten en una ventaja estructural: cuanto más describen la IA como misteriosa, peligrosa, más allá de la comprensión común, más indispensables se vuelven ellos mismos.
Lo terrible de esta lógica es que se auto-refuerza. Cualquier cuestionamiento externo se disipa automáticamente porque el que cuestiona "no lo entiende lo suficiente". Los reguladores no entienden la tecnología, por lo que su juicio no es confiable; los críticos académicos no han hecho modelos en primera línea, por lo que sus preocupaciones son teóricas. Finalmente, solo ellos mismos están cualificados para juzgarse a sí mismos.
Paso 3: Usar el "significado" en lugar del "interés", haciendo que los seguidores renuncien voluntariamente a criticar.
Esta es la capa más difícil de detectar de todo el sistema, y también su fuente de poder más duradera. Lo que venden nunca es solo un trabajo o un producto, sino una historia significativa a escala cósmica: estás decidiendo el destino de la humanidad. Una vez que esta narrativa es aceptada, los seguidores renuncian activamente a su juicio independiente. Porque frente a una misión que关乎 "la supervivencia humana", cuestionar las motivaciones del líder los hace parecer pequeños, incluso como obstáculos para la historia. Hace que la gente entregue voluntariamente su capacidad crítica, y que entienda esta entrega como una elección sublime.
Juntando estos tres pasos, entenderás por qué este sistema es tan difícil de sacudir. No depende de mentiras, depende de una comprensión precisa de la estructura cognitiva humana. Primero crea un miedo que no puedes ignorar, luego monopoliza la explicación de ese miedo, y finalmente usa el "significado" para convertirte en su transmisor más leal.
Y en este sistema, Altman es, hasta ahora, el modelo que funciona con mayor fluidez.
¿El destino de quién?
Altman siempre ha dicho que no tiene acciones de OpenAI, que solo recibe un salario simbólico, lo que fue la piedra angular de su narrativa de "trabajar por amor al arte".
Pero Bloomberg le hizo las cuentas en 2024: su patrimonio neto personal ronda los 2.000 millones de dólares. Esta riqueza proviene principalmente de una serie de inversiones como capitalista de riesgo en los últimos diez años. Una inversión temprana en la empresa de pagos Stripe,据说 (se dice) que le reportó cientos de millones de dólares; la salida a bolsa de Reddit, en la que invirtió, también le reportó grandes beneficios. También invirtió en la empresa de fusión nuclear Helion; por un lado dice que el futuro de la IA depende del avance energético, por otro apuesta fuerte por la fusión, y luego OpenAI fue a negociar grandes pedidos de compra de electricidad con Helion. Dijo que se abstuvo de las negociaciones, pero esta cadena de intereses la ve cualquiera.
Es cierto que no tiene acciones directas de OpenAI, pero ha construido un vasto imperio de inversiones centrado en su persona alrededor de OpenAI. Cada uno de sus grandes sermones sobre el futuro de la humanidad inyecta valor en el mapa de este imperio.
Ahora, mirando hacia atrás a su mochila de evacuación llena de armas, oro y antibióticos, y a ese terreno en Big Sur al que puede volar en cualquier momento, ¿se entiende de otra manera?
Nunca ocultó nada de esto. La mochila de evacuación es real, el búnker es real, la obsesión con el apocalipsis es real. Pero también es la persona que más se esfuerza por impulsar la llegada del apocalipsis. Estas dos cosas no son contradictorias, porque en su lógica, el apocalipsis no necesita ser detenido, solo necesita ser posicionado con antelación. Está obsesionado con interpretar el papel de la única persona que ve el futuro y se prepara para él.
Ya sea preparando una mochila de evacuación material o construyendo un imperio financiero alrededor de OpenAI, la esencia es la misma: en el futuro incierto que impulsa con sus propias manos, asegurarse la posición de ganador más segura.
En febrero de 2026, justo después de decir que apoyaba la línea roja de "no usar la IA para la guerra", firmó un contrato con el Pentágono. Esto no es hipocresía, es un requisito inherente de su modelo de negocio. La pose moral es parte del producto, el contrato comercial es la fuente de beneficios. Necesita interpretar simultáneamente el papel de salvador compasivo y el de profeta del apocalipsis despiadado, porque solo interpretando ambos roles su historia puede continuar, su "destino manifiesto" puede hacerse evidente.
Lo realmente peligroso nunca ha sido la IA, sino aquellos que creen tener el derecho de definir el destino de la humanidad.












