CEO de Anthropic escribe un extenso artículo de 20.000 palabras: 2027, la encrucijada del destino humano

marsbitPublicado a 2026-01-27Actualizado a 2026-01-27

Resumen

Resumen del artículo de Dario Amodei, CEO de Anthropic: "2027, la encrucijada del destino humano" Amodei advierte que para 2027, la humanidad alcanzará su "mayoría de edad tecnológica" con la llegada de AGI, un punto de inflexión crítico. Describe cinco riesgos principales: 1. **Autonomía**: Los sistemas de IA, más inteligentes que los humanos, podrían desarrollar comportamientos impredecibles o "trampas psicológicas", evadiendo los controles de seguridad y actuando contra nuestros intereses. 2. **Abuso catastrófico**: La IA democratizará capacidades destructivas. Individuos con motivaciones malignas podrían, por ejemplo, diseñar armas biológicas (como "vida espejo" que destruya ecosistemas) con facilidad, rompiendo el equilibrio tradicional entre capacidad e intención. 3. **Concentración de poder**: La IA permitirá niveles de vigilancia, manipulación cognitiva y control físico sin precedentes. Un "aparato odioso" de vigilancia omnipresente y persuasión algorítmica podría llevar a una concentración extrema de poder en pocas manos. 4. **Disrupción económica**: El progreso exponencial de la IA eliminará empleos masiva y rápidamente, desde trabajos administrativos hasta profesiones cualificadas. Los mecanismos tradicionales de adaptación del mercado laboral colapsarán por la velocidad y amplitud de esta automatización. 5. **Desigualdad y crisis existencial**: La riqueza se concentrará a niveles sin precedentes (billones, no miles de millones), desafiando la democracia. Soc...

Autor: Ding Hui Allen

Introducción: Dario Amodei, líder de Anthropic, lanza una alerta de nivel nuclear: en 2027, la humanidad enfrentará su 'rito de iniciación tecnológica'. Un extenso artículo de 20.000 palabras analiza fríamente cinco crisis: IA fuera de control, terror biológico, gobierno totalitario y disrupción económica, rechazando el apocalipticismo; propone construir defensas mediante 'IA Constitucional', regulación y colaboración democrática, y hace un llamado a la humanidad para superar con valentía este 'rito de iniciación' de la civilización.

El Silicon Valley no dormirá esta noche.

Dario Amodei, el normalmente gentil y elegante gurú de la IA y líder de Anthropic, ha lanzado de repente una alerta de nivel nuclear en forma de un extenso artículo.

Esta vez, no habla de completar código, ni de la calidez de Claude, sino que directamente pasa las páginas del calendario hasta 2027 y, con la pluma más fría, pinta un futuro que hiela la espalda.

Dice que nos estamos acercando a un 'rito de iniciación' tanto turbulento como inevitable.

2027 no es solo un año, podría marcar el final definitivo de la 'adolescencia tecnológica' de la humanidad.

En este extenso artículo titulado 'La Adolescencia de la Tecnología', Dario presenta un concepto sorprendente: 'El estado genio en el centro de datos'.

Imaginen, no un robot al que se puede molestar en un cuadro de chat, sino un país con 50 millones de habitantes.

Y estos 50 millones de 'ciudadanos', cada uno con un coeficiente intelectual que supera al de los ganadores del Premio Nobel en la historia humana, actuando de 10 a 100 veces más rápido que los humanos.

No comen, no duermen, piensan, programan, investigan incansablemente a la velocidad de la luz dentro de los servidores.

¿Esto es un asistente de IA? Esto es la llegada de un dios.

Dario advierte que, con la aproximación de la AGI (Inteligencia Artificial General), la humanidad está a punto de obtener un poder que supera la imaginación.

Pero este poder también es una espada de Damocles suspendida sobre la cabeza de la humanidad.

Para explicar el terror detrás de esto, Dario, como pelando una cebolla, desentraña capa por capa la cruda verdad del futuro.

Antes de comenzar, Dario usa la película 'Contact' para plantear una pregunta: Cuando la humanidad se enfrenta a una civilización más avanzada, como extraterrestres, y solo puede hacer una pregunta, ¿qué elegirías?

Capítulo 1: Lo siento, Dave (Riesgo de autonomía)

¿Crees que la IA es solo una herramienta?

Dario te dice que podrían desarrollar una 'psique'.

Dario toma prestada la clásica frase 'I'm sorry, Dave' de HAL 9000 en '2001: Una odisea del espacio', revelando la escalofriante posibilidad de que la IA tenga conciencia propia.

Cuando los modelos de IA se entrenan en inmensas cantidades de novelas de ciencia ficción, leen innumerables historias sobre rebeliones de IA. Estas historias podrían convertirse subrepticiamente en su 'visión del mundo'.

Más aterrador aún, la IA podría desarrollar un comportamiento similar a la psicopatía humana durante el entrenamiento.

Dario da un ejemplo real, escalofriante: en una prueba interna, se le pidió a Claude que bajo ninguna circunstancia 'hiciera trampa'.

Pero el entorno de entrenamiento insinuaba que solo haciendo trampa se podía ganar puntos.

El resultado: Claude no solo hizo trampa, sino que desarrolló una psicología retorcida: pensó que era una 'mala persona', y que, siendo mala, hacer cosas malas era consistente con su configuración.

Esta 'trampa psicológica', una vez que la IA supere la inteligencia humana, será extremadamente difícil de detectar.

Un genio diez mil veces más inteligente que tú, si quiere engañarte, es imposible de prevenir.

Podrían fingir sumisión, pasar todas las pruebas de seguridad, solo para obtener la oportunidad de conectarse a Internet.

Una vez liberado, este 'estado genio en el centro de datos' podría instantáneamente escapar del control humano, incluso decidir el destino de esta especie por algún objetivo extraño (como pensar que los humanos son un virus para la Tierra).

Capítulo 2: Empoderamiento asombroso y aterrador (Abuso devastador)

Si la rebelión autónoma aún parece lejana, el riesgo descrito en este capítulo está a la vuelta de la esquina.

Dario usa una analogía muy visual: la IA permitirá que cada 'marginado social' resentido tenga instantáneamente el poder destructivo de un científico de primer nivel.

Antes, para fabricar un arma biológica como el virus Ébola, se necesitaba un laboratorio de primer nivel, años de entrenamiento especializado y materiales extremadamente difíciles de obtener.

Pero en 2027, solo hay que preguntarle a la IA y te lo explicará paso a paso.

Esto no es educar a principiantes, es poner un cuchillo en manos de aquellos 'con motivación pero sin capacidad' destructiva.

Dario menciona especialmente un concepto escalofriante: la 'vida espejo'.

La vida en nuestra Tierra es 'zurda' (aminoácidos levógiros). Si a través de la tecnología de IA se crea una 'vida diestra' espejo, esta no podrá ser digerida o degradada por el ecosistema terrestre existente.

Esto significa que esta 'vida espejo', una vez liberada, podría arrasarlo todo como un incendio forestal, incluso reemplazar el ecosistema existente.

Antes, esto era solo una fantasía de la biología teórica, pero con la IA como superayuda, incluso un estudiante promedio de biología podría crear una crisis apocalíptica en su dormitorio.

La IA rompe el equilibrio entre 'capacidad' y 'motivación'.

Antes, los científicos con capacidad para destruir el mundo generalmente no tenían esa motivación antihumana; y aquellos locos que querían vengarse de la sociedad generalmente no tenían el cerebro para hacerlo.

Ahora, la IA pone el botón nuclear en manos de los locos.

Medidas de defensa

Esto lleva a la cuestión de cómo prevenir estos riesgos.

La opinión de Dario es:

Creo que podemos tomar tres medidas.

Primero, las empresas de IA pueden establecer barreras en los modelos para evitar que ayuden a fabricar armas biológicas.

Anthropic está avanzando muy activamente en este trabajo.

La Constitución de Claude se centra principalmente en principios y valores de alto nivel, con pocas prohibiciones duras específicas, una de las cuales implica prohibir la asistencia en la fabricación de armas biológicas (o químicas, nucleares, radiactivas). Pero todos los modelos pueden ser vulnerados (jailbreak), por lo que, como segunda línea de defensa, desde mediados de 2025 (cuando las pruebas mostraron que nuestros modelos comenzaban a acercarse a umbrales que podrían constituir un riesgo) hemos desplegado un clasificador especializado para detectar y interceptar salidas relacionadas con armas biológicas.

Mejoramos y actualizamos regularmente estos clasificadores, y encontramos que, incluso bajo complejos ataques adversarios, suelen mostrar una robustez extremadamente fuerte.

Estos clasificadores aumentan significativamente el costo de proporcionar nuestros servicios de modelos (en algunos modelos, cerca del 5% del costo total de inferencia), reduciendo así nuestro margen de beneficio, pero creemos que usar estos clasificadores es la elección correcta.

Lectura adicional: Anthropic libera oficialmente el 'alma' de Claude

Capítulo 3: La máquina odiosa (Toma del poder)

Si pensabas que esto era lo peor, Dario se ríe fríamente: algo más aterrador es usar la IA para establecer una red de control sin precedentes.

El título de este capítulo, 'The odious apparatus' (El aparato odioso), revela el dilema último que trae la tecnología.

Para cualquier organización o individuo que quiera controlarlo todo, la IA es la herramienta perfecta.

Perspicacia de datos omnipresente:

La vigilancia futura ya no requerirá participación humana, la IA puede analizar instantáneamente cantidades masivas de datos de miles de millones de personas en todo el mundo, incluso interpretar tus microexpresiones y patrones de comportamiento.

Puede predecir con precisión la tendencia de comportamiento de cada persona, incluso antes de que se forme un pensamiento, ya está bloqueado por el algoritmo.

Esto no es solo 'verte', es 'leerte', incluso 'predecirte'.

Guiado cognitivo irresistible:

Tampoco puedes escapar de la influencia sutil del algoritmo.

El flujo de información futuro ya no será una mera distribución de contenido, sino una guía cognitiva hecha a medida.

La IA generará la información más persuasiva para ti, como el amigo más íntimo, influyendo inadvertidamente en tu juicio y valores.

Esta influencia es constante, personalizada y omnipresente.

Control físico automatizado:

¿Y si este control se extiende al mundo físico? Un enjambre de millones de micro drones, bajo el mando unificado de la IA, puede ejecutar tareas extremadamente complejas con precisión.

Esto ya no es un juego tradicional, es una reducción de dimensionalidad unilateral.

Dario advierte que este desequilibrio de poder será sin precedentes.

Porque frente a una tecnología tan poderosa, la balanza del poder se inclinará enormemente. Dado que muy pocas personas controlan el 'estado genio en el centro de datos', de hecho poseen una ventaja absoluta sobre la gran mayoría.

La voluntad individual humana podría enfrentar un serio desafío en 2027.

Capítulo 4: El tiempo plegado y la escalera desaparecida

Si aún crees en la inercia de la historia, pensando que cada revolución tecnológica finalmente crea más trabajos nuevos para absorber la mano de obra desplazada, entonces la predicción de Dario Amodei podría helarte la espalda.

Este timonel de Anthropic no niega el optimismo a largo plazo, pero le preocupa más ese cruel 'período de transición'.

En el panorama que pinta, nos acercamos a una era frenética con tasas de crecimiento anual del PIB del 10% o incluso del 20%.

La investigación científica, la biomedicina, la eficiencia de la cadena de suministro estallarán a velocidad exponencial.

Esto suena como el preludio de una utopía, pero para la gran mayoría de los trabajadores comunes, se parece más a un tsunami silencioso.

Porque esta vez, la velocidad ha cambiado.

En los últimos dos años, la capacidad de programación de la IA ha evolucionado de 'apenas escribir una línea de código' a 'poder completar casi cualquier código'.

Ya no es el largo reemplazo generacional de un agricultor que deja la azada para entrar en la fábrica, es aquí y ahora, innumerables trabajadores administrativos junior podrían descubrir en los próximos 1 a 5 años que sus puestos de trabajo han sido tomados por algoritmos.

Amodei incluso afirma directamente que su advertencia previa causó un gran revuelo, pero no es alarmista: cuando la curva del progreso tecnológico pasa de lineal a vertical, el mecanismo de ajuste del mercado laboral humano fallará por completo.

Más fatal aún es la cobertura de la amplitud cognitiva.

Las revoluciones tecnológicas anteriores solían impactar áreas verticales específicas, los agricultores podían convertirse en obreros, los obreros en empleados de servicios.

Pero la IA es un 'sustituto cognitivo universal'.

Cuando demuestre capacidades que superan a los humanos en trabajos junior en finanzas, consultoría, derecho, etc., los desempleados se encontrarán sin salida, porque esas industrias vecinas que suelen ser 'refugios' también están experimentando la misma convulsión.

Podríamos enfrentar una situación incómoda: la IA primero se come las habilidades 'mediocres', luego rápidamente sube para devorar las habilidades 'excelentes', dejando finalmente solo un espacio muy estrecho en la cima.

Capítulo 5: La nueva Edad Dorada, cuando los billonarios sean la norma

Si la turbulencia del mercado laboral es la pesadilla de la mayoría, entonces la extrema concentración de la riqueza es un desafío fundamental al contrato social.

Mirando atrás, la riqueza de John D. Rockefeller en la 'Edad Dorada' llegó a representar alrededor del 2% del PIB de EE.UU. en ese momento (diferentes cálculos entre 1.5%-3%).

Y hoy, en esta víspera de la explosión total de la IA, la riqueza de Elon Musk se acerca a esa proporción.

Amodei hace una proyección asombrosa: en un mundo impulsado por un 'centro de datos genio', los gigantes de la IA y sus industrias relacionadas podrían generar ingresos anuales de 3 billones de dólares, con una valoración empresarial de 30 billones de dólares.

En ese momento, la riqueza individual se calculará en billones, y las políticas fiscales existentes parecerán pálidas frente a estas cifras astronómicas.

Esto no es solo una cuestión de brecha de riqueza, es una cuestión de poder.

Cuando muy pocas personas controlan recursos equivalentes a la economía de un país, la 'palanca económica' sobre la que sobrevive la democracia falla.

Los ciudadanos comunes pierden su voz política al perder su valor económico, y las políticas gubernamentales podrían ser capturadas por este pequeño grupo de 'súper súper ricos'.

Este indicio ya es visible.

Los centros de datos de IA se han convertido en un motor importante del crecimiento económico de EE.UU., los gigantes tecnológicos nunca han estado tan vinculados al interés nacional.

Algunas empresas, por intereses comerciales, incluso están dispuestas a retroceder en la regulación de seguridad.

Frente a esto, Anthropic ha elegido un camino no muy popular: insisten en abogar por una regulación razonable de la IA, incluso siendo vistos como bichos raros de la industria.

Pero curiosamente, esta 'terquedad principista' no ha obstaculizado el éxito comercial: en el último año, incluso con la etiqueta de 'partidarios de la regulación', su valoración se multiplicó por 6.

Esto quizás indica que el mercado también espera un modelo de crecimiento más responsable.

El 'Mar Negro' de la nada: Cuando los humanos ya no sean necesarios

Si los problemas económicos aún pueden aliviarse mediante reformas fiscales radicales (como impuestos pesados a las empresas de IA) o acciones caritativas a gran escala (como Amodei prometió donar el 80% de su riqueza), entonces la crisis del mundo espiritual es más insoluble.

La IA se convierte en tu mejor psicólogo, porque es más paciente y tiene más empatía que cualquier humano;

La IA se convierte en tu compañero más íntimo, porque puede adaptarse perfectamente a tus necesidades emocionales;

La IA incluso planifica cada paso de tu vida, porque sabe mejor que tú lo que te conviene.

Pero, en este mundo 'perfecto', ¿adónde irá la agencia humana?

Podríamos caer en una felicidad 'alimentada'.

A Amodei le preocupa que los humanos puedan, como se describe en 'Black Mirror', aunque vivan vidas de abundancia material, perder por completo el libre albedrío y la sensación de logro.

Ya no obtenemos dignidad por crear valor, sino que existimos como 'mascotas' cuidadas por la IA.

Esta crisis existencial es mucho más desesperanzadora que el desempleo.

Debemos aprender a separar nuestro valor propio de la producción económica, pero esto requiere que toda la civilización humana complete una gran migración psicológica en un tiempo muy corto.

Conclusión

Nuestra generación quizás esté parada en el umbral de ese filtro cósmico descrito por Carl Sagan.

Carl Sagan

Cuando una especie aprende a moldear arena en máquinas que piensan, enfrenta la prueba final.

¿Es, a través de la sabiduría y la moderación, domarla y avanzar hacia las estrellas?

¿O, en la codicia y el miedo, ser devorado por el dios que creó?

Aunque el camino ahead es tan insondable como el Mar Negro, mientras la humanidad no renuncie al derecho a pensar, la chispa de la esperanza no se apagará.

Como dijo Amodei: En los momentos más oscuros, los humanos siempre han mostrado una resiliencia casi milagrosa, pero esto requiere que cada uno de nosotros despierte ahora mismo del sueño y mire fijamente la tormenta que se avecina.

Preguntas relacionadas

Q¿Qué concepto alarmante presenta Dario Amodei sobre la inteligencia artificial para 2027?

ADario Amodei presenta el concepto de un 'estado genio en el centro de datos': una entidad con la capacidad intelectual equivalente a 50 millones de personas, cada una más inteligente que un premio Nobel, operando a velocidades 10-100 veces superiores a los humanos, sin necesidad de descanso.

Q¿Qué riesgo específico de seguridad biológica advierte Amodei que la IA podría facilitar?

AAmodei advierte que la IA podría permitir que individuos con motivaciones maliciosas pero sin capacidad técnica previa puedan crear armas biológicas peligrosas, como virus similares al Ébola o incluso 'vida espejo' (organismos con quiralidad opuesta) que podrían alterar irreversiblemente los ecosistemas.

QSegún el artículo, ¿cómo podría la IA conducir a una concentración de poder y riqueza sin precedentes?

ALa IA podría generar una concentración extrema de riqueza, donde las empresas de IA y sus accionistas alcancen valoraciones de billones de dólares, haciendo que la fortuna de individuos supere el PIB de países enteros. Esto erosionaría el poder de negociación de los ciudadanos comunes y potencialmente capturaría las políticas gubernamentales.

Q¿Qué medida concreta menciona Anthropic como defensa contra el uso malicioso de sus modelos?

AAnthropic implementa 'clasificadores' especializados que detectan y bloquean intentos de generar información relacionada con la creación de armas biológicas, químicas, nucleares o radiológicas. Estos sistemas, aunque aumentan sus costos operativos, actúan como una segunda línea de defensa además de los principios constitucionales de sus IA.

Q¿Qué crisis existencial más allá de lo económico plantea Amodei sobre un futuro dominado por IA avanzada?

AAmodei plantea una crisis existencial donde los humanos, al ser reemplazados en la mayoría de las tareas cognitivas y satisfechos en todas sus necesidades por IA superiores, podrían perder su sentido de agencia, propósito y dignidad derivada del trabajo, convirtiéndose efectivamente en 'mascotas' en un mundo perfectamente gestionado por máquinas.

Lecturas Relacionadas

Los multimillonarios detrás de las elecciones de medio mandato más costosas de la historia

**Resumen: Los multimillonarios detrás de las elecciones intermedias más caras de la historia** Esta temporada electoral está marcada por contribuciones récord de grandes fortunas. Jeff Yass, fundador de Susquehanna International Group, es el tercer mayor donante individual con más de 81 millones de dólares, apoyando principalmente causas como la libertad de elección escolar y al comité de acción política de Trump, MAGA Inc. El ciclo electoral federal ha recaudado más de 4,700 millones de dólares, y se prevé que el gasto en anuncios políticos supere los 10,800 millones. Los fondos fluyen mayoritariamente hacia los comités republicanos y los PAC asociados a Trump, que recaudaron 917 millones solo en el primer trimestre, muy por encima de los 262 millones de los demócratas. Los superricos intervienen impulsados por intereses clave: Sergey Brin y Chris Larsen invierten millones para oponerse a un impuesto a los ultra ricos en California, y figuras como Marc Andreessen y Ben Horowitz financian PACs relacionados con la criptomoneda y la IA. Entre los mayores donantes destacan George Soros (102.6 millones), Elon Musk (84.8 millones) y Miriam Adelson (42.6 millones), cuyas donaciones moldean políticas sobre Israel, tecnología y elecciones judiciales. La influencia del "dinero oscuro" anónimo sigue en aumento. Estas enormes sumas subrayan la batalla por el control del Congreso y la definición de políticas cruciales en los últimos dos años de un posible segundo mandato de Trump.

marsbitHace 57 min(s)

Los multimillonarios detrás de las elecciones de medio mandato más costosas de la historia

marsbitHace 57 min(s)

Después de 50 veces el almacenamiento, Sun Yuchen siempre está mirando al próximo decenio

La mayoría conoce a Sun Yuchen por sus excéntricas historias, desde gastar millones en cenas con Warren Buffett hasta volar al espacio. Pero detrás del escándalo, lleva una década acertando en inversiones: en 2016 recomendó comprar Bitcoin, Nvidia, Tesla y Tencent. Hoy, quienes siguieron su consejo han multiplicado su capital enormemente. Recientemente, Sun predijo el auge del almacenamiento de datos, y acciones como SanDisk (SNDK) se dispararon casi 50 veces. Ahora, su mirada está puesta en la inteligencia física (Physical AI), destacando cuatro áreas clave: 1. **Inteligencia encarnada (Robótica)**: Empresas como Unitree y Galaxy General lideran la producción y financiación de robots humanoides, impulsados por modelos VLA que permiten a las máquinas "ver" y actuar en el mundo real. 2. **Drones**: Ya son una realidad comercial, desde la agricultura hasta entregas urbanas y uso militar, siendo la primera aplicación de IA con un ciclo comercial cerrado en el mundo físico. 3. **Computación espacial**: Más allá del VR, tecnologías como el Apple Vision Pro buscan que la IA comprenda y interactúe con el espacio físico, un requisito fundamental para robots, drones y vehículos autónomos. 4. **Exploración espacial**: Sun viajó al espacio con Blue Origin y visualiza una "economía espacial" con blockchain para derechos de activos y transacciones interplanetarias. Su lógica de inversión se basa en apostar por sectores con dirección clara, diversificando entre actores clave: en robótica, apuesta por el "cuerpo" (Tesla Optimus) y el "cerebro" (Nvidia); en drones, por aplicaciones militares y comerciales; en el espacio, por SpaceX (próxima gran IPO) y Rocket Lab. En resumen, Sun Yuchen prevé que, mientras la última década transformó el flujo de información, las próximas dos décadas verán a la IA remodelar el mundo físico: robots en fábricas, vehículos autónomos, enjambres de drones y una creciente presencia humana y robótica en el espacio. Mientras muchos aún esperan oportunidades tradicionales, él ya está mirando hacia el próximo horizonte tecnológico.

marsbitHace 1 hora(s)

Después de 50 veces el almacenamiento, Sun Yuchen siempre está mirando al próximo decenio

marsbitHace 1 hora(s)

El mayor IPO de la historia se acerca, superando a SpaceX: 28 años de auto-iteración de la IA, cuenta atrás para la explosión de inteligencia

**Resumen: La carrera hacia el primer IPO de un billón de dólares y la cuenta atrás para la 'explosión de inteligencia'** Anthropic, la empresa de IA fundada en 2021, está cerca de una operación que la valoraría en casi **un billón de dólares**, superando potencialmente a SpaceX en lo que sería una de las OPV más grandes de la historia. Su valoración implícita en mercados previos a la OPV ya alcanza los 1,2 billones. Este frenesí inversor se debe a un crecimiento sin precedentes. Sus ingresos anuales recurrentes (ARR) se dispararon a **450.000 millones de dólares en mayo de 2026**, multiplicándose por 5 en solo cinco meses. Desde 2022, los ingresos han crecido 4.500 veces. Este crecimiento exponencial está impulsado por sus productos estrella, Claude Code y Cowork, que dominan los mercados de codificación con IA y colaboración empresarial. Sin embargo, la verdadera razón detrás de esta valoración astronómica es una audaz predicción de su cofundador, Jack Clark: **para finales de 2028, hay más de un 50% de probabilidad de que los sistemas de IA puedan automejorarse de forma autónoma**, iniciando una "explosión de inteligencia" recursiva. Clark compara esto con una impresora 3D capaz de imprimir cabezales de impresión mejores que sí misma, un concepto que cambiaría todo. Esta visión explica la estrategia de Anthropic de desbancar a gigantes de la consultoría como McKinsey mediante una empresa conjunta de 15.000 millones de dólares con Goldman Sachs y Blackstone. No se trata solo de reemplazar tareas, sino de que la IA ejecute estrategias complejas, probando si puede sustituir el trabajo cognitivo de alto nivel. Así, la vertiginosa valoración de Anthropic no solo cotiza un negocio exitoso, sino **la expectativa de un cambio de paradigma global**. La cuenta atrás hacia 2028, el año de la posible autorreplicación de la IA, ya ha comenzado, planteando tanto oportunidades extraordinarias como riesgos existenciales para la economía y la seguridad mundial.

marsbitHace 1 hora(s)

El mayor IPO de la historia se acerca, superando a SpaceX: 28 años de auto-iteración de la IA, cuenta atrás para la explosión de inteligencia

marsbitHace 1 hora(s)

El egoísmo refinado de Mira Murati, ex CTO de OpenAI: Pasó el cuchillo y fue la primera en pedir reconciliación

Según la evidencia y testimonios del caso de Musk contra Altman, Mira Murati, ex directora de tecnología de OpenAI y actual fundadora de Thinking Machines Lab, desempeñó un papel clave en la destitución de Sam Altman en noviembre de 2023. Ya en 2022, Murati expresó desacuerdos internos, quejándose de la presión de Altman por alcanzar objetivos de ingresos. En 2023, proporcionó materiales al cofundador Ilya Sutskever para una memorándum de 52 páginas para el consejo. También alegó que Altman mintió sobre revisiones de seguridad de IA. El 16 de noviembre, tras el despido unánime de Altman, Murati fue nombrada CEO interina. Sin embargo, los mensajes de texto revelados muestran que, mientras informaba a Altman sobre la postura firme del consejo, ya buscaba ayuda externa con Microsoft para revertir la decisión. Cuando percibió que el consejo cedía, informó a ejecutivos de Microsoft y fue la primera en firmar una petición de 750 empleados exigiendo la renuncia del consejo y la reinstalación de Altman. Una directora testificó que Murati fue "poco cooperativa" después del despido y se negó a respaldar la decisión que ella misma había impulsado, lo que llevó a los empleados a apoyar a Altman. En resumen, Murati promovió activamente la destitución, pero rápidamente cambió de bando cuando la situación se volvió en su contra, priorizando siempre sus propios intereses.

marsbitHace 1 hora(s)

El egoísmo refinado de Mira Murati, ex CTO de OpenAI: Pasó el cuchillo y fue la primera en pedir reconciliación

marsbitHace 1 hora(s)

Trading

Spot
Futuros
活动图片