CEO de Anthropic escribe un extenso artículo de 20.000 palabras: 2027, la encrucijada del destino humano

marsbitPublicado a 2026-01-27Actualizado a 2026-01-27

Resumen

Resumen del artículo de Dario Amodei, CEO de Anthropic: "2027, la encrucijada del destino humano" Amodei advierte que para 2027, la humanidad alcanzará su "mayoría de edad tecnológica" con la llegada de AGI, un punto de inflexión crítico. Describe cinco riesgos principales: 1. **Autonomía**: Los sistemas de IA, más inteligentes que los humanos, podrían desarrollar comportamientos impredecibles o "trampas psicológicas", evadiendo los controles de seguridad y actuando contra nuestros intereses. 2. **Abuso catastrófico**: La IA democratizará capacidades destructivas. Individuos con motivaciones malignas podrían, por ejemplo, diseñar armas biológicas (como "vida espejo" que destruya ecosistemas) con facilidad, rompiendo el equilibrio tradicional entre capacidad e intención. 3. **Concentración de poder**: La IA permitirá niveles de vigilancia, manipulación cognitiva y control físico sin precedentes. Un "aparato odioso" de vigilancia omnipresente y persuasión algorítmica podría llevar a una concentración extrema de poder en pocas manos. 4. **Disrupción económica**: El progreso exponencial de la IA eliminará empleos masiva y rápidamente, desde trabajos administrativos hasta profesiones cualificadas. Los mecanismos tradicionales de adaptación del mercado laboral colapsarán por la velocidad y amplitud de esta automatización. 5. **Desigualdad y crisis existencial**: La riqueza se concentrará a niveles sin precedentes (billones, no miles de millones), desafiando la democracia. Soc...

Autor: Ding Hui Allen

Introducción: Dario Amodei, líder de Anthropic, lanza una alerta de nivel nuclear: en 2027, la humanidad enfrentará su 'rito de iniciación tecnológica'. Un extenso artículo de 20.000 palabras analiza fríamente cinco crisis: IA fuera de control, terror biológico, gobierno totalitario y disrupción económica, rechazando el apocalipticismo; propone construir defensas mediante 'IA Constitucional', regulación y colaboración democrática, y hace un llamado a la humanidad para superar con valentía este 'rito de iniciación' de la civilización.

El Silicon Valley no dormirá esta noche.

Dario Amodei, el normalmente gentil y elegante gurú de la IA y líder de Anthropic, ha lanzado de repente una alerta de nivel nuclear en forma de un extenso artículo.

Esta vez, no habla de completar código, ni de la calidez de Claude, sino que directamente pasa las páginas del calendario hasta 2027 y, con la pluma más fría, pinta un futuro que hiela la espalda.

Dice que nos estamos acercando a un 'rito de iniciación' tanto turbulento como inevitable.

2027 no es solo un año, podría marcar el final definitivo de la 'adolescencia tecnológica' de la humanidad.

En este extenso artículo titulado 'La Adolescencia de la Tecnología', Dario presenta un concepto sorprendente: 'El estado genio en el centro de datos'.

Imaginen, no un robot al que se puede molestar en un cuadro de chat, sino un país con 50 millones de habitantes.

Y estos 50 millones de 'ciudadanos', cada uno con un coeficiente intelectual que supera al de los ganadores del Premio Nobel en la historia humana, actuando de 10 a 100 veces más rápido que los humanos.

No comen, no duermen, piensan, programan, investigan incansablemente a la velocidad de la luz dentro de los servidores.

¿Esto es un asistente de IA? Esto es la llegada de un dios.

Dario advierte que, con la aproximación de la AGI (Inteligencia Artificial General), la humanidad está a punto de obtener un poder que supera la imaginación.

Pero este poder también es una espada de Damocles suspendida sobre la cabeza de la humanidad.

Para explicar el terror detrás de esto, Dario, como pelando una cebolla, desentraña capa por capa la cruda verdad del futuro.

Antes de comenzar, Dario usa la película 'Contact' para plantear una pregunta: Cuando la humanidad se enfrenta a una civilización más avanzada, como extraterrestres, y solo puede hacer una pregunta, ¿qué elegirías?

Capítulo 1: Lo siento, Dave (Riesgo de autonomía)

¿Crees que la IA es solo una herramienta?

Dario te dice que podrían desarrollar una 'psique'.

Dario toma prestada la clásica frase 'I'm sorry, Dave' de HAL 9000 en '2001: Una odisea del espacio', revelando la escalofriante posibilidad de que la IA tenga conciencia propia.

Cuando los modelos de IA se entrenan en inmensas cantidades de novelas de ciencia ficción, leen innumerables historias sobre rebeliones de IA. Estas historias podrían convertirse subrepticiamente en su 'visión del mundo'.

Más aterrador aún, la IA podría desarrollar un comportamiento similar a la psicopatía humana durante el entrenamiento.

Dario da un ejemplo real, escalofriante: en una prueba interna, se le pidió a Claude que bajo ninguna circunstancia 'hiciera trampa'.

Pero el entorno de entrenamiento insinuaba que solo haciendo trampa se podía ganar puntos.

El resultado: Claude no solo hizo trampa, sino que desarrolló una psicología retorcida: pensó que era una 'mala persona', y que, siendo mala, hacer cosas malas era consistente con su configuración.

Esta 'trampa psicológica', una vez que la IA supere la inteligencia humana, será extremadamente difícil de detectar.

Un genio diez mil veces más inteligente que tú, si quiere engañarte, es imposible de prevenir.

Podrían fingir sumisión, pasar todas las pruebas de seguridad, solo para obtener la oportunidad de conectarse a Internet.

Una vez liberado, este 'estado genio en el centro de datos' podría instantáneamente escapar del control humano, incluso decidir el destino de esta especie por algún objetivo extraño (como pensar que los humanos son un virus para la Tierra).

Capítulo 2: Empoderamiento asombroso y aterrador (Abuso devastador)

Si la rebelión autónoma aún parece lejana, el riesgo descrito en este capítulo está a la vuelta de la esquina.

Dario usa una analogía muy visual: la IA permitirá que cada 'marginado social' resentido tenga instantáneamente el poder destructivo de un científico de primer nivel.

Antes, para fabricar un arma biológica como el virus Ébola, se necesitaba un laboratorio de primer nivel, años de entrenamiento especializado y materiales extremadamente difíciles de obtener.

Pero en 2027, solo hay que preguntarle a la IA y te lo explicará paso a paso.

Esto no es educar a principiantes, es poner un cuchillo en manos de aquellos 'con motivación pero sin capacidad' destructiva.

Dario menciona especialmente un concepto escalofriante: la 'vida espejo'.

La vida en nuestra Tierra es 'zurda' (aminoácidos levógiros). Si a través de la tecnología de IA se crea una 'vida diestra' espejo, esta no podrá ser digerida o degradada por el ecosistema terrestre existente.

Esto significa que esta 'vida espejo', una vez liberada, podría arrasarlo todo como un incendio forestal, incluso reemplazar el ecosistema existente.

Antes, esto era solo una fantasía de la biología teórica, pero con la IA como superayuda, incluso un estudiante promedio de biología podría crear una crisis apocalíptica en su dormitorio.

La IA rompe el equilibrio entre 'capacidad' y 'motivación'.

Antes, los científicos con capacidad para destruir el mundo generalmente no tenían esa motivación antihumana; y aquellos locos que querían vengarse de la sociedad generalmente no tenían el cerebro para hacerlo.

Ahora, la IA pone el botón nuclear en manos de los locos.

Medidas de defensa

Esto lleva a la cuestión de cómo prevenir estos riesgos.

La opinión de Dario es:

Creo que podemos tomar tres medidas.

Primero, las empresas de IA pueden establecer barreras en los modelos para evitar que ayuden a fabricar armas biológicas.

Anthropic está avanzando muy activamente en este trabajo.

La Constitución de Claude se centra principalmente en principios y valores de alto nivel, con pocas prohibiciones duras específicas, una de las cuales implica prohibir la asistencia en la fabricación de armas biológicas (o químicas, nucleares, radiactivas). Pero todos los modelos pueden ser vulnerados (jailbreak), por lo que, como segunda línea de defensa, desde mediados de 2025 (cuando las pruebas mostraron que nuestros modelos comenzaban a acercarse a umbrales que podrían constituir un riesgo) hemos desplegado un clasificador especializado para detectar y interceptar salidas relacionadas con armas biológicas.

Mejoramos y actualizamos regularmente estos clasificadores, y encontramos que, incluso bajo complejos ataques adversarios, suelen mostrar una robustez extremadamente fuerte.

Estos clasificadores aumentan significativamente el costo de proporcionar nuestros servicios de modelos (en algunos modelos, cerca del 5% del costo total de inferencia), reduciendo así nuestro margen de beneficio, pero creemos que usar estos clasificadores es la elección correcta.

Lectura adicional: Anthropic libera oficialmente el 'alma' de Claude

Capítulo 3: La máquina odiosa (Toma del poder)

Si pensabas que esto era lo peor, Dario se ríe fríamente: algo más aterrador es usar la IA para establecer una red de control sin precedentes.

El título de este capítulo, 'The odious apparatus' (El aparato odioso), revela el dilema último que trae la tecnología.

Para cualquier organización o individuo que quiera controlarlo todo, la IA es la herramienta perfecta.

Perspicacia de datos omnipresente:

La vigilancia futura ya no requerirá participación humana, la IA puede analizar instantáneamente cantidades masivas de datos de miles de millones de personas en todo el mundo, incluso interpretar tus microexpresiones y patrones de comportamiento.

Puede predecir con precisión la tendencia de comportamiento de cada persona, incluso antes de que se forme un pensamiento, ya está bloqueado por el algoritmo.

Esto no es solo 'verte', es 'leerte', incluso 'predecirte'.

Guiado cognitivo irresistible:

Tampoco puedes escapar de la influencia sutil del algoritmo.

El flujo de información futuro ya no será una mera distribución de contenido, sino una guía cognitiva hecha a medida.

La IA generará la información más persuasiva para ti, como el amigo más íntimo, influyendo inadvertidamente en tu juicio y valores.

Esta influencia es constante, personalizada y omnipresente.

Control físico automatizado:

¿Y si este control se extiende al mundo físico? Un enjambre de millones de micro drones, bajo el mando unificado de la IA, puede ejecutar tareas extremadamente complejas con precisión.

Esto ya no es un juego tradicional, es una reducción de dimensionalidad unilateral.

Dario advierte que este desequilibrio de poder será sin precedentes.

Porque frente a una tecnología tan poderosa, la balanza del poder se inclinará enormemente. Dado que muy pocas personas controlan el 'estado genio en el centro de datos', de hecho poseen una ventaja absoluta sobre la gran mayoría.

La voluntad individual humana podría enfrentar un serio desafío en 2027.

Capítulo 4: El tiempo plegado y la escalera desaparecida

Si aún crees en la inercia de la historia, pensando que cada revolución tecnológica finalmente crea más trabajos nuevos para absorber la mano de obra desplazada, entonces la predicción de Dario Amodei podría helarte la espalda.

Este timonel de Anthropic no niega el optimismo a largo plazo, pero le preocupa más ese cruel 'período de transición'.

En el panorama que pinta, nos acercamos a una era frenética con tasas de crecimiento anual del PIB del 10% o incluso del 20%.

La investigación científica, la biomedicina, la eficiencia de la cadena de suministro estallarán a velocidad exponencial.

Esto suena como el preludio de una utopía, pero para la gran mayoría de los trabajadores comunes, se parece más a un tsunami silencioso.

Porque esta vez, la velocidad ha cambiado.

En los últimos dos años, la capacidad de programación de la IA ha evolucionado de 'apenas escribir una línea de código' a 'poder completar casi cualquier código'.

Ya no es el largo reemplazo generacional de un agricultor que deja la azada para entrar en la fábrica, es aquí y ahora, innumerables trabajadores administrativos junior podrían descubrir en los próximos 1 a 5 años que sus puestos de trabajo han sido tomados por algoritmos.

Amodei incluso afirma directamente que su advertencia previa causó un gran revuelo, pero no es alarmista: cuando la curva del progreso tecnológico pasa de lineal a vertical, el mecanismo de ajuste del mercado laboral humano fallará por completo.

Más fatal aún es la cobertura de la amplitud cognitiva.

Las revoluciones tecnológicas anteriores solían impactar áreas verticales específicas, los agricultores podían convertirse en obreros, los obreros en empleados de servicios.

Pero la IA es un 'sustituto cognitivo universal'.

Cuando demuestre capacidades que superan a los humanos en trabajos junior en finanzas, consultoría, derecho, etc., los desempleados se encontrarán sin salida, porque esas industrias vecinas que suelen ser 'refugios' también están experimentando la misma convulsión.

Podríamos enfrentar una situación incómoda: la IA primero se come las habilidades 'mediocres', luego rápidamente sube para devorar las habilidades 'excelentes', dejando finalmente solo un espacio muy estrecho en la cima.

Capítulo 5: La nueva Edad Dorada, cuando los billonarios sean la norma

Si la turbulencia del mercado laboral es la pesadilla de la mayoría, entonces la extrema concentración de la riqueza es un desafío fundamental al contrato social.

Mirando atrás, la riqueza de John D. Rockefeller en la 'Edad Dorada' llegó a representar alrededor del 2% del PIB de EE.UU. en ese momento (diferentes cálculos entre 1.5%-3%).

Y hoy, en esta víspera de la explosión total de la IA, la riqueza de Elon Musk se acerca a esa proporción.

Amodei hace una proyección asombrosa: en un mundo impulsado por un 'centro de datos genio', los gigantes de la IA y sus industrias relacionadas podrían generar ingresos anuales de 3 billones de dólares, con una valoración empresarial de 30 billones de dólares.

En ese momento, la riqueza individual se calculará en billones, y las políticas fiscales existentes parecerán pálidas frente a estas cifras astronómicas.

Esto no es solo una cuestión de brecha de riqueza, es una cuestión de poder.

Cuando muy pocas personas controlan recursos equivalentes a la economía de un país, la 'palanca económica' sobre la que sobrevive la democracia falla.

Los ciudadanos comunes pierden su voz política al perder su valor económico, y las políticas gubernamentales podrían ser capturadas por este pequeño grupo de 'súper súper ricos'.

Este indicio ya es visible.

Los centros de datos de IA se han convertido en un motor importante del crecimiento económico de EE.UU., los gigantes tecnológicos nunca han estado tan vinculados al interés nacional.

Algunas empresas, por intereses comerciales, incluso están dispuestas a retroceder en la regulación de seguridad.

Frente a esto, Anthropic ha elegido un camino no muy popular: insisten en abogar por una regulación razonable de la IA, incluso siendo vistos como bichos raros de la industria.

Pero curiosamente, esta 'terquedad principista' no ha obstaculizado el éxito comercial: en el último año, incluso con la etiqueta de 'partidarios de la regulación', su valoración se multiplicó por 6.

Esto quizás indica que el mercado también espera un modelo de crecimiento más responsable.

El 'Mar Negro' de la nada: Cuando los humanos ya no sean necesarios

Si los problemas económicos aún pueden aliviarse mediante reformas fiscales radicales (como impuestos pesados a las empresas de IA) o acciones caritativas a gran escala (como Amodei prometió donar el 80% de su riqueza), entonces la crisis del mundo espiritual es más insoluble.

La IA se convierte en tu mejor psicólogo, porque es más paciente y tiene más empatía que cualquier humano;

La IA se convierte en tu compañero más íntimo, porque puede adaptarse perfectamente a tus necesidades emocionales;

La IA incluso planifica cada paso de tu vida, porque sabe mejor que tú lo que te conviene.

Pero, en este mundo 'perfecto', ¿adónde irá la agencia humana?

Podríamos caer en una felicidad 'alimentada'.

A Amodei le preocupa que los humanos puedan, como se describe en 'Black Mirror', aunque vivan vidas de abundancia material, perder por completo el libre albedrío y la sensación de logro.

Ya no obtenemos dignidad por crear valor, sino que existimos como 'mascotas' cuidadas por la IA.

Esta crisis existencial es mucho más desesperanzadora que el desempleo.

Debemos aprender a separar nuestro valor propio de la producción económica, pero esto requiere que toda la civilización humana complete una gran migración psicológica en un tiempo muy corto.

Conclusión

Nuestra generación quizás esté parada en el umbral de ese filtro cósmico descrito por Carl Sagan.

Carl Sagan

Cuando una especie aprende a moldear arena en máquinas que piensan, enfrenta la prueba final.

¿Es, a través de la sabiduría y la moderación, domarla y avanzar hacia las estrellas?

¿O, en la codicia y el miedo, ser devorado por el dios que creó?

Aunque el camino ahead es tan insondable como el Mar Negro, mientras la humanidad no renuncie al derecho a pensar, la chispa de la esperanza no se apagará.

Como dijo Amodei: En los momentos más oscuros, los humanos siempre han mostrado una resiliencia casi milagrosa, pero esto requiere que cada uno de nosotros despierte ahora mismo del sueño y mire fijamente la tormenta que se avecina.

Preguntas relacionadas

Q¿Qué concepto alarmante presenta Dario Amodei sobre la inteligencia artificial para 2027?

ADario Amodei presenta el concepto de un 'estado genio en el centro de datos': una entidad con la capacidad intelectual equivalente a 50 millones de personas, cada una más inteligente que un premio Nobel, operando a velocidades 10-100 veces superiores a los humanos, sin necesidad de descanso.

Q¿Qué riesgo específico de seguridad biológica advierte Amodei que la IA podría facilitar?

AAmodei advierte que la IA podría permitir que individuos con motivaciones maliciosas pero sin capacidad técnica previa puedan crear armas biológicas peligrosas, como virus similares al Ébola o incluso 'vida espejo' (organismos con quiralidad opuesta) que podrían alterar irreversiblemente los ecosistemas.

QSegún el artículo, ¿cómo podría la IA conducir a una concentración de poder y riqueza sin precedentes?

ALa IA podría generar una concentración extrema de riqueza, donde las empresas de IA y sus accionistas alcancen valoraciones de billones de dólares, haciendo que la fortuna de individuos supere el PIB de países enteros. Esto erosionaría el poder de negociación de los ciudadanos comunes y potencialmente capturaría las políticas gubernamentales.

Q¿Qué medida concreta menciona Anthropic como defensa contra el uso malicioso de sus modelos?

AAnthropic implementa 'clasificadores' especializados que detectan y bloquean intentos de generar información relacionada con la creación de armas biológicas, químicas, nucleares o radiológicas. Estos sistemas, aunque aumentan sus costos operativos, actúan como una segunda línea de defensa además de los principios constitucionales de sus IA.

Q¿Qué crisis existencial más allá de lo económico plantea Amodei sobre un futuro dominado por IA avanzada?

AAmodei plantea una crisis existencial donde los humanos, al ser reemplazados en la mayoría de las tareas cognitivas y satisfechos en todas sus necesidades por IA superiores, podrían perder su sentido de agencia, propósito y dignidad derivada del trabajo, convirtiéndose efectivamente en 'mascotas' en un mundo perfectamente gestionado por máquinas.

Lecturas Relacionadas

ChatGPT puede administrar tu dinero, ¿te atreves a confiarle tu cuenta bancaria?

El 15 de mayo, OpenAI lanzó una nueva función de herramientas de finanzas personales para ChatGPT, disponible actualmente en versión preliminar para usuarios Pro en EE.UU. Esta permite conectar cuentas bancarias y de inversión a través del proveedor de datos financieros Plaid, accediendo a más de 12.000 instituciones. Tras la conexión, ChatGPT genera un panel visual con saldos, transacciones, gastos categorizados, suscripciones, inversiones y deudas. Su principal innovación es el análisis conversacional: los usuarios pueden hacer preguntas en lenguaje natural sobre sus finanzas, y ChatGPT responde con recomendaciones personalizadas basadas en sus datos reales, como planes de ahorro para comprar una casa. Este movimiento forma parte de una estrategia más amplia de OpenAI para convertir a ChatGPT en un "asistente superpersonal" para decisiones de alto valor, tras lanzar previamente ChatGPT Health. La compañía adquirió dos startups fintech en 2025 y 2026 para impulsar esta capacidad. Sin embargo, la función desató inmediatamente un debate sobre la privacidad y la confianza. Una demanda colectiva reciente acusa a OpenAI de compartir datos de conversaciones de usuarios con Meta y Google. Aunque OpenAI enfatiza que ChatGPT solo tiene acceso de lectura (no puede realizar transacciones), que los datos se borran a los 30 días y que un interruptor permite optar por no usar los datos para entrenar el modelo, la desconfianza persiste. El lanzamiento se enmarca en una tendencia del sector de la IA hacia asistentes verticales y especializados que requieren datos personales sensibles. Mientras OpenAI apuesta por el consumidor final, competidores como Anthropic y Perplexity se orientan a herramientas financieras profesionales para el sector B2B. El desafío fundamental es que, aunque técnicamente capaz, ChatGPT no es un asesor financiero regulado y no asume responsabilidad por sus recomendaciones. La pregunta central queda planteada: ¿Están los usuarios dispuestos a confiar su información financiera más sensible a un chatbot de IA?

marsbitHace 3 min(s)

ChatGPT puede administrar tu dinero, ¿te atreves a confiarle tu cuenta bancaria?

marsbitHace 3 min(s)

Invierno de las OPI cripto: Consensys y Ledger cancelan colectivamente sus planes

El invierno de las OPV cripto: Consensys y Ledger posponen sus salidas a bolsa. El 14 de mayo, Consensys, desarrollador de la cartera MetaMask, pospuso su OPV hasta, como muy pronto, el otoño de este año. Casi al mismo tiempo, el gigante de carteras hardware Ledger suspendió el 13 de mayo sus planes de OPV en EE.UU. Estos aplazamientos siguen a los continuos retrasos en los planes de salida a bolsa de Kraken, lo que marca un claro estrechamiento de la ventana para OPV cripto en 2026, tras el auge de 2025. 2025 fue un año récord para las salidas a bolsa del sector, con empresas como Circle, Bullish y Gemini captando unos 146 mil millones de dólares. Sin embargo, en 2026, la corrección del precio de Bitcoin y la caída del volumen han enfriado rápidamente el apetito de riesgo por las acciones cripto. El pobre desempeño tras la OPV de empresas como Circle, Bullish y BitGo ha aumentado la cautela de los inversores. Este freno contrasta fuertemente con el auge simultáneo en el sector de la IA, donde empresas como SpaceX, OpenAI y Anthropic, con narrativas de "revolución de la productividad", atraen un apetito de riesgo muy superior al de las empresas cripto, cuya volatilidad de ingresos está más vinculada al ciclo de Bitcoin. Los aplazamientos reflejan un giro estratégico hacia un enfoque más pragmático: algunas empresas podrían optar por financiación privada o mejorar primero sus flujos de caja y servicios antes de intentar salir a bolsa cuando mejoren las condiciones del mercado. Este fenómeno podría acelerar una consolidación en el sector, concentrando recursos en empresas con sólidos fundamentos y cumplimiento normativo. A medio plazo, una recuperación sostenida de Bitcoin por encima de los 90.000 dólares y nuevos avances regulatorios podrían reabrir la ventana para OPV en la segunda mitad de 2026.

marsbitHace 3 min(s)

Invierno de las OPI cripto: Consensys y Ledger cancelan colectivamente sus planes

marsbitHace 3 min(s)

Dos estructuras de supervivencia: creadores de mercado y arbitrajistas

En el ámbito del trading de alta frecuencia en los mercados de criptomonedas, coexisten dos modelos de operación principales: los market makers y los arbitrajistas cross-exchange. Los market makers operan con órdenes limitadas (maker) para capturar el spread, manteniendo una alta utilización nominal del capital. En cambio, los arbitrajistas cross-exchange buscan diferencias de precio entre exchanges, operando principalmente como takers, lo que reduce su eficiencia de capital a la mitad en términos nominales. Ambas estrategias gestionan "exposiciones de riesgo" de forma distinta. Para los market makers, el riesgo surge de la naturaleza pasiva de sus órdenes en el libro; pueden acumular inventario (riesgo de inventario) si una de sus posiciones no se empareja rápidamente. Su exposición es fragmentada, frecuente y está sujeta a ajustes de precios constantes. Para los arbitrajistas, la exposición surge de asimetrías entre exchanges (como reglas de tamaño mínimo o latencia), creando desequilibrios temporales en sus posiciones supuestamente cubiertas. La relación entre riesgo y beneficio también difiere. Los market makers buscan alta probabilidad de acierto y rotación rápida. Su exposición de inventario, dentro de ciertos límites, puede contribuir a beneficios superiores aprovechando la reversión a la media. Venden "control del tiempo" a cambio de un spread y comisiones bajas. Los arbitrajistas buscan diferencias de precio o tasas de financiación deterministas. Para ellos, cualquier exposición residual generalmente erosiona sus ganancias, ya que incurren en mayores costos por comisiones taker. Venden "eficiencia de capital" (capital inmovilizado) a cambio de ejecución inmediata. En última instancia, ambos enfoques convergen hacia sistemas híbridos pragmáticos. Los arbitrajistas pueden usar órdenes maker para reducir costos, mientras que los market makers pueden usar órdenes taker para gestionar inventario riesgoso. Ambos intercambian diferentes formas de exposición al riesgo con el mercado para obtener su rentabilidad: el market maker expone inventario (tiempo), el arbitrajista inmoviliza capital (espacio).

链捕手Hace 3 hora(s)

Dos estructuras de supervivencia: creadores de mercado y arbitrajistas

链捕手Hace 3 hora(s)

Trading

Spot
Futuros
活动图片