Nota del editor: Cuando la IA comienza a escribir código, optimizarlo e incluso a asumir gradualmente el proceso de producción de software, se acerca un cambio estructural más profundo: la división laboral, la organización empresarial e incluso las barreras del conocimiento podrían ser redefinidas.
El autor de este artículo gestionó un equipo de casi 20 personas en un fondo de cobertura, pero eligió renunciar en el apogeo de su carrera para emprender. En su opinión, la verdadera señal no es el sentimiento del mercado, sino el salto en la capacidad tecnológica. Cuando los modelos pueden generar código utilizable de manera estable y poseen capacidad de mejora recursiva, la lógica del desarrollo de software y la producción de conocimiento ya ha comenzado a cambiar.
Desde la perspectiva de las finanzas cuantitativas, el artículo analiza varios tipos de «fosos defensivos» a corto plazo que aún podrían existir en la era de la IA, incluyendo datos propietarios, fricción regulatoria, respaldo de autoridad y el retraso del mundo físico, al tiempo que plantea un juicio central: en una era de alta incertidumbre, más importante que predecir el futuro con precisión es identificar la dirección y actuar antes de que la ventana se cierre.
A continuación, el texto original:
Cuando los modelos comienzan a escribir código, el cambio ya es irreversible
La primera vez que me di cuenta de que la industria se acercaba a un punto de inflexión fue en mi trabajo anterior, como si la música de fondo comenzara a ralentizarse, mientras los demás seguían fingiendo que nada cambiaría.
En ese entonces, gestionaba un equipo de casi 20 personas en un fondo de cobertura, haciendo lo que había hecho durante años. Desde fuera, parecía una trayectoria profesional en constante ascenso. Si me hubiera quedado, probablemente habría logrado aún más. Pero al final, elegí dejar esa posición que muchos anhelan, para comenzar desde cero una startup con un equipo de apenas unas pocas personas. Esta decisión fue incomprensible para muchos en ese momento, incluso vista como un «suicidio profesional».
Pero en los últimos meses, los despidos masivos, las renuncias voluntarias para emprender y cada vez más personas trabajando de día y escribiendo código en proyectos secretos por la noche, han hecho que esa decisión «loca» parezca menos descabellada.
Durante este tiempo, mucha gente me ha preguntado: ¿hacia dónde va todo esto? Este artículo es la respuesta que puedo dar por ahora.
Sinceramente, no estoy seguro de cuán grande será el cambio final. Pero las finanzas cuantitativas me enseñaron una cosa: tener la dirección correcta a menudo es suficiente.
Lo que realmente me hizo ver que el cambio era irreversible fue el modelo o1 de ChatGPT.
Antes de eso, siempre llamaba a estos sistemas «LLM», no «IA». No creía que realmente tuvieran una capacidad cercana a la inteligencia. Pero cuando apareció o1, algo cambió: por primera vez, estos modelos podían generar código de manera estable mediante prompts estructurados.
El código aún no es perfecto, todavía puede alucinar o cometer errores de comprensión. Pero la clave es: ya puede escribir código útil.
Mi juicio es simple. Una vez que la IA pueda generar código utilizable, comenzará a mejorarse recursivamente a sí misma y a impulsar el desarrollo de software a una velocidad que nos cuesta imaginar.
Cada vez que planteo esto, alguien replica: «ese código todavía tiene bugs, está lejos de ser apto para entornos de producción». Pero eso ignora un hecho: el código escrito por humanos también tiene bugs. No necesitamos que la IA escriba código perfecto para dejar de escribir código nosotros mismos.
El verdadero punto de inflexión es cuando la tasa de error de la IA al escribir código sea menor que la humana, y su velocidad muy superior. En ese momento, la tarea de escribir código será externalizada por completo a la máquina.
Después de ver personalmente las capacidades de o1, pude estar casi seguro: ocurrirán cambios muy drásticos en el futuro.
Fosos defensivos que aún existen en la era de la IA
Inicialmente, pensé que la IA erosionaría gradualmente la industria de las finanzas cuantitativas, pero el proceso sería lento. La razón es simple: el código a nivel institucional casi no tiene datos públicos para entrenar.
En ese momento, imaginé la ingeniería de software como una pirámide: en la base está el trabajo de codificación básica; más arriba, los ingenieros senior con capacidad de arquitectura; y aún más arriba, los desarrolladores especializados, como científicos de datos, desarrolladores cuantitativos, diversos expertos sectoriales. En teoría, a mayor profundidad del conocimiento especializado, más segura es la profesión.
Mi juicio entonces fue: en dos años, los programadores básicos serían los primeros en ser eliminados; luego los ingenieros senior; y más adelante, a medida que los modelos absorbieran conocimiento especializado, los puestos más altos también se verían afectados.
Pero pronto me di cuenta de otra cosa: las empresas de modelos de vanguardia acabarían contratando directamente a expertos sectoriales para introducir ese conocimiento en los modelos. En otras palabras, el conocimiento especializado sería un foso defensivo a corto plazo, pero a largo plazo, también sería digerido gradualmente por los modelos.
En ese juicio, había varios tipos de negocios que en los próximos cinco años no serían fácilmente disruptibles.
Primer tipo: Datos propietarios
Las empresas con grandes cantidades de datos propietarios son más difíciles de reemplazar.
Por ejemplo, los grandes fondos de cobertura multiestrategia (pod shop), como Millennium, generan diariamente cantidades masivas de datos: investigación de analistas, recomendaciones de inversión, juicios de mercado, resultados reales de trading.
Estos datos pueden usarse para ajustar continuamente los modelos (fine-tuning), creando una ventaja difícil de replicar externamente. Mientras la fuente de datos de la empresa no sea fácilmente accesible para los modelos, seguirá teniendo un foso defensivo durante un tiempo.
Segundo tipo: Fricción regulatoria
Cualquier industria que requiera una gran aprobación humana no será disruptible rápidamente. Por ejemplo, los mercados financieros tradicionales.
Para entrar en estos mercados, necesitas: abrir una cuenta de broker, obtener licencias, firmar documentos legales transfronterizos. Operar con criptoactivos es fácil, pero para una empresa extranjera que quiera operar mineral de hierro en China, es mucho menos simple.
Mientras una industria aún requiera la aprobación humana (una firma), su velocidad de desarrollo estará limitada por los procesos de审批 (aprobación).
Tercer tipo: Autoridad como servicio (Authority as a Service)
Ahora, no es difícil que una IA redacte un dictamen jurídico. Pero la realidad es que la gente todavía está dispuesta a pagar decenas de miles de dólares por una opinión legal de un abogado. La razón es simple: la opinión de la IA actualmente no tiene autoridad.
La auditoría de contratos inteligentes (smart contracts) sigue la misma lógica. Técnicamente, la IA podría igualar o superar ya a los mejores auditores. Pero el mercado todavía prefiere comprar el «sello» de una firma de auditoría reconocida.
Porque lo que el cliente compra realmente no es la opinión en sí, sino la autoridad detrás de ella.
Cuarto tipo: El mundo físico
El progreso del hardware es mucho más lento que el del software, y los problemas de hardware también son más difíciles de solucionar.
Por lo tanto, es poco probable que las industrias físicas que interactúan directamente con el mundo real sean disruptivas rápidamente por la IA a corto plazo. Sin embargo, una vez que la capacidad del hardware se ponga al día, la misma lógica seguirá aplicable: primero desaparecerán los puestos de nivel bajo, luego los de nivel más alto.
Estos fosos defensivos existen. Pero hay que admitir que solo retrasan el cambio, no lo detienen.
Actuar en base a señales, no esperar certeza
Cuando el futuro es altamente incierto y la velocidad del cambio es extremadamente rápida, la gente suele cometer dos errores.
El primero es esperar a que aparezca la certeza para actuar. El segundo es aplicar analogías históricas simples, como: «Esto es como la burbuja de Internet».
Ambos enfoques pueden llevar a errores de juicio.
En condiciones de información incompleta, un método más razonable es razonar desde los primeros principios.
No necesitas conocer cada detalle del futuro. Solo necesitas juzgar aproximadamente la dirección y diseñar apuestas asimétricas. Es decir, si te equivocas, la pérdida es controlable; si aciertas, la ganancia es enorme.
En un futuro incierto, la asimetría lo es todo.
Un método de pensamiento práctico es preguntarse primero: «¿Qué condiciones previas deben darse para que ocurra un determinado resultado?», y luego preguntar: ¿Ya han aparecido estas condiciones previas?
Mirando hacia atrás en este punto de inflexión de la IA, en realidad no era difícil de prever. Porque las entradas clave ya existían: código que puede escribir código, modelos que pueden mejorarse recursivamente, conocimiento institucional que se puede comprar en lugar de cultivar.
Basta con observar estas señales atentamente para poder juzgar la dirección futura.
Incluso se puede seguir razonando.
Es posible que aún no hayamos visto verdaderamente los siguientes escenarios: la IA puede entrenarse a sí misma, la IA puede replicarse a sí misma, la IA funciona de forma completamente autónoma.
Si una IA puede, a través de una serie de acciones, mejorar su propia capacidad en un 0.1%, suena poco. Pero mientras ese número no sea 0, se amplificará. Detrás de esto hay un efecto típico de ley de potencias (power law).
En los mercados financieros, una vez que la señal se vuelve obvia, la operativa suele estar congestionada.
En la inversión, intercambias incertidumbre por convicción temprana. En la carrera profesional y el emprendimiento, es esencialmente lo mismo.
Así que la verdadera pregunta no es: ¿Qué pasará en el futuro? Sino: ¿Qué sé ya? ¿Hacia qué dirección apunta esta información? ¿Cuál es la diferencia de coste entre actuar ahora y esperar?
Otro hecho que a menudo se pasa por alto es que la acción en sí misma crea información.
La acción no ocurre en el vacío. Cuando actúas sobre el mundo, el mundo da feedback. Este feedback trae nueva información. La información impulsa la iteración. La iteración produce mejores acciones. Este es el mecanismo básico del progreso.
Permanecer inmóvil en la incertidumbre es una lenta decadencia. Y actuar significa explorar.
Si solo quisiera seguir beneficiándome del sistema existente, probablemente podría aguantar unos años más. Pero siempre quise hacer algo verdaderamente propio, y sentí que esta ventana se estaba cerrando rápidamente.
Por supuesto, los fondos de cobertura más grandes del mundo seguirán estando bien, tienen datos propietarios extremadamente difíciles de replicar. Los mercados financieros tradicionales también siguen limitados por la regulación y los procesos manuales.
Pero creo que estas instituciones también acabarán usando IA para reemplazar a la gran mayoría de sus empleados, incluso a los gestores de cartera (portfolio managers).
No ocurrirá de inmediato, pero ocurrirá tarde o temprano.
Mi juicio en ese momento fue que probablemente tenía un período de ventana de 4 a 5 años. Una vez que las empresas de modelos base absorban suficiente talento sectorial, será muy difícil para las nuevas startups entrar en este campo. En algunos mercados, como el mercado bursátil estadounidense, esta tendencia ya es muy evidente. Dentro de unos años, hasta qué punto llegará la eficiencia es casi inimaginable.
Pronto, este mundo no tendrá espacio para los «segundos puestos». Podría seguir trabajando para las instituciones más importantes, pero prefiero actuar en áreas donde todavía tengo una ventaja.
Así que renuncié, me volqué por completo (All in) en el emprendimiento. Más tarde, esta empresa se convirtió en OpenForage.
Ahora, la ventana se está cerrando notablemente. La velocidad del cambio ya no es gradual. Lo que antes requería meses de progreso, ahora solo requiere semanas.
No creo que el trabajo desaparezca por completo en los próximos años. Los humanos todavía necesitarán humanos. El hombre es un animal social, y los humanos todavía no confían en la IA. La certificación de autoridad todavía debe venir de un humano.
En los próximos años, incluso podríamos ver CEOs de IA, pero es probable que todavía se requiera un CEO humano para aprobar las decisiones de la IA. Esta «certificación humana» se transmitirá capa por capa a lo largo de la estructura organizativa. Los gerentes humanos gestionarán un grupo de agentes de IA.
Pero la lógica de la contratación cambiará. Si es más fácil para el CEO dar instrucciones a la IA que a ti, entonces es muy probable que no te contraten. El trabajo de codificación básica será cada vez más difícil de encontrar.
Si quieres volverte insustituible, necesitas hacer dos cosas. Primero, superar a la IA en la escala de tiempo. Por ejemplo, planificación estratégica a largo plazo, toma de decisiones complejas, gestión de ciclos plurianuales. Segundo, superar a la IA en el alcance del sistema. El contexto de la IA sigue siendo limitado, saben muchos hechos, pero les cuesta entender las reacciones en cadena de sistemas complejos.
Si puedes pensar a largo plazo, absorber información rápidamente, tomar decisiones a largo plazo y tener buena capacidad de colaboración, en un futuro previsible, seguirás teniendo trabajo.
Antes de que llegue el punto de inflexión, las señales realmente se pueden ver. Solo que la mayoría de la gente no las mira, las ve pero no actúa, o reacciona cuando las señales se vuelven ensordecedoras. Pero entonces, las oportunidades suelen estar ya valoradas por el mercado.
No ignores el terreno que se mueve, no te quedes en una posición que está perdiendo ventaja, diciéndote a ti mismo que actuarás cuando el momento sea mejor. El momento verdadero rara vez avisa. Cuando todos se den cuenta, la ventana often ya se habrá cerrado.
Vi la señal, hice mi apuesta. Ahora, estoy viviendo el resultado de esa apuesta, para bien o para mal.






