Nota del Editor: Mientras la mayoría todavía considera la IA como una ventana de chat más inteligente, Garry Tan, el actual CEO de Y Combinator, ya está intentando transformarla en un sistema operativo personal.
La estructura subyacente de la productividad personal en la era de la IA está cambiando: los modelos son solo el motor, lo que realmente genera efecto compuesto es todo un sistema construido alrededor del conocimiento personal, los flujos de trabajo, el contexto y la capacidad de juicio.
En este sistema, cada reunión, cada libro, cada correo electrónico, cada relación profesional, dejan de ser información aislada y se escriben continuamente en un "segundo cerebro" estructurado; cada tarea repetitiva ya no depende de prompts temporales, sino que se abstrae en habilidades reutilizables y se itera constantemente en el trabajo posterior. En otras palabras, la IA no solo ayuda a completar tareas, sino que ayuda a las personas a convertir su forma de trabajar en algo productivizado, sistematizado e infraestructuralizado.
Vale la pena destacar que el autor propone un camino personal diferente al de las herramientas de IA centralizadas: la competitividad futura podría no pertenecer solo a quienes saben usar la IA, sino a aquellos capaces de entrenar un sistema de IA con efecto compuesto alrededor de su vida y trabajo reales. Los chatbots dan respuestas, los motores de búsqueda proporcionan información, pero un verdadero sistema de IA personal recordará tu contexto, entenderá tu situación, heredará tu juicio y se volverá más fuerte con cada uso.
Este es también el punto más inspirador del artículo: el valor de la IA no reside en lo que genera de una vez, sino en si puede convertirse en un sistema nervioso que se acumula, conecta y mejora continuamente. Para el individuo, este es quizás el verdadero punto de partida de una "forma de trabajo nativa de la IA".
El texto original a continuación:
La gente siempre me pregunta por qué paso las noches escribiendo código hasta las 2 de la mañana. Tengo un trabajo, y uno exigente: soy el CEO de Y Combinator. Ayudamos a miles de emprendedores cada año a cumplir sus sueños: fundar startups reales, con ingresos reales y de alto crecimiento.
En los últimos 5 meses, la IA me ha convertido de nuevo en un constructor. A finales del año pasado, las herramientas eran lo suficientemente buenas como para que empezara a construir de nuevo. No proyectos de juguete, sino sistemas que realmente crecen con efecto compuesto. Quiero mostrarte con ejemplos concretos cómo es realmente cuando dejas de ver la IA personal como una ventana de chat y la tratas como un sistema operativo. He abierto el código de todo esto y escrito este artículo porque quiero que tú también puedas acelerar conmigo.
Esto es parte de una serie: Fat Skills, Fat Code, Thin Harness presenta la arquitectura central; Resolvers habla de la tabla de enrutamiento inteligente; The LOC Controversy discute cómo cada profesional técnico puede amplificarse de 100 a 1000 veces; Naked models are stupider propone que los modelos son solo el motor, no el coche entero; y skillify manifesto explica por qué LangChain recaudó 160 millones de dólares pero te dio una barra y unas mancuernas sin un plan de entrenamiento, mientras que este artículo te da el plan de entrenamiento que realmente necesitas.
Ese libro que "me leyó al revés"
El mes pasado estaba leyendo When Things Fall Apart de Pema Chödrön. El libro tiene 162 páginas y 22 capítulos, y habla de la perspectiva budista sobre el sufrimiento, la falta de arraigo y el desapego. Un amigo me lo recomendó durante un período difícil.
Le pedí a mi IA que hiciera un "espejo del libro" (book mirror).
Concretamente, esto significa: el sistema extrajo el contenido de los 22 capítulos del libro, luego ejecutó un sub-agente para cada capítulo, haciendo dos cosas simultáneamente: resumir las ideas de la autora y mapear cada punto a mi vida real.
No frases vacías como "esto también se aplica a los líderes", sino un mapeo muy concreto. Sabe mi contexto familiar: padres inmigrantes, padre de Hong Kong y Singapur, madre de Birmania. Sabe mi contexto profesional: gestionar YC, construir herramientas de código abierto, asesorar a miles de fundadores. Sabe lo que he estado leyendo recientemente, en qué pienso a las 2 a.m., los temas con los que estoy trabajando con mi terapeuta.
El resultado final fue una "página cerebral" (brain page) de 30,000 palabras. Cada capítulo se presentaba en dos columnas: una sobre lo que dice Pema, y otra sobre cómo ese contenido se mapeaba a lo que realmente estoy viviendo. El capítulo sobre "falta de arraigo" se conectaba con una conversación específica que tuve con un fundador la semana anterior; el capítulo sobre "miedo" se mapeaba a algunos patrones de comportamiento que mi terapeuta había señalado; el capítulo sobre "desapego" citaba algo que escribí una noche sobre la libertad creativa que encontré este año.
Todo el proceso tomó unos 40 minutos. Un terapeuta que cobra 300 dólares la hora no podría hacer esto ni en 40 horas, incluso después de leer el libro y aplicarlo a mi vida. Porque no tienen cargados y referenciables mi contexto profesional completo, historial de lecturas, notas de reuniones y red de contactos con fundadores.
Hasta ahora, he procesado más de 20 libros de esta manera: Amplified (Dion Lim), Autobiografía de Bertrand Russell, Designing Your Life, El drama del niño dotado, Juegos finitos e infinitos, El regalo del mar (Lindbergh), Siddhartha (Hesse), El lobo estepario (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think? (Feynman), When Things Fall Apart (Pema Chödrön), A Brief History of Everything (Ken Wilber), etc.
Cada libro enriquece este "cerebro". El segundo espejo conoce el contenido del primero, y el vigésimo conoce los diecinueve anteriores.
Cómo el Book-Mirror mejora iterativamente
La primera vez que hice un book mirror, el resultado fue muy malo.
En la primera versión, había tres errores fácticos sobre mi familia. Decía que mis padres estaban divorciados, pero no es cierto; también decía que crecí en Hong Kong, pero en realidad nací en Canadá. Estos eran errores básicos, y si hubiera compartido el resultado, probablemente habría dañado la confianza.
Así que añadí un paso obligatorio de verificación de hechos. Ahora, cada mirror, antes de entregarse, pasa por una evaluación multimodal cruzada contra los hechos conocidos en el cerebro. Opus 4.7 1M detecta errores de precisión; GPT-5.5 encuentra contextos faltantes; DeepSeek V4-Pro juzga si algo suena demasiado genérico.
Luego, lo actualicé a una recuperación profunda basada en invocaciones de herramientas GBrain. La versión inicial era buena para la síntesis, pero débil en la especificidad. La tercera versión comenzó a realizar búsquedas cerebrales sección por sección. Cada elemento en la columna derecha cita una brain page real que existe.
Cuando el libro habla sobre cómo manejar conversaciones difíciles, no solo resume principios generales. Extrae notas reales de mis reuniones con fundadores que están teniendo conversaciones difíciles con sus cofundadores; o una idea que surgió un jueves mientras charlaba con mi hermano James; o el registro de un chat de mensajería instantánea con mi compañero de cuarto de la universidad cuando tenía 19 años. La sensación es muy extraña.
Esto es lo que significa "habilitización" (skillification, usando /skillify en GBrain) en la práctica. Tomé mi primer intento manual, lo refiné en un patrón repetible, y lo escribí como un archivo de habilidad (skill) probado, con condiciones desencadenantes y casos límite. A partir de entonces, cada corrección sigue generando efecto compuesto en todos los futuros book mirrors.
La habilidad que puede crear habilidades
Aquí viene lo realmente recursivo, y creo que es la mayor visión.
El sistema que sostiene mi vida diaria no aparece como una gran entidad monolítica. Está ensamblado a partir de habilidades. Y estas habilidades en sí mismas son creadas por otra habilidad.
Skillify es una "meta-habilidad" — una habilidad para crear nuevas habilidades. Cada vez que encuentro un flujo de trabajo que voy a repetir en el futuro, digo: "Skillify esto." Luego revisa lo que acaba de suceder, extrae el patrón repetible, lo escribe como un archivo de habilidad probado, con condiciones desencadenantes y casos límite, y lo registra en el resolver.
El pipeline de book-mirror mencionado anteriormente fue "habilidizado" después de que hiciera el proceso manualmente por primera vez. Lo mismo con el flujo de trabajo de preparación de reuniones (meeting-prep): cuando me di cuenta de que seguía los mismos pasos antes de cada llamada, lo habilidicé.
Las habilidades se pueden combinar. Book-mirror invoca a brain-ops para el almacenamiento, a enrich para añadir contexto, a cross-modal-eval para evaluar la calidad, a pdf-generation para generar la salida. Cada habilidad se enfoca en una sola cosa, pero se pueden encadenar para formar flujos de trabajo complejos.
Cuando mejoro una de estas habilidades, todos los flujos de trabajo que la usan mejoran automáticamente. Ya no hay problemas del tipo "olvidé mencionar este caso límite en el prompt". La habilidad lo recuerda.
Esa reunión que se preparó sola
Demis Hassabis vino a YC para una charla informal (fireside chat). La biografía sobre él de Sebastian Mallaby acababa de publicarse.
Le pedí al sistema que me ayudara a prepararme.
En menos de dos minutos, extrajo: La brain page completa de Demis — este contenido se había ido acumulando durante meses a partir de artículos, transcripciones de podcasts y mis propias notas; sus opiniones públicas expresadas sobre los plazos de la AGI, como "50% escalamiento, 50% innovación", y su estimación de que la AGI tardará entre 5 y 10 años más; los puntos destacados de la biografía de Mallaby; las prioridades de investigación que ha mencionado explícitamente, incluyendo el aprendizaje continuo, los modelos del mundo y la memoria a largo plazo; referencias cruzadas entre sus puntos de vista públicos sobre IA y los míos; tres scripts de demostración para mostrar las capacidades de razonamiento multiescalón de este "cerebro" durante la conversación; y un conjunto de puntos de entrada para la conversación basados en las superposiciones y divergencias de nuestras visiones del mundo.
No fue solo una mejor búsqueda en Google. Fue una preparación basada en contexto: el sistema no solo usó la información que he ido acumulando sobre Demis a largo plazo, sino que también combinó mi propia postura y los objetivos estratégicos de esta conversación.
No preparó solo hechos, sino perspectivas.
Cómo es un cerebro de 100,000 páginas
Mantengo una base de conocimiento estructurada de aproximadamente 100,000 páginas.
Cada persona que conozco tiene una página, que incluye una línea de tiempo, una barra de estado — la situación real actual, hilos sin terminar y una calificación. Cada reunión tiene una transcripción, un resumen estructurado y un proceso que llamo "propagación de entidades" (entity propagation): después de cada reunión, el sistema recorre a cada persona y empresa mencionadas y actualiza sus brain pages respectivas con el contenido discutido.
Cada libro que leo recibe un book mirror capítulo por capítulo. Cada artículo, podcast, vídeo con el que me topo es ingerido, etiquetado y referenciado cruzadamente.
El esquema es simple. Cada página tiene tres partes: en la parte superior está "la verdad compilada" — la mejor comprensión actual; debajo, una línea de tiempo de solo-append, que registra eventos en orden cronológico; al lado, un sidecar de datos crudos para almacenar materiales fuente.
Puedes imaginarlo como una Wikipedia personal. Cada página es actualizada continuamente por una IA que asistió a la reunión, leyó el correo, vio la charla y digirió el PDF.
He aquí un ejemplo de cómo este sistema genera efecto compuesto.
Conocí a un fundador en mis horas de oficina (office hours). El sistema creará o actualizará su página personal, la página de la empresa, referenciará cruzadamente las notas de la reunión, comprobará si lo había conocido antes — y si es así, resaltará de qué hablamos la última vez; revisará sus materiales de solicitud, extraerá las métricas más recientes e identificará si alguien en mi cartera de inversiones o contactos puede ayudarlo con el problema que está manejando.
La próxima vez que entre en una reunión con él, el sistema ya tendrá preparado un paquete completo de contexto.
Esta es la diferencia entre un "archivador" y un "sistema nervioso". El archivador solo almacena cosas; el sistema nervioso las conecta, marca qué ha cambiado y hace emerger la información más relevante en el momento presente.
Arquitectura
Funciona así. Creo que este es el camino correcto para construir una IA personal, así que he abierto el código de todo y tú también puedes construirla.
El Harness (arnés) es delgado. OpenClaw es el entorno de ejecución (runtime). Recibe mis mensajes, decide qué habilidad aplicar y luego los distribuye. Solo tiene unos pocos miles de líneas de lógica de enrutamiento. No entiende de libros, reuniones o fundadores, solo enruta.
Las Skills (habilidades) son gruesas. Ahora hay más de 100 habilidades, cada una es un archivo markdown autocontenido con instrucciones detalladas para una tarea específica. Ya has visto book-mirror y meeting-prep. Aquí hay algunas otras habilidades que vienen integradas en GBrain:
meeting-ingestion: Después de cada reunión, extrae la transcripción, genera un resumen estructurado y luego recorre a cada persona y empresa mencionadas, actualizando sus brain pages con el contenido discutido. La página de la reunión en sí no es el producto final; el valor real está en propagar esa información de vuelta a las páginas de cada persona y empresa.
enrich: Dale el nombre de una persona. Extraerá información de cinco fuentes diferentes, fusionará todo en una brain page, incluyendo trayectoria profesional, información de contacto, historial de reuniones y contexto de relaciones. Cada juicio tiene citas de origen.
media-ingest: Procesa vídeo, audio, PDF, capturas de pantalla y repositorios de GitHub. Transcribe el contenido, extrae entidades y archiva el material en la ubicación correcta del cerebro. Lo uso mucho para vídeos de YouTube, podcasts y notas de voz.
perplexity-research: Esta es investigación web potenciada por el cerebro. Busca en la web a través de Perplexity, pero antes de sintetizar, verifica qué se sabe ya en el cerebro, diciéndote así qué información es realmente nueva y qué ya has capturado.
También he construido docenas de habilidades para mi propio trabajo, que probablemente también abriré: email-triage, investor-update-ingest — que identifica actualizaciones de mi cartera en mi bandeja de entrada y extrae las métricas a las páginas de las empresas; calendar-check — para detectar conflictos de agenda e itinerarios de viaje imposibles; y toda una pila de investigación de noticias que uso para mi trabajo de asuntos públicos.
Cada habilidad codifica un conocimiento operativo que le llevaría meses aprender a un nuevo asistente humano. La gente me pregunta cómo "prompto" a mi IA. La respuesta es: no hago prompts. La habilidad en sí misma es el prompt.
Los datos son gruesos. El repositorio del cerebro tiene 100,000 páginas de conocimiento estructurado. Cada persona, empresa, reunión, libro, artículo e idea con la que me he topado están conectados, son buscables y crecen cada día.
El código también es grueso. El código que lo alimenta también es importante: scripts para transcripción, OCR, archivado de redes sociales, sincronización de calendario, integración de APIs. Pero donde realmente se acumula el valor de efecto compuesto es en los datos.
Ejecuto más de 100 tareas cron (cron jobs) diariamente, revisando todo lo que sigo: redes sociales, Slack, correo y cualquier otra cosa que vigile. Mis Agentes OpenClaw/Hermes también miran estas cosas por mí.
Los modelos son reemplazables. Para precisión, uso Opus 4.7 1M; para recuperación (recall) y extracción exhaustiva, GPT-5.5; para trabajo creativo y perspectiva externa (third-person), DeepSeek V4-Pro; para velocidad, Groq con Llama. La habilidad decide qué tarea invoca qué modelo. Al Harness no le importa.
Cuando alguien pregunta "¿qué modelo de IA es el mejor?", la respuesta es: estás haciendo la pregunta equivocada. El modelo es solo el motor; todo lo demás es el coche entero.
El constructor de las 2 a.m., y un sistema que se capitaliza continuamente
La gente me pregunta sobre productividad. Pero yo no pienso en esos términos.
Pienso en el efecto compuesto.
Cada reunión a la que asisto añade contenido a este cerebro. Cada libro que leo enriquece el contexto para el siguiente. Cada habilidad que construyo hace que el siguiente flujo de trabajo sea más rápido. Cada página de persona que actualizo hace que la próxima preparación para una reunión sea más precisa.
El sistema de hoy ya es 10 veces mejor que el de hace dos meses. Dentro de otros dos meses, será 10 veces mejor que el de hoy.
Cuando estoy escribiendo código a las 2 de la mañana — y realmente lo hago a menudo, porque la IA me ha devuelto la alegría de construir — no solo estoy escribiendo software. Estoy añadiendo capacidad a un sistema que mejora cada hora.
100 cronjobs se ejecutan las 24 horas. La ingesta de reuniones se ejecuta automáticamente. El triaje de correo se ejecuta cada 10 minutos. El grafo de conocimiento se enriquece a sí mismo con cada conversación. El sistema procesa las transcripciones diarias y extrae patrones que yo no noté en tiempo real.
Esta no es una herramienta de escritura, no es un motor de búsqueda, no es un chatbot.
Este es un verdadero segundo cerebro en funcionamiento. No es una metáfora, es un sistema en ejecución: 100,000 páginas de contenido, más de 100 habilidades, 15 cron jobs, y el contexto acumulado de cada relación profesional, cada reunión, cada libro y cada idea en la que he participado durante el último año.
He abierto el código de toda la pila tecnológica. GStack es un marco para codificar habilidades, con más de 87,000 estrellas (stars), y es con lo que construí este sistema. Cuando un agente necesita escribir código, todavía lo uso como una habilidad dentro de mi Agente OpenClaw/Hermes. También incluye un gran navegador programable, tanto con interfaz gráfica (headed) como sin ella (headless).
GBrain es la infraestructura de conocimiento. OpenClaw y Hermes Agent son los harness (arneses), puedes elegir uno, pero yo suelo usar ambos. Los repositorios de datos también están en GitHub.
El juicio central es simple: el futuro pertenece a los individuos que pueden construir sistemas de IA con efecto compuesto, no a los que solo saben usar las herramientas de IA centralizadas propiedad de las empresas.
La diferencia entre ambos es como la diferencia entre llevar un diario y tener un sistema nervioso.
Cómo empezar
Si tú también quieres construir un sistema así:
Primero, elige un harness. Puedes usar OpenClaw, Hermes Agent, o construir uno desde cero basado en Pi. La clave es mantenerlo ligero. El harness es solo el enrutador. Puedes desplegarlo en un ordenador que tengas en casa sin usar, acceder con Tailscale; o ponerlo en un servicio en la nube como Render o Railway.
Luego, construye un "cerebro" con GBrain. Inicialmente me inspiré en la LLM Wiki de Karpathy, lo implementé en OpenClaw y luego lo expandí a GBrain. Es el mejor sistema de recuperación (retrieval) que he probado: 97.6% de recall en LongMemEval, superando a MemPalace sin invocar un LLM en la fase de recuperación. Viene con 39 habilidades instalables, incluyendo todas las mencionadas en este artículo. Solo necesitas un comando para instalarlo. Obtendrás un repositorio git donde cada persona, reunión, artículo e idea tendrá su propia página.
Después, haz algo realmente interesante. No planifiques tu arquitectura de habilidades desde el principio. Primero completa una tarea concreta: escribe un informe, investiga a una persona, descarga los resultados de una temporada de la NBA y construye un modelo predictivo para tus apuestas deportivas, analiza tu cartera de inversiones, o haz cualquier cosa que realmente te importe. Hazlo con tu agente, itera hasta que el resultado sea lo suficientemente bueno, y luego ejecuta Skillify — esa meta-habilidad mencionada antes — para extraer el patrón en una habilidad reutilizable. Luego ejecuta check_resolvable para confirmar que la nueva habilidad está conectada al resolver. Este ciclo convierte el trabajo de una sola vez en infraestructura que puede generar efecto compuesto continuamente.
Sigue usándolo y revisa seriamente la salida. La habilidad será mediocre al principio. Ese es precisamente el punto. Úsala, lee lo que genera, y cuando veas que algo está mal, ejecuta cross-modal eval: pasa la salida a múltiples modelos, haz que se califiquen entre sí según las dimensiones que te importan. Así es como descubrí los errores fácticos en book-mirror al principio. La corrección se escribió en la habilidad, y desde entonces, cada mirror ha sido más limpio.
En seis meses, tendrás algo que ningún chatbot puede replicar. Porque el valor real no está en el modelo en sí, sino en que le has enseñado a este sistema a entender tu vida, trabajo y forma de juzgar específicos.
La primera cosa que hice con este sistema fue terrible. Para la centésima, ya era un sistema al que confiaría mi calendario, bandeja de entrada, preparación de reuniones y lista de lectura. El sistema está aprendiendo, y yo también. La curva de efecto compuesto es real.
Habilidades gruesas, código grueso, harness delgado. Los LLM por sí mismos son solo un motor. Tú puedes construir tu propio coche.
Todo lo que describo aquí — todas las habilidades, el pipeline de book mirror, el marco de cross-modal eval, el ciclo skillify, la arquitectura de resolver, y más de 30 skillpacks instalables — ya está abierto y disponible gratuitamente en GitHub.
Construye.







