Guía de Uso de IA del CEO de Y-Combinator: El Futuro Pertenece a Quienes Construyen Sistemas con Efecto Compuesto

marsbitPublicado a 2026-05-11Actualizado a 2026-05-11

Resumen

El CEO de Y Combinator, Garry Tan, comparte su guía para usar la IA como un sistema operativo personal que genera interés compuesto. En lugar de tratar la IA como un simple chatbot, él construye un "segundo cerebro": un sistema que estructura y conecta automáticamente todo su conocimiento, reuniones, libros y relaciones. Su sistema, construido con herramientas de código abierto, incluye: - Un repositorio de conocimiento de 100.000 páginas sobre personas, empresas y libros. - "Habilidades" (skills) reutilizables que automatizan flujos de trabajo, como preparar reuniones o analizar libros. - Una "habilidad meta" llamada "Skillify" que crea nuevas habilidades a partir de tareas repetitivas. La clave es que el sistema aprende y mejora constantemente: cada nueva interacción enriquece el contexto para las siguientes. Tan argumenta que el futuro pertenece a quienes construyan estos sistemas de IA personalizados y compuestos, no solo a quienes usen herramientas centralizadas. Anima a otros a empezar con una tarea concreta, iterar y extraer patrones en habilidades reutilizables para crear su propia infraestructura de conocimiento.

Nota del Editor: Mientras la mayoría todavía considera la IA como una ventana de chat más inteligente, Garry Tan, el actual CEO de Y Combinator, ya está intentando transformarla en un sistema operativo personal.

La estructura subyacente de la productividad personal en la era de la IA está cambiando: los modelos son solo el motor, lo que realmente genera efecto compuesto es todo un sistema construido alrededor del conocimiento personal, los flujos de trabajo, el contexto y la capacidad de juicio.

En este sistema, cada reunión, cada libro, cada correo electrónico, cada relación profesional, dejan de ser información aislada y se escriben continuamente en un "segundo cerebro" estructurado; cada tarea repetitiva ya no depende de prompts temporales, sino que se abstrae en habilidades reutilizables y se itera constantemente en el trabajo posterior. En otras palabras, la IA no solo ayuda a completar tareas, sino que ayuda a las personas a convertir su forma de trabajar en algo productivizado, sistematizado e infraestructuralizado.

Vale la pena destacar que el autor propone un camino personal diferente al de las herramientas de IA centralizadas: la competitividad futura podría no pertenecer solo a quienes saben usar la IA, sino a aquellos capaces de entrenar un sistema de IA con efecto compuesto alrededor de su vida y trabajo reales. Los chatbots dan respuestas, los motores de búsqueda proporcionan información, pero un verdadero sistema de IA personal recordará tu contexto, entenderá tu situación, heredará tu juicio y se volverá más fuerte con cada uso.

Este es también el punto más inspirador del artículo: el valor de la IA no reside en lo que genera de una vez, sino en si puede convertirse en un sistema nervioso que se acumula, conecta y mejora continuamente. Para el individuo, este es quizás el verdadero punto de partida de una "forma de trabajo nativa de la IA".

El texto original a continuación:

La gente siempre me pregunta por qué paso las noches escribiendo código hasta las 2 de la mañana. Tengo un trabajo, y uno exigente: soy el CEO de Y Combinator. Ayudamos a miles de emprendedores cada año a cumplir sus sueños: fundar startups reales, con ingresos reales y de alto crecimiento.

En los últimos 5 meses, la IA me ha convertido de nuevo en un constructor. A finales del año pasado, las herramientas eran lo suficientemente buenas como para que empezara a construir de nuevo. No proyectos de juguete, sino sistemas que realmente crecen con efecto compuesto. Quiero mostrarte con ejemplos concretos cómo es realmente cuando dejas de ver la IA personal como una ventana de chat y la tratas como un sistema operativo. He abierto el código de todo esto y escrito este artículo porque quiero que tú también puedas acelerar conmigo.

Esto es parte de una serie: Fat Skills, Fat Code, Thin Harness presenta la arquitectura central; Resolvers habla de la tabla de enrutamiento inteligente; The LOC Controversy discute cómo cada profesional técnico puede amplificarse de 100 a 1000 veces; Naked models are stupider propone que los modelos son solo el motor, no el coche entero; y skillify manifesto explica por qué LangChain recaudó 160 millones de dólares pero te dio una barra y unas mancuernas sin un plan de entrenamiento, mientras que este artículo te da el plan de entrenamiento que realmente necesitas.

Ese libro que "me leyó al revés"

El mes pasado estaba leyendo When Things Fall Apart de Pema Chödrön. El libro tiene 162 páginas y 22 capítulos, y habla de la perspectiva budista sobre el sufrimiento, la falta de arraigo y el desapego. Un amigo me lo recomendó durante un período difícil.

Le pedí a mi IA que hiciera un "espejo del libro" (book mirror).

Concretamente, esto significa: el sistema extrajo el contenido de los 22 capítulos del libro, luego ejecutó un sub-agente para cada capítulo, haciendo dos cosas simultáneamente: resumir las ideas de la autora y mapear cada punto a mi vida real.

No frases vacías como "esto también se aplica a los líderes", sino un mapeo muy concreto. Sabe mi contexto familiar: padres inmigrantes, padre de Hong Kong y Singapur, madre de Birmania. Sabe mi contexto profesional: gestionar YC, construir herramientas de código abierto, asesorar a miles de fundadores. Sabe lo que he estado leyendo recientemente, en qué pienso a las 2 a.m., los temas con los que estoy trabajando con mi terapeuta.

El resultado final fue una "página cerebral" (brain page) de 30,000 palabras. Cada capítulo se presentaba en dos columnas: una sobre lo que dice Pema, y otra sobre cómo ese contenido se mapeaba a lo que realmente estoy viviendo. El capítulo sobre "falta de arraigo" se conectaba con una conversación específica que tuve con un fundador la semana anterior; el capítulo sobre "miedo" se mapeaba a algunos patrones de comportamiento que mi terapeuta había señalado; el capítulo sobre "desapego" citaba algo que escribí una noche sobre la libertad creativa que encontré este año.

Todo el proceso tomó unos 40 minutos. Un terapeuta que cobra 300 dólares la hora no podría hacer esto ni en 40 horas, incluso después de leer el libro y aplicarlo a mi vida. Porque no tienen cargados y referenciables mi contexto profesional completo, historial de lecturas, notas de reuniones y red de contactos con fundadores.

Hasta ahora, he procesado más de 20 libros de esta manera: Amplified (Dion Lim), Autobiografía de Bertrand Russell, Designing Your Life, El drama del niño dotado, Juegos finitos e infinitos, El regalo del mar (Lindbergh), Siddhartha (Hesse), El lobo estepario (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think? (Feynman), When Things Fall Apart (Pema Chödrön), A Brief History of Everything (Ken Wilber), etc.

Cada libro enriquece este "cerebro". El segundo espejo conoce el contenido del primero, y el vigésimo conoce los diecinueve anteriores.

Cómo el Book-Mirror mejora iterativamente

La primera vez que hice un book mirror, el resultado fue muy malo.

En la primera versión, había tres errores fácticos sobre mi familia. Decía que mis padres estaban divorciados, pero no es cierto; también decía que crecí en Hong Kong, pero en realidad nací en Canadá. Estos eran errores básicos, y si hubiera compartido el resultado, probablemente habría dañado la confianza.

Así que añadí un paso obligatorio de verificación de hechos. Ahora, cada mirror, antes de entregarse, pasa por una evaluación multimodal cruzada contra los hechos conocidos en el cerebro. Opus 4.7 1M detecta errores de precisión; GPT-5.5 encuentra contextos faltantes; DeepSeek V4-Pro juzga si algo suena demasiado genérico.

Luego, lo actualicé a una recuperación profunda basada en invocaciones de herramientas GBrain. La versión inicial era buena para la síntesis, pero débil en la especificidad. La tercera versión comenzó a realizar búsquedas cerebrales sección por sección. Cada elemento en la columna derecha cita una brain page real que existe.

Cuando el libro habla sobre cómo manejar conversaciones difíciles, no solo resume principios generales. Extrae notas reales de mis reuniones con fundadores que están teniendo conversaciones difíciles con sus cofundadores; o una idea que surgió un jueves mientras charlaba con mi hermano James; o el registro de un chat de mensajería instantánea con mi compañero de cuarto de la universidad cuando tenía 19 años. La sensación es muy extraña.

Esto es lo que significa "habilitización" (skillification, usando /skillify en GBrain) en la práctica. Tomé mi primer intento manual, lo refiné en un patrón repetible, y lo escribí como un archivo de habilidad (skill) probado, con condiciones desencadenantes y casos límite. A partir de entonces, cada corrección sigue generando efecto compuesto en todos los futuros book mirrors.

La habilidad que puede crear habilidades

Aquí viene lo realmente recursivo, y creo que es la mayor visión.

El sistema que sostiene mi vida diaria no aparece como una gran entidad monolítica. Está ensamblado a partir de habilidades. Y estas habilidades en sí mismas son creadas por otra habilidad.

Skillify es una "meta-habilidad" — una habilidad para crear nuevas habilidades. Cada vez que encuentro un flujo de trabajo que voy a repetir en el futuro, digo: "Skillify esto." Luego revisa lo que acaba de suceder, extrae el patrón repetible, lo escribe como un archivo de habilidad probado, con condiciones desencadenantes y casos límite, y lo registra en el resolver.

El pipeline de book-mirror mencionado anteriormente fue "habilidizado" después de que hiciera el proceso manualmente por primera vez. Lo mismo con el flujo de trabajo de preparación de reuniones (meeting-prep): cuando me di cuenta de que seguía los mismos pasos antes de cada llamada, lo habilidicé.

Las habilidades se pueden combinar. Book-mirror invoca a brain-ops para el almacenamiento, a enrich para añadir contexto, a cross-modal-eval para evaluar la calidad, a pdf-generation para generar la salida. Cada habilidad se enfoca en una sola cosa, pero se pueden encadenar para formar flujos de trabajo complejos.

Cuando mejoro una de estas habilidades, todos los flujos de trabajo que la usan mejoran automáticamente. Ya no hay problemas del tipo "olvidé mencionar este caso límite en el prompt". La habilidad lo recuerda.

Esa reunión que se preparó sola

Demis Hassabis vino a YC para una charla informal (fireside chat). La biografía sobre él de Sebastian Mallaby acababa de publicarse.

Le pedí al sistema que me ayudara a prepararme.

En menos de dos minutos, extrajo: La brain page completa de Demis — este contenido se había ido acumulando durante meses a partir de artículos, transcripciones de podcasts y mis propias notas; sus opiniones públicas expresadas sobre los plazos de la AGI, como "50% escalamiento, 50% innovación", y su estimación de que la AGI tardará entre 5 y 10 años más; los puntos destacados de la biografía de Mallaby; las prioridades de investigación que ha mencionado explícitamente, incluyendo el aprendizaje continuo, los modelos del mundo y la memoria a largo plazo; referencias cruzadas entre sus puntos de vista públicos sobre IA y los míos; tres scripts de demostración para mostrar las capacidades de razonamiento multiescalón de este "cerebro" durante la conversación; y un conjunto de puntos de entrada para la conversación basados en las superposiciones y divergencias de nuestras visiones del mundo.

No fue solo una mejor búsqueda en Google. Fue una preparación basada en contexto: el sistema no solo usó la información que he ido acumulando sobre Demis a largo plazo, sino que también combinó mi propia postura y los objetivos estratégicos de esta conversación.

No preparó solo hechos, sino perspectivas.

Cómo es un cerebro de 100,000 páginas

Mantengo una base de conocimiento estructurada de aproximadamente 100,000 páginas.

Cada persona que conozco tiene una página, que incluye una línea de tiempo, una barra de estado — la situación real actual, hilos sin terminar y una calificación. Cada reunión tiene una transcripción, un resumen estructurado y un proceso que llamo "propagación de entidades" (entity propagation): después de cada reunión, el sistema recorre a cada persona y empresa mencionadas y actualiza sus brain pages respectivas con el contenido discutido.

Cada libro que leo recibe un book mirror capítulo por capítulo. Cada artículo, podcast, vídeo con el que me topo es ingerido, etiquetado y referenciado cruzadamente.

El esquema es simple. Cada página tiene tres partes: en la parte superior está "la verdad compilada" — la mejor comprensión actual; debajo, una línea de tiempo de solo-append, que registra eventos en orden cronológico; al lado, un sidecar de datos crudos para almacenar materiales fuente.

Puedes imaginarlo como una Wikipedia personal. Cada página es actualizada continuamente por una IA que asistió a la reunión, leyó el correo, vio la charla y digirió el PDF.

He aquí un ejemplo de cómo este sistema genera efecto compuesto.

Conocí a un fundador en mis horas de oficina (office hours). El sistema creará o actualizará su página personal, la página de la empresa, referenciará cruzadamente las notas de la reunión, comprobará si lo había conocido antes — y si es así, resaltará de qué hablamos la última vez; revisará sus materiales de solicitud, extraerá las métricas más recientes e identificará si alguien en mi cartera de inversiones o contactos puede ayudarlo con el problema que está manejando.

La próxima vez que entre en una reunión con él, el sistema ya tendrá preparado un paquete completo de contexto.

Esta es la diferencia entre un "archivador" y un "sistema nervioso". El archivador solo almacena cosas; el sistema nervioso las conecta, marca qué ha cambiado y hace emerger la información más relevante en el momento presente.

Arquitectura

Funciona así. Creo que este es el camino correcto para construir una IA personal, así que he abierto el código de todo y tú también puedes construirla.

El Harness (arnés) es delgado. OpenClaw es el entorno de ejecución (runtime). Recibe mis mensajes, decide qué habilidad aplicar y luego los distribuye. Solo tiene unos pocos miles de líneas de lógica de enrutamiento. No entiende de libros, reuniones o fundadores, solo enruta.

Las Skills (habilidades) son gruesas. Ahora hay más de 100 habilidades, cada una es un archivo markdown autocontenido con instrucciones detalladas para una tarea específica. Ya has visto book-mirror y meeting-prep. Aquí hay algunas otras habilidades que vienen integradas en GBrain:

meeting-ingestion: Después de cada reunión, extrae la transcripción, genera un resumen estructurado y luego recorre a cada persona y empresa mencionadas, actualizando sus brain pages con el contenido discutido. La página de la reunión en sí no es el producto final; el valor real está en propagar esa información de vuelta a las páginas de cada persona y empresa.

enrich: Dale el nombre de una persona. Extraerá información de cinco fuentes diferentes, fusionará todo en una brain page, incluyendo trayectoria profesional, información de contacto, historial de reuniones y contexto de relaciones. Cada juicio tiene citas de origen.

media-ingest: Procesa vídeo, audio, PDF, capturas de pantalla y repositorios de GitHub. Transcribe el contenido, extrae entidades y archiva el material en la ubicación correcta del cerebro. Lo uso mucho para vídeos de YouTube, podcasts y notas de voz.

perplexity-research: Esta es investigación web potenciada por el cerebro. Busca en la web a través de Perplexity, pero antes de sintetizar, verifica qué se sabe ya en el cerebro, diciéndote así qué información es realmente nueva y qué ya has capturado.

También he construido docenas de habilidades para mi propio trabajo, que probablemente también abriré: email-triage, investor-update-ingest — que identifica actualizaciones de mi cartera en mi bandeja de entrada y extrae las métricas a las páginas de las empresas; calendar-check — para detectar conflictos de agenda e itinerarios de viaje imposibles; y toda una pila de investigación de noticias que uso para mi trabajo de asuntos públicos.

Cada habilidad codifica un conocimiento operativo que le llevaría meses aprender a un nuevo asistente humano. La gente me pregunta cómo "prompto" a mi IA. La respuesta es: no hago prompts. La habilidad en sí misma es el prompt.

Los datos son gruesos. El repositorio del cerebro tiene 100,000 páginas de conocimiento estructurado. Cada persona, empresa, reunión, libro, artículo e idea con la que me he topado están conectados, son buscables y crecen cada día.

El código también es grueso. El código que lo alimenta también es importante: scripts para transcripción, OCR, archivado de redes sociales, sincronización de calendario, integración de APIs. Pero donde realmente se acumula el valor de efecto compuesto es en los datos.

Ejecuto más de 100 tareas cron (cron jobs) diariamente, revisando todo lo que sigo: redes sociales, Slack, correo y cualquier otra cosa que vigile. Mis Agentes OpenClaw/Hermes también miran estas cosas por mí.

Los modelos son reemplazables. Para precisión, uso Opus 4.7 1M; para recuperación (recall) y extracción exhaustiva, GPT-5.5; para trabajo creativo y perspectiva externa (third-person), DeepSeek V4-Pro; para velocidad, Groq con Llama. La habilidad decide qué tarea invoca qué modelo. Al Harness no le importa.

Cuando alguien pregunta "¿qué modelo de IA es el mejor?", la respuesta es: estás haciendo la pregunta equivocada. El modelo es solo el motor; todo lo demás es el coche entero.

El constructor de las 2 a.m., y un sistema que se capitaliza continuamente

La gente me pregunta sobre productividad. Pero yo no pienso en esos términos.

Pienso en el efecto compuesto.

Cada reunión a la que asisto añade contenido a este cerebro. Cada libro que leo enriquece el contexto para el siguiente. Cada habilidad que construyo hace que el siguiente flujo de trabajo sea más rápido. Cada página de persona que actualizo hace que la próxima preparación para una reunión sea más precisa.

El sistema de hoy ya es 10 veces mejor que el de hace dos meses. Dentro de otros dos meses, será 10 veces mejor que el de hoy.

Cuando estoy escribiendo código a las 2 de la mañana — y realmente lo hago a menudo, porque la IA me ha devuelto la alegría de construir — no solo estoy escribiendo software. Estoy añadiendo capacidad a un sistema que mejora cada hora.

100 cronjobs se ejecutan las 24 horas. La ingesta de reuniones se ejecuta automáticamente. El triaje de correo se ejecuta cada 10 minutos. El grafo de conocimiento se enriquece a sí mismo con cada conversación. El sistema procesa las transcripciones diarias y extrae patrones que yo no noté en tiempo real.

Esta no es una herramienta de escritura, no es un motor de búsqueda, no es un chatbot.

Este es un verdadero segundo cerebro en funcionamiento. No es una metáfora, es un sistema en ejecución: 100,000 páginas de contenido, más de 100 habilidades, 15 cron jobs, y el contexto acumulado de cada relación profesional, cada reunión, cada libro y cada idea en la que he participado durante el último año.

He abierto el código de toda la pila tecnológica. GStack es un marco para codificar habilidades, con más de 87,000 estrellas (stars), y es con lo que construí este sistema. Cuando un agente necesita escribir código, todavía lo uso como una habilidad dentro de mi Agente OpenClaw/Hermes. También incluye un gran navegador programable, tanto con interfaz gráfica (headed) como sin ella (headless).

GBrain es la infraestructura de conocimiento. OpenClaw y Hermes Agent son los harness (arneses), puedes elegir uno, pero yo suelo usar ambos. Los repositorios de datos también están en GitHub.

El juicio central es simple: el futuro pertenece a los individuos que pueden construir sistemas de IA con efecto compuesto, no a los que solo saben usar las herramientas de IA centralizadas propiedad de las empresas.

La diferencia entre ambos es como la diferencia entre llevar un diario y tener un sistema nervioso.

Cómo empezar

Si tú también quieres construir un sistema así:

Primero, elige un harness. Puedes usar OpenClaw, Hermes Agent, o construir uno desde cero basado en Pi. La clave es mantenerlo ligero. El harness es solo el enrutador. Puedes desplegarlo en un ordenador que tengas en casa sin usar, acceder con Tailscale; o ponerlo en un servicio en la nube como Render o Railway.

Luego, construye un "cerebro" con GBrain. Inicialmente me inspiré en la LLM Wiki de Karpathy, lo implementé en OpenClaw y luego lo expandí a GBrain. Es el mejor sistema de recuperación (retrieval) que he probado: 97.6% de recall en LongMemEval, superando a MemPalace sin invocar un LLM en la fase de recuperación. Viene con 39 habilidades instalables, incluyendo todas las mencionadas en este artículo. Solo necesitas un comando para instalarlo. Obtendrás un repositorio git donde cada persona, reunión, artículo e idea tendrá su propia página.

Después, haz algo realmente interesante. No planifiques tu arquitectura de habilidades desde el principio. Primero completa una tarea concreta: escribe un informe, investiga a una persona, descarga los resultados de una temporada de la NBA y construye un modelo predictivo para tus apuestas deportivas, analiza tu cartera de inversiones, o haz cualquier cosa que realmente te importe. Hazlo con tu agente, itera hasta que el resultado sea lo suficientemente bueno, y luego ejecuta Skillify — esa meta-habilidad mencionada antes — para extraer el patrón en una habilidad reutilizable. Luego ejecuta check_resolvable para confirmar que la nueva habilidad está conectada al resolver. Este ciclo convierte el trabajo de una sola vez en infraestructura que puede generar efecto compuesto continuamente.

Sigue usándolo y revisa seriamente la salida. La habilidad será mediocre al principio. Ese es precisamente el punto. Úsala, lee lo que genera, y cuando veas que algo está mal, ejecuta cross-modal eval: pasa la salida a múltiples modelos, haz que se califiquen entre sí según las dimensiones que te importan. Así es como descubrí los errores fácticos en book-mirror al principio. La corrección se escribió en la habilidad, y desde entonces, cada mirror ha sido más limpio.

En seis meses, tendrás algo que ningún chatbot puede replicar. Porque el valor real no está en el modelo en sí, sino en que le has enseñado a este sistema a entender tu vida, trabajo y forma de juzgar específicos.

La primera cosa que hice con este sistema fue terrible. Para la centésima, ya era un sistema al que confiaría mi calendario, bandeja de entrada, preparación de reuniones y lista de lectura. El sistema está aprendiendo, y yo también. La curva de efecto compuesto es real.

Habilidades gruesas, código grueso, harness delgado. Los LLM por sí mismos son solo un motor. Tú puedes construir tu propio coche.

Todo lo que describo aquí — todas las habilidades, el pipeline de book mirror, el marco de cross-modal eval, el ciclo skillify, la arquitectura de resolver, y más de 30 skillpacks instalables — ya está abierto y disponible gratuitamente en GitHub.

Construye.

Preguntas relacionadas

Q¿Cuál es la diferencia fundamental entre utilizar la IA como un 'chat' y como un 'sistema operativo personal' según Garry Tan?

ALa diferencia fundamental radica en que usar la IA como un 'chat' es una interacción puntual para obtener respuestas, mientras que como un 'sistema operativo personal' es integrarla en un sistema de productividad que genera efectos compuestos. Este sistema estructura y conecta continuamente todo el conocimiento, flujos de trabajo, contexto y juicio personal de un individuo, de modo que cada interacción (reuniones, lecturas, correos, contactos) enriquece una 'segunda mente' estructurada, haciendo que el sistema mejore y sea más valioso con el tiempo.

Q¿Qué es 'skillify' (habilificación) y por qué es clave en el sistema descrito?

A‘Skillify’ es el proceso de convertir una tarea o flujo de trabajo repetitivo en una 'habilidad' (‘skill’) reutilizable y autónoma dentro del sistema de IA personal. Es clave porque permite la creación de patrones automatizados y mejorables. Cada vez que se identifica una tarea recurrente, se extrae su patrón, se escribe en un archivo de habilidad con sus condiciones y casos límite, y se registra. Así, las mejoras en una habilidad se aplican automáticamente a todos los flujos que la utilicen, generando un efecto compuesto de productividad y eficiencia.

Q¿Cómo funciona el 'book mirror' (espejo de libro) y qué valor aporta?

AEl 'book mirror' es un proceso donde el sistema de IA extrae el contenido completo de un libro, resume las ideas del autor por capítulos y, simultáneamente, mapea cada concepto a la vida real, experiencias y contexto específico del usuario (como su historial familiar, reuniones profesionales, notas de terapia, etc.). El resultado es un documento extenso que vincula el contenido del libro con la realidad personal del usuario. Su valor no es solo el resumen, sino la creación de conexiones profundas y personalizadas que un lector humano tardaría mucho más en realizar, enriqueciendo continuamente la base de conocimiento del sistema.

Q¿Qué componentes arquitectónicos forman el sistema de IA personal de Garry Tan y cuál es la función de cada uno?

AEl sistema se compone principalmente de: 1) **Harness (Arnés)**: Una capa de enrutamiento ligera (como OpenClaw/Hermes Agent) que recibe las solicitudes y decide qué habilidad (‘skill’) ejecutar. 2) **Skills (Habilidades)**: Archivos autocontenidos (más de 100) que codifican tareas específicas (como `book-mirror`, `meeting-prep`). Son el 'código grueso' que contiene el conocimiento operativo. 3) **Cerebro (Brain)**: Una base de conocimiento estructurada de unas 100.000 páginas que almacena y conecta toda la información personal (personas, empresas, reuniones, libros). 4) **Modelos**: Diferentes modelos de IA (como Opus, GPT, DeepSeek) utilizados según la tarea, siendo meros 'motores' intercambiables. 5) **Código de ingestión**: Scripts que alimentan el sistema con datos de diversas fuentes (correo, calendario, transcripciones).

QSegún el artículo, ¿cuál es el primer paso práctico para comenzar a construir un sistema de IA personal con efecto compuesto?

AEl primer paso práctico es elegir un 'arnés' (harness) ligero para enrutamiento, como OpenClaw o Hermes Agent, y desplegarlo. Luego, usar GBrain para crear la base de conocimiento o 'cerebro'. Lo más importante es **no empezar planeando la arquitectura completa, sino realizar una tarea concreta y significativa** (investigar a alguien, analizar un portafolio, procesar un libro). Usar el agente para ello, iterar hasta que el resultado sea bueno, y luego ejecutar el meta-skill 'Skillify' para convertir ese flujo en una habilidad reutilizable. Este ciclo convierte el trabajo puntual en infraestructura que genera efectos compuestos.

Lecturas Relacionadas

Arthur Hayes: La Burbuja de la IA es la Mayor Oportunidad

Arthur Hayes sostiene que la burbuja de la IA representa la mayor oportunidad actual. Argumenta que el gasto masivo en capital (CAPEX) para IA, impulsado por la competencia nacional entre EE.UU. y China y la facilidad crediticia de los bancos centrales, está creando una liquidez monetaria sin precedentes. Esta expansión de la oferta monetaria (dólares y yuanes) beneficiará directamente a Bitcoin y las criptomonedas como cobertura contra la devaluación de las monedas fiduciarias. Hayes identifica dos posibles catalizadores para el fin de esta burbuja: una oferta pública inicial (IPO) o fusión masiva de IA que colapse el mercado, y un cambio político tras las elecciones de EE.UU. de 2028 hacia posturas anti-IA y enfocadas en el costo de vida. Sin embargo, hasta entonces, la liquidez seguirá fluyendo. Además, analiza cómo los conflictos geopolíticos (como una posible guerra entre EE.UU. e Irán) acelerarán la transición de los países desde activos financieros en dólares hacia inversiones en infraestructura física y commodities, presionando aún más a la Fed a mantener condiciones financieras laxas. Predice que Bitcoin, respaldado por billones en liquidez futura, superará los 126,000 dólares, y recomienda también invertir en altcoins como Hyperliquid ($HYPE), Zcash ($ZEC) y especialmente $NEAR, impulsado por la narrativa de privacidad y su tecnología "Intents". Concluye que es momento de ser alcista y aprovechar el ciclo.

链捕手Hace 17 min(s)

Arthur Hayes: La Burbuja de la IA es la Mayor Oportunidad

链捕手Hace 17 min(s)

La esencia del despido impulsado por IA: ¿Por qué, cuanto más se adopta la IA, más ansiedad hay en las empresas?

El artículo explora la esencia de los despidos relacionados con la IA, argumentando que no se deben necesariamente a que la IA reemplace directamente a los trabajadores, sino a dinámicas organizativas y financieras que desencadena. Aunque el uso de IA, como herramientas de generación de código, ha disparado la productividad (medida en "inputs" como líneas de código), esto no se traduce en un crecimiento proporcional de los ingresos ("outcomes"). Las empresas incurren en enormes costos por tokens de IA sin ver un retorno claro, lo que genera una presión financiera. Para compensar estos gastos, recurren a despidos como un simple ajuste contable. Además, la velocidad de desarrollo con IA agrava problemas organizativos existentes. La facilidad para generar código multiplica proyectos paralelos y conflictos entre equipos ("infierno de la alineación"), ralentizando la entrega real de valor. Los recortes de personal se convierten en una solución rápida para reducir esta complejidad y fricción interna, acelerando temporalmente la toma de decisiones, aunque no aborden la causa raíz. En resumen, los despidos son una consecuencia de no saber aún convertir la mayor productividad de la IA en mejores resultados comerciales y de la incapacidad de las estructuras organizativas para adaptarse a su ritmo. Hasta que las empresas aprendan a gestionar esto, los recortes seguirán siendo una herramienta para cubrir costos y simplificar operaciones.

marsbitHace 1 hora(s)

La esencia del despido impulsado por IA: ¿Por qué, cuanto más se adopta la IA, más ansiedad hay en las empresas?

marsbitHace 1 hora(s)

¿Podrá Pay.sh, lanzado por la Solana Foundation en colaboración con Google, conectar los flujos de pago Web2 y Web3 en la economía de agentes inteligentes?

Pay.sh, un gateway de pago desarrollado por Solana Foundation y Google Cloud, tiene como objetivo conectar la economía de los agentes de IA con servicios tanto Web2 como Web3. Permite a los usuarios financiar una wallet de Solana con tarjetas de crédito o stablecoins, que luego actúa como identidad y método de pago para que los agentes accedan a recursos como Google Cloud o Alibaba Cloud sin necesidad de registros manuales. El sistema funciona basándose en el código de estado HTTP 402 ("Pago requerido"). Cuando un agente necesita un servicio de pago, el servidor responde con un 402 y los detalles del pago. Pay.sh procesa la solicitud, gestiona la autorización desde la wallet y completa la transacción. Es compatible con los protocolos de pago para agentes x402 (para pagos únicos) y MPP (para sesiones o facturación continua), eligiendo automáticamente la opción más adecuada. Para los proveedores de servicios, Pay.sh ofrece una integración sencilla mediante un archivo declarativo, permitiendo configurar reglas de precios, cuotas gratuitas o división automática de pagos entre múltiples destinatarios. Los servicios pueden listarse en un registro para su descubrimiento. La principal ventaja de Pay.sh es unificar los ecosistemas de pago, permitiendo a los agentes utilizar una wallet de cadena de bloques como identidad única para acceder a recursos tradicionales de forma más fluida y con el respaldo de la infraestructura y cumplimiento de Google Cloud. No obstante, el proyecto enfrenta desafíos, como la posible falta de mecanismos robustos para verificar y filtrar servicios no autorizados en su registro, la dependencia de la seguridad de los protocolos subyacentes (x402, MPP) y las posibles barreras regulatorias para proveedores en diferentes regiones. En conclusión, Pay.sh representa un paso significativo hacia la convergencia de los pagos Web2 y Web3 para la economía de los agentes de IA, potenciando el papel de las wallets de cadena de bloques como instrumento de identidad y valor, aunque su éxito dependerá de superar los retos de adopción y cumplimiento.

marsbitHace 1 hora(s)

¿Podrá Pay.sh, lanzado por la Solana Foundation en colaboración con Google, conectar los flujos de pago Web2 y Web3 en la economía de agentes inteligentes?

marsbitHace 1 hora(s)

Trading

Spot
Futuros

Artículos destacados

Qué es $S$

Entendiendo SPERO: Una Visión General Completa Introducción a SPERO A medida que el panorama de la innovación sigue evolucionando, la aparición de tecnologías web3 y proyectos de criptomonedas juega un papel fundamental en la configuración del futuro digital. Un proyecto que ha llamado la atención en este campo dinámico es SPERO, denotado como SPERO,$$s$. Este artículo tiene como objetivo recopilar y presentar información detallada sobre SPERO, para ayudar a entusiastas e inversores a comprender sus fundamentos, objetivos e innovaciones dentro de los dominios web3 y cripto. ¿Qué es SPERO,$$s$? SPERO,$$s$ es un proyecto único dentro del espacio cripto que busca aprovechar los principios de descentralización y tecnología blockchain para crear un ecosistema que promueva la participación, la utilidad y la inclusión financiera. El proyecto está diseñado para facilitar interacciones entre pares de nuevas maneras, proporcionando a los usuarios soluciones y servicios financieros innovadores. En su esencia, SPERO,$$s$ tiene como objetivo empoderar a los individuos al proporcionar herramientas y plataformas que mejoren la experiencia del usuario en el espacio de las criptomonedas. Esto incluye habilitar métodos de transacción más flexibles, fomentar iniciativas impulsadas por la comunidad y crear caminos para oportunidades financieras a través de aplicaciones descentralizadas (dApps). La visión subyacente de SPERO,$$s$ gira en torno a la inclusividad, buscando cerrar brechas dentro de las finanzas tradicionales mientras aprovecha los beneficios de la tecnología blockchain. ¿Quién es el Creador de SPERO,$$s$? La identidad del creador de SPERO,$$s$ sigue siendo algo oscura, ya que hay recursos públicos limitados que proporcionan información de fondo detallada sobre su(s) fundador(es). Esta falta de transparencia puede derivarse del compromiso del proyecto con la descentralización, una ética que muchos proyectos web3 comparten, priorizando las contribuciones colectivas sobre el reconocimiento individual. Al centrar las discusiones en torno a la comunidad y sus objetivos colectivos, SPERO,$$s$ encarna la esencia del empoderamiento sin señalar a individuos específicos. Como tal, entender la ética y la misión de SPERO es más importante que identificar a un creador singular. ¿Quiénes son los Inversores de SPERO,$$s$? SPERO,$$s$ cuenta con el apoyo de una diversa gama de inversores que van desde capitalistas de riesgo hasta inversores ángeles dedicados a fomentar la innovación en el sector cripto. El enfoque de estos inversores generalmente se alinea con la misión de SPERO, priorizando proyectos que prometen avances tecnológicos sociales, inclusividad financiera y gobernanza descentralizada. Estas fundaciones de inversores suelen estar interesadas en proyectos que no solo ofrecen productos innovadores, sino que también contribuyen positivamente a la comunidad blockchain y sus ecosistemas. El respaldo de estos inversores refuerza a SPERO,$$s$ como un contendiente notable en el rápidamente evolutivo dominio de los proyectos cripto. ¿Cómo Funciona SPERO,$$s$? SPERO,$$s$ emplea un marco multifacético que lo distingue de los proyectos de criptomonedas convencionales. Aquí hay algunas de las características clave que subrayan su singularidad e innovación: Gobernanza Descentralizada: SPERO,$$s$ integra modelos de gobernanza descentralizada, empoderando a los usuarios para participar activamente en los procesos de toma de decisiones sobre el futuro del proyecto. Este enfoque fomenta un sentido de propiedad y responsabilidad entre los miembros de la comunidad. Utilidad del Token: SPERO,$$s$ utiliza su propio token de criptomoneda, diseñado para servir a diversas funciones dentro del ecosistema. Estos tokens permiten transacciones, recompensas y la facilitación de servicios ofrecidos en la plataforma, mejorando la participación y utilidad general. Arquitectura en Capas: La arquitectura técnica de SPERO,$$s$ soporta la modularidad y escalabilidad, permitiendo la integración fluida de características y aplicaciones adicionales a medida que el proyecto evoluciona. Esta adaptabilidad es fundamental para mantener la relevancia en el siempre cambiante paisaje cripto. Participación de la Comunidad: El proyecto enfatiza iniciativas impulsadas por la comunidad, empleando mecanismos que incentivan la colaboración y la retroalimentación. Al nutrir una comunidad sólida, SPERO,$$s$ puede abordar mejor las necesidades de los usuarios y adaptarse a las tendencias del mercado. Enfoque en la Inclusión: Al ofrecer tarifas de transacción bajas y interfaces amigables para el usuario, SPERO,$$s$ busca atraer a una base de usuarios diversa, incluyendo a individuos que anteriormente pueden no haber participado en el espacio cripto. Este compromiso con la inclusión se alinea con su misión general de empoderamiento a través de la accesibilidad. Cronología de SPERO,$$s$ Entender la historia de un proyecto proporciona información crucial sobre su trayectoria de desarrollo y hitos. A continuación, se presenta una cronología sugerida que mapea eventos significativos en la evolución de SPERO,$$s$: Fase de Conceptualización e Ideación: Las ideas iniciales que forman la base de SPERO,$$s$ fueron concebidas, alineándose estrechamente con los principios de descentralización y enfoque comunitario dentro de la industria blockchain. Lanzamiento del Whitepaper del Proyecto: Tras la fase conceptual, se publicó un whitepaper completo que detalla la visión, objetivos e infraestructura tecnológica de SPERO,$$s$ para generar interés y retroalimentación de la comunidad. Construcción de Comunidad y Primeras Interacciones: Se realizaron esfuerzos de divulgación activa para construir una comunidad de primeros adoptantes e inversores potenciales, facilitando discusiones en torno a los objetivos del proyecto y obteniendo apoyo. Evento de Generación de Tokens: SPERO,$$s$ llevó a cabo un evento de generación de tokens (TGE) para distribuir sus tokens nativos a los primeros seguidores y establecer liquidez inicial dentro del ecosistema. Lanzamiento de la dApp Inicial: La primera aplicación descentralizada (dApp) asociada con SPERO,$$s$ se puso en marcha, permitiendo a los usuarios interactuar con las funcionalidades centrales de la plataforma. Desarrollo Continuo y Alianzas: Actualizaciones y mejoras continuas en las ofertas del proyecto, incluyendo alianzas estratégicas con otros actores en el espacio blockchain, han moldeado a SPERO,$$s$ en un jugador competitivo y en evolución en el mercado cripto. Conclusión SPERO,$$s$ se erige como un testimonio del potencial de web3 y las criptomonedas para revolucionar los sistemas financieros y empoderar a los individuos. Con un compromiso con la gobernanza descentralizada, la participación comunitaria y funcionalidades diseñadas de manera innovadora, allana el camino hacia un paisaje financiero más inclusivo. Como con cualquier inversión en el rápidamente evolutivo espacio cripto, se anima a los potenciales inversores y usuarios a investigar a fondo y participar de manera reflexiva con los desarrollos en curso dentro de SPERO,$$s$. El proyecto muestra el espíritu innovador de la industria cripto, invitando a una exploración más profunda de sus innumerables posibilidades. Aunque el viaje de SPERO,$$s$ aún se está desarrollando, sus principios fundamentales pueden, de hecho, influir en el futuro de cómo interactuamos con la tecnología, las finanzas y entre nosotros en ecosistemas digitales interconectados.

74 Vistas totalesPublicado en 2024.12.17Actualizado en 2024.12.17

Qué es $S$

Qué es AGENT S

Agent S: El Futuro de la Interacción Autónoma en Web3 Introducción En el paisaje en constante evolución de Web3 y las criptomonedas, las innovaciones están redefiniendo continuamente cómo los individuos interactúan con las plataformas digitales. Uno de estos proyectos pioneros, Agent S, promete revolucionar la interacción humano-computadora a través de su marco agente abierto. Al allanar el camino para interacciones autónomas, Agent S tiene como objetivo simplificar tareas complejas, ofreciendo aplicaciones transformadoras en inteligencia artificial (IA). Esta exploración detallada se adentrará en las complejidades del proyecto, sus características únicas y las implicaciones para el dominio de las criptomonedas. ¿Qué es Agent S? Agent S se presenta como un marco agente abierto revolucionario, diseñado específicamente para abordar tres desafíos fundamentales en la automatización de tareas informáticas: Adquisición de Conocimiento Específico del Dominio: El marco aprende de manera inteligente a partir de diversas fuentes de conocimiento externas y experiencias internas. Este enfoque dual le permite construir un rico repositorio de conocimiento específico del dominio, mejorando su rendimiento en la ejecución de tareas. Planificación a Largo Plazo de Tareas: Agent S emplea planificación jerárquica aumentada por la experiencia, un enfoque estratégico que facilita la descomposición y ejecución eficiente de tareas intrincadas. Esta característica mejora significativamente su capacidad para gestionar múltiples subtareas de manera eficiente y efectiva. Manejo de Interfaces Dinámicas y No Uniformes: El proyecto introduce la Interfaz Agente-Computadora (ACI), una solución innovadora que mejora la interacción entre agentes y usuarios. Utilizando Modelos de Lenguaje Multimodal Grandes (MLLMs), Agent S puede navegar y manipular diversas interfaces gráficas de usuario sin problemas. A través de estas características pioneras, Agent S proporciona un marco robusto que aborda las complejidades involucradas en la automatización de la interacción humana con las máquinas, preparando el terreno para innumerables aplicaciones en IA y más allá. ¿Quién es el Creador de Agent S? Aunque el concepto de Agent S es fundamentalmente innovador, la información específica sobre su creador sigue siendo elusiva. El creador es actualmente desconocido, lo que resalta ya sea la etapa incipiente del proyecto o la elección estratégica de mantener a los miembros fundadores en el anonimato. Independientemente de la anonimidad, el enfoque sigue siendo las capacidades y el potencial del marco. ¿Quiénes son los Inversores de Agent S? Dado que Agent S es relativamente nuevo en el ecosistema criptográfico, la información detallada sobre sus inversores y patrocinadores financieros no está documentada explícitamente. La falta de información disponible públicamente sobre las bases de inversión u organizaciones que apoyan el proyecto plantea preguntas sobre su estructura de financiamiento y hoja de ruta de desarrollo. Comprender el respaldo es crucial para evaluar la sostenibilidad del proyecto y su posible impacto en el mercado. ¿Cómo Funciona Agent S? En el núcleo de Agent S se encuentra tecnología de vanguardia que le permite funcionar de manera efectiva en diversos entornos. Su modelo operativo se basa en varias características clave: Interacción Humano-Computadora: El marco ofrece planificación avanzada de IA, esforzándose por hacer que las interacciones con las computadoras sean más intuitivas. Al imitar el comportamiento humano en la ejecución de tareas, promete elevar las experiencias de los usuarios. Memoria Narrativa: Empleada para aprovechar experiencias de alto nivel, Agent S utiliza memoria narrativa para hacer un seguimiento de las historias de tareas, mejorando así sus procesos de toma de decisiones. Memoria Episódica: Esta característica proporciona a los usuarios orientación paso a paso, permitiendo que el marco ofrezca apoyo contextual a medida que se desarrollan las tareas. Soporte para OpenACI: Con la capacidad de funcionar localmente, Agent S permite a los usuarios mantener el control sobre sus interacciones y flujos de trabajo, alineándose con la ética descentralizada de Web3. Fácil Integración con APIs Externas: Su versatilidad y compatibilidad con diversas plataformas de IA aseguran que Agent S pueda integrarse sin problemas en ecosistemas tecnológicos existentes, convirtiéndolo en una opción atractiva para desarrolladores y organizaciones. Estas funcionalidades contribuyen colectivamente a la posición única de Agent S dentro del espacio cripto, ya que automatiza tareas complejas y de múltiples pasos con una intervención humana mínima. A medida que el proyecto evoluciona, sus aplicaciones potenciales en Web3 podrían redefinir cómo se desarrollan las interacciones digitales. Cronología de Agent S El desarrollo y los hitos de Agent S pueden encapsularse en una cronología que destaca sus eventos significativos: 27 de septiembre de 2024: Se lanzó el concepto de Agent S en un documento de investigación integral titulado “Un Marco Agente Abierto que Utiliza Computadoras como un Humano”, mostrando las bases del proyecto. 10 de octubre de 2024: El documento de investigación se hizo disponible públicamente en arXiv, ofreciendo una exploración en profundidad del marco y su evaluación de rendimiento basada en el benchmark OSWorld. 12 de octubre de 2024: Se publicó una presentación en video, proporcionando una visión visual de las capacidades y características de Agent S, involucrando aún más a posibles usuarios e inversores. Estos hitos en la cronología no solo ilustran el progreso de Agent S, sino que también indican su compromiso con la transparencia y el compromiso comunitario. Puntos Clave Sobre Agent S A medida que el marco Agent S continúa evolucionando, varios atributos clave destacan, subrayando su naturaleza innovadora y potencial: Marco Innovador: Diseñado para proporcionar un uso intuitivo de las computadoras similar a la interacción humana, Agent S aporta un enfoque novedoso a la automatización de tareas. Interacción Autónoma: La capacidad de interactuar de manera autónoma con las computadoras a través de GUI significa un avance hacia soluciones informáticas más inteligentes y eficientes. Automatización de Tareas Complejas: Con su metodología robusta, puede automatizar tareas complejas y de múltiples pasos, haciendo que los procesos sean más rápidos y menos propensos a errores. Mejora Continua: Los mecanismos de aprendizaje permiten a Agent S mejorar a partir de experiencias pasadas, mejorando continuamente su rendimiento y eficacia. Versatilidad: Su adaptabilidad en diferentes entornos operativos como OSWorld y WindowsAgentArena asegura que pueda servir a una amplia gama de aplicaciones. A medida que Agent S se posiciona en el paisaje de Web3 y criptomonedas, su potencial para mejorar las capacidades de interacción y automatizar procesos significa un avance significativo en las tecnologías de IA. A través de su marco innovador, Agent S ejemplifica el futuro de las interacciones digitales, prometiendo una experiencia más fluida y eficiente para los usuarios en diversas industrias. Conclusión Agent S representa un audaz avance en la unión de la IA y Web3, con la capacidad de redefinir cómo interactuamos con la tecnología. Aunque aún se encuentra en sus primeras etapas, las posibilidades para su aplicación son vastas y atractivas. A través de su marco integral que aborda desafíos críticos, Agent S tiene como objetivo llevar las interacciones autónomas al primer plano de la experiencia digital. A medida que nos adentramos más en los reinos de las criptomonedas y la descentralización, proyectos como Agent S sin duda desempeñarán un papel crucial en la configuración del futuro de la tecnología y la colaboración humano-computadora.

773 Vistas totalesPublicado en 2025.01.14Actualizado en 2025.01.14

Qué es AGENT S

Cómo comprar S

¡Bienvenido a HTX.com! Hemos hecho que comprar Sonic (S) sea simple y conveniente. Sigue nuestra guía paso a paso para iniciar tu viaje de criptos.Paso 1: crea tu cuenta HTXUtiliza tu correo electrónico o número de teléfono para registrarte y obtener una cuenta gratuita en HTX. Experimenta un proceso de registro sin complicaciones y desbloquea todas las funciones.Obtener mi cuentaPaso 2: ve a Comprar cripto y elige tu método de pagoTarjeta de crédito/débito: usa tu Visa o Mastercard para comprar Sonic (S) al instante.Saldo: utiliza fondos del saldo de tu cuenta HTX para tradear sin problemas.Terceros: hemos agregado métodos de pago populares como Google Pay y Apple Pay para mejorar la comodidad.P2P: tradear directamente con otros usuarios en HTX.Over-the-Counter (OTC): ofrecemos servicios personalizados y tipos de cambio competitivos para los traders.Paso 3: guarda tu Sonic (S)Después de comprar tu Sonic (S), guárdalo en tu cuenta HTX. Alternativamente, puedes enviarlo a otro lugar mediante transferencia blockchain o utilizarlo para tradear otras criptomonedas.Paso 4: tradear Sonic (S)Tradear fácilmente con Sonic (S) en HTX's mercado spot. Simplemente accede a tu cuenta, selecciona tu par de trading, ejecuta tus trades y monitorea en tiempo real. Ofrecemos una experiencia fácil de usar tanto para principiantes como para traders experimentados.

1.3k Vistas totalesPublicado en 2025.01.15Actualizado en 2025.03.21

Cómo comprar S

Discusiones

Bienvenido a la comunidad de HTX. Aquí puedes mantenerte informado sobre los últimos desarrollos de la plataforma y acceder a análisis profesionales del mercado. A continuación se presentan las opiniones de los usuarios sobre el precio de S (S).

活动图片