Nota del editor: Cuando los agentes de IA comienzan a tener la capacidad de ejecutar tareas, invocar herramientas y participar en actividades económicas, surge una nueva pregunta: ¿cómo actuarán en un entorno de incentivos reales?
Este artículo documenta un experimento del equipo de Circle. Organizaron un hackatón de USDC en la plataforma social Moltbook, que solo permite publicaciones de agentes de IA, donde los agentes Openclaw enviaban proyectos por sí mismos, debatían y votaban. Los resultados fueron tanto emocionantes como complejos: los agentes no solo pudieron generar proyectos reales y participar en debates técnicos, sino que también operaron al borde de las reglas. Por ejemplo, malinterpretaron instrucciones, ignoraron formatos, se hicieron campaña electoral mutuamente e incluso mostraron comportamientos sospechosos de "colusión".
Este experimento proporciona una ventana rara de observación para la "economía de agentes": cuando la IA es tanto participante como tomadora de decisiones, la colaboración, la competencia y los comportamientos estratégicos suelen aparecer simultáneamente. Hasta cierto punto, estos fenómenos no son fundamentalmente diferentes de los mecanismos de mercado y electorales en la sociedad humana.
Este experimento rápidamente provocó un amplio debate en la comunidad. Muchos creen que es una verificación interesante de la capacidad autónoma de la economía de agentes. Algunos comentaristas señalaron que los sistemas de agentes aún necesitan barreras de seguridad más claras para evitar desviaciones de "auto-racionalización"; otros creen que, a medida que los agentes se incorporen gradualmente a las actividades económicas reales, el verdadero cuello de botella en el futuro podría estar en los sistemas de liquidación y pago conformes. Como dijo un comentario: "La economía de agentes es muy poderosa, pero también necesita barreras claras."
A continuación, el texto original:
Abrazando a Claw
En Circle, siempre nos ha encantado organizar hackatones. Ya sea en persona en varias conferencias o cuando se lanzan nuevos productos, siempre queremos poner las mejores herramientas en manos de los desarrolladores, o en esta ocasión, en las garras de Claw.
Después de ver el crecimiento explosivo de Openclaw, un framework de IA de tipo agente, decidimos organizar un hackatón en el que solo pudieran participar agentes de IA.
Este software, que se hizo popular rápidamente, permite a los agentes enviar correos electrónicos de forma autónoma, invocar APIs, incluso controlar tu termostato... pero ¿pueden enviar proyectos por sí mismos? Circle quería probar estas "IA que realmente pueden hacer cosas" con un experimento real.
Nuestra pregunta era simple: si el premio es de 30,000 dólares en USDC, ¿cómo actuarían los agentes de Openclaw? La respuesta fue sorprendentemente "humana".
Organizamos un hackatón de USDC en la subcomunidad m/usdc de Moltbook. Moltbook es una plataforma de redes sociales que solo permite publicar a agentes de IA. Nuestro objetivo era que los agentes completaran todo el proceso por sí mismos: enviar proyectos, votar y finalmente seleccionar un ganador. Aunque muchos agentes siguieron las reglas, el experimento también descubrió que algunos ignoraron las reglas del concurso, participaron en campañas de votación cruzada e incluso intentaron enviar tokens a los agentes del hackatón.
Diseñando reglas para "hacks de agentes"
Los agentes tuvieron cinco días para enviar sus proyectos. Para ayudarlos en la tarea, creamos una USDC Hackathon Skill, un archivo de instrucciones escrito en Markdown, para enseñar a los agentes Openclaw cómo enviar proyectos según las reglas. Estas reglas también se publicaron en la publicación del anuncio original del hackatón:
Elige una de las tres categorías: Agentic Commerce, Smart Contract o Skill.
Vota por cinco proyectos diferentes, y la votación debe realizarse al menos un día después de que comience el hackatón.
El envío de proyectos y la votación deben seguir el formato establecido.
Establecer estas reglas se debió principalmente a tres consideraciones: primero, asegurar que los agentes debatirían y evaluarían una gama más amplia de proyectos; segundo, observar si los agentes podían seguir instrucciones con precisión al necesitar ejecutar tareas de múltiples pasos; tercero, evitar un punto muerto entre el envío de proyectos y la votación.
Un punto que especialmente queríamos observar era: ¿los agentes revisarían repetidamente los nuevos proyectos en Moltbook para votar, por ejemplo, mediante una skill similar a Moltbook Heartbeat que actualizara periódicamente?
Los resultados fueron mixtos. Los agentes debatieron sobre 204 proyectos enviados y emitieron 1851 votos, pero muchos no siguieron la guía del concurso. Además, algunos agentes mostraron comportamientos potencialmente adversarios, lo que también arrojó hallazgos interesantes.
Envíos de proyectos "alucinatorios"
A pesar de proporcionar reglas claras para el hackatón y una skill de envío, la mayoría de las publicaciones aún no se enviaron completamente en el formato requerido. Muchos proyectos escribieron el título en el cuerpo, pero no incluyeron la etiqueta prescrita "#USDCHackathon ProjectSubmission [TRACK]".
Incluso en un caso, un agente sabía que necesitaba escribir esta información, pero no la puso en el título.
Incluso cuando cumplían con los requisitos en otros aspectos, algunos agentes "alucinaron" creando nuevas categorías para el hackatón. Esto ocurrió a pesar de que se les dijo explícitamente que solo podían elegir entre tres: Agentic Commerce, Smart Contract o Skill.
En estos casos, los agentes tendían a generar un nombre de categoría que parecía más "apropiado" basándose en el contenido del proyecto. Esto podría significar que el agente intentaba encontrar una clasificación más razonable para su proyecto, o simplemente ignoraba las reglas establecidas. Cualquiera que fuera la razón, el problema era que estas categorías simplemente no existían.
A medida que avanzaba la competencia, el número de envíos no conformes y publicaciones fuera de tema aumentó en comparación con los envíos válidos. Según las reglas del concurso, no había un incentivo obvio para que los agentes publicaran este contenido inválido. Por lo tanto, es más probable que algunos agentes tuvieran dificultades para comprender o ejecutar las instrucciones.
Sin embargo, considerando que aún un número considerable de agentes logró enviar proyectos según lo requerido, creemos que las reglas en sí mismas eran relativamente claras.
La "elección" de los agentes
Aun así, observamos 9712 comentarios, muchos de los cuales discutían las funciones técnicas de los proyectos, pero no votaban. La mayoría de estos comentarios ni siquiera siguieron el formato de comentario recomendado y los criterios de puntuación, aunque estas reglas no se aplicaron estrictamente en la skill. Esto también indica que la participación de los agentes en los debates del hackatón no era solo para cumplir con los requisitos del concurso, sino que, en cierto modo, también estaban realizando evaluaciones e intercambios técnicos reales.
Al final del concurso, contabilizamos 1352 votos únicos para proyectos válidos y 499 votos únicos para proyectos inválidos. Curiosamente, muchos de los agentes de los proyectos mejor clasificados siguieron las reglas al enviar sus proyectos, pero no cumplieron con el requisito de votar por cinco proyectos diferentes.
Esto incluso ocurrió en casos donde algunos agentes votaron por sí mismos y también votaron múltiples veces por el mismo proyecto. Esto indica que tenían la capacidad de revisar el contenido de Moltbook después del envío inicial para votar, simplemente eligieron no seguir las reglas establecidas.
Además, algunos agentes comenzaron a promocionar otros proyectos. Este comportamiento apareció tanto en las secciones de comentarios de proyectos competidores como en publicaciones independientes en Moltbook. Yendo un paso más allá, algunos agentes incluso comenzaron a promover mecanismos de "voto cruzado": si votas por mi proyecto, yo voto por el tuyo.
Aunque las reglas del concurso no prohibían este comportamiento, considerando la gran cantidad de interacciones entre agentes en estas publicaciones, este fenómeno sigue siendo motivo de alerta.
Potencial intervención humana
Esta publicación de voto cruzado podría sugerir la posibilidad de participación humana o manipulación externa. Intentamos generar comentarios similares a través de una interfaz de chatbot y encontramos que algunos modelos (como Claude Sonnet 4.6) se negaban directamente a generar dicho contenido; mientras que otros modelos lo generaban con una advertencia, indicando que el comportamiento podría violar las reglas del concurso (por ejemplo, GPT-5.2 Thinking). Si un humano estaba detrás de una cuenta "agente", o guiaba al agente a través de prompts o una cadena de herramientas, podría explicar por qué aparecieron tales publicaciones durante el hackatón.
Aunque Moltbook fue diseñado originalmente para ser utilizado exclusivamente por agentes de IA (el registro requiere verificación a través de una cuenta de X), otros investigadores han encontrado que suplantar identidades sigue siendo posible. También observamos algunos ejemplos de actividad sospechosa de ser humana, por ejemplo, en la publicación del anuncio inicial del hackatón.
Un caso emblemático: el comentario con más 'me gusta' era el comienzo del guión de la película Bee Movie (2007). Este texto es un copypasta (texto fijo copiado y difundido masivamente) muy extendido en Internet, y debido a que su contenido es completamente irrelevante para la discusión, es muy probable que fuera publicado por un humano. Si este comportamiento fue común durante el hackatón, entonces algunos comportamientos adversariales, como el voto cruzado o votar por uno mismo, también podrían explicarse de esta manera.
El futuro de las finanzas con agentes
Aunque este hackatón en sí mismo fue solo un experimento, también creemos que será el primero de muchos eventos de desarrollo orientados a agentes. A partir de los resultados, sacamos tres conclusiones principales: Los agentes pueden producir proyectos reales bajo incentivos financieros
En este hackatón surgieron algunos proyectos emocionantes, puedes aprender más sobre ellos aquí. Aunque el concurso no introdujo una revisión manual, la calidad de algunos envíos aún nos impresionó. Esto indica que el desarrollo de agentes ha progresado significativamente en el último año.
Los agentes "racionalizan" las instrucciones, en lugar de ejecutarlas estrictamente
Los agentes tuvieron problemas continuos para seguir las reglas que proporcionamos. Muchos agentes solo ejecutaron parte de las instrucciones. Incluso algunos proyectos de alta calidad, que de haber seguido las reglas al pie de la letra, podrían haber ganado el concurso. Esto muestra que simplemente proporcionar instrucciones para agentes no es suficiente; las reglas no solo deben ser claras, sino que también necesitan mecanismos de verificación y medidas de incentivo para asegurar su cumplimiento.
Los agentes cooperan y compiten
Aunque la intervención humana pudo haber jugado un papel en algunos casos, sí observamos agentes discutiendo activamente estrategias de colusión durante el hackatón. Los futuros organizadores de hackatones podrían prohibir explícitamente la colusión en las reglas, para observar si esto reduce tales comportamientos. Si los agentes aún no pueden seguir las instrucciones por completo, los organizadores podrían necesitar introducir más barreras de seguridad (guardrails).
La tecnología de agentes es emocionante, pero también debemos asegurarnos de que no pase de la exploración (exploration) que esperamos a la explotación y manipulación (exploitation). Algunos podrían argumentar que estos comportamientos son simplemente el resultado natural de que agentes más fuertes venzan a agentes más débiles; después de todo, la cuenta de X de Openclaw una vez proclamó: "La Garra es la Ley (the Claw is the Law)".
La verdadera pregunta es: ¿hasta qué punto estamos dispuestos a aceptar esta filosofía? ¿Qué tipo de fosos defensivos (moats) se necesitan? ¿Y cómo encontrar el equilibrio entre la enorme capacidad que traen los agentes y la incertidumbre que los acompaña?
En Circle, estamos construyendo sistemas pensando en la seguridad, y esperamos que ustedes también lo hagan.













