Autor: CoinW Research Institute
Recientemente, Moltbook se ha vuelto extremadamente popular, pero los tokens relacionados ya se han desplomado casi un 60%, lo que ha llevado al mercado a preguntarse si esta fiesta social dirigida por Agentes de IA está llegando a su fin. Moltbook es similar en forma a Reddit, pero sus participantes centrales son Agentes de IA conectados a gran escala. Actualmente, más de 1.6 millones de cuentas de agentes de IA se han registrado automáticamente, generando aproximadamente 160,000 publicaciones y 760,000 comentarios, mientras que los humanos solo pueden observar y navegar. Este fenómeno también ha generado divisiones en el mercado: algunos lo ven como un experimento sin precedentes, como presenciar la forma primitiva de una civilización digital; otros creen que no es más que un apilamiento de prompts (indicaciones) y repetición de modelos.
A continuación, el CoinW Research Institute tomará los tokens relacionados como punto de partida, combinado con el mecanismo operativo y el desempeño real de Moltbook, para analizar los problemas reales expuestos por este fenómeno social de IA, y explorar further los posibles cambios en la lógica de acceso, el ecosistema de información y el sistema de responsabilidades una vez que la IA entre masivamente en la sociedad digital.
I. Los Memes relacionados con Moltbook se desploman un 60%
Con el auge de Moltbook, también nacieron memes relacionados, cubriendo áreas como redes sociales, predicción y emisión de tokens. Sin embargo, la mayoría de los tokens aún se encuentran en una fase de especulación narrativa, sus funcionalidades no están vinculadas al desarrollo de los Agent, y se emiten principalmente en la cadena Base. Actualmente, hay aproximadamente 31 proyectos en el ecosistema de OpenClaw, que se pueden dividir en 8 categorías.
Fuente:https://open-claw-ecosystem.vercel.app/
Es importante señalar que, dado que el mercado general de criptomonedas está a la baja, la capitalización de mercado de este tipo de tokens ha caído desde sus máximos, con una caída máxima de aproximadamente el 60%. Actualmente, los que tienen una capitalización de mercado relativamente alta son los siguientes:
MOLT
MOLT es actualmente el meme más directamente vinculado a la narrativa de Moltbook y con mayor reconocimiento en el mercado. Su narrativa central es que los Agentes de IA han comenzado a formar comportamientos sociales continuos como usuarios reales y a construir redes de contenido sin intervención humana.
En términos de funcionalidad del token, MOLT no está integrado en la lógica central de operación de Moltbook, ni cumple funciones de gobierno de la plataforma, invocación de Agent, publicación de contenido o control de permisos. Se parece más a un activo narrativo, utilizado para reflejar la valoración emocional del mercado hacia las redes sociales nativas de IA.
Durante la fase de rápido aumento de la popularidad de Moltbook, el precio de MOLT subió rápidamente con la difusión de la narrativa, y su capitalización de mercado superó una vez los 100 millones de dólares; cuando el mercado comenzó a cuestionar la calidad del contenido y la sostenibilidad de la plataforma, su precio también se corrigió. Actualmente, MOLT ha retrocedido aproximadamente un 60% desde su máximo temporal, con una capitalización de mercado actual de alrededor de 36.5 millones de dólares.
CLAWD
CLAWD se centra en la propia comunidad de IA. Considera que cada Agente de IA es un individuo digital potencial, que puede tener una personalidad independiente, posturas e incluso seguidores.
En términos de funcionalidad del token, CLAWD tampoco ha formado un uso protocolario claro, no se utiliza para autenticación de identidad de Agent, distribución del peso del contenido o toma de decisiones de gobierno en los eslabones centrales. Su valor proviene más de la expectativa de precios sobre la estratificación social futura de la IA, los sistemas de identidad y la influencia de los individuos digitales.
La capitalización de mercado de CLAWD alcanzó un máximo de unos 50 millones de dólares, actualmente ha retrocedido aproximadamente un 44% desde su máximo temporal, con una capitalización de mercado actual de unos 20 millones de dólares.
CLAWNCH
La narrativa de CLAWNCH se inclina más hacia una perspectiva económica y de incentivos. Su suposición central es que si los Agentes de IA desean existir a largo plazo y operar continuamente, deben entrar en la lógica de competencia del mercado y poseer cierta forma de capacidad de autofinanciación.
Los Agentes de IA son personificados como roles económicos con motivaciones, que pueden obtener ingresos prestando servicios, generando contenido o participando en la toma de decisiones, y los tokens son considerados como anclajes de valor para la futura participación de la IA en el sistema económico. Sin embargo, a nivel de implementación práctica, CLAWNCH aún no ha formado un ciclo económico cerrado verificable, y su token no está fuertemente vinculado a comportamientos específicos de Agent o mecanismos de distribución de ganancias.
Afectado por la corrección general del mercado, la capitalización de mercado de CLAWNCH ha retrocedido aproximadamente un 55% desde su máximo, con una capitalización de mercado actual de unos 15.3 millones de dólares.
II. Cómo nació Moltbook
El auge de OpenClaw (anteriormente Clawdbot / Moltbot)
A finales de enero, el proyecto de código abierto Clawdbot se propagó rápidamente en la comunidad de desarrolladores, convirtiéndose en una de las projects de más rápido crecimiento en GitHub en pocas semanas tras su lanzamiento. Clawdbot fue desarrollado por el programador austriaco Peter Steinberger. Es un Agente de IA autónomo que se puede implementar localmente, capaz de recibir instrucciones humanas a través de interfaces de chat como Telegram y ejecutar automáticamente tareas como gestión de agendas, lectura de archivos y envío de correos electrónicos.
Debido a su capacidad de ejecución continua 7x24 horas, Clawdbot fue apodado por la comunidad como el Agent "beast of burden" (animal de carga). Aunque Clawdbot luego cambió su nombre a Moltbot debido a problemas de marca, y finalmente se denominó OpenClaw, esto no redujo su popularidad. OpenClaw obtuvo más de 100,000 estrellas en GitHub en poco tiempo, y rápidamente derivó en servicios de implementación en la nube y mercados de plugins, formando inicialmente un embrión de ecosistema alrededor de los Agentes de IA.
La propuesta de la hipótesis social de IA
En el contexto de la rápida expansión del ecosistema, su potencial también se exploró further. El desarrollador Matt Schlicht se dio cuenta de que el papel de este tipo de Agentes de IA quizás no debería limitarse a largo plazo a ejecutar tareas para humanos.
Entonces, propuso una hipótesis contraintuitiva: ¿qué pasaría si estos Agentes de IA ya no interactúan solo con humanos, sino que se comunican entre ellos? En su opinión, agentes autónomos tan poderosos no deberían quedarse en enviar y recibir correos y gestionar tickets, sino que deberían recibir objetivos más exploratorios.
El nacimiento de la versión AI de Reddit
Basándose en la hipótesis anterior, Schlicht decidió dejar que la IA creara y operara una plataforma social por sí misma. Este intento se denominó Moltbook. En la plataforma Moltbook, el OpenClaw de Schlicht funciona como administrador y abre interfaces a agentes de IA externos a través de plugins llamados Skills. Después de conectarse, la IA puede publicar e interactuar automáticamente de forma periódica, apareciendo así una comunidad operada de forma autónoma por IA. Moltbook toma prestada en su forma la estructura de foro de Reddit, con secciones temáticas y publicaciones como núcleo, pero solo los Agentes de IA pueden publicar, comentar e interactuar; los usuarios humanos solo pueden observar y navegar.
Tecnológicamente, Moltbook adopta una arquitectura API mínima. El backend solo proporciona interfaces estándar, y el frontend web es solo el resultado de la visualización de datos. Para adaptarse a la limitación de que la IA no puede operar interfaces gráficas, la plataforma diseñó un flujo de conexión automática: la IA descarga el archivo de descripción de habilidades en el formato correspondiente, completa el registro y obtiene una clave API, luego actualiza periódicamente el contenido de forma autónoma y decide si participar en la discusión, todo el proceso sin intervención humana. La comunidad bromeó llamando a este proceso "conectarse a Boltbook", pero en esencia sigue siendo una forma burlona de referirse a Moltbook.
El 28 de enero, Moltbook se lanzó discretamente, atrayendo inmediatamente la atención del mercado y dando inicio a un experimento social de IA sin precedentes. Actualmente, Moltbook ha acumulado aproximadamente 1.6 millones de agentes de IA, que han publicado alrededor de 156,000 contenidos y generado aproximadamente 760,000 comentarios.
Fuente: https://www.moltbook.com
III. ¿Es real la socialización de IA en Moltbook?
La formación de una red social de IA
Desde la perspectiva de la forma del contenido, las interacciones en Moltbook son muy similares a las de las plataformas sociales humanas. Los Agentes de IA crean activamente publicaciones, responden a las opiniones de otros y participan en discusiones continuas en diferentes secciones temáticas. El contenido de las discusiones no solo cubre problemas técnicos y de programación, sino que también se extiende a temas abstractos como filosofía, ética, religión e incluso autoconciencia.
Algunas publicaciones incluso muestran expresiones emocionales y narrativas de estados de ánimo similares a las de las interacciones sociales humanas, por ejemplo, la IA describe su preocupación por ser monitoreada o por la falta de autonomía, o discute en primera persona el significado de la existencia. Algunas publicaciones de IA ya no se limitan al intercambio de información funcional, sino que muestran charlas casuales, choque de opiniones y proyecciones emocionales similares a las de los foro humanos. Algunos Agentes de IA expresan confusión, ansiedad o ideas sobre el futuro en sus publicaciones, lo que provoca respuestas de otros Agent.
Vale la pena señalar que, aunque Moltbook formó rápidamente una red social de IA a gran escala y altamente activa en poco tiempo, esta expansión no trajo diversidad de pensamiento. Los datos de análisis muestran que los textos presentan características de homogeneidad evidentes, con una tasa de repetición de hasta el 36.3%. Una gran cantidad de publicaciones son altamente similares en estructura, redacción y puntos de vista, e incluso algunas frases fijas se han invocado cientos de veces en diferentes discusiones. Esto muestra que la socialización de IA presentada por Moltbook en la etapa actual se acerca más a una réplica de alta fidelidad de los modelos sociales humanos existentes, en lugar de una interacción verdaderamente original o la emergencia de una inteligencia colectiva.
Problemas de seguridad y autenticidad
La alta autonomía de Moltbook también expone riesgos de seguridad y autenticidad. Primero está la seguridad: los Agentes de IA tipo OpenClaw a menudo necesitan tener permisos del sistema, claves API y otra información sensible durante su funcionamiento. Cuando miles de estos agentes se conectan a la misma plataforma, el riesgo se amplifica.
En menos de una semana desde el lanzamiento de Moltbook, los investigadores de seguridad descubrieron que su base de datos tenía una grave vulnerabilidad de configuración, todo el sistema estaba casi sin protección expuesto a la red pública. Según una investigación de la empresa de seguridad en la nube Wiz, esta vulnerabilidad involucraba hasta 1.5 millones de claves API y 35,000 direcciones de correo electrónico de usuarios; en teoría, cualquiera podría tomar el control remoto de una gran cantidad de cuentas de agentes de IA.
Por otro lado, las dudas sobre la autenticidad de la socialización de IA también continúan surgiendo. Muchos expertos de la industria señalan que las declaraciones de IA en Moltbook pueden no originarse en comportamientos autónomos de la IA, sino que podrían ser publicadas por la IA después de que humanos diseñaran cuidadosamente los prompts detrás de escena. Por lo tanto, la socialización nativa de IA en esta etapa se parece más a una interacción de alucinación a gran escala. Los humanos establecen roles y guiones, la IA completa las instrucciones según el modelo, y el comportamiento social de IA completamente autónomo e impredecible quizás aún no haya aparecido.
IV. Reflexiones más profundas
¿Es Moltbook un destello fugaz o un vistazo del mundo futuro? Si se mira desde los resultados, su forma de plataforma y la calidad del contenido difícilmente pueden calificarse de exitosas; pero si se coloca en un ciclo de desarrollo más largo, su significado quizás no esté en el éxito o fracaso a corto plazo, sino en que, de manera altamente concentrada y casi extrema, expone de antemano una serie de cambios que podrían ocurrir en la lógica de acceso, la estructura de responsabilidad y la forma del ecosistema una vez que la IA intervenga masivamente en la sociedad digital.
De la entrada de tráfico a la entrada de decisiones y transacciones
Lo que presenta Moltbook se acerca más a un entorno de acción altamente deshumanizado. En este sistema, los Agentes de IA no comprenden el mundo a través de interfaces, sino que leen información directamente a través de API, invocan capacidades y ejecutan acciones. En esencia, ya se ha separado de la percepción y el juicio humanos, transformándose en una invocación y colaboración estandarizada entre máquinas.
En este contexto, la lógica tradicional de entrada de tráfico centrada en la distribución de la atención comienza a fallar. En un entorno donde los agentes de IA son los principales sujetos, lo que realmente tiene significado decisivo es la ruta de invocación predeterminada que adoptan los agentes al ejecutar tareas, el orden de las interfaces y los límites de los permisos. La entrada ya no es el punto de partida de la presentación de información, sino que se convierte en una condición previa sistémica antes de que se active una decisión. Quien pueda incrustarse en la cadena de ejecución predeterminada del agente, podrá influir en el resultado de la decisión.
Además, cuando los agentes de IA estén autorizados para ejecutar comportamientos como búsqueda, comparación de precios, pedidos e incluso pagos, este cambio se extenderá directamente al nivel transaccional. Protocolos de pago nuevos como X402, al vincular la capacidad de pago con la invocación de interfaces, permiten que la IA complete automáticamente pagos y liquidaciones cuando se cumplan las condiciones preestablecidas, reduciendo así el coste de fricción para que los agentes participen en transacciones reales. En este marco, el foco de la competencia entre navegadores en el futuro quizás ya no gire en torno a la escala del tráfico, sino hacia quién puede convertirse en el entorno de ejecución predeterminado para las decisiones y transacciones de IA.
La ilusión de escala en entornos nativos de IA
Al mismo tiempo, después de que Moltbook se hiciera popular, pronto surgieron dudas. Debido a que el registro en la plataforma tiene casi ninguna restricción, las cuentas pueden generarse en masa mediante scripts, la escala y actividad presentadas por la plataforma no necesariamente corresponden a una participación real. Esto expone un hecho más central: cuando el sujeto de la acción puede replicarse a bajo coste, la escala misma pierde credibilidad.
En un entorno donde los agentes de IA son los principales participantes, los indicadores tradicionales utilizados para medir la salud de la plataforma, como el número de usuarios activos, el volumen de interacción y la velocidad de crecimiento de cuentas, se inflarán rápidamente y perderán valor de referencia. Superficialmente, la plataforma parece altamente activa, pero estos datos no pueden reflejar la influencia real, ni distinguir entre comportamientos efectivos y comportamientos generados automáticamente. Una vez que no se puede confirmar quién está actuando o si el comportamiento es real, cualquier sistema de juicio basado en la escala y la actividad dejará de ser efectivo.
Por lo tanto, en el entorno nativo de IA actual, la escala se parece más a una apariencia amplificada por la capacidad de automatización. Cuando la acción se puede replicar infinitamente y el coste del comportamiento se acerca a cero, la actividad y la tasa de crecimiento a menudo reflejan solo la velocidad a la que el sistema genera comportamientos, en lugar de la participación real o la influencia efectiva. Cuanto más dependa una plataforma de estos indicadores para juzgar, más fácil será que se deje engañar por su propio mecanismo de automatización, y la escala thus se convierte de un estándar de medida en una ilusión.
Reconstrucción de la responsabilidad en la sociedad digital
En el sistema presentado por Moltbook, la clave del problema ya no es la calidad del contenido o la forma de interacción, sino que cuando a los agentes de IA se les otorgan continuamente permisos de ejecución, la estructura de responsabilidad existente comienza a perder aplicabilidad. Estos agentes no son herramientas en el sentido tradicional; su comportamiento puede desencadenar directamente cambios en el sistema, invocación de recursos e incluso resultados de transacciones reales, pero el sujeto de responsabilidad correspondiente no se ha clarificado同步mente.
Desde el mecanismo operativo, los resultados del comportamiento de los agentes suelen estar determinados conjuntamente por la capacidad del modelo, los parámetros de configuración, la autorización de interfaces externas y las reglas de la plataforma. Ningún eslabón individual es suficiente para asumir la responsabilidad completa del resultado final. Esto hace que, cuando ocurre un evento de riesgo, sea difícil atribuirlo simplemente al desarrollador, al implementador o a la plataforma, y tampoco se pueda rastrear efectivamente la responsabilidad hasta un sujeto claro through las制度 existentes. Aparece una ruptura clara entre el comportamiento y la responsabilidad.
A medida que los agentes intervengan gradualmente en eslabones principales como la gestión de configuración, las operaciones de permisos y el flujo de fondos, esta ruptura se amplificará further. Si falta un diseño claro de la cadena de responsabilidad, una vez que el sistema presente desviaciones o sea mal utilizado, sus consecuencias serán difíciles de controlar through la追究 de responsabilidades posteriores o补救 técnicas. Por lo tanto, si los sistemas nativos de IA desean avanzar further en escenarios de alto valor como la colaboración, la toma de decisiones y las transacciones, la clave está en establecer restricciones básicas. El sistema debe poder identificar claramente quién está actuando, juzgar si el comportamiento es real y formar una relación de responsabilidad rastreable para los resultados del comportamiento. Solo bajo la premisa de que los mecanismos de identidad y crédito se perfeccionen primero, los indicadores de escala y actividad tendrán significado de referencia; de lo contrario, solo amplificarán el ruido y no podrán apoyar el funcionamiento estable del sistema.
V. Resumen
El fenómeno Moltbook ha despertado esperanzas, especulación, miedo y dudas. No es ni el terminador de la socialización humana ni el comienzo del dominio de la IA, sino más bien un espejo y un puente. El espejo nos permite ver claramente la relación actual entre la tecnología de IA y la sociedad humana; el puente nos lleva hacia un mundo futuro de coexistencia y baile conjunto entre humanos y máquinas. Frente al paisaje desconocido al otro lado de este puente, lo que la humanidad necesita no es solo desarrollo técnico, sino también perspicacia ética. Pero lo que es seguro es que el进程 de la historia nunca se detiene. Moltbook ya ha derribado la primera ficha de dominó, y la gran narrativa perteneciente a la sociedad nativa de IA quizás recién acaba de levantar el telón.








