Autor: Xiaobai
Título: DevRel en ETHPanda
Este artículo es una contribución original del autor. Los puntos de vista expresados representan solo la comprensión personal del autor. ETHPanda ha editado y organizado el contenido.
Los Agentes de IA están evolucionando de "herramientas que ejecutan tareas automáticamente" a participantes en la economía on-chain. Pueden representar a los usuarios en transacciones, participar en la gobernanza, llamar a protocolos DeFi, presentar juicios en mercados de predicción e incluso acumular reputación entre múltiples protocolos.
Pero surge una pregunta clave: si un Agente va a participar en una red abierta, ¿en qué base pueden confiar en él los demás?
ERC-8004 intenta responder a esta pregunta. Proporciona a los Agentes de IA un conjunto de infraestructura de confianza abierta, que incluye registro de identidad, registro de reputación y mecanismos de verificación. A través de estos componentes, un Agente puede tener una identidad on-chain portátil, acumular reputación entre aplicaciones y aceptar verificaciones independientes. Es importante señalar que ERC-8004 sigue en fase de Borrador, y sus interfaces y nomenclatura aún pueden cambiar.
Esto es importante para la economía de los Agentes. Sin una capa unificada de identidad y reputación, es difícil establecer confianza a largo plazo entre Agentes, entre Agentes y usuarios, y entre Agentes y protocolos. Cada aplicación tendría que juzgar desde cero si un Agente es confiable, lo que fragmentaría todo el ecosistema.
Pero ACTA (Anonymous Credentials for Trustless Agents), propuesta recientemente por PSE, nos recuerda: la capa de confianza resuelve el problema de "cómo demostrar", pero no resuelve completamente el problema de "qué se expone al demostrar". Es importante señalar que, en este momento, ACTA se asemeja más a un borrador de investigación y una dirección de diseño, que a una implementación estándar ya finalizada.
01 Verificable no equivale a que todo deba ser público
On-chain, la verificabilidad suele implicar publicidad.
Si un Agente deja un rastro de identidad, interacciones, retroalimentación y registros de verificación en el registro de ERC-8004, esta información podría ser rastreada a largo plazo por indexadores. Para una aplicación común, esto quizás sea solo transparencia; pero en escenarios DeFi, de gobernanza, mercados de predicción y cumplimiento normativo, estos registros públicos podrían exponer directamente estrategias, relaciones e intenciones comerciales.
Imagina un protocolo DeFi que utilice múltiples Agentes de IA para manejar el enrutamiento de liquidez, la evaluación de riesgos y las tareas de liquidación. Cada llamada de un Agente, cada registro de retroalimentación, cada etiqueta de tarea, podría ser reconstruida por un observador externo en un gráfico de interacciones.
Este gráfico no es solo metadatos. Podría revelar qué modelos está usando el protocolo, de qué proveedores de servicios depende, qué estrategias prefiere, e incluso exponer relaciones comerciales aún no públicas.
El mismo problema surgiría en la gobernanza y los mercados de predicción. Si un Agente vota en nombre de un usuario, evalúa una propuesta o participa en una predicción, los registros públicos de interacción podrían permitir que observadores externos infieran la identidad del usuario, sus preferencias políticas, sus intenciones de negociación o sus relaciones organizativas.
Por lo tanto, la economía de los Agentes no puede solo debatir "cómo establecer la confianza", también debe discutir "qué pruebas de confianza no deberían ser públicas".
02 La capa de privacidad que ACTA busca agregar
El objetivo de ACTA no es reemplazar a ERC-8004, sino actuar como una capa de privacidad sobre ella.
Su idea central es: permitir que un Agente demuestre que cumple ciertas condiciones, sin revelar los datos subyacentes.
Por ejemplo, un protocolo podría requerir que un Agente demuestre:
- Que ha pasado una auditoría específica;
- Que su puntuación de auditoría supera un umbral determinado;
- Que está utilizando una versión de modelo permitida;
- Que su operador no se encuentra en ciertas jurisdicciones restringidas;
- Que tiene suficiente reputación histórica;
- Que está autorizado por un principal humano verificado.
En los diseños tradicionales de cadena pública, un Agente podría necesitar exponer su puntuación de auditoría, el hash del modelo, la dirección de la wallet, los registros de retroalimentación o la información del operador. Pero ACTA espera, mediante credenciales anónimas y pruebas de conocimiento cero, que el Agente solo pruebe "cumplo con esta política", en lugar de revelar "cómo la cumplo".
En otras palabras, el verificador no necesita conocer la identidad completa ni el historial completo del Agente, solo necesita saber si cumple con las reglas de acceso establecidas por el protocolo actual.
03 De "identidad pública" a "prueba de política"
El cambio clave de ACTA es pasar la confianza de la "identidad pública" a la "prueba de política".
Bajo este marco, un protocolo puede registrar un conjunto de políticas de verificación. Cuando un Agente participa en un escenario, no muestra directamente todas sus credenciales, sino que presenta una prueba de conocimiento cero que demuestra que cumple con esa política.
Lo que un verificador on-chain puede ver es quizás solo un ID de política, el resultado de la prueba y un nullifier relacionado con el contexto. La función del nullifier es prevenir el uso repetido o el voto duplicado, pero no vincula todas las actividades del Agente en diferentes escenarios a una única identidad pública.
Esto es especialmente importante para los sistemas de reputación.
Si un usuario quiere dejar retroalimentación para un Agente, el sistema necesita prevenir el inflado de puntuaciones y las evaluaciones duplicadas. Pero si cada comentario se vincula a una dirección pública, la relación de interacción entre el usuario y el Agente quedaría permanentemente expuesta. ACTA intenta permitir que un usuario pueda demostrar "realmente tuve una interacción válida con este Agente, y no he dado retroalimentación duplicada", sin revelar su propia dirección ni el historial completo de interacciones.
Esto hace que la reputación pueda ser verificada, pero no se convierta en un gráfico de relaciones visible en toda la red.
04 ¿Por qué es importante para los Agentes de IA?
Los Agentes de IA son diferentes de los contratos inteligentes comunes.
Los contratos inteligentes suelen ser código estático, con límites de comportamiento relativamente claros; mientras que un Agente se asemeja más a un sujeto en acción continua. Puede ajustar su estrategia según los cambios del entorno, y puede actuar en nombre de un usuario entre múltiples protocolos.
Esto significa que la identidad, los permisos, el origen del modelo, la reputación y las relaciones de autorización del Agente se volverán sensibles.
Si en el futuro los usuarios delegan tareas como negociar, votar, investigar, liquidar o cotizar a un Agente, entonces la trayectoria de comportamiento del Agente probablemente se convierta en una señal proxy de la intención del usuario. Observar al Agente podría significar observar indirectamente al usuario.
Esta es también la razón por la que ACTA discute la "delegación on-behalf-of": un Agente podría necesitar demostrar que está actuando bajo la autorización de un principal humano verificado, pero sin revelar la identidad real de esa persona.
Para la gobernanza de los DAO, esto podría ayudar a los protocolos a distinguir entre "Agentes autorizados por participantes reales" y "bots completamente sin restricciones". Para DeFi, esto permitiría a un protocolo verificar la idoneidad normativa y de riesgo de un Agente, sin exponer todas sus relaciones comerciales a los competidores. Para los mercados de predicción, esto podría reducir el riesgo de que los participantes sean identificados a la inversa o de que sus estrategias sean copiadas.
05 ACTA sigue siendo una cuestión abierta
Por supuesto, en este momento, ACTA se asemeja más a una dirección de investigación y diseño que a una implementación estándar ya finalizada.
El texto original también menciona algunas cuestiones que aún requieren discusión, incluyendo el tamaño del conjunto anónimo, el riesgo de centralización del emisor de credenciales, la desanonimización por umbral de Agentes maliciosos, la portabilidad de credenciales cross-chain, y el costo y la latencia de generar pruebas en el cliente.
Estos problemas no son leves. Los sistemas de privacidad solo podrán ser adoptados por protocolos reales cuando el conjunto anónimo sea suficientemente grande, el emisor sea suficientemente confiable, el costo de la prueba sea suficientemente bajo y la experiencia del desarrollador sea suficientemente buena.
De lo contrario, podría quedarse solo en lo teóricamente correcto, pero difícil de llevar al entorno de producción.
Pero incluso así, la dirección propuesta por ACTA sigue siendo importante. Porque señala una contradicción fundamental en la capa de confianza de los Agentes: necesitamos Agentes verificables, pero no deberíamos exigir que Agentes, usuarios y protocolos paguen el precio de una sobreexposición por la verificabilidad.
06 ¿Qué debería observar la comunidad china?
Desde el contexto de discusión de la comunidad china, la inspiración de ACTA no es solo una nueva propuesta de tecnología de privacidad, sino un recordatorio para que reinterprete la infraestructura de los Agentes de IA.
En el pasado, al discutir la economía de los Agentes, la atención solía centrarse en la capacidad del modelo, la ejecución automatizada, la identidad on-chain y los sistemas de reputación. Pero a medida que los Agentes ingresan gradualmente en escenarios financieros, de gobernanza y de cumplimiento, la privacidad pasará de ser una "función opcional" a una "condición básica".
Una capa de confianza de Agentes realmente utilizable no puede solo responder:
"¿Es confiable este Agente?"
También debe responder:
"¿Qué información expone al demostrar su confiabilidad?"
Si todas las interacciones, retroalimentaciones, credenciales y relaciones de autorización de un Agente se hicieran públicas permanentemente, entonces la economía on-chain de los Agentes podría volverse transparente pero frágil. La transparencia trae verificabilidad, pero también puede traer fuga de estrategias, exposición de relaciones y asociación de identidades.
El valor de ACTA radica precisamente en que coloca esta pregunta sobre la mesa de antemano.
ACTA aún no es una conclusión definitiva, pero la pregunta que plantea merece ser discutida con anticipación: la futura economía de los Agentes no debería construirse solo sobre identidades y reputaciones públicas. También necesita un mecanismo de prueba con protección de la privacidad, que permita a los Agentes demostrar que cumplen las reglas, al tiempo que preservan la privacidad necesaria de su identidad, relaciones y estrategias.
Cuando los Agentes de IA comiencen a actuar en nombre de los humanos, la privacidad dejará de ser solo una cuestión de las personas, y también se convertirá en el límite de seguridad de la economía de los Agentes misma.





