Los Agentes de IA pueden ser verificados, pero ¿quién protege su privacidad?

marsbitPublicado a 2026-05-14Actualizado a 2026-05-14

Resumen

Los Agentes de IA se están convirtiendo en participantes activos en la economía blockchain, ejecutando transacciones, gobernanza y más. Para generar confianza en redes abiertas, se propone ERC-8004, un estándar para identidad y reputación en cadena. Sin embargo, la verificabilidad pública puede exponer estrategias comerciales e intenciones de los usuarios. El borrador de investigación ACTA (Anonymous Credentials for Trustless Agents) aborda esta preocupación de privacidad. Actuando como una capa sobre ERC-8004, permite a los agentes demostrar que cumplen ciertos criterios (como auditorías aprobadas o reputación suficiente) sin revelar los datos subyacentes, utilizando credenciales anónimas y pruebas de conocimiento cero. Esto cambia el enfoque de la confianza, de una "identidad pública" a "pruebas basadas en políticas". Un protocolo puede verificar que un agente cumple sus reglas de acceso sin conocer su historial completo. Esto es crucial para proteger la privacidad en escenarios como DeFi, gobernanza y mercados de predicción, donde los agentes pueden actuar en nombre de usuarios. ACTA plantea desafíos pendientes como el tamaño del conjunto anónimo, la descentralización y los costos de computación. Sin embargo, subraya una necesidad fundamental: un ecosistema de agentes viable requiere mecanismos de verificación que no comprometan la privacidad de estrategias, relaciones o identidades, estableciendo un límite de seguridad para la economía de los agentes de IA.

Autor: Xiaobai

Título: DevRel en ETHPanda

Este artículo es una contribución original del autor. Los puntos de vista expresados representan solo la comprensión personal del autor. ETHPanda ha editado y organizado el contenido.

Los Agentes de IA están evolucionando de "herramientas que ejecutan tareas automáticamente" a participantes en la economía on-chain. Pueden representar a los usuarios en transacciones, participar en la gobernanza, llamar a protocolos DeFi, presentar juicios en mercados de predicción e incluso acumular reputación entre múltiples protocolos.

Pero surge una pregunta clave: si un Agente va a participar en una red abierta, ¿en qué base pueden confiar en él los demás?

ERC-8004 intenta responder a esta pregunta. Proporciona a los Agentes de IA un conjunto de infraestructura de confianza abierta, que incluye registro de identidad, registro de reputación y mecanismos de verificación. A través de estos componentes, un Agente puede tener una identidad on-chain portátil, acumular reputación entre aplicaciones y aceptar verificaciones independientes. Es importante señalar que ERC-8004 sigue en fase de Borrador, y sus interfaces y nomenclatura aún pueden cambiar.

Esto es importante para la economía de los Agentes. Sin una capa unificada de identidad y reputación, es difícil establecer confianza a largo plazo entre Agentes, entre Agentes y usuarios, y entre Agentes y protocolos. Cada aplicación tendría que juzgar desde cero si un Agente es confiable, lo que fragmentaría todo el ecosistema.

Pero ACTA (Anonymous Credentials for Trustless Agents), propuesta recientemente por PSE, nos recuerda: la capa de confianza resuelve el problema de "cómo demostrar", pero no resuelve completamente el problema de "qué se expone al demostrar". Es importante señalar que, en este momento, ACTA se asemeja más a un borrador de investigación y una dirección de diseño, que a una implementación estándar ya finalizada.

01 Verificable no equivale a que todo deba ser público

On-chain, la verificabilidad suele implicar publicidad.

Si un Agente deja un rastro de identidad, interacciones, retroalimentación y registros de verificación en el registro de ERC-8004, esta información podría ser rastreada a largo plazo por indexadores. Para una aplicación común, esto quizás sea solo transparencia; pero en escenarios DeFi, de gobernanza, mercados de predicción y cumplimiento normativo, estos registros públicos podrían exponer directamente estrategias, relaciones e intenciones comerciales.

Imagina un protocolo DeFi que utilice múltiples Agentes de IA para manejar el enrutamiento de liquidez, la evaluación de riesgos y las tareas de liquidación. Cada llamada de un Agente, cada registro de retroalimentación, cada etiqueta de tarea, podría ser reconstruida por un observador externo en un gráfico de interacciones.

Este gráfico no es solo metadatos. Podría revelar qué modelos está usando el protocolo, de qué proveedores de servicios depende, qué estrategias prefiere, e incluso exponer relaciones comerciales aún no públicas.

El mismo problema surgiría en la gobernanza y los mercados de predicción. Si un Agente vota en nombre de un usuario, evalúa una propuesta o participa en una predicción, los registros públicos de interacción podrían permitir que observadores externos infieran la identidad del usuario, sus preferencias políticas, sus intenciones de negociación o sus relaciones organizativas.

Por lo tanto, la economía de los Agentes no puede solo debatir "cómo establecer la confianza", también debe discutir "qué pruebas de confianza no deberían ser públicas".

02 La capa de privacidad que ACTA busca agregar

El objetivo de ACTA no es reemplazar a ERC-8004, sino actuar como una capa de privacidad sobre ella.

Su idea central es: permitir que un Agente demuestre que cumple ciertas condiciones, sin revelar los datos subyacentes.

Por ejemplo, un protocolo podría requerir que un Agente demuestre:

  • Que ha pasado una auditoría específica;
  • Que su puntuación de auditoría supera un umbral determinado;
  • Que está utilizando una versión de modelo permitida;
  • Que su operador no se encuentra en ciertas jurisdicciones restringidas;
  • Que tiene suficiente reputación histórica;
  • Que está autorizado por un principal humano verificado.

En los diseños tradicionales de cadena pública, un Agente podría necesitar exponer su puntuación de auditoría, el hash del modelo, la dirección de la wallet, los registros de retroalimentación o la información del operador. Pero ACTA espera, mediante credenciales anónimas y pruebas de conocimiento cero, que el Agente solo pruebe "cumplo con esta política", en lugar de revelar "cómo la cumplo".

En otras palabras, el verificador no necesita conocer la identidad completa ni el historial completo del Agente, solo necesita saber si cumple con las reglas de acceso establecidas por el protocolo actual.

03 De "identidad pública" a "prueba de política"

El cambio clave de ACTA es pasar la confianza de la "identidad pública" a la "prueba de política".

Bajo este marco, un protocolo puede registrar un conjunto de políticas de verificación. Cuando un Agente participa en un escenario, no muestra directamente todas sus credenciales, sino que presenta una prueba de conocimiento cero que demuestra que cumple con esa política.

Lo que un verificador on-chain puede ver es quizás solo un ID de política, el resultado de la prueba y un nullifier relacionado con el contexto. La función del nullifier es prevenir el uso repetido o el voto duplicado, pero no vincula todas las actividades del Agente en diferentes escenarios a una única identidad pública.

Esto es especialmente importante para los sistemas de reputación.

Si un usuario quiere dejar retroalimentación para un Agente, el sistema necesita prevenir el inflado de puntuaciones y las evaluaciones duplicadas. Pero si cada comentario se vincula a una dirección pública, la relación de interacción entre el usuario y el Agente quedaría permanentemente expuesta. ACTA intenta permitir que un usuario pueda demostrar "realmente tuve una interacción válida con este Agente, y no he dado retroalimentación duplicada", sin revelar su propia dirección ni el historial completo de interacciones.

Esto hace que la reputación pueda ser verificada, pero no se convierta en un gráfico de relaciones visible en toda la red.

04 ¿Por qué es importante para los Agentes de IA?

Los Agentes de IA son diferentes de los contratos inteligentes comunes.

Los contratos inteligentes suelen ser código estático, con límites de comportamiento relativamente claros; mientras que un Agente se asemeja más a un sujeto en acción continua. Puede ajustar su estrategia según los cambios del entorno, y puede actuar en nombre de un usuario entre múltiples protocolos.

Esto significa que la identidad, los permisos, el origen del modelo, la reputación y las relaciones de autorización del Agente se volverán sensibles.

Si en el futuro los usuarios delegan tareas como negociar, votar, investigar, liquidar o cotizar a un Agente, entonces la trayectoria de comportamiento del Agente probablemente se convierta en una señal proxy de la intención del usuario. Observar al Agente podría significar observar indirectamente al usuario.

Esta es también la razón por la que ACTA discute la "delegación on-behalf-of": un Agente podría necesitar demostrar que está actuando bajo la autorización de un principal humano verificado, pero sin revelar la identidad real de esa persona.

Para la gobernanza de los DAO, esto podría ayudar a los protocolos a distinguir entre "Agentes autorizados por participantes reales" y "bots completamente sin restricciones". Para DeFi, esto permitiría a un protocolo verificar la idoneidad normativa y de riesgo de un Agente, sin exponer todas sus relaciones comerciales a los competidores. Para los mercados de predicción, esto podría reducir el riesgo de que los participantes sean identificados a la inversa o de que sus estrategias sean copiadas.

05 ACTA sigue siendo una cuestión abierta

Por supuesto, en este momento, ACTA se asemeja más a una dirección de investigación y diseño que a una implementación estándar ya finalizada.

El texto original también menciona algunas cuestiones que aún requieren discusión, incluyendo el tamaño del conjunto anónimo, el riesgo de centralización del emisor de credenciales, la desanonimización por umbral de Agentes maliciosos, la portabilidad de credenciales cross-chain, y el costo y la latencia de generar pruebas en el cliente.

Estos problemas no son leves. Los sistemas de privacidad solo podrán ser adoptados por protocolos reales cuando el conjunto anónimo sea suficientemente grande, el emisor sea suficientemente confiable, el costo de la prueba sea suficientemente bajo y la experiencia del desarrollador sea suficientemente buena.

De lo contrario, podría quedarse solo en lo teóricamente correcto, pero difícil de llevar al entorno de producción.

Pero incluso así, la dirección propuesta por ACTA sigue siendo importante. Porque señala una contradicción fundamental en la capa de confianza de los Agentes: necesitamos Agentes verificables, pero no deberíamos exigir que Agentes, usuarios y protocolos paguen el precio de una sobreexposición por la verificabilidad.

06 ¿Qué debería observar la comunidad china?

Desde el contexto de discusión de la comunidad china, la inspiración de ACTA no es solo una nueva propuesta de tecnología de privacidad, sino un recordatorio para que reinterprete la infraestructura de los Agentes de IA.

En el pasado, al discutir la economía de los Agentes, la atención solía centrarse en la capacidad del modelo, la ejecución automatizada, la identidad on-chain y los sistemas de reputación. Pero a medida que los Agentes ingresan gradualmente en escenarios financieros, de gobernanza y de cumplimiento, la privacidad pasará de ser una "función opcional" a una "condición básica".

Una capa de confianza de Agentes realmente utilizable no puede solo responder:

"¿Es confiable este Agente?"

También debe responder:

"¿Qué información expone al demostrar su confiabilidad?"

Si todas las interacciones, retroalimentaciones, credenciales y relaciones de autorización de un Agente se hicieran públicas permanentemente, entonces la economía on-chain de los Agentes podría volverse transparente pero frágil. La transparencia trae verificabilidad, pero también puede traer fuga de estrategias, exposición de relaciones y asociación de identidades.

El valor de ACTA radica precisamente en que coloca esta pregunta sobre la mesa de antemano.

ACTA aún no es una conclusión definitiva, pero la pregunta que plantea merece ser discutida con anticipación: la futura economía de los Agentes no debería construirse solo sobre identidades y reputaciones públicas. También necesita un mecanismo de prueba con protección de la privacidad, que permita a los Agentes demostrar que cumplen las reglas, al tiempo que preservan la privacidad necesaria de su identidad, relaciones y estrategias.

Cuando los Agentes de IA comiencen a actuar en nombre de los humanos, la privacidad dejará de ser solo una cuestión de las personas, y también se convertirá en el límite de seguridad de la economía de los Agentes misma.

Preguntas relacionadas

Q¿Qué es el objetivo principal de ERC-8004 y por qué es crucial para la economía de los agentes de IA?

AEl objetivo principal de ERC-8004 es proporcionar una infraestructura de confianza abierta para los agentes de IA en la cadena, incluyendo mecanismos de registro de identidad, seguimiento de reputación y verificación. Es crucial para la economía de los agentes porque, sin una capa unificada de identidad y reputación, es difícil establecer confianza a largo plazo entre agentes, usuarios y protocolos. Evita la fragmentación del ecosistema, donde cada aplicación tendría que evaluar la fiabilidad de un agente desde cero.

QSegún el artículo, ¿qué problema fundamental identifica ACTA en las capas de confianza tradicionales como ERC-8004?

AACTA identifica que las capas de confianza tradicionales, si bien resuelven el problema de 'cómo demostrar' la fiabilidad de un agente, no abordan completamente el problema de 'qué se expone al demostrarlo'. La verificabilidad en la cadena a menudo implica una publicidad total, lo que puede exponer estratégias comerciales, relaciones e intenciones sensibles de los agentes, usuarios y protocolos en áreas como DeFi o gobernanza.

Q¿Cómo funciona el marco propuesto por ACTA para proteger la privacidad de los agentes de IA durante la verificación?

AACTA propone actuar como una capa de privacidad sobre estándares como ERC-8004. Su funcionamiento se basa en el uso de credenciales anónimas y pruebas de conocimiento cero. Esto permite a un agente demostrar que cumple con ciertos criterios o estrategias de verificación (por ejemplo, haber pasado una auditoría o tener una reputación suficiente) sin revelar los datos subyacentes específicos, como su puntuación de auditoría o su historial completo de interacciones.

Q¿Por qué es especialmente importante la privacidad para los agentes de IA en comparación con los contratos inteligentes tradicionales?

ALa privacidad es especialmente importante para los agentes de IA porque, a diferencia de los contratos inteligentes (que suelen ser código estático con un comportamiento claro), los agentes son entidades activas que actúan continuamente. Pueden ajustar estrategias, operar en múltiples protocolos y, sobre todo, actuar en representación de usuarios. Por lo tanto, su trayectoria de comportamiento puede convertirse en una señal indirecta de las intenciones de los usuarios. Observar al agente podría equivaler a observar al usuario, haciendo esencial la protección de su identidad, relaciones y estrategias.

QAdemás de los beneficios, ¿qué desafíos y preguntas abiertas menciona el artículo sobre la implementación de soluciones como ACTA?

AEl artículo menciona que ACTA es actualmente más una dirección de investigación que una implementación estándar completa. Entre los desafíos y preguntas abiertas se incluyen: el tamaño del conjunto anónimo necesario para una privacidad real, el riesgo de centralización en los emisores de credenciales, la posibilidad de desanonimización de agentes maliciosos, la portabilidad de credenciales entre cadenas y, en términos prácticos, el coste y la latencia asociados a la generación de pruebas de conocimiento cero en el lado del cliente para una adopción generalizada.

Lecturas Relacionadas

ChatGPT puede administrar tu dinero, ¿te atreves a confiarle tu cuenta bancaria?

El 15 de mayo, OpenAI lanzó una nueva función de herramientas de finanzas personales para ChatGPT, disponible actualmente en versión preliminar para usuarios Pro en EE.UU. Esta permite conectar cuentas bancarias y de inversión a través del proveedor de datos financieros Plaid, accediendo a más de 12.000 instituciones. Tras la conexión, ChatGPT genera un panel visual con saldos, transacciones, gastos categorizados, suscripciones, inversiones y deudas. Su principal innovación es el análisis conversacional: los usuarios pueden hacer preguntas en lenguaje natural sobre sus finanzas, y ChatGPT responde con recomendaciones personalizadas basadas en sus datos reales, como planes de ahorro para comprar una casa. Este movimiento forma parte de una estrategia más amplia de OpenAI para convertir a ChatGPT en un "asistente superpersonal" para decisiones de alto valor, tras lanzar previamente ChatGPT Health. La compañía adquirió dos startups fintech en 2025 y 2026 para impulsar esta capacidad. Sin embargo, la función desató inmediatamente un debate sobre la privacidad y la confianza. Una demanda colectiva reciente acusa a OpenAI de compartir datos de conversaciones de usuarios con Meta y Google. Aunque OpenAI enfatiza que ChatGPT solo tiene acceso de lectura (no puede realizar transacciones), que los datos se borran a los 30 días y que un interruptor permite optar por no usar los datos para entrenar el modelo, la desconfianza persiste. El lanzamiento se enmarca en una tendencia del sector de la IA hacia asistentes verticales y especializados que requieren datos personales sensibles. Mientras OpenAI apuesta por el consumidor final, competidores como Anthropic y Perplexity se orientan a herramientas financieras profesionales para el sector B2B. El desafío fundamental es que, aunque técnicamente capaz, ChatGPT no es un asesor financiero regulado y no asume responsabilidad por sus recomendaciones. La pregunta central queda planteada: ¿Están los usuarios dispuestos a confiar su información financiera más sensible a un chatbot de IA?

marsbitHace 1 hora(s)

ChatGPT puede administrar tu dinero, ¿te atreves a confiarle tu cuenta bancaria?

marsbitHace 1 hora(s)

Invierno de las OPI cripto: Consensys y Ledger cancelan colectivamente sus planes

El invierno de las OPV cripto: Consensys y Ledger posponen sus salidas a bolsa. El 14 de mayo, Consensys, desarrollador de la cartera MetaMask, pospuso su OPV hasta, como muy pronto, el otoño de este año. Casi al mismo tiempo, el gigante de carteras hardware Ledger suspendió el 13 de mayo sus planes de OPV en EE.UU. Estos aplazamientos siguen a los continuos retrasos en los planes de salida a bolsa de Kraken, lo que marca un claro estrechamiento de la ventana para OPV cripto en 2026, tras el auge de 2025. 2025 fue un año récord para las salidas a bolsa del sector, con empresas como Circle, Bullish y Gemini captando unos 146 mil millones de dólares. Sin embargo, en 2026, la corrección del precio de Bitcoin y la caída del volumen han enfriado rápidamente el apetito de riesgo por las acciones cripto. El pobre desempeño tras la OPV de empresas como Circle, Bullish y BitGo ha aumentado la cautela de los inversores. Este freno contrasta fuertemente con el auge simultáneo en el sector de la IA, donde empresas como SpaceX, OpenAI y Anthropic, con narrativas de "revolución de la productividad", atraen un apetito de riesgo muy superior al de las empresas cripto, cuya volatilidad de ingresos está más vinculada al ciclo de Bitcoin. Los aplazamientos reflejan un giro estratégico hacia un enfoque más pragmático: algunas empresas podrían optar por financiación privada o mejorar primero sus flujos de caja y servicios antes de intentar salir a bolsa cuando mejoren las condiciones del mercado. Este fenómeno podría acelerar una consolidación en el sector, concentrando recursos en empresas con sólidos fundamentos y cumplimiento normativo. A medio plazo, una recuperación sostenida de Bitcoin por encima de los 90.000 dólares y nuevos avances regulatorios podrían reabrir la ventana para OPV en la segunda mitad de 2026.

marsbitHace 1 hora(s)

Invierno de las OPI cripto: Consensys y Ledger cancelan colectivamente sus planes

marsbitHace 1 hora(s)

Trading

Spot
Futuros
活动图片