Autor original: Cuy Sheffield, Vicepresidente y Director de Negocios de Cripto en Visa
Compilación original: Saoirse, Foresight News
A medida que las criptomonedas y la IA maduran gradualmente, la transformación más importante en estos dos campos ya no es "teóricamente factible", sino "confiablemente implementable en la práctica". Actualmente, ambas tecnologías han superado umbrales críticos, logrando mejoras significativas en rendimiento, pero la tasa de adopción práctica sigue siendo desigual. Los desarrollos centrales de 2026 surgen precisamente de esta brecha entre "rendimiento y adopción".
A continuación, presento varios temas centrales que sigo de cerca, junto con reflexiones iniciales sobre la dirección de estos desarrollos tecnológicos, las áreas de acumulación de valor e incluso "por qué los ganadores finales podrían ser muy diferentes de los pioneros de la industria".
Tema 1: Las criptomonedas están pasando de una clase de activos especulativa a una tecnología de calidad
La primera década del desarrollo de las criptomonedas se caracterizó por la "ventaja especulativa": su mercado es global, continuo y altamente abierto, y su alta volatilidad hizo que el trading de criptomonedas fuera más dinámico y atractivo que los mercados financieros tradicionales.
Sin embargo, simultáneamente, su tecnología subyacente no estaba preparada para aplicaciones principales: las primeras blockchains eran lentas, costosas y carecían de estabilidad. Aparte de los escenarios especulativos, las criptomonedas casi nunca superaron a los sistemas tradicionales existentes en términos de coste, velocidad o conveniencia.
Hoy, este desequilibrio comienza a revertirse. La tecnología blockchain se ha vuelto más rápida, económica y confiable, y la aplicación más atractiva de las criptomonedas ya no es la especulación, sino el ámbito de la infraestructura, especialmente en la liquidación y los pagos. A medida que las criptomonedas se convierten en una tecnología más madura, el papel central de la especulación se desvanecerá gradualmente: no desaparecerá por completo, pero dejará de ser la principal fuente de valor.
Tema 2: Las stablecoins son el resultado claro de las criptomonedas en "utilidad pura"
Las stablecoins difieren de las narrativas anteriores de las criptomonedas; su éxito se basa en criterios concretos y objetivos: en escenarios específicos, son más rápidas, tienen un coste menor, una cobertura más amplia que los canales de pago tradicionales, y además se integran perfectamente en los sistemas de software modernos.
Las stablecoins no requieren que los usuarios vean las criptomonedas como una "ideología" para creer en ellas; su aplicación a menudo ocurre "de manera implícita" dentro de los productos y flujos de trabajo existentes. Esto permite que instituciones y empresas que antes consideraban el ecosistema de criptomonedas "demasiado volátil y poco transparente" comprendan claramente su valor.
Puede decirse que las stablecoins ayudan a que las criptomonedas se anclen nuevamente en la "utilidad" en lugar de la "especulación", y establecen un estándar claro para "cómo pueden las criptomonedas implementarse con éxito".
Tema 3: Cuando las criptomonedas se convierten en infraestructura, la "capacidad de distribución" es más importante que la "novedad tecnológica"
En el pasado, cuando las criptomonedas desempeñaban principalmente un papel de "herramienta especulativa", su "distribución" era endógena: una nueva moneda solo necesitaba "existir" para acumular naturalmente liquidez y atención.
Ahora que las criptomonedas se están convirtiendo en infraestructura, sus casos de uso están pasando del "nivel de mercado" al "nivel de producto": se integran en procesos de pago, plataformas y sistemas empresariales, donde el usuario final a menudo no es consciente de su existencia.
Este cambio beneficia enormemente a dos tipos de actores: primero, las empresas con canales de distribución existentes y relaciones confiables con clientes; segundo, instituciones con permisos regulatorios, sistemas de cumplimiento e infraestructura de gestión de riesgos. La mera "novedad del protocolo" ya no es suficiente para impulsar la adopción a gran escala de las criptomonedas.
Tema 4: Los agentes de IA tienen valor práctico y su impacto va más allá de la codificación
La utilidad de los agentes de IA (Agentes) es cada vez más evidente, pero su función a menudo se malinterpreta: los agentes más exitosos no son "tomadores de decisiones autónomos", sino "herramientas que reducen los costes de coordinación en los flujos de trabajo".
Históricamente, esto ha sido más evidente en el desarrollo de software, donde las herramientas de agentes aceleran la eficiencia en la codificación, depuración, refactorización de código y configuración de entornos. Pero en los últimos años, este "valor de la herramienta" se ha extendido enormemente a más áreas.
Tomemos como ejemplo herramientas como Claude Code: aunque se posiciona como una "herramienta para desarrolladores", su rápida adopción refleja una tendencia más profunda: los sistemas de agentes se están convirtiendo en la "interfaz del trabajo del conocimiento", no limitándose solo al ámbito de la programación. Los usuarios comienzan a aplicar "flujos de trabajo impulsados por agentes" en investigación, análisis, escritura, planificación, procesamiento de datos y tareas operativas; estas tareas se inclinan más hacia el "trabajo profesional general" que hacia la programación tradicional.
Lo realmente crucial no es la "codificación ambiental" en sí, sino el patrón central detrás de ella:
- El usuario delega la "intención del objetivo", no los "pasos específicos";
- El agente gestiona la "información contextual" a través de archivos, herramientas y tareas;
- El modo de trabajo pasa de ser "lineal" a "iterativo y conversacional".
En diversos trabajos de conocimiento, los agentes son buenos recopilando contexto, ejecutando tareas delimitadas, reduciendo los traspasos de procesos y acelerando la eficiencia iterativa, pero aún tienen deficiencias en "juicio abierto", "atribución de responsabilidad" y "corrección de errores".
Por lo tanto, la mayoría de los agentes utilizados en escenarios de producción aún necesitan estar "delimitados en alcance, supervisados e integrados en sistemas", en lugar de funcionar de forma completamente independiente. El valor real de los agentes proviene de la "reestructuración de los flujos de trabajo del conocimiento", no de "reemplazar la mano de obra" o "lograr una autonomía completa".
Tema 5: El cuello de botella de la IA ha pasado de ser el "nivel de inteligencia" al "grado de confianza"
El nivel de inteligencia de los modelos de IA ha mejorado rápidamente; el factor limitante actual ya no es la "fluidez lingüística o capacidad de razonamiento individual", sino la "fiabilidad en sistemas reales".
Los entornos de producción son intolerantes a tres tipos de problemas: primero, los "espejismos" de la IA (generación de información falsa); segundo, resultados inconsistentes; tercero, modos de fallo opacos. Una vez que la IA involucra servicio al cliente, transacciones monetarias o cumplimiento normativo, los resultados "aproximadamente correctos" ya no son aceptables.
La construcción de "confianza" requiere cuatro bases: primero, trazabilidad de los resultados; segundo, capacidad de memoria; tercero, verificabilidad; cuarto, capacidad para exponer activamente la "incertidumbre". Antes de que estas capacidades sean lo suficientemente maduras, la autonomía de la IA debe estar restringida.
Tema 6: La ingeniería de sistemas determina si la IA puede implementarse en escenarios de producción
Los productos de IA exitosos tratan el "modelo" como un "componente" y no como un "producto terminado"; su fiabilidad proviene del "diseño de la arquitectura", no de la "optimización de prompts".
Este "diseño de arquitectura" incluye gestión de estado, flujo de control, sistemas de evaluación y monitorización, y mecanismos de manejo y recuperación de fallos. Por ello, el desarrollo de la IA se acerca cada vez más a la "ingeniería de software tradicional", no a la "investigación teórica de vanguardia".
El valor a largo plazo se inclinará hacia dos tipos de actores: primero, los constructores de sistemas; segundo, los propietarios de plataformas que controlan los flujos de trabajo y los canales de distribución.
A medida que las herramientas de agentes se expanden desde la codificación hacia la investigación, escritura, análisis y procesos operativos, la importancia de la "ingeniería de sistemas" se destacará aún más: el trabajo del conocimiento suele ser complejo, dependiente de información de estado y denso en contexto, lo que hace que los agentes que "pueden gestionar de forma fiable la memoria, las herramientas y los procesos iterativos" (y no solo generar resultados) sean más valiosos.
Tema 7: La contradicción entre modelos abiertos y control centralizado plantea problemas de gobernanza aún no resueltos
A medida que los sistemas de IA se vuelven más capaces y se integran más con la economía, la pregunta "quién posee y controla los modelos de IA más potentes" está generando una contradicción central.
Por un lado, la investigación en la vanguardia de la IA sigue siendo "intensiva en capital" y, afectada por el "acceso a la potencia de cálculo, las políticas regulatorias y la geopolítica", su concentración aumenta; por otro lado, los modelos y herramientas de código abierto continúan iterando y optimizándose impulsados por la "experimentación amplia y la implementación conveniente".
Este panorama de "concentración y apertura coexistentes" ha generado una serie de cuestiones pendientes: riesgos de dependencia, auditabilidad, transparencia, capacidad de negociación a largo plazo y el control sobre infraestructuras críticas. El resultado más probable es un "modelo híbrido": los modelos de vanguardia impulsan avances en capacidad tecnológica, mientras que los sistemas abiertos o semiabiertos integran estas capacidades en un "software ampliamente distribuido".
Tema 8: El dinero programable da lugar a nuevos flujos de pago para agentes inteligentes
Cuando los sistemas de IA funcionan en flujos de trabajo, su necesidad de "interacción económica" aumenta: por ejemplo, pagar por servicios, llamar a API, pagar remuneraciones a otros agentes o liquidar "tarifas de interacción basadas en el uso".
Esta necesidad ha vuelto a poner el foco en las "stablecoins": se las considera "moneda nativa de máquina", con programabilidad, auditabilidad y capacidad de transferencia sin intervención humana.
Tomemos como ejemplo protocolos orientados a desarrolladores como x402: aunque aún se encuentran en etapas experimentales tempranas, la dirección que señalan es muy clara: los flujos de pago funcionarán en "forma de API", no como "páginas de checkout" tradicionales, lo que permitirá transacciones "continuas y granulares" entre agentes de software.
Actualmente, este campo aún es incipiente: el volumen de transacciones es pequeño, la experiencia de usuario es rudimentaria y los sistemas de seguridad y permisos aún se están perfeccionando. Pero la innovación en infraestructura a menudo comienza con estas "exploraciones tempranas".
Vale la pena destacar que su significado no es "la autonomía por la autonomía", sino que "cuando el software puede realizar transacciones mediante programación, se hacen posibles nuevos comportamientos económicos".
Conclusión
Tanto en las criptomonedas como en la inteligencia artificial, las etapas iniciales de desarrollo favorecieron más los "conceptos llamativos" y la "novedad tecnológica"; en la siguiente etapa, la "fiabilidad", la "capacidad de gobernanza" y la "capacidad de distribución" se convertirán en dimensiones de competencia más importantes.
Hoy, la tecnología en sí ya no es el factor limitante principal; "integrar la tecnología en sistemas reales" es la clave.
En mi opinión, la característica emblemática de 2026 no será "alguna tecnología revolucionaria", sino la "acumulación constante de infraestructura": estas instalaciones, mientras funcionan en silencio, también están remodelando sutilmente las "formas de circulación del valor" y los "modos de trabajo".






