Resumen central: Entrenar modelos grandes requiere construir o actualizar centros de datos. Pero la infraestructura centralizada ahora enfrenta límites físicos rígidos. Para mejorar la capacidad de la infraestructura, la IA se utiliza para crear una mayor escala y producción de inteligencia. Sin embargo, el control sobre la potencia de cálculo se está convirtiendo en un nodo de poder crucial dentro de la industria de la IA. En este momento, nace Gonka. El protocolo Gonka es una red global sin permisos a la que cualquiera puede unirse, solicitando que las peticiones se enruten de manera programática entre participantes distribuidos. En una conversación exclusiva con Analytics Insight, Anastasia Matveeva, cofundadora y gerente senior de productos de Gonka, discutió cómo están innovando en la forma de acceder a la potencia de cálculo para construir un ecosistema de IA más controlable y seguro.
P: El debate público sobre la IA a menudo se centra en la centralización de los modelos, pero se presta menos atención a la centralización de la potencia de cálculo. ¿Por qué el control de la potencia de cálculo se está convirtiendo en un nodo de poder clave en la industria de la IA? ¿Qué riesgos presenta esta concentración para la innovación y el mercado en general?
R: El debate público a menudo se centra en los modelos porque son visibles. Pero el verdadero núcleo de poder está más abajo, en la capa fundamental: la potencia de cálculo, que determina quién puede construir, desplegar y escalar sistemas de IA.
El control de la potencia de cálculo se vuelve crucial por razones económicas y físicas. El principal cuello de botella de la IA moderna ya no son los algoritmos, sino la capacidad de acceder a GPUs, energía eléctrica y capacidad en centros de datos.
Entrenar modelos grandes requiere cada vez más construir o actualizar centros de datos. Sin embargo, la infraestructura centralizada está encontrando límites físicos: densidad energética, restricciones de refrigeración y la capacidad máxima de suministro eléctrico que puede soportar una única ubicación. La industria está probando soluciones extremas: rediseñar chips, sistemas de refrigeración y nuevas fuentes de energía.
Esta concentración tiene consecuencias sistémicas.
Primero, establece barreras estructurales a la innovación. El acceso a la potencia de cálculo se convierte en un privilegio de infraestructura, no en una competencia basada en capacidades. Pequeños equipos, investigadores independientes e incluso regiones enteras son excluidas por el precio, el espacio para experimentar se reduce y la innovación se vuelve conservadora.
En segundo lugar, la centralización de la potencia de cálculo consolida un modelo de "extracción de rentas". La IA tiene el potencial de crear "abundancia"—la inteligencia es inherentemente replicable—pero cuando la infraestructura subyacente es escasa y está controlada, esta abundancia se suprime artificialmente. El mercado se orienta hacia suscripciones, efectos de bloqueo y poder de fijación de precios, en lugar de hacia la reducción de costos y el acceso generalizado.
Tercero, introduce fragilidad sistémica. Cuando la potencia de cálculo avanzada se concentra en unos pocos operadores y ubicaciones geográficas, las perturbaciones regulatorias, políticas o físicas afectan a todo el ecosistema de IA. La dependencia se vuelve estructural, no opcional.
Más importante aún, la potencia de cálculo no es neutral. Quien la controla, implícitamente decide qué es viable, qué está permitido y qué es económicamente sostenible. Cuando este control es centralizado, la gobernanza de la IA se forma por defecto, no por diseño.
El riesgo no es solo el monopolio, sino una distorsión a largo plazo de la trayectoria de desarrollo de la IA: menos constructores, menor diversidad de aplicaciones, una innovación de hardware más lenta y una infraestructura incapaz de igualar las ambiciones de la próxima generación de modelos.
Por lo tanto, la potencia de cálculo debe ser vista como una infraestructura fundamental—una arquitectura que pueda escalar económica y físicamente, crucial para el futuro de la IA.
P: Muchas plataformas de potencia de cálculo para IA—ya sean centralizadas o descentralizadas—afirman ser eficientes. ¿Qué métricas son realmente importantes al evaluar la eficiencia de un sistema de potencia de cálculo para IA? ¿Dónde suelen encontrarse estas plataformas con limitaciones prácticas?
R: La eficiencia de la potencia de cálculo a menudo se trata como un concepto de marketing. En la práctica, solo unas pocas métricas concretas son realmente importantes, cubriendo el rendimiento para el usuario, la eficiencia operativa del proveedor y la estructura de incentivos que gobierna a ambos.
Para el usuario, la eficiencia significa velocidad y transparencia de costos.
La velocidad se refiere a la latencia bajo demanda real. Los centros centralizados suelen tener una ventaja debido a la ubicación física compartida. Pero las arquitecturas descentralizadas pueden lograr un rendimiento similar si la blockchain actúa solo como capa de seguridad y no participa en la ruta de ejecución en tiempo real. Mientras las solicitudes se procesen fuera de la cadena (off-chain), el protocolo en sí no añade latencia.
La transparencia de costos es igualmente crucial. Aunque el "costo por token" es un KPI común, a menudo falta transparencia en la integridad del modelo. En entornos centralizados, el producto puede ser una caja negra. En momentos pico, los proveedores pueden ajustar la configuración del modelo para mantener la rentabilidad; estos cambios suelen ser invisibles pero pueden afectar la calidad de la salida. La verdadera eficiencia exige que el precio refleje una precisión computacional consistente.
Para el proveedor, la eficiencia es el equilibrio entre la utilización de la GPU y la elasticidad.
Los operadores centralizados sobresalen en utilización; en entornos de ubicación compartida, las GPUs pueden funcionar casi a plena carga, pero carecen de elasticidad, soportando costos de inactividad durante los valles de demanda.
Las redes descentralizadas sacrifican cierta utilización a cambio de elasticidad, pero deben minimizar la sobrecarga de consenso y verificación, permitiendo que la potencia de cálculo se redistribuya entre diferentes cargas de trabajo según la demanda.
Lo más crítico es el diseño de incentivos.
Cuando las recompensas están vinculadas a cargas de trabajo de IA más rápidas, más baratas y verificables, la optimización se vuelve estructural. Los participantes tienen incentivos para mejorar la eficiencia del hardware, reducir la latencia y experimentar con chips especializados.
Por el contrario, si las recompensas o el peso de la gobernanza están ligados principalmente a la tenencia de capital, la dirección de la optimización se desvía del rendimiento de la infraestructura y la ineficiencia se consolida.
En Gonka, la eficiencia está integrada en la capa del protocolo: casi el 100% de la potencia de cálculo se utiliza para cargas de trabajo reales de IA (principalmente inferencia). Las recompensas y el peso de la gobernanza se basan en la contribución de potencia de cálculo medida, no en la tenencia de capital.
La verdadera eficiencia solo emerge cuando la mayor parte de la potencia de cálculo se utiliza para tareas reales, los incentivos recompensan contribuciones verificadas y los gastos generales internos no crecen de manera descontrolada con la escala de la red.
P: ¿Es posible que una red descentralizada de potencia de cálculo para IA utilice la mayor parte de su potencia de cálculo para cargas de trabajo reales de IA, en lugar de para mantener la red misma? ¿Cuáles son las elecciones arquitectónicas clave?
R: Es posible, pero solo si se trata la sobrecarga como una restricción arquitectónica central, no como un subproducto inevitable de la descentralización.
La mayoría de las redes descentralizadas de potencia de cálculo utilizan una gran cantidad de recursos para mantener el consenso y la seguridad, en lugar de para cargas de trabajo de IA. Esto se debe a que el trabajo productivo y los mecanismos de seguridad están separados, lo que lleva a una computación duplicada.
Para dirigir la mayor parte de la potencia de cálculo a tareas reales de IA, se necesitan varios principios clave:
Primero, los mecanismos de seguridad y medición deben estar "acotados en el tiempo", no ejecutándose continuamente. Los mecanismos de prueba deben concentrarse en ciclos cortos y definidos, en lugar de consumir recursos continuamente. En Gonka, esto se logra mediante Sprints (ciclos estructurados y acotados en el tiempo). Fuera de estos ciclos, los recursos de hardware están disponibles para cargas de trabajo reales de IA.
Segundo, reducir la duplicación mediante una verificación adaptativa y basada en la reputación, en lugar de una verificación por replicación completa de cada tarea. El trabajo de los nuevos participantes puede ser verificado al 100%; a medida que se establece la reputación, la proporción de verificación puede reducirse a alrededor del 1%. La potencia de cálculo general dedicada a la verificación puede mantenerse por debajo del 10%, manteniendo la seguridad.
Los participantes que intenten hacer trampa no recibirán recompensas, por lo que hacer trampa se vuelve económicamente irracional.
Tercero, las recompensas y el peso de la gobernanza deben estar vinculados a la contribución de potencia de cálculo verificada, no a la tenencia de capital.
Cuando el consenso es ligero, la verificación es adaptativa y los incentivos están alineados con la computación productiva, la potencia de cálculo descentralizada puede realmente servir a cargas de trabajo reales.
P: Las redes descentralizadas de potencia de cálculo para IA suelen enfatizar la participación abierta, pero los requisitos de infraestructura pueden crear una barrera de entrada alta. ¿Cómo puede un sistema como este escalar y al mismo tiempo mantenerse accesible para participantes con niveles de potencia de cálculo muy diferentes?
R: Aunque las redes descentralizadas tienen como objetivo reducir las barreras de entrada a la infraestructura de IA, la supervivencia a largo plazo también requiere competir con proveedores centralizados y satisfacer las demandas del mundo real. Las restricciones de hardware finalmente se reducen a un requisito central: poder alojar modelos que tengan una demanda real en el mercado.
Para escalar manteniendo la accesibilidad, varios principios son cruciales.
Primero, es el acceso sin permisos a la infraestructura. Cualquier propietario de GPU—ya sea un operador de un solo dispositivo o un gran centro de datos—debería poder unirse a la red sin procesos de aprobación o mecanismos centralizados de control de acceso. Esto elimina las barreras estructurales de entrada.
Segundo, son las recompensas proporcionales y la influencia basadas en la potencia de cálculo verificada. En un modelo donde el peso depende de la potencia de cálculo, una mayor contribución computacional naturalmente conlleva una mayor parte de las tareas, una mayor parte de las recompensas y un mayor peso en la gobernanza. Esto no iguala completamente a los pequeños participantes con los grandes—y no debería hacerlo. La clave es que las reglas sean uniformes: la influencia está determinada por la contribución computacional real, no por el capital, mecanismos de delegación o apalancamiento financiero.
Tercero, es el papel de los Pools (grupos) de potencia de cálculo. En sistemas con requisitos de infraestructura reales, la agregación de recursos surge naturalmente. Los pools permiten a los participantes más pequeños consolidar recursos, reducir la volatilidad y participar en cargas de trabajo a mayor escala.
Sin embargo, la arquitectura debe evitar otorgar ventajas estructurales a los grandes pools de potencia de cálculo o incentivar una concentración excesiva de influencia. Los pools deberían existir como herramientas de coordinación, no como mecanismos de recentralización.
En última instancia, escalar una red descentralizada de potencia de cálculo para IA no debería significar aumentar las barreras de entrada. Debería significar aumentar la capacidad general de potencia de cálculo manteniendo reglas de participación neutrales, transparentes y consistentes, al tiempo que se mantiene el valor económico real que la red crea para los usuarios. El acceso abierto, los mecanismos económicos proporcionales y un grado controlado de concentración determinan si un sistema permanece descentralizado a medida que crece.
P: ¿Por qué en este momento el problema de la potencia de cálculo de IA descentralizada se vuelve particularmente urgente? Si este problema no se resuelve en los próximos años, ¿cuáles cree que serán las consecuencias a largo plazo para la industria?
R: Esta urgencia refleja que la IA está pasando de una fase experimental a una fase de infraestructura.
Como se mencionó, la potencia de cálculo se ha convertido en un cuello de botella físico. La capacidad de escalar está cada vez más limitada no solo por el capital, sino también por la energía, la densidad de potencia y las restricciones de los centros de datos. Simultáneamente, el acceso a GPUs avanzadas e infraestructura a hiperescala está influenciado por contratos a largo plazo, concentración corporativa y prioridades estratégicas nacionales.
Esta combinación profundiza las asimetrías estructurales. Aquellos que controlan infraestructura a gran escala consolidan continuamente su ventaja, mientras que las barreras de entrada para equipos pequeños y regiones emergentes continúan aumentando. El riesgo no es solo la concentración del mercado, sino la ampliación de una brecha global de potencia de cálculo.
Si esta tendencia continúa, la innovación dependerá más de la capacidad de acceder a infraestructura que de las ideas en sí. El mercado de la IA podría solidificarse en un modelo basado en rentas, donde la inteligencia se accede en los términos establecidos por unos pocos proveedores dominantes.
Por lo tanto, la potencia de cálculo descentralizada no es un debate ideológico. Es una respuesta a restricciones estructurales visibles—y una elección que dará forma a la arquitectura a largo plazo de la industria de la IA.
P: Los agentes de IA (AI agents) están reservando cada vez más recursos de GPU de forma autónoma. ¿Cómo admite la arquitectura de Gonka la integración perfecta para una economía de potencia de cálculo de IA autorregulada?
R: El auge de la IA agentizada significa que los sistemas toman cada vez más decisiones de forma autónoma—incluyendo la adquisición de recursos computacionales. En este modelo, la potencia de cálculo se convierte en un activo central en las interacciones económicas entre agentes.
Un ecosistema así necesita acceso programático, mecanismos económicos transparentes y confiabilidad.
Primero, la integración debe ser perfecta. Gonka proporciona una API compatible con OpenAI, permitiendo que la mayoría de los agentes de IA se conecten sin cambiar su arquitectura o flujos de trabajo.
En segundo lugar, la economía de la potencia de cálculo debe ser transparente y impulsada por el sistema. Los precios se ajustan dinámicamente según la carga de la red, no se fijan mediante contratos. En las etapas iniciales de la red, el costo de la inferencia está diseñado para ser significativamente menor que el de los proveedores centralizados, porque los participantes no solo se compensan con las tarifas de los usuarios, sino también con recompensas mediante un mecanismo de emisión similar al de Bitcoin, que es proporcional a la capacidad de potencia de cálculo disponible.
Esta estructura permite a los agentes de IA que operan dentro de un presupuesto ejecutar cargas de trabajo de manera eficiente. A medida que la red evoluciona, los parámetros de precios seguirán sujetos a la gobernanza de la comunidad.
Tercero, la confiabilidad se refuerza a nivel de protocolo. En entornos centralizados, la confiabilidad proviene de certificaciones y acuerdos de nivel de servicio (SLA). En la infraestructura descentralizada, la confiabilidad se sustenta mediante código abierto, auditorías de terceros y pruebas de finalización computacional medibles en cadena, junto con pruebas de rendimiento de la red.
Estos elementos combinados permiten a los agentes de IA solicitar potencia de cálculo y asignar presupuestos dentro de un marco transparente. De esta manera, Gonka proporciona la base de infraestructura para una economía de potencia de cálculo de IA autorregulada, permitiendo a los agentes no solo ejecutar tareas, sino también optimizar dinámicamente los recursos de los que dependen.
P: La incertidumbre regulatoria en torno a las tecnologías descentralizadas está aumentando. ¿Cómo aborda Gonka de manera proactiva las cuestiones de soberanía de datos y cumplimiento de la gobernanza de la IA en un mercado global fragmentado?
R: En el contexto de la potencia de cálculo descentralizada, el principal desafío es equilibrar la apertura de la red con los requisitos diversos y en evolución de las jurisdicciones.
Gonka es una red global sin permisos—cualquiera puede unirse, y las solicitudes se enrutan de manera programática entre participantes distribuidos. En la etapa actual, los usuarios no pueden controlar determinísticamente la ubicación geográfica donde se procesan sus solicitudes. Para casos de uso con requisitos estrictos de residencia de datos o procesamiento regional, esto podría ser actualmente una limitación.
Sin embargo, desde una perspectiva de privacidad, esta arquitectura reduce la concentración de datos. Cada solicitud es procesada por un participante seleccionado al azar y enrutada de forma independiente, evitando la acumulación de historiales completos de usuarios. Hasta ahora, este modelo ha cubierto la mayoría de los casos de uso prácticos, al tiempo que permite escalar la red.
A medida que la red crece y las demandas del mercado se vuelven más claras, el mecanismo de gobernanza permite a los participantes proponer y votar cambios arquitectónicos para admitir requisitos regulatorios específicos. Estos cambios podrían incluir: subredes dedicadas con criterios de participación adicionales, restricciones operativas para jurisdicciones específicas, o garantías a nivel de hardware para cargas de trabajo empresariales, como Entornos de Ejecución Confiable (TEE).
La descentralización no elimina las obligaciones de cumplimiento. Lo que ofrece es flexibilidad arquitectónica. El diseño de Gonka permite que la red evolucione según las demandas regulatorias y del mercado, en lugar de quedar bloqueada desde el principio en un único modelo de cumplimiento.







