Autora: Nancy, PANews
Las redes sociales actuales, aunque aparentan seguir siendo vibrantes, están perdiendo gradualmente su "sensación de humanidad". A medida que una gran cantidad de basura generada por IA (AI slop) inunda las principales plataformas, el contenido falso y creado para generar engagement se ha generalizado. Cada vez más usuarios reales pierden el deseo de compartir e incluso comienzan a abandonarlas.
Frente a la proliferación de esta basura IA, la mera revisión algorítmica parece insuficiente. Recientemente, la firma de capital de riesgo de élite a16z propuso el concepto de Medios con Staking (Staked Media), utilizando dinero real para filtrar el ruido de la IA, lo que ha captado la atención del mercado.
Cuando la IA comienza a autorreplicarse, Internet se está inundando de "contenido prefabricado"
"La IA está empezando a imitar a la IA".
Recientemente, los moderadores del "Reddit estadounidense" se han visto desbordados luchando contra la gran cantidad de contenido generado por IA. Los moderadores del subreddit r/AmItheAsshole, que cuenta con 24 millones de usuarios, se quejan de que más de la mitad del contenido está generado por IA.
Solo en el primer semestre de 2025, Reddit eliminó más de 40 millones de piezas de contenido basura y falso. Este fenómeno se ha extendido como un virus a plataformas como Facebook, Instagram, X, YouTube, Xiaohongshu y TikTok.
En esta era de información aparentemente explosiva pero con voces reales cada vez más escasas, la basura de contenido producida por IA impregna casi toda Internet, erosionando silenciosamente el pensamiento de las personas. En realidad, con la popularización de herramientas generativas como ChatGPT y Gemini, la creación de contenido manual está siendo reemplazada por la IA, convirtiéndose en una "línea de producción en fábrica".
Un estudio reciente de la empresa de optimización de motores de búsqueda Graphite muestra que, desde que ChatGPT se lanzó públicamente a finales de 2022, la proporción de artículos generados por IA ha aumentado drásticamente, pasando de alrededor del 10% ese año a más del 40% en 2024. Hasta mayo de este año, esta proporción subió al 52%.
Sin embargo, este tipo de contenido generado por IA se asemeja en su mayoría a "comida precocinada": tiene una receta fija y un proceso de producción estandarizado, pero carece de alma y es insípido de leer. Además, la IA ya no es torpe; puede imitar el tono humano e incluso replicar emociones. Desde guías de viajes hasta disputas sentimentales, e incluso provocar deliberadamente polarización social para generar tráfico, la IA puede hacerlo con facilidad.
Más críticamente, cuando la IA alucina, puede decir disparates con toda seriedad, creando no solo basura informativa sino también desencadenando una crisis de confianza.
En la era de la proliferación de la IA, usar dinero real para construir confianza en los medios
Ante la plaga de contenido basura de IA en Internet, las principales plataformas, incluso actualizando sus mecanismos de revisión e incorporando asistencia de IA, siguen teniendo una eficacia limitada en su gestión. En el influyente informe anual de a16z crypto, Robert Hackett propuso el concepto de "Medios con Staking". (Lectura relacionada: a16z: 17 nuevas direcciones cripto que nos entusiasman para 2026)
El informe señala que el modelo de medios tradicional preconiza la objetividad, pero sus desventajas son evidentes desde hace tiempo. Internet le ha dado a cada persona un canal para expresarse, y hoy en día cada vez más profesionales, practicantes y creadores transmiten sus puntos de vista directamente al público, perspectivas que reflejan sus intereses en el mundo. Irónicamente, el público a menudo los respeta no "a pesar de tener intereses creados", sino "precisamente porque tienen intereses creados".
La nueva evolución de esta tendencia no es el auge de las redes sociales, sino la "aparición de herramientas criptográficas" que permiten a las personas hacer compromisos verificables públicamente. Dado que la IA reduce drásticamente el coste y facilita la generación de cantidades masivas de contenido (puede generar contenido basado en cualquier perspectiva o identidad, sea veraz o no), confiar únicamente en declaraciones humanas (o de bots) ya no es suficiente. Los activos tokenizados, el bloqueo programable de fondos (staking), los mercados de predicción y los registros históricos on-chain ofrecen una base más sólida para la confianza: los comentaristas pueden demostrar que practican lo que predican (respaldando sus opiniones con fondos); los podcasters pueden bloquear tokens, demostrando que no cambiarán de opinión oportunamente o realizarán pump and dump; los analistas pueden vincular sus predicciones a mercados de liquidación pública, creando un registro auditable.
Esto es la forma incipiente de lo que se denomina "Medios con Staking": una forma de medios que no solo abraza la idea de tener intereses creados, sino que también ofrece pruebas tangibles. En este modelo, la credibilidad no proviene de pretender neutralidad, ni de afirmaciones infundadas, sino de compromisos de interés verificables, públicos y transparentes. Los Medios con Staking no reemplazarán otras formas de medios, sino que complementarán el ecosistema mediático existente. Envían una nueva señal: ya no es "confía en mí, soy neutral", sino "este es el riesgo que estoy dispuesto a asumir, esta es la forma en que puedes verificar que digo la verdad".
Robert Hackett anticipa que este campo continuará creciendo, al igual que los medios de comunicación masiva del siglo XX se adaptaron a la tecnología e incentivos de su época (atraer audiencias masivas y anunciantes) adoptando superficialmente la "objetividad" y "neutralidad". Hoy, la IA hace que crear o falsificar cualquier contenido sea extremadamente fácil, y lo que realmente es escaso son las pruebas. Los creadores que pueden hacer compromisos verificables y respaldar verdaderamente sus afirmaciones tendrán una ventaja.
Utilizar mecanismos de staking para aumentar el coste de la falsificación, se sugiere introducir un mecanismo dual de verificación de contenido
Esta idea innovadora también ha sido bien recibida por profesionales del sector cripto, quienes han hecho sugerencias.
El analista cripto Chen Jian señaló que, desde los grandes medios hasta los medios independientes, las noticias falsas surgen sin cesar, y un evento puede ser reportado con múltiples giros. La razón fundamental es que el coste de falsificar es bajo y el beneficio alto. Si consideramos a cada difusor de información como un nodo, ¿por qué no usar el mecanismo de juego económico Proof of Stake (POS) de blockchain para resolver este problema? Sugiere, por ejemplo, que cada nodo necesite apostar fondos (hacer staking) antes de expresar una opinión; a mayor staking, mayor confiabilidad; otros pueden recoger evidencias para desafiarlo, y si el desafío tiene éxito, el sistema confisca los fondos apostados y recompensa al desafiante. Por supuesto, este proceso también implica problemas de privacidad y eficiencia; actualmente hay soluciones como Swarm Network que combinan ZK (Zero-Knowledge) e IA, protegiendo la privacidad de los participantes y utilizando análisis de datos multimodelo para ayudar en la verificación, similar a la función de verificación de veracidad de Grok en Twitter.
El KOL cripto Blue Fox también opina que se podrían usar tecnologías criptográficas como las pruebas de conocimiento cero (zk) para que medios o individuos puedan demostrar en línea su credibilidad, similar a "firmar un pagaré" online, inalterable una vez en cadena. Pero un pagaré no es suficiente, también se necesita "apostar" (hacer staking) ciertos activos como garantía, como ETH, USDC u otras criptomonedas.
La lógica del mecanismo de staking es muy directa: si el contenido publicado se demuestra falso, los activos apostados son confiscados; si el contenido es veraz y confiable, los activos se devuelven después de un tiempo, incluso potentially con una recompensa adicional (como tokens emitidos por el medio con staking o una parte de los fondos confiscados a los falsificadores). Este mecanismo crea un entorno que incentiva decir la verdad. Para los medios, el staking确实增加了资金成本, pero a cambio obtienen la confianza real de la audiencia, lo cual es crucial en una era de noticias falsas generalizadas.
Por ejemplo, un YouTuber que publica un video recomendando un producto necesita "firmar un pagaré" on-chain en Ethereum y apostar ETH o USDC. Si el contenido del video es falso, los fondos apostados se confiscan, y los espectadores pueden confiar en la veracidad del contenido; un blogger que recomienda un teléfono móvil necesita apostar 100 dólares en ETH y declarar: "Si la función de belleza de este teléfono no cumple con lo prometido, compensaré". Los espectadores, al ver los fondos apostados, naturalmente lo encontrarán más confiable. Si el contenido es falsificado por IA, el blogger perderá sus fondos apostados.
Para juzgar la veracidad del contenido, Blue Fox sugiere adoptar un mecanismo dual de verificación "comunidad + algoritmo". En cuanto a la comunidad, usuarios con derecho a voto (que necesitan apostar activos cripto) votan on-chain; si un porcentaje determinado (ej. 60%) lo juzga falso, se considera como tal. Asistencia algorítmica: el análisis de datos ayuda a verificar los resultados de la votación. Mecanismo de arbitraje: si el creador del contenido no está de acuerdo con el veredicto, puede solicitar arbitraje a un comité de expertos; si se descubre que los votantes manipularon maliciosamente, sus activos son confiscados; tanto los votantes como el comité de expertos reciben recompensas, provenientes de las multas confiscadas y de los tokens del medio. Además, los creadores de contenido pueden usar tecnología de pruebas de conocimiento cero para generar pruebas de autenticidad desde la fuente, por ejemplo, la procedencia real de un video generado.
Para aquellos con recursos financieros que intenten aprovechar el mecanismo de staking para falsificar, Blue Fox sugiere aumentar el coste a largo plazo de la falsificación, no solo financiero, sino también en tiempo, historial, sistema de reputación y responsabilidad legal. Por ejemplo, las cuentas confiscadas serían marcadas, y para publicar contenido en el futuro necesitarían apostar más fondos; si una cuenta es confiscada múltiples veces, su credibilidad disminuiría significativamente; los casos graves podrían incluso enfrentar acciones legales.






