Autor: The Guardian
Compilación: Deep Tide TechFlow
Guía de Deep Tide: Este reportaje de investigación revela una industria gris en rápido crecimiento: miles de personas en todo el mundo ganan dinero vendiendo sus voces, rostros, registros de llamadas y videos cotidianos para el entrenamiento de IA.
No es una discusión genérica sobre controversias de privacidad, sino una investigación con personas reales, cantidades reales y consecuencias reales: un actor que vendió su rostro y luego vio en Instagram a "sí mismo" promocionando productos médicos no identificados, con comentarios de personas evaluando su "apariencia".
La sed de datos de las empresas de IA, combinada con las disparidades económicas globales, está creando una transacción desigual.
Texto completo a continuación:
Una mañana del año pasado, Jacobus Louw, residente de Ciudad del Cabo, Sudáfrica, salió como de costumbre a pasear y alimentar a las gaviotas. Pero esta vez grabó algunos videos: filmando sus pasos y su campo de visión mientras caminaba por la acera. Este video le reportó 14 dólares, aproximadamente 10 veces el salario mínimo del país y equivalente a medio semana de gastos en alimentos para este joven de 27 años.
Esta fue una tarea de "navegación urbana" que Louw completó en Kled AI. Kled AI es una aplicación que paga a los usuarios por subir fotos, videos y otros datos para entrenar modelos de IA. En solo unas semanas, Louw ganó 50 dólares subiendo fotos y videos de su vida diaria.
A miles de millas de distancia, en Ranchi, India, Sahil Tigga, un estudiante de 22 años, gana dinero regularmente con Silencio, una aplicación que utiliza datos de audio crowdsourcing para entrenar IA, accede al micrófono de su teléfono y captura ruidos ambientales como el interior de un restaurante o una intersección concurrida. También sube grabaciones de su propia voz. Sahil se desplaza expresamente a escenarios únicos, como el vestíbulo de un hotel que aún no está registrado en el mapa de Silencio. Con esto, sus ingresos mensuales superan los 100 dólares, suficientes para cubrir todos sus gastos de alimentación.
En Chicago, Ramelio Hill, un aprendiz de soldador de 18 años, vendió sus registros de conversaciones privadas por teléfono con amigos y familiares a Neon Mobile, una plataforma de entrenamiento de IA conversacional que paga 0.50 dólares por minuto, ganando cientos de dólares. Para Hill, la ecuación era simple: cree que las empresas tecnológicas ya poseen una gran cantidad de sus datos privados, así que prefiere obtener su parte.
Estos "trabajos esporádicos de entrenamiento de IA" —subir escenas del entorno, fotos propias, videos y audio— están en la primera línea de una nueva fiebre global del oro de los datos. A medida que la sed de Silicon Valley por datos humanos de alta calidad supera lo que se puede extraer de la internet abierta, ha surgido una próspera industria de mercados de datos para cerrar esta brecha. Desde Ciudad del Cabo hasta Chicago, miles de personas están micro-licenciando sus identidades biométricas y datos íntimos para la próxima generación de IA.
Pero esta nueva economía de trabajos esporádicos conlleva un costo. Detrás de unos pocos dólares, estos entrenadores están alimentando una industria que eventualmente podría volver obsoletas sus habilidades, al mismo tiempo que se exponen a riesgos futuros de deepfakes, robo de identidad y explotación digital, riesgos que apenas comienzan a comprender.
Mantener engranada la máquina de IA
Modelos de lenguaje de IA como ChatGPT y Gemini necesitan cantidades masivas de material de aprendizaje para mejorar continuamente, pero se enfrentan a una escasez de datos. Las fuentes de datos de entrenamiento más utilizadas —C4, RefinedWeb y Dolma— que constituyen una cuarta parte de los conjuntos de datos de más alta calidad de la web, ahora están restringiendo el uso de sus datos por parte de empresas de IA para entrenar modelos. Los investigadores estiman que las empresas de IA podrían agotar los textos frescos y de alta calidad disponibles para 2026. Aunque algunos laboratorios han comenzado a entrenar con datos sintéticos generados por la propia IA, este proceso recursivo hace que los modelos produzcan "basura" llena de errores, lo que lleva a colapsos.
Aquí es donde entran en juego aplicaciones como Kled AI y Silencio. En estos mercados de datos, millones de personas están alimentando y entrenando IA vendiendo sus datos de identidad. Además de Kled AI, Silencio y Neon Mobile, los entrenadores de IA tienen muchas opciones: Luel AI, respaldado por la famosa incubadora Y-Combinator, obtiene material conversacional multilingüe a aproximadamente 0.15 dólares por minuto; ElevenLabs te permite clonar digitalmente tu voz y ponerla a disposición de otros por una tarifa base de 0.02 dólares por minuto.
Bouke Klein Teeselink, profesor de economía en el King's College de Londres, afirma que los trabajos esporádicos de entrenamiento de IA son una categoría laboral emergente que crecerá significativamente.
Las empresas de IA saben que pagar a las personas por licenciar sus datos ayuda a evitar las disputas de derechos de autor que podrían surgir al depender completamente del contenido raspado de la web, dice Teeselink. El investigador de IA Veniamin Veselovsky agrega que estas empresas también necesitan datos de alta calidad para modelar comportamientos nuevos y mejorados en los sistemas. "Por ahora, los datos humanos son el estándar de oro para muestrear fuera de la distribución del modelo", añade Veselovsky.
Los humanos que impulsan estas máquinas, especialmente en países en desarrollo, a menudo necesitan el dinero y tienen pocas alternativas. Para muchos trabajadores esporádicos de IA, realizar este trabajo es una respuesta pragmática a la brecha económica. En países con altas tasas de desempleo y monedas nacionales depreciadas, ganar dólares suele ser más estable y rentable que un trabajo local. Algunos tienen dificultades para encontrar trabajos de nivel inicial y se ven obligados a hacer entrenamiento de IA por subsistencia. Incluso en países más ricos, el aumento del costo de vida hace que venderse a sí mismo parezca una opción financiera lógica.
Louw, el entrenador de IA de Ciudad del Cabo, es muy consciente del costo para la privacidad. Aunque sus ingresos son irregulares e insuficientes para cubrir todos sus gastos mensuales, está dispuesto a aceptar estas condiciones para ganar dinero. Afectado durante años por una enfermedad neurológica que le impedía encontrar trabajo, el dinero ganado en los mercados de datos de IA (incluido Kled AI) le permitió ahorrar 500 dólares para inscribirse en un curso de formación de spa y convertirse en masajista.
"Como sudafricano, recibir dólares vale más de lo que la gente piensa", dice Louw.
Mark Graham, profesor de geografía de internet en la Universidad de Oxford y autor del libro "Alimentando a la máquina", reconoce que, para las personas en países en desarrollo, el dinero puede tener sentido práctico a corto plazo, pero advierte que "estructuralmente, este trabajo es inestable, sin posibilidad de avance, es esencialmente un callejón sin salida".
Graham agrega que los mercados de datos de IA dependen de una "carrera a la baja de los salarios" y de una "demanda temporal de datos humanos". Una vez que esa demanda se desplace, "los trabajadores no tendrán garantías, ni habilidades transferibles, ni red de seguridad".
Graham afirma que los únicos ganadores son "las plataformas del hemisferio norte, que capturan todo el valor duradero".
Licencia Total
Hill, el entrenador de IA de Chicago, tiene sentimientos encontrados sobre vender sus conversaciones telefónicas privadas a Neon Mobile. Unas 11 horas de contenido de llamadas le reportaron 200 dólares, pero dice que la aplicación a menudo se cae y retrasa los pagos. "Siempre me pareció sospechosa, pero seguí usándola para ganar dinero extra y pagar las cuentas", dice Hill.
Ahora está reconsiderando si el dinero fue tan fácil. En septiembre del año pasado, Neon Mobile se desconectó semanas después de su lanzamiento, luego de que TechCrunch descubriera una vulnerabilidad de seguridad que permitía a cualquiera acceder a números de teléfono, grabaciones de llamadas y transcripciones de usuarios. Hill dice que Neon Mobile nunca le notificó esto y ahora le preocupa que su voz sea mal utilizada en la web.
A Jennifer King, investigadora de privacidad de datos del Instituto de IA Centrada en el Humano de la Universidad de Stanford, le preocupa que los mercados de datos de IA no sean claros sobre cómo y dónde se utilizarán los datos de los usuarios. Agrega que, sin comprender sus derechos y sin poder negociarlos, "los consumidores enfrentan el riesgo de que sus datos sean reutilizados de maneras que no les gustan, no entienden o no anticiparon, con pocos caminos de recurso disponibles".
Cuando los entrenadores de IA comparten datos en Neon Mobile y Kled AI, otorgan una licencia total (global, exclusiva, irrevocable, transferible y libre de regalías) que permite a la plataforma vender, usar, mostrar públicamente y almacenar su imagen, incluso crear obras derivadas basadas en ella.
Avi Patel, fundador de Kled AI, afirma que el acuerdo de datos de su empresa limita el uso a fines de investigación y entrenamiento de IA. "Todo el modelo de negocio depende de la confianza del usuario. Si los contribuyentes piensan que sus datos podrían mal utilizarse, la plataforma no puede funcionar". Dice que la empresa revisa a los compradores antes de vender conjuntos de datos, evitando colaborar con organizaciones de "intenciones sospechosas", como la industria pornográfica, y "agencias gubernamentales" que consideran podrían usar los datos de manera contraria a esa confianza.
Neon Mobile no respondió a las solicitudes de comentarios.
Enrico Bonadio, profesor de derecho en la City, University of London, señala que los términos de estos acuerdos permiten a la plataforma y sus clientes "hacer casi cualquier cosa con este material, de forma permanente, sin pago adicional, y sin que los contribuyentes tengan una forma práctica de retirar su consentimiento o renegociar".
Los riesgos más preocupantes incluyen: que los datos de los entrenadores se utilicen para crear deepfakes y suplantar identidades. Aunque los mercados de datos afirman eliminar la información de identificación (como nombres y ubicaciones) antes de vender los datos, los patrones biométricos son inherentemente difíciles de anonimizar de manera significativa, agrega Bonadio.
Arrepentimiento del vendedor
Incluso si los entrenadores de IA pudieran negociar protecciones más detalladas sobre el uso de sus datos, aún podrían arrepentirse. En 2024, el actor Adam Coy de Nueva York vendió su imagen por 1000 dólares a Captions, un software editor de video de IA ahora renombrado como Mirage. Su acuerdo estipulaba que su identidad no se usaría con fines políticos, ni para promocionar alcohol, tabaco o contenido pornográfico, y que la licencia duraría un año.
Captions no respondió a las solicitudes de comentarios.
Poco después, los amigos de Adam comenzaron a reenviarle videos que encontraron en línea, donde se usaban su rostro y voz, con millones de reproducciones. En uno de los videos de Instagram, el clon de IA de Adam se presentaba como "médico vaginal" promocionando suplementos médicos no probados para mujeres durante el embarazo y postparto.
"Me da vergüenza explicarle esto a la gente", dijo Coy.
"Los comentarios eran extraños porque estaban evaluando mi apariencia, pero ese no era yo", añadió Coy. "Mi pensamiento al tomar la decisión (de vender mi imagen) entonces fue que la mayoría de los modelos de todos modos extraen datos e imágenes de la web, así que preferí que me pagaran".
Coy dijo que desde entonces no ha aceptado más trabajos esporádicos de datos de IA. Dijo que solo consideraría hacerlo nuevamente si una empresa ofreciera una compensación significativa.








