Escrito por: Curry, Deep Tide TechFlow
Título original: La gente necesita un capitalista malvado, y la IA creó un rumor sobre delivery de comida
La semana pasada ocurrió algo bastante surrealista.
Los CEOs de dos gigantes del delivery de comida en Estados Unidos, uno con un patrimonio de 2.700 millones de dólares y el otro a cargo de la plataforma de transporte más grande del mundo, no durmieron el sábado por la madrugada y estuvieron escribiendo ensayos en línea para demostrar su inocencia.
El detonante fue una publicación anónima en Reddit.
La persona que publicó dijo ser un ingeniero backend de una gran plataforma de delivery, que estaba borracho y fue a una biblioteca a usar WiFi público para filtrar información.
El contenido era más o menos esto:
La empresa analiza la situación de los conductores de transporte y les asigna una "puntuación de desesperación": cuanto más necesitados de dinero estén, menos pedidos buenos recibirán; la entrega prioritaria de comida es falsa, los pedidos normales se retrasan; varios "fondos de bienestar para conductores" no llegan a ellos, sino que se usan para presionar al Congreso contra los sindicatos...
El final del post sonaba muy convincente: Estoy borracho, estoy enfadado, así que voy a filtrar esto.
Se presentó perfectamente como un denunciante que expone cómo "las grandes empresas usan algoritmos para explotar a los conductores".
El post obtuvo 87.000 likes en tres días, llegando a la portada de Reddit. Alguien también lo compartió en X, donde tuvo 36 millones de impresiones.
Hay que tener en cuenta que el mercado de delivery en EE.UU. tiene pocos actores principales. El post no nombraba a nadie, pero todos especulaban sobre quién era.
Tony Xu, CEO de DoorDash, fue el primero en reaccionar, tuiteando que no eran ellos y que despediría a cualquiera que lo hiciera. El COO de Uber también salió a responder: "No crean todo lo que ven en internet".
DoorDash incluso publicó una declaración de cinco puntos en su web, refutando cada uno de los puntos de la filtración. Dos empresas con una capitalización bursátil combinada de más de 80.000 millones de dólares, obligadas a hacer declaraciones de prensa a altas horas de la noche por un post anónimo.
Y luego, resultó que el post fue inventado por IA.
Quién lo descubrió fue Casey Newton, periodista del medio tecnológico Platformer.
Se puso con la persona que hizo la publicación, quien le envió inmediatamente un "documento técnico interno" de 18 páginas, con un título muy académico: "AllocNet-T: High-Dimensional Temporal Supply State Modeling".
Traducido sería algo como "Modelado de Estado de Suministro Temporal de Alta Dimensión". Cada página tenía una marca de agua de "Confidencial" y estaba firmado por el "Departamento de Economía Conductual del Grupo de Dinámicas de Mercado" de Uber.
El contenido explicaba cómo funcionaba exactamente el modelo que asignaba la "puntuación de desesperación" a los conductores mencionada en el post de Reddit. Incluía diagramas de arquitectura, fórmulas matemáticas, flujos de datos...
(Captura del artículo falso, que a primera vista parecía real)
Newton dijo que al principio el documento lo engañó. ¿Quién se tomaría la molestia de falsificar 18 páginas de documentación técnica para engañar a un periodista?
Pero ahora es diferente.
Ese documento de 18 páginas puede ser generado por IA en minutos.
Además, el denunciante también le envió al periodista una foto pixelada de su credencial de empleado de Uber, para demostrar que realmente trabajaba allí.
Por curiosidad, el periodista Newton metió la imagen de la credencial en Google Gemini para verificarla, y Gemini dijo que la imagen fue generada por IA.
Pudo identificarlo porque Google inserta una marca de agua invisible llamada SynthID en el contenido generado por su IA, imperceptible a simple vista pero detectable por máquinas.
Y lo más absurdo: la credencial tenía el logo de "Uber Eats".
Un portavoz de Uber confirmó: "No tenemos credenciales de empleado con la marca Uber Eats, todas las identificaciones solo llevan el logo de Uber".
Evidentemente, este falso "denunciante" ni siquiera tenía claro a quién quería difamar. Cuando el periodista pidió información de cuentas de redes sociales como LinkedIn para verificar further,
el denunciante borró su cuenta y desapareció.
En realidad, no queremos hablar de que la IA puede falsificar cosas, eso no es nuevo.
Lo que queremos discutir es: ¿Por qué millones de personas estaban dispuestas a creer un post anónimo?
En 2020, DoorDash fue demandada por usar propinas para compensar el salario base de los conductores y pagó 16,75 millones de dólares en indemnizaciones. Uber tenía una herramienta llamada Greyball para evadir regulaciones. Esto son hechos reales.
Es fácil encontrar una identificación subconsciente con la idea de que: las plataformas no son buenas, y esa suele ser acertada.
Así que cuando alguien dice "los algoritmos de las plataformas de delivery explotan a los conductores", la primera reacción no es "¿es esto cierto?", sino "ya lo sabía".
Las noticias falsas prosperan porque se parecen a lo que la gente ya cree.
Lo que hace la IA es reducir el coste de ese "parecido" casi a cero.
Hay otro detalle en esta historia.
Desenmascarar el engaño fue posible gracias a la detección de la marca de agua de Google. Google desarrolla IA, pero también herramientas para detectar IA.
Pero SynthID solo puede detectar la IA propia de Google. Esta vez pudieron atraparlo porque quien falsificó usó Gemini. Con otro modelo, quizás no habrían tenido tanta suerte.
Así que resolver este caso no fue tanto una victoria tecnológica, sino más bien:
que el otro cometió un error muy básico.
Anteriormente, una encuesta de Reuters mostró que el 59% de las personas teme no poder distinguir lo real de lo falso en internet.
Los tweets de clarificación de los CEOs de las empresas de delivery fueron vistos por cientos de miles, pero ¿cuánta gente seguirá convencida de que es solo relaciones públicas, de que mienten? Aunque el post falso ya fue eliminado, todavía hay gente en los comentarios criticando a las plataformas de delivery.
La mentira ya ha dado la vuelta al mundo, y la verdad todavía se está atando los cordones.
Piénsenlo, ¿y si este post no hablara de Uber, sino de Meituan o Ele.me?
Cosas como la "puntuación de desesperación", "usar algoritmos para explotar a los repartidores", "los fondos de bienestar no llegan a los repartidores". ¿Su primera reacción al ver estas acusaciones sería identificarse emocionalmente?
¿Recuerdan el artículo "Los repartidores de comida, atrapados en el sistema"?
Así que el problema no es si la IA puede falsificar o no. El problema es, cuando una mentira se parece a algo en lo que la gente ya cree, ¿importa realmente si es cierta o no?
No sabemos qué buscaba esa persona que borró su cuenta y huyó.
Solo sabemos que encontró una salida emocional y le echó un cubo de combustible generado por IA.
El fuego se encendió. Y a quién le importa si la leña era real o falsa.
En los cuentos, a Pinocho le crece la nariz cuando miente.
La IA no tiene nariz.











