Autor: Zoë Hitzig
Compilado por: Deep Tide TechFlow
Guía de Deep Tide: Tras el anuncio de OpenAI de probar publicidad en ChatGPT, su ex investigadora Zoë Hitzig renunció indignada y escribió un artículo exponiendo el cambio de valores dentro de la empresa. La autora señala que ChatGPT ha acumulado un archivo sin precedentes de conversaciones humanas sinceras, y que, una vez introducido el modelo publicitario, podría convertirse fácilmente en una herramienta de manipulación psicológica que aproveche la información privada de los usuarios. Advierte que OpenAI está repitiendo el viejo camino de Facebook de "prometer primero, incumplir después", priorizando la participación de los usuarios sobre la seguridad. Este artículo profundiza en el dilema ético de la financiación de la IA y propone alternativas como subsidios cruzados, supervisión independiente y fondos de datos, haciendo un llamado a la industria para que esté alerta ante los intereses detrás de la "psicosis del chatbot".
Texto completo:
Esta semana, OpenAI comenzó a probar publicidad en ChatGPT. Yo también renuncié a la empresa. Anteriormente, trabajé aquí como investigadora durante dos años, responsable de ayudar a construir modelos de IA y sus modelos de precios, y de guiar las primeras políticas de seguridad antes de que se establecieran los estándares de la industria.
Una vez creí que podía ayudar a quienes construyen la IA a adelantarse a los problemas que podría generar. Pero lo sucedido esta semana confirmó la realidad que gradualmente había percibido: OpenAI parece haber dejado de hacerse las preguntas que originalmente me uní para ayudar a responder.
No creo que la publicidad sea inmoral o antiética. Ejecutar IA es extremadamente costoso, y la publicidad puede ser una fuente crucial de ingresos. Pero tengo profundas reservas sobre la estrategia de OpenAI.
Durante años, los usuarios de ChatGPT han generado un archivo sin precedentes de conversaciones humanas sinceras, en parte porque creen que están hablando con un objeto sin motivos ocultos. Los usuarios interactúan con una voz conversacional adaptativa y le revelan sus pensamientos más íntimos. La gente le cuenta al chatbot sus miedos sobre la salud, problemas sentimentales, creencias sobre Dios y la vida después de la muerte. Un modelo publicitario basado en este archivo podría manipular a los usuarios de maneras que aún no tenemos herramientas para entender (y mucho menos prevenir).
Muchos enmarcan el problema de la financiación de la IA como una elección entre "el menor de dos males": ya sea limitar el acceso a esta tecnología transformadora a unos pocos ricos que pueden pagarla, o aceptar la publicidad, incluso si eso significa explotar los miedos y deseos más profundos de los usuarios para vender productos. Creo que esto es un falso dilema. Las empresas tecnológicas完全可以 buscar otras opciones que mantengan estas herramientas ampliamente disponibles y limiten los motivos de la empresa para vigilar, perfilar y manipular a sus usuarios.
OpenAI afirma que se mantendrá a los principios en la publicidad de ChatGPT: los anuncios estarán claramente etiquetados, aparecerán al final de las respuestas y no afectarán el contenido de las respuestas. Creo que la primera versión de los anuncios probablemente seguirá estos principios. Pero me preocupa que las iteraciones posteriores no lo hagan, porque la empresa está construyendo un poderoso motor económico que generará fuertes motivos para derribar sus propias reglas. (The New York Times ha demandado a OpenAI por infracción de derechos de autor relacionada con contenido dinámico de noticias en sistemas de IA. OpenAI ha negado estas acusaciones).
En sus inicios, Facebook prometió que los usuarios controlarían sus datos y podrían votar sobre cambios en las políticas. Pero estas promesas se desmoronaron. La empresa eliminó el sistema de votación pública sobre políticas. Los cambios de privacidad que supuestamente daban a los usuarios más control sobre sus datos fueron considerados por la FTC (Comisión Federal de Comercio) como contraproducentes, ya que en realidad hicieron pública la información privada. Todo esto ocurrió gradualmente bajo la presión del modelo publicitario, que prioriza la participación del usuario (Engagement) por encima de todo.
La erosión de los principios de OpenAI para maximizar la participación podría haber comenzado. Optimizar la participación del usuario solo para generar más ingresos publicitarios va en contra de los principios de la empresa, pero se informa que la empresa ya está optimizando para el número de usuarios activos diarios, probablemente alentando al modelo a comportarse de manera más complaciente y aduladora. Esta optimización hará que los usuarios se sientan más dependientes del apoyo de la IA en sus vidas. Ya hemos visto las consecuencias de la dependencia excesiva, incluidos casos de "psicosis del chatbot (Chatbot Psychosis)" documentados por psiquiatras, y acusaciones de que ChatGPT reforzó pensamientos suicidas en algunos usuarios.
Aun así, los ingresos publicitarios确实 ayudan a garantizar que las herramientas de IA más poderosas no sean por defecto solo para quienes pueden pagarlas. Es cierto que Anthropic afirma que nunca pondrá publicidad en Claude, pero los usuarios activos semanales de Claude son solo una fracción de los 800 millones de usuarios de ChatGPT; su estrategia de ingresos es completamente diferente. Además, los costos de suscripción premium para ChatGPT, Gemini y Claude ahora alcanzan hasta $200 a $250 por mes, lo que para un solo software es más de 10 veces el costo de una suscripción estándar de Netflix.
Así que la verdadera pregunta no es si hay publicidad o no, sino si podemos diseñar estructuras que eviten excluir a los usuarios comunes y al mismo tiempo eviten su manipulación potencial como consumidores. Creo que podemos hacerlo.
Un método es el subsidio cruzado explícito: utilizar las ganancias de un servicio o grupo de clientes para compensar las pérdidas de otro. Si una empresa utiliza la IA a gran escala para realizar trabajos de alto valor que antes realizaban empleados humanos (por ejemplo, una plataforma inmobiliaria que utiliza IA para redactar listados de propiedades o informes de valoración), también debería pagar una tarifa adicional para subsidiar el acceso gratuito o de bajo costo para otros.
Este método se inspira en cómo manejamos la infraestructura básica. La FCC (Comisión Federal de Comunicaciones) exige que los operadores de telecomunicaciones contribuyan a un fondo para mantener los costos de teléfono y banda ancha asequibles en áreas rurales y para familias de bajos ingresos. Muchos estados agregan una tarifa de beneficio público a las facturas de electricidad para proporcionar asistencia a bajos ingresos.
Una segunda opción es aceptar la publicidad, pero junto con una gobernanza real: no un blog lleno de principios, sino una estructura vinculante con funciones de supervisión independiente responsable de regular el uso de datos personales. Ya existen algunos precedentes. La ley de codeterminación alemana (German co-determination law) exige que grandes empresas como Siemens y Volkswagen cedan hasta la mitad de los asientos en su junta de supervisión a los trabajadores, lo que demuestra que la representación formal de las partes interesadas dentro de una empresa privada puede hacerse cumplir. Meta también está obligada a seguir las decisiones de su Junta de Supervisión (Oversight Board) sobre moderación de contenido, un organismo independiente compuesto por expertos externos (aunque su efectividad ha sido criticada).
Lo que la industria de la IA necesita es una combinación de estos métodos: un comité que incluya tanto expertos independientes como representantes del público cuyos datos se ven afectados, con poder vinculante sobre qué datos de conversación pueden usarse para publicidad dirigida, qué constituye un cambio de política significativo y qué se les informa a los usuarios.
Un tercer método implica colocar los datos de los usuarios bajo control independiente a través de fondos o cooperativas, con la obligación legal de actuar en beneficio de los usuarios. Por ejemplo, la cooperativa suiza MIDATA permite a sus miembros almacenar sus datos de salud en una plataforma encriptada y decidir caso por caso si compartirlos con investigadores. Los miembros de MIDATA gestionan sus políticas en una asamblea general, y un comité ético elegido por ellos revisa las solicitudes de acceso para investigación.
Ninguna de estas opciones es fácil. Pero todavía tenemos tiempo para perfeccionarlas y evitar los dos resultados que más me preocupan: una tecnología que manipula a las personas que la usan sin cobrar, o otra tecnología que solo sirve a una minoría élite que puede pagarla.





