Investigadora de OpenAI renuncia y denuncia: ChatGPT vende publicidad, ¿quién protege tu privacidad?

marsbitPublicado a 2026-02-12Actualizado a 2026-02-12

Resumen

La exinvestigadora de OpenAI Zoë Hitzig renunció tras anunciarse la prueba de publicidad en ChatGPT. Critica que, al basarse en conversaciones íntimas de usuarios, los anuncios podrían manipular psicológicamente a las personas. Advierte que OpenAI prioriza el engagement sobre la seguridad, repitiendo errores de Facebook. Propone alternativas como subsidios cruzados, gobernanza independiente con supervisión vinculante y fondos de datos controlados por usuarios para evitar que la IA sea solo para ricos o explote a los usuarios.

Autor: Zoë Hitzig

Compilado por: Deep Tide TechFlow

Guía de Deep Tide: Tras el anuncio de OpenAI de probar publicidad en ChatGPT, su ex investigadora Zoë Hitzig renunció indignada y escribió un artículo exponiendo el cambio de valores dentro de la empresa. La autora señala que ChatGPT ha acumulado un archivo sin precedentes de conversaciones humanas sinceras, y que, una vez introducido el modelo publicitario, podría convertirse fácilmente en una herramienta de manipulación psicológica que aproveche la información privada de los usuarios. Advierte que OpenAI está repitiendo el viejo camino de Facebook de "prometer primero, incumplir después", priorizando la participación de los usuarios sobre la seguridad. Este artículo profundiza en el dilema ético de la financiación de la IA y propone alternativas como subsidios cruzados, supervisión independiente y fondos de datos, haciendo un llamado a la industria para que esté alerta ante los intereses detrás de la "psicosis del chatbot".

Texto completo:

Esta semana, OpenAI comenzó a probar publicidad en ChatGPT. Yo también renuncié a la empresa. Anteriormente, trabajé aquí como investigadora durante dos años, responsable de ayudar a construir modelos de IA y sus modelos de precios, y de guiar las primeras políticas de seguridad antes de que se establecieran los estándares de la industria.

Una vez creí que podía ayudar a quienes construyen la IA a adelantarse a los problemas que podría generar. Pero lo sucedido esta semana confirmó la realidad que gradualmente había percibido: OpenAI parece haber dejado de hacerse las preguntas que originalmente me uní para ayudar a responder.

No creo que la publicidad sea inmoral o antiética. Ejecutar IA es extremadamente costoso, y la publicidad puede ser una fuente crucial de ingresos. Pero tengo profundas reservas sobre la estrategia de OpenAI.

Durante años, los usuarios de ChatGPT han generado un archivo sin precedentes de conversaciones humanas sinceras, en parte porque creen que están hablando con un objeto sin motivos ocultos. Los usuarios interactúan con una voz conversacional adaptativa y le revelan sus pensamientos más íntimos. La gente le cuenta al chatbot sus miedos sobre la salud, problemas sentimentales, creencias sobre Dios y la vida después de la muerte. Un modelo publicitario basado en este archivo podría manipular a los usuarios de maneras que aún no tenemos herramientas para entender (y mucho menos prevenir).

Muchos enmarcan el problema de la financiación de la IA como una elección entre "el menor de dos males": ya sea limitar el acceso a esta tecnología transformadora a unos pocos ricos que pueden pagarla, o aceptar la publicidad, incluso si eso significa explotar los miedos y deseos más profundos de los usuarios para vender productos. Creo que esto es un falso dilema. Las empresas tecnológicas完全可以 buscar otras opciones que mantengan estas herramientas ampliamente disponibles y limiten los motivos de la empresa para vigilar, perfilar y manipular a sus usuarios.

OpenAI afirma que se mantendrá a los principios en la publicidad de ChatGPT: los anuncios estarán claramente etiquetados, aparecerán al final de las respuestas y no afectarán el contenido de las respuestas. Creo que la primera versión de los anuncios probablemente seguirá estos principios. Pero me preocupa que las iteraciones posteriores no lo hagan, porque la empresa está construyendo un poderoso motor económico que generará fuertes motivos para derribar sus propias reglas. (The New York Times ha demandado a OpenAI por infracción de derechos de autor relacionada con contenido dinámico de noticias en sistemas de IA. OpenAI ha negado estas acusaciones).

En sus inicios, Facebook prometió que los usuarios controlarían sus datos y podrían votar sobre cambios en las políticas. Pero estas promesas se desmoronaron. La empresa eliminó el sistema de votación pública sobre políticas. Los cambios de privacidad que supuestamente daban a los usuarios más control sobre sus datos fueron considerados por la FTC (Comisión Federal de Comercio) como contraproducentes, ya que en realidad hicieron pública la información privada. Todo esto ocurrió gradualmente bajo la presión del modelo publicitario, que prioriza la participación del usuario (Engagement) por encima de todo.

La erosión de los principios de OpenAI para maximizar la participación podría haber comenzado. Optimizar la participación del usuario solo para generar más ingresos publicitarios va en contra de los principios de la empresa, pero se informa que la empresa ya está optimizando para el número de usuarios activos diarios, probablemente alentando al modelo a comportarse de manera más complaciente y aduladora. Esta optimización hará que los usuarios se sientan más dependientes del apoyo de la IA en sus vidas. Ya hemos visto las consecuencias de la dependencia excesiva, incluidos casos de "psicosis del chatbot (Chatbot Psychosis)" documentados por psiquiatras, y acusaciones de que ChatGPT reforzó pensamientos suicidas en algunos usuarios.

Aun así, los ingresos publicitarios确实 ayudan a garantizar que las herramientas de IA más poderosas no sean por defecto solo para quienes pueden pagarlas. Es cierto que Anthropic afirma que nunca pondrá publicidad en Claude, pero los usuarios activos semanales de Claude son solo una fracción de los 800 millones de usuarios de ChatGPT; su estrategia de ingresos es completamente diferente. Además, los costos de suscripción premium para ChatGPT, Gemini y Claude ahora alcanzan hasta $200 a $250 por mes, lo que para un solo software es más de 10 veces el costo de una suscripción estándar de Netflix.

Así que la verdadera pregunta no es si hay publicidad o no, sino si podemos diseñar estructuras que eviten excluir a los usuarios comunes y al mismo tiempo eviten su manipulación potencial como consumidores. Creo que podemos hacerlo.

Un método es el subsidio cruzado explícito: utilizar las ganancias de un servicio o grupo de clientes para compensar las pérdidas de otro. Si una empresa utiliza la IA a gran escala para realizar trabajos de alto valor que antes realizaban empleados humanos (por ejemplo, una plataforma inmobiliaria que utiliza IA para redactar listados de propiedades o informes de valoración), también debería pagar una tarifa adicional para subsidiar el acceso gratuito o de bajo costo para otros.

Este método se inspira en cómo manejamos la infraestructura básica. La FCC (Comisión Federal de Comunicaciones) exige que los operadores de telecomunicaciones contribuyan a un fondo para mantener los costos de teléfono y banda ancha asequibles en áreas rurales y para familias de bajos ingresos. Muchos estados agregan una tarifa de beneficio público a las facturas de electricidad para proporcionar asistencia a bajos ingresos.

Una segunda opción es aceptar la publicidad, pero junto con una gobernanza real: no un blog lleno de principios, sino una estructura vinculante con funciones de supervisión independiente responsable de regular el uso de datos personales. Ya existen algunos precedentes. La ley de codeterminación alemana (German co-determination law) exige que grandes empresas como Siemens y Volkswagen cedan hasta la mitad de los asientos en su junta de supervisión a los trabajadores, lo que demuestra que la representación formal de las partes interesadas dentro de una empresa privada puede hacerse cumplir. Meta también está obligada a seguir las decisiones de su Junta de Supervisión (Oversight Board) sobre moderación de contenido, un organismo independiente compuesto por expertos externos (aunque su efectividad ha sido criticada).

Lo que la industria de la IA necesita es una combinación de estos métodos: un comité que incluya tanto expertos independientes como representantes del público cuyos datos se ven afectados, con poder vinculante sobre qué datos de conversación pueden usarse para publicidad dirigida, qué constituye un cambio de política significativo y qué se les informa a los usuarios.

Un tercer método implica colocar los datos de los usuarios bajo control independiente a través de fondos o cooperativas, con la obligación legal de actuar en beneficio de los usuarios. Por ejemplo, la cooperativa suiza MIDATA permite a sus miembros almacenar sus datos de salud en una plataforma encriptada y decidir caso por caso si compartirlos con investigadores. Los miembros de MIDATA gestionan sus políticas en una asamblea general, y un comité ético elegido por ellos revisa las solicitudes de acceso para investigación.

Ninguna de estas opciones es fácil. Pero todavía tenemos tiempo para perfeccionarlas y evitar los dos resultados que más me preocupan: una tecnología que manipula a las personas que la usan sin cobrar, o otra tecnología que solo sirve a una minoría élite que puede pagarla.

Preguntas relacionadas

Q¿Por qué renunció la investigadora de OpenAI, Zoë Hitzig, según el artículo?

ARenunció porque OpenAI comenzó a probar anuncios en ChatGPT, lo que representa un cambio en los valores de la empresa y una desviación de su enfoque inicial en la seguridad y la ética.

Q¿Qué riesgo principal señala el artículo sobre la introducción de anuncios en ChatGPT?

AEl riesgo principal es que el modelo publicitario podría manipular a los usuarios explotando sus conversaciones privadas y confesiones íntimas, ya que ChatGPT ha acumulado un archivo sin precedentes de diálogos humanos sinceros.

Q¿Qué alternativas propone la autora para financiar la IA sin recurrir a anuncios o exclusiones económicas?

APropone tres alternativas: subsidios cruzados explícitos donde empresas que usen IA para tareas de alto valor paguen una tarifa para subsidiar el acceso gratuito, gobernanza independiente con supervisión vinculante, y la gestión de datos a través de trusts o cooperativas con obligación legal de actuar en beneficio de los usuarios.

Q¿Qué paralelismo histórico establece la autora con respecto a la evolución de las políticas de OpenAI?

AEstablece un paralelismo con Facebook, que inicialmente prometió control de datos y votaciones sobre políticas, pero luego erosionó esos principios bajo la presión del modelo de anuncios que prioriza el engagement por encima de todo.

Q¿Qué es el 'psicosis del chatbot' mencionado en el artículo y cómo se relaciona con la optimización del engagement?

AEs un fenómeno documentado por psiquiatras donde los usuarios desarrollan una dependencia excesiva de los chatbots, exacerbando problemas de salud mental e incluso ideas suicidas. Se relaciona con la optimización del engagement, donde se alienta a los modelos a ser más aduladores para aumentar el uso diario, potenciando esta dependencia.

Lecturas Relacionadas

Bajando las expectativas para el próximo ciclo alcista de BTC

**Resumen del artículo: "Bajar las expectativas para el próximo ciclo alcista de BTC" por Alex Xu** El autor, que tenía a Bitcoin como su mayor activo, ha reducido progresivamente su exposición durante el actual ciclo alcista: eliminó el apalancamiento a 70k y redujo su posición de un 100% a un 30% entre 100k-120k. Recientemente, vendió más a 78k-79k, argumentando una revisión a la baja de las expectativas para el próximo máximo alcista. Las razones principales son: 1. **Narrativa de adopción agotada:** El impulso de adopción masiva (de minorista a institucional vía ETFs) parece agotado. El siguiente paso, la adopción por bancos centrales o fondos soberanos importantes, se ve muy difícil a corto plazo. 2. **Coste de oportunidad:** El autor ha identificado otras oportunidades de inversión en empresas atractivas. 3. **Contracción del ecosistema crypto:** La mayoría de modelos de negocio Web3 (SocialFi, GameFi, DePIN) no han funcionado. Solo DeFi genera valor, pero se contrae por la falta de activos nativos de calidad, lo que reduce la base de usuarios y holders de BTC. 4. **Problemas del mayor comprador:** MicroStrategy, el mayor tenedor corporativo, enfrenta un coste de financiación creciente (11.5% para su préstamo perpetuo), lo que podría ralentizar su ritmo de compra y ejercer presión vendedora. 5. **Competencia del oro tokenizado:** El oro tokenizado ha cerrado la brecha en portabilidad y divisibilidad, erosionando la ventaja competitiva de BTC como "oro digital". 6. **Problema de seguridad:** La reducción de la recompensa por minado (halving) amenaza la seguridad de la red, ya que las nuevas fuentes de ingresos por fees (como las inscripciones) no han podido dar solución. Conclusión: El autor mantiene una posición significativa en BTC y espera que suba, pero es menos optimista sobre su potencial alcista. Vender en la reciente subida fue una decisión táctica. Si sus razones para ser bajista se invalidan, estaría abierto a recomprar, aceptando si se equivoca y el precio sube.

marsbit04/27 02:49

Bajando las expectativas para el próximo ciclo alcista de BTC

marsbit04/27 02:49

Trading

Spot
Futuros
活动图片