Recientemente, empleados de Meta repartieron folletos en varias oficinas de Estados Unidos el martes, protestando por la instalación de un software de rastreo de ratón en sus computadoras por parte de la empresa. Fotos de los folletos vistas por Reuters muestran esta situación. Estos folletos aparecieron en salas de reuniones, encima de máquinas expendedoras y en los portarrollos de papel higiénico de las oficinas de esta empresa matriz de Facebook, instando a los empleados a firmar una petición en línea en contra de esta medida.
Según las fotos vistas por Reuters, los folletos decían: "¿No quieres trabajar en una 'fábrica de extracción de datos de empleados'?"
Esta distribución de folletos ocurrió aproximadamente una semana antes de que Meta planeara despedir al 10% de su plantilla (alrededor de 8000 personas de los 78,865 empleados), con planes de realizar más recortes en la segunda mitad de 2026. Según datos de Trueup, la industria tecnológica ya ha eliminado más de 95,000 puestos en 247 eventos de despidos en 2026, con una reducción promedio de 882 puestos diarios. En este contexto, Meta instaló en las computadoras de los empleados un software capaz de registrar movimientos del ratón, clics y rutas de operación.
Esta es una de las señales más evidentes hasta la fecha de que, dentro de este gigante de Silicon Valley, está tomando forma un movimiento laboral: algunos empleados están empezando a convertir su ira por los planes de la empresa de reestructurar la fuerza laboral en torno a la IA en esfuerzos para organizar acciones laborales. Y la presión que impulsa este movimiento no es exclusiva de Meta.
Esta protesta es organizada y legal
Esta protesta no es un impulso momentáneo, sino una acción con cierto grado de organización. Según se sabe, los folletos que distribuyeron y la petición en línea relacionada citaban la Ley Nacional de Relaciones Laborales (National Labor Relations Act) de EE. UU., recordando a los firmantes que "están legalmente protegidos" cuando los empleados eligen mejorar sus condiciones laborales a través de acciones organizadas.
Vale la pena destacar que la cita de la Ley Nacional de Relaciones Laborales en los folletos de protesta no es un adorno retórico, sino una clara señal legal que los gerentes de recursos humanos deben tomar en serio. La Junta Nacional de Relaciones Laborales (NLRB) de EE. UU. ha dejado claro que usar la IA para interferir con los derechos de organización de los empleados es ilegal, especialmente cuando implica recopilación de datos o monitoreo de empleados. Esta afirmación coloca al "software de rastreo de ratón de tipo recopilación de datos para entrenar modelos de IA" en un área legalmente sensible, particularmente cuando la empresa está realizando simultáneamente despidos del 10%.
Según informes de medios extranjeros, el NLRB ya había dictaminado previamente que los acuerdos de confidencialidad de Meta eran ilegales, considerando que las cláusulas que prohibían a los empleados despedidos discutir las condiciones laborales violaban sus derechos de organización. El actual comportamiento de protesta de los empleados al divulgar públicamente información sobre el monitoreo de la empresa es precisamente el tipo de actividad que la NLRA pretende proteger.
Mientras los folletos guiaban a los empleados a participar en la petición, en el Reino Unido, una parte de los empleados de Meta también había iniciado acciones formales de sindicalización en colaboración con United Tech and Allied Workers (UTAW, afiliada a Communication Workers Union). Estos empleados también crearon un sitio web para reclutar miembros a través de una URL específica, que rinde homenaje al libro superventas de la ex directora de operaciones Sheryl Sandberg, "Lean In", que anima a las mujeres a luchar por la igualdad en el lugar de trabajo.
Un representante de UTAW confirmó esta acción. Eleanor Payne, organizadora de UTAW, declaró: "Los empleados de Meta están pagando el precio por las apuestas imprudentes y costosas de la gerencia. Mientras los ejecutivos persiguen estrategias especulativas de IA, los empleados se enfrentan a despidos devastadores, un monitoreo severo y la cruda realidad de verse obligados a entrenar sistemas ineficientes que eventualmente podrían reemplazarlos."
En comparación con el tamaño total de la plantilla de Meta, esta acción sigue siendo pequeña, pero toca un problema de "cohesión interna" que la empresa rara vez ha encontrado antes. La protesta de empleados más significativa anterior de la empresa fue la huelga colectiva de 2018 en torno a la política de acoso sexual, que terminó con un ajuste de la política, no con la represión de los empleados.
Meta se defiende: los modelos necesitan casos reales
En una conferencia telefónica de resultados en enero de este año, Mark Zuckerberg, director ejecutivo de Meta, declaró que 2026 sería "el año en que la IA comience a cambiar fundamentalmente la forma en que trabajamos". El mes pasado, Meta notificó a sus empleados el lanzamiento de la "Iniciativa de Capacidad de Modelos" (Model Capability Initiative, MCI por sus siglas en inglés), que captura información de clics del ratón, entradas del teclado y el contexto del contenido de la pantalla de los empleados, para luego utilizar los datos recopilados en el entrenamiento de agentes de IA.
Según un memorando interno visto por Reuters, el "Model Capability Initiative" (MCI) se ejecuta en los dispositivos proporcionados por la empresa. Meta lo describe como "voluntario en espíritu", pero para los empleados que usan las aplicaciones designadas, es de hecho "obligatorio en la práctica". En jurisdicciones con protecciones más estrictas de la privacidad de los empleados, aún no está claro si esta práctica resistirá el escrutinio; en contraste, las normas actuales de la UE sobre monitoreo en el lugar de trabajo establecen umbrales más altos que las leyes federales estadounidenses en términos de "proporcionalidad" y "consentimiento del empleado".
Desde un punto de vista puramente técnico, el conjunto de datos que pretende generar el MCI tiene valor para ciertos paradigmas de entrenamiento de IA. Los modelos de aprendizaje automático suelen beneficiarse de datos de interacción reales entre humanos y computadoras para lograr un rendimiento matizado. La idea es crear inteligencia artificial capaz de aprender del comportamiento humano observado, similar a cómo un empleado junior aprende observando a sus predecesores. Sin embargo, la raíz de los problemas éticos y prácticos está en el mecanismo de recopilación de datos. El punto clave es que Meta aún no ha hecho públicos la API pública del MCI, las claves de configuración o el número de versión. Esta falta de transparencia dificulta la auditoría independiente de las funciones específicas y limitaciones del software, exacerbando las sospechas de los empleados.
Ahora, dentro de la empresa, algunas interpretan la frase de Zuckerberg como una indicación de qué puestos están siendo "incorporados al conjunto de datos". "Esto me hace sentir muy incómodo", escribió un gerente de ingeniería en un tablero de mensajes interno. Otros temen estar ayudando a entrenar el sistema que los reemplazará en el futuro. "¿Cómo podemos optar por no participar?", preguntó un empleado. Según informes de medios extranjeros, Andrew Bosworth, director de tecnología de Meta, habría confirmado que, de hecho, no pueden excluirse.
Durante meses, los empleados de Meta han expresado su descontento en plataformas internas y foros en línea, en relación con los planes de la empresa de realizar despidos masivos este año (planes que se confirmaron a los empleados más de un mes después de que se informaran por primera vez), y con la introducción del software de rastreo de ratón. Este programa de seguimiento registra movimientos del ratón, clics, pulsaciones de teclas y capturas de pantalla en una lista designada de aplicaciones de trabajo. Muchos empleados consideran que esto equivale a ayudar a diseñar robots que los reemplazarán.
Al ser consultado al respecto, Andy Stone, portavoz de Meta, ofreció una explicación comercial relativamente directa: "Si vamos a construir agentes de IA que ayuden a las personas a usar computadoras para realizar tareas cotidianas, nuestros modelos necesitan casos de uso reales, como movimientos del ratón, clics en botones y navegación por menús desplegables". Meta también declaró en un comunicado que estos datos se utilizan para enseñar a los agentes de IA cómo operar software, y que solo se ejecuta en aplicaciones y sitios web designados, no cubriendo toda la actividad de la computadora. Además, han implementado "medidas de seguridad" para proteger la información confidencial de la empresa.
En cuanto a cuántos empleados más perderán su trabajo, Meta todavía está evaluándolo. Susan Li, directora financiera de Meta, dijo a los inversores en abril: "Realmente aún no estamos seguros de cuál es el tamaño óptimo futuro de la empresa. Creo que actualmente hay muchos cambios, especialmente en el contexto del rápido desarrollo de las capacidades de IA".
Enlaces de referencia:
https://www.reuters.com/sustainability/society-equity/meta-us-employees-organize-protest-against-mouse-tracking-tech-2026-05-12/
https://www.engadget.com/2172212/meta-employees-are-protesting-the-companys-mouse-tracking-program/
Este artículo proviene de la cuenta pública de WeChat "AI前线", organizado por: Huawei.





