Testimonio de un trabajador revela las duras condiciones a las que se enfrentan los moderadores de contenido de meta, expuestos a violencia y perturbaciones constantes.
El Político
El trabajador solicitó permanecer en el anonimato debido a los estrictos contratos de confidencialidad a los que está sujeto. Él comentó que después de tener que ver repetidamente varios vídeos sobre suicidios, asesinatos, desmembramientos y violaciones, tuvo un ataque de pánico y pidió ayuda.
Este empleado, que trabajó como moderador de contenidos en una empresa que brinda servicios a Meta propietaria de Facebook, Instagram y WhatsApp, le dijeron que fuera al piso divertido (fun Floor) una gran sala de juegos ubicada en uno de los pisos de la torre Glòries de Barcelona, donde se encuentran las oficinas de moderación de contenidos del gigante tecnológico.
Cuando comenzó en la empresa, no estaba al tanto de la violencia de los videos que tendría que moderar. Según el abogado, el trabajo está bien remunerado (con un salario bruto de unos 2.400 euros al mes), no requiere experiencia ni formación específica, lo que atrae a jóvenes extranjeros.
Sin embargo, el trabajador afectado menciona que estas ilusiones pronto se desvanecen una vez se enfrentan a la realidad de su labor.
Los moderadores de contenido se encargan de que el muro y las publicaciones en Facebook e Instagram se mantengan limpios y pacíficos para los usuarios. Su tarea implica filtrar noticias falsas y fotos que no cumplan con las políticas de Meta. No obstante, también se enfrentan a contenido violento, teniendo que evaluarlo, censurarlo e incluso reportarlo a las autoridades.
Este empleado comenzó su trayectoria en 2018 y se mantuvo en la empresa hasta 2020, año en el que tomó una baja médica debido a sus problemas de salud mental. Tanto la empresa como la compañía de seguros categorizaron su condición como una "enfermedad común", lo que llevó a que se presentara una demanda.
El pasado 12 de enero el Juzgado de lo Social 28 de Barcelona desestimó la demanda de la empresa y resolvió que la baja debe calificarse como accidente de trabajo. Es la primera sentencia que reconoce que la enfermedad mental que sufre un moderador de contenidos está provocada por su trabajo. "El estrés laboral es el único, exclusivo e indudable desencadenante" de los trastornos, señala la sentencia, que es recurrible.
Por su parte el trabajador afectado señaló que “la gente no es en absoluto consciente de lo que está pasando. Antes de trabajar allí te aseguro que no sabía de qué éramos capaces los humanos”.
Entrenamiento de la inteligencia artificial
Algunos moderadores consideran que están siendo utilizados para entrenar inteligencia artificial, ya que algunos de ellos eran asignados a revisar contenido de alta prioridad, principalmente aquellos que mostraban actos violentos, incluyendo suicidios y actos terroristas.
Francesc Feliu, socio del despacho de abogados Espacio Jurídico Feliu Fins, especializado en materia de salud, explicó que los moderadores de contenidos más eficientes, evaluados mensualmente, tienen acceso a una sección de alta prioridad. Por un canal seguían recibiendo videos de diversos temas, incluyendo publicaciones normales y violentas.
El empleado le comentó "ver esto constantemente te hace más sensible a todo. Después de un tiempo, ni siquiera podía ver una carta de suicidio".
A su vez indicó que debían seguir estrictamente la política de Meta y, en muchas ocasiones, ver los videos hasta el final varias veces, siendo revisados por diferentes moderadores. Por ejemplo, si había un video en vivo de alguien hablando sobre su deseo de suicidarse, debían seguir mirándolo y no podían eliminarlo o informar a la policía a menos que notaran signos evidentes de suicidio en la escena, como una pistola o una ventana abierta. A menudo, sucedía que la persona se disparaba repentinamente sin que ellos pudieran hacer nada al respecto, lo cual Feliu lamenta.
Asimismo dijo que para eliminar un video, debían detallar cuidadosamente la decisión, utilizando una escala según la gravedad de los eventos mostrados. Si el video comenzaba con algún tipo de violencia, debían esperar para ver si ocurrieran cosas más graves, como asesinato, desmembramiento o abuso sexual, para calificarlo según lo más grave. Si la violencia más grave ocurría al principio, el sistema permitiría eliminar el video.
Este procedimiento llevó a sospechar a los moderadores. Por lo que Feliu afirmó "si en los primeros 10 segundos ya se ve que algo es violento, ¿por qué hay que esperar? Llegamos a la conclusión de que lo que están haciendo es entrenar a la inteligencia artificial (IA), somos carne de cañón".
En la empresa, trabajan alrededor de 2,000 personas, aunque el año pasado se redujo la plantilla de la subcontrata debido a recortes en Meta.
La compañía lleva diversas acciones para minimizar el impacto en la salud mental de sus empleados. Sin embargo, incluso con estas medidas el trabajador relata que las condiciones laborales que enfrentaba no eran idóneas.