La empresa CCC Barcelona Digital Services —subcontratada por Meta para moderar los contenidos de Facebook e Instagram— tiene 2.030 trabajadores en Barcelona y al menos el 20%, cerca de unos 400, está de baja por traumas psicológicos derivados de los contenidos que tienen que revisar diariamente. El dato lo revela este viernes La Vanguardia, que ha entrevistado a varios trabajadores de la compañía. La función principal de estos empleados es la de revisar el contenido más brutal que se publica en la red: vídeos de asesinatos, de desmembraciones, de violaciones o incluso de suicidios en directo. Algunos de los testimonios que han hablado con el citado diario, han explicado que durante una jornada laboral pueden llegar a revisar unos 450 vídeos o imágenes de contenido extremo. Además, estos revisores deben tener una "tasa de acierto" alta, que asciende hasta el 98%, es decir, que sus decisiones tienen que coincidir tanto con las de otros moderadores como la del auditor superior. Si la tasa de acierto baja, pueden, incluso, ser despedidos.
Los 10 trabajadores entrevistados revelan que sus informes médicos recogen cuadros de estrés postraumático, ansiedad, insomnio, depresión e incluso intentos de suicidio. Algunos de ellos todavía trabajan en la empresa, aunque, de baja, y otros ya se han marchado. También hay algunos que se plantean denunciar.
Los testimonios de los trabajadores
Uno de los miembros de la compañía entrevistado relata que no puede olvidar una de las brutales escenas que tuvo que revisar. En el vídeo, un hombre, alcoholizado, asesinaba a su hijo delante de la cámara —un bebé de meses— clavándole un cuchillo en el pecho, lo abre y le arranca el corazón y lo muerde. Otro de ellos explica que vio una buena oportunidad laboral, ya que, no pedían ninguna formación, pagaban un buen sueldo y "suponía poner un pie en Facebook". Sin embargo, asegura que nadie le explicó la dureza de las imágenes que tendría que revisar. Solo dos meses después, explica, que lo ascendieron a "un grupo de alta prioridad", un equipo que se encargaba de revisar contenido más salvaje. "Asesinatos brutales, desmembraciones, torturas, violaciones, suicidios en directo, niños siendo abusados. Lo peor de los humanos", relata. Pidió cambiar de posición, se los denegaron, y fue, pues, cuando empezaron los ataques de pánico después de ver un suicidio en directo. 5 años después sigue con medicación y tratamiento psicológico. Otra chica explica que de pequeña sufrió bullying que la llevó a tener una depresión. La empresa nunca le preguntó su historial a la hora de contratarla, y la colocaron en la "cola de suicidios en directo", recayó en la depresión y tuvo 2 intentos de suicidio.
Además, La Vanguardia relata las condiciones que impone la empresa, en concreto, los trabajadores están sometidos a extremas cláusulas de confidencialidad. Tanto es así que ni sus parejas pueden saber que, por encima del grupo canadiense Telus Internationals, trabajan para Meta. Además, está prohibido entrar con el móvil en la sala de visionado, y si no se cumple, se sanciona con dos semanas sin sueldo. Cuando entran en la empresa —situada en la torre Glòries— pasan dos veces por un detector de metales y de huella dactilar.
Escasa atención psicológica en la empresa
Todos los moderadores entrevistados consideran que la atención psicológica que ofrece la empresa es insuficiente por la gravedad del contenido que tienen que revisar. Uno de ellos relata que "tenemos 40 minutos a la semana de lo que llaman 'wellness'", es decir, que pueden hablar con alguien, a pesar de que apunta que si manifiestas que estás mal, te instan a buscar otro trabajo. La empresa está acostumbrada al hecho de que la gente que no los soporta se coja la baja y después se vaya de la empresa. Sin reclamar", apunta. Además, también explican que hay tres turnos de trabajo: mañana, tarde o noche, que van cambiando cada 2 semanas. Un hecho que también contribuye a intensificar sus problemas mentales y que pueden provocar trastornos del sueño.
Los datos que revela la propia empresa Meta son brutales. Solo en el segundo trimestre del 2023 fueron retirados de Facebook 7,2 millones de contenidos por abuso sexual a niños, otros 6,4 millones por suicidio y autolesión y 17,5 millones por discurso de odio, mientras que de Instagram ser retiraron 6,2 millones por violencia.