Un hombre de 40 años, que ha querido mantenerse en el anonimato, ha recibido la incapacidad absoluta por las secuelas que le ha provocado trabajar de moderador de Meta. El Instituto Nacional de Seguridad (INSS) lo ha determinado en una resolución sobre un trabajador que estuvo dos años y cuatro meses en la empresa CCC Barcelona Digital Services, subcontratada por Meta para moderar contenido en Facebook e Instagram.
Según informa La Vanguardia, el hombre entró como filtrador de vídeo e imágenes al inicio del año 2019 y progresivamente, el material que tenía que visualizar para determinar si sería eliminado era|estaba cada vez más violento y duro. El trabajador empezó a desarrollar síntomas compatibles con el estrés postraumático: flashbacks visuales y acústicos, ánimo depresivo, cefaleas, mareo, insomnio persistente o pesadillas recurrentes, entre otros.
El hombre acabó pidiéndose la baja laboral, la cual fue alargando. Llegado cierto punto, su abogado consideró que había que solicitar la incapacidad absoluta derivada de accidente laboral, valorando que el estado en que se encontraba su cliente entraba en esta categoría. Así lo ha creído también el INSS, que se ha apoyado en el dictamen favorable de un tribunal médico que también considera pertinente conceder la incapacidad. De esta manera, este hombre de solo 40 años ha sido considerado incapaz para trabajar en ningún empleo y recibirá una pensión indefinidamente. Todo acaba siendo una prueba más del brutal impacto que tiene sobre la salud, la tarea de moderador para Meta.
Culpables de daños psiquiátricos
El impacto psicológico y psiquiátrico del trabajo de moderador, no solo ha llegado a la denuncia pública, también ha caído sobre los tribunales. El pasado enero, un juez concluyó que las empresas de moderación de contenido son responsables de los trastornos mentales que desarrollan sus trabajadores en el lugar de trabajo. El caso nace de un trabajador de la misma empresa subcontratada por Meta, CCC Barcelona Digital Services.
Moderando contenido extremo
La función principal de estos empleados es la de revisar el contenido más brutal que se publica en la red: vídeos de asesinatos, de desmembraciones, de violaciones o incluso de suicidios en directo. Algunos de los testimonios de los trabajadores han explicado que durante una jornada laboral pueden llegar a revisar unos 450 vídeos o imágenes de contenido extremo. Además, estos revisores tienen que tener una "tasa de acierto" alta, que asciende hasta el 98%, es decir, que sus decisiones tienen que coincidir tanto con las de otros moderadores como con la del auditor superior. Si la tasa de acierto baja, pueden, incluso, ser despedidos. Los informes médicos de varios trabajadores que han pedido la baja recogen cuadros de estrés postraumático, ansiedad, insomnio, depresión e incluso intentos de suicidio.