«Lo más inhumano que puedas imaginar»


“La cosa más inhumana que puedas imaginar.” Suicidas, terroristas que perpetran decapitaciones, agresiones sexuales o abusos a menores. Estos son algunos de los contenidos que algunos de los moderadores de Facebook revisan día tras día, en jornadas de ocho horas, desde la torre Glòries de Barcelona. Algunos de ellos “sufren efectos psicológicos muy severos”, explica el abogado a este periódico. Francesc Feliuque este viernes presentó una queja contra los responsables de la empresa en España, por parte de algunos de los empleados -no desvela cuántos- que visualizan que contenido atroz. También contra el grupo. Telussubcontratado por Meta para realizar ese trabajo.

Son más de 2.000 personas las que trabajan como moderadores de contenidos en la capital catalana y, del total de la plantilla, El 20 por ciento está de baja por motivos psicológicos., según informa ‘La Vanguardia’ y corroborado por el penalista, quien advierte de que algunos de sus clientes, tras verse expuestos a contenidos tan brutales, han intentado incluso quitarse la vida. La decisión de recurrir a la vía penal -ahora un tribunal deberá decidir si admite o no a trámite la denuncia- llega después de tres años de exploración de la jurisdicción laboral en los que, lamenta Feliu, la empresa ha ido retrasando el proceso. Entre otros, recurrir la procedencia de algunas bajas laborales por invalidez.

Después de que en 2022, la Inspección de Trabajo de la Generalitat sancionara a Telus por infracción grave, por no haber evaluado los riesgos psicosociales de un trabajador -sanción que la empresa ha recurrido-, y se haya formalizado la negativa del grupo a buscar una solución para los afectados. la denuncia por tres delitos: contra los derechos de los trabajadores, lesiones por negligencia grave y contra la integridad moral.

Muchos de ellos continúan realizando el trabajo que les está costando su salud mental. «No pueden dimitir por motivos económicos», aclara Feliu. ¿Alguien le advirtió sobre a qué se exponía cuando aceptó el puesto? «A los más antiguos no, los que entraron entre 2018 y 2020. A los más recientes, sí», afirma. En cualquier caso, fue una advertencia genérica. «Contenido violento moderadopero nadie les explicó que deben ver todo el contenido hasta el final, aunque en los cinco segundos ya ven que están matando a alguien.

El penalista cuestiona que algunas plataformas censuren el pecho de una mujer y no el vídeo de una decapitación

En ocasiones, ese mismo vídeo hay que verlo “repetitivamente” ya que se sube nuevamente a la misma plataforma. Lo hace un usuario diferente y toca revisarlo nuevamente. “La red social no es culpable de lo que comparten sus usuarios”, afirma el delincuente, que asume que moderar estos vídeos “es necesario”. «El problema es que no hay formación previa ni forma de limitar eso “contenido violento”. Algo que le resulta incomprensible porque sí ocurre en algunas redes que impiden, de entrada, «censurar el pecho de una mujer. ¿Pero no una decapitación?él pregunta.

La asistencia psicológica a los moderadores, según detalla, se limita a visitas “cronometradas” de 40 minutos, en las que el especialista básicamente escucha cómo desahogarse, para luego animarlos diciéndoles que la tarea que realizan es “muy importante para la sociedad”. “Luego volvamos al trabajo”. Por ello, tras solicitar la incapacidad de uno de los empleados, por su deterioro psíquico -proceso aún en curso-, algunos de los afectados acuden nuevamente a los tribunales.

Cabe recordar que en un proceso similar, tras la demanda de varios moderadores de contenidos en EE.UU., Facebook acordó en 2020 compensarlos con 52 millones de dólares por los daños psicológicos causados.

Leave a Comment

Your email address will not be published. Required fields are marked *