Por favor, habilita JavaScript para ver los comentarios de Disqus.
Meta llamaba "héroes no reconocidos de internet" a sus moderadores de contenidos en Barcelona: el Supremo acaba de reconocer que verlos toda la jornada puede causar enfermedades mentales

Meta llamaba "héroes no reconocidos de internet" a sus moderadores de contenidos en Barcelona: el Supremo acaba de reconocer que verlos toda la jornada puede causar enfermedades mentales

Esta resolución supone un importante precedente para este tipo de causas y reclamaciones.

Mark Zuckerberg llegando al juicio en Los Ángeles
Mark Zuckerberg llegando al juicio en Los ÁngelesAnadolu via Getty Images

Filtrar el lado más oscuro de internet tiene consecuencias. El Tribunal Supremo ha establecido en una sentencia firme que la exposición continuada a contenidos extremadamente violentos —como asesinatos, abusos o torturas— puede derivar en enfermedades mentales cuando forma parte del trabajo diario de moderación en redes sociales. Además, el alto tribunal subraya que estas patologías no solo están ligadas a la naturaleza del empleo, sino también a la falta de medidas de protección adecuadas por parte de las empresas.

El fallo responde al caso de un joven trabajador que comenzó a ejercer como moderador de contenidos en Barcelona en 2018, contratado por una empresa subcontratada por Meta para revisar publicaciones en plataformas como Facebook, Instagram o Messenger. El centro, ubicado en la Torre Glòries, fue uno de los principales hubs europeos dedicados a esta tarea.

Un trabajo invisible con alto coste psicológico

La sentencia no entra a valorar indemnizaciones, pero sí fija un punto clave: existe una relación directa entre el deterioro de la salud mental del trabajador y sus condiciones laborales. Esto puede tener importantes consecuencias legales en el futuro, ya que abre la puerta a que otros casos similares sean considerados accidentes laborales y no enfermedades comunes.

El matiz es relevante. Si se considera que el origen de la baja es laboral, la empresa —o su aseguradora— debe asumir los costes, e incluso podría enfrentarse a recargos adicionales si se demuestra negligencia en la protección del empleado.

En este caso, el trabajador fue asignado rápidamente a la categoría de contenidos más sensibles, donde debía revisar material especialmente explícito. Según recoge la resolución, su labor implicaba visualizar repetidamente imágenes y vídeos para determinar si incumplían las normas de la plataforma.

Ese contacto constante con escenas extremas acabó pasando factura. Los informes médicos documentan la aparición de ataques de pánico, aislamiento, insomnio, miedo a la muerte y otros síntomas graves. Menos de un año después de empezar, tuvo que coger la baja y nunca regresó a su puesto.

Productividad frente a bienestar

Uno de los elementos que analiza el Supremo es si la empresa tomó medidas suficientes para proteger a sus empleados. La compañía defendía que disponía de recursos como salas de descanso y apoyo psicológico. Sin embargo, la realidad descrita en la sentencia apunta a que estas medidas eran insuficientes o poco efectivas.

Durante los primeros meses de actividad del centro, el ritmo de trabajo estaba marcado por criterios de productividad. Los empleados disponían de pausas muy limitadas y la asistencia psicológica, según se recoge, estaba orientada a que los trabajadores retomaran cuanto antes su actividad frente a la pantalla.

Este contexto refuerza la conclusión del tribunal: la combinación de exposición continuada a contenidos violentos y una presión laboral elevada fue determinante en el desarrollo del trastorno mental.

Paradójicamente, la propia empresa destacaba la importancia de esta labor. En su web corporativa, definía a los moderadores como "héroes no reconocidos de internet", subrayando su papel esencial para evitar que ese tipo de contenidos llegara al público general.

Un precedente con impacto

El caso no es aislado. De hecho, decenas de exempleados del mismo centro —posteriormente gestionado por otra compañía internacional— mantienen litigios abiertos en distintos ámbitos judiciales. La resolución del Supremo podría influir decisivamente en estos procesos.

El reconocimiento de la relación causal entre el trabajo y la enfermedad supone un respaldo a las reclamaciones de quienes han denunciado condiciones laborales perjudiciales. También plantea un desafío para las grandes tecnológicas, que dependen de estos equipos para mantener el control sobre sus plataformas.

Durante los años en los que el centro estuvo en funcionamiento, ya se detectó un elevado número de casos de afectación psicológica entre los trabajadores. Algunas investigaciones apuntaban a que alrededor de un 20% de la plantilla había desarrollado problemas de salud mental relacionados con su actividad.

El testimonio del joven afectado, conocido públicamente tras una entrevista en 2023, puso rostro a esta realidad. Sus descripciones sobre el tipo de contenido que debía revisar generaron un fuerte impacto y contribuyeron a visibilizar una tarea que, hasta entonces, había permanecido en gran medida oculta.

La empresa intentó argumentar que el trabajador tenía antecedentes psicológicos, pero los tribunales descartaron que ese factor fuera relevante. Consideraron que no existían pruebas suficientes para atribuir su estado a causas previas.

En definitiva, la sentencia marca un antes y un después: reconoce oficialmente que moderar contenidos no es solo un trabajo técnico, sino una actividad con riesgos reales para la salud mental. Y deja claro que las empresas deberán asumir su responsabilidad si no protegen adecuadamente a quienes, hasta ahora, operaban en la sombra.

!
Los comentarios de esta noticia están cerrados
Rellena tu nombre y apellidos para poder comentar
completa tus datos
!
Comenta con respeto, tu opinión se publicará con nombres y apellidos