Moderadores de redes sociales.

El duro trabajo de los moderadores en las plataformas de redes sociales

La inmensa mayoría de usuarios de redes sociales, no llegan a ver ciertos contenidos altamente perturbadores, como pueden ser torturas, abusos a menores o asesinatos. No obstante, no es extraño que alguno escape a los filtros y la moderación, llegándose a hacer viral. De esta labor, se encargan los llamados moderadores de contenidos o limpiadores digitales, que se ocupan de la criba, así como de eliminar fotos y videos de las redes sociales. 

La mayor parte del personal encargado de esta labor, son mujeres. Suelen ser contratados por subcontratistas, predominantemente en países del Sur Global. Se trata de un trabajo extremadamente estresante desde el punto de vista psicológico, que viene recibiendo críticas desde hace algunos años.

Tanto Meta, propietaria de Facebook e Instagram, como sus subcontratistas en África se enfrentan a nuevas demandas. Según el diario británico The Guardian, se han iniciado acciones judiciales contra Majorel, empresa subcontratada por Meta.

Muchas veces, igual que eluden los filtros imágenes o videos con contenido inapropiado, son sometidas a censura imágenes publicadas por profesionales médicos, que pretenden publicar el antes y el después de una intervención, como ya se ha demostrado en publicaciones de perfiles de odontólogos, en cuyas imágenes no aparecía sangre ni detalles impactantes, simplemente la reconstrucción de una pieza dental.

Ausencia de apoyo psicológico

Algunas personas que moderaban contenidos para Majorel, en Accra, capital de Ghana, declararon al diario británico The Guardian sufrir depresión, ansiedad, insomnio y adicción a ciertas sustancias, como consecuencia directa del trabajo que realizan. Además, denuncian que el apoyo psicológico que se les ofrece, es inadecuado o insuficiente.

Por su parte, Teleperformance, propietaria de Majorel, niega estas acusaciones. Según el diario británico The Guardian, esta empresa emplea a sus propios profesionales de salud mental para tratar a sus empleados y están registrados ante la autoridad local de supervisión. Teleperfomance no respondió a una consulta formulada por DW, medio de comunicación alemán. La ONG británica Foxglove, por su parte, está preparando una demanda en su contra.

Pero, no es la primera de este tipo: hace unos dos años, antiguos moderadores de Facebook en Nairobi, capital de Kenia, presentaron una demanda contra Meta y las empresas proveedoras Sama (Samasource) y Majorel. Participaban activamente en sus sindicatos, debido a sus condiciones de trabajo y, en su opinión, fueron despedidos de forma improcedente. Posteriormente, según la agencia de noticias Reuters, no volvieron a ser contratados por Majorel.

Moderador de contenidos de redes sociales revisando contenido publicado inapropiado.
Los moderadores de contenido, durante su jornada de trabajo, deben visionar contenidos inapropiados, que posteriormente deben censurar, por su dureza e impacto que puedan tener en otras personas usuarias.

Anteriormente, ya se habían denunciado las malas condiciones de trabajo a las que están sometidos los moderadores de contenido de Facebook, contratados por la empresa Cognizant. Una mujer, contó acerca de su traumática reacción al tenerse que enfrentar a un video, que mostraba a un hombre mientras estaba siendo apuñalado.

Esto, es sólo una parte de lo que deben ver cada día quienes aceptan este puesto como moderadores de la gran cantidad de contenido que circula cada día por las redes sociales.

Demasiadas horas al día ante el horror

Para la abogada Mercy Mutemi, quien representó a los demandantes en el juicio de Kenia, estos procesos suponen una «llamada de atención» para que las empresas tecnológicas presten mayor atención a las violaciones de derechos humanos, según ha declarado a la agencia de noticias Reuters.

Firmar cláusulas de confidencialidad es algo habitual, pero algunos antiguos empleados han roto su silencio, sobre cómo se sentían en su trabajo. Según publicó la plataforma netzpolitik.org, los moderadores de una subcontratista tenían que ver contenidos perturbadores entre ocho y diez horas al día, incluidas escenas de crueldad animal y ejecuciones.

Un antiguo empleado de otra empresa subcontratista declaró: «El sistema no nos permite saltar imágenes, por lo que tenemos que verlas durante al menos 15 segundos». En una entrevista con The Guardian, medio que realizó la investigación junto con la Oficina Británica de Periodismo de Investigación, confesaba que cada vez se sentía «menos humano».

Otra antigua empleada, que participa en la actualidad en la organización African Tech Workers Rising, relató a The Guardian que estaba sometida a una gran presión de tiempo: «No puedes parar cuando ves algo traumático. No puedes parar para proteger tu salud mental». Y según relata, ahora la situación se ha deteriorado aún más, ya que los empleados tienen que ver los videos, a una velocidad dos o tres veces superior a la normal y en varias pantallas al mismo tiempo.

Foxglove, también informaba en su sitio web que los empleados tienen que pedir permiso para levantarse de sus pantallas, algo que se les puede denegar, según el criterio de sus superiores. Por lo que la moderación, es especialmente difícil para las personas procedentes de regiones en conflicto, ya que temen reconocer a familiares o amigos en las truculentas imágenes.

Una agencia de comunicación contratada por Meta, ha asegurado que el gigante estadounidense, ha llegado a acuerdos contractuales con sus empresas asociadas, de manera que deban garantizar que los moderadores de contenidos no sólo reciban formación especializada, sino que también tengan acceso las 24 horas del día a apoyo profesional, atención médica o psicológica. Además, están obligadas a pagar salarios superiores a la media a sus empleados y se les respeta el derecho de asociación. Todo un detalle, por su parte.

De Kenia a Filipinas

No es casualidad, que muchos subcontratistas de las grandes redes sociales tengan su sede en países en vías de desarrollo. Los salarios suelen ser mucho más bajos que en los países occidentales, la protección laboral es menor y el desempleo juvenil es muy elevado. Además, los diferentes husos horarios permiten garantizar la moderación a todas horas.

Para los propios países, la externalización de procesos empresariales también es un negocio lucrativo. En la primavera de 2024, el presidente de Kenia, William Ruto, anunció que ampliaría la infraestructura para este tipo de deslocalizaciones. Al parecer, su intención es la de crear un millón de nuevos empleos de este tipo, en los próximos cinco años.

Pero, no todo ocurre en países subdesarrollados

Una moderadora de contenidos, en España, ha presentado una querella criminal contra la matriz de las redes de Meta, y su subcontrata en Barcelona, CCC Barcelona Digital Services S.L.U., por los daños mentales que la mujer sufre desde 2019, año en que empezó a filtrar contenido para evitar su llegada al público.

Junto a veintiocho diagnósticos muy similares, que se exponen en la querella, acusa a las compañías de un delito continuado contra los derechos de los trabajadores, de delitos por imprudencia grave y contra la integridad moral. Como respuesta, dicha empresa cerró el 22 de mayo un acuerdo con los trabajadores, para despedirlos y eliminar sus oficinas en Barcelona.

El abogado del colectivo, Francesc Feliu, de Espacio Jurídico Feliu Fins, recuerda en su escrito que una querella presentada por los mismos motivos por un trabajador de CCC, ya fue admitida a trámite en febrero de 2024 por el juzgado de instrucción 29 de Barcelona, por lo que propone la unión de este nuevo procedimiento al anterior “con el fin de evitar duplicidades y garantizar la eficiencia de la instrucción, siguiendo un criterio de economía procesal”. Ambos procedimientos se refieren “a los mismos tipos delictivos y presuntos autores”. Por ello, aquella fue la primera querella criminal contra Meta, admitida por la justicia en Europa.

El Juzgado de lo Social Nº 28 de Barcelona, reconoció en 2024 que las secuelas que presentaba el moderador de contenido demandante, eran derivadas de su trabajo y no enfermedad común, como pretendía la mercantil.

La prueba de que Meta, es la responsable final de los daños sufridos por los trabajadores es que, según se refleja en la demanda, “cuando Meta dejó de subcontratar el servicio de moderación con CCC se produjo un despido colectivo por causas objetivas de toda su plantilla de personas moderadoras de contenido, el 22 de mayo de 2025”. CCC, alegó que recolocaría estas funciones en otros países.

A las primeras incorporaciones de trabajadores de CCC, contratadas en 2020 por el grupo Telus International, no se les explicó en qué consistía exactamente su trabajo. Muchos, pensaban que se iban a encargar de eliminar “fake news”. En su día, en momentos de intensa tensión entre Catalunya y España, se llegó a celebrar que una multinacional como Facebook, eligiera Barcelona para este cometido. Pero, no se trataba de supervisar “fake news”. A los trabajadores, se les destinaba a un mercado u otro, en función de sus conocimientos de idiomas, se les adiestraba en las políticas dictadas por Meta, para determinar qué se podía publicar y qué no.

Antecedentes

Facebook, ya tuvo que hacer frente en el año 2020 a una demanda millonaria por daños sufridos por sus moderadores de contenido. De ellos, 11.000 fueron compensados con 52 millones de dólares, lo que supone una media de unos 4.700 dólares por persona. En Irlanda, al menos 35 moderadores, algunos de ellos procedentes de Barcelona, presentaron demandas por daños y perjuicios ante el Alto Tribunal del país, en la vía civil y no penal, como ocurrió ahora en Barcelona.

En los juzgados de lo social de Barcelona, se siguen procedimientos entre moderadores y CCC, en la actualidad. En enero de 2024, el juzgado de lo social nº 28 de Barcelona, dio la razón a uno de ellos y al Instituto Nacional de la Seguridad Social, dictaminando que las secuelas que sufría un empleado brasileño, incorporado en 2019 en CCC/Telus, son un accidente de trabajo y no una enfermedad común, como alegaba la compañía. Fue la primera sentencia judicial, que en España así lo establecía, creando precedente.


Descubre más desde STI 2020 ®

Suscríbete y recibe las últimas entradas en tu correo electrónico.