Publicidad

Publicidad

Publicidad

Publicidad

push logo
Sabemos que las notificaciones pueden resultar horribles, pero prometemos no abusar. Entérate de todo el mundo cultural en HJCK.
No, gracias.
¡Claro que sí!

Publicidad

Moderadores de Facebook de Kenia dicen que su trabajo "no es para humanos"

Trevin Brownie no ha olvidado su primer día como moderador de contenidos para Facebook, en los locales de una empresa subcontratada situados en la capital de Kenia, Nairobi.

Moderadores Facebook.
Trevin Brownie, sudafricano de 30 años, en una fotografía en su residencia de Nairobi el 7 de junio de 2023. Un tribunal keniano ordenó la semana pasada la suspensión del despido masivo de decenas de moderadores de contenidos, como Trevin, por parte de una empresa subcontratada en Nairobi por Meta, matriz de Facebook, conocida como Sama, que alegó haber despedido ilegalmente a un total de 184 moderadores en marzo. Brownie y más de 180 de sus antiguos compañeros demandan ahora a Meta, la matriz de Facebook, por los daños sufridos en la primera gran demanda colectiva sobre moderación de contenidos desde 2018. Trabajó en Nairobi para Sama, una empresa californiana subcontratada por Meta para moderar el contenido de Facebook para el África subsahariana entre 2019 y 2023.
TONY KARUMBA/AFP

"Mi primer video era el de un hombre que se suicidaba. [...] Tenía un niño de 2 o 3 años jugando al lado . Después de que el hombre se ahorcara, al cabo de unos dos minutos, entendió que algo no iba bien", cuenta el sudafricano de 30 años, antes de describir la reacción del niño.

"Esto me puso enfermo", dice, apuntando que las imágenes le provocaron "náuseas, vómitos". "Pero continué haciendo mi trabajo", agrega.

Entre 2020 y 2023, cada día visionó centenares de videos violentos, con llamados al odio, para bloquearlos y evitar que llegaran a los ojos de los usuarios de Facebook.

Trabajaba en Nairobi para Sama, una empresa californiana a la que Meta -matriz de Facebook, Instagram y Whatsapp- contrató entre 2019 y 2023 para que se encargara de la moderación de los contenidos de Facebook en África subsahariana.

Publicidad

Por este centro de operaciones han pasado hasta 260 moderadores de varios países africanos contratados, sobre todo, por conocer numerosas lenguas locales. Trevin Brownie afirma que vio "cientos de decapitaciones", "órganos arrancados de cuerpos", "violaciones y pedopornografía al más alto nivel", "niños soldados preparándose para la guerra"...

"Los humanos hacen cosas a otros humanos que nunca habría imaginado", dice. "La gente no tiene idea de los videos morbosos [...] de los que se libran", agrega.

Batalla judicial

Trevin Brownie es demandante en uno de los tres casos abiertos contra Meta y Sama en Kenia. Ha recurrido su despido junto a otros 183 exempleados de Sama, que anunció que cesaba su actividad en la moderación de contenidos. Los demandantes reclaman una compensación por unos sueldos "insuficientes" teniendo en cuenta "el riesgo al que se exponían", y por los "daños causados a su salud mental".

La ofensiva judicial empezó cuando otro extrabajador, Daniel Motaung, presentó una demanda en mayo de 2022 ante un tribunal de Nairobi denunciando unas condiciones laborales "indignas", métodos de contratación engañosos, remuneraciones insuficientes y falta de apoyo psicológico.

Testimonios recabados a finales de abril entre los otros demandantes confirman los hechos denunciados por Motaung. Dos de ellos, Amin y Tigist (los nombres fueron modificados), contratados en 2019 en el primer grupo de moderadores de Sama, afirmaron que ellos respondieron a ofertas de trabajo en centros de atención telefónica.

No fue hasta firmar sus contratos, con cláusulas de confidencialidad, que descubrieron que en realidad iban a trabajar como moderadores de contenidos.

Publicidad

Amin y Tigist no dijeron nada, ni pensaron en irse. "No tenía ni idea de lo que es un moderador de contenidos, nunca había oído hablar de ello", cuenta Tigist, una etíope que consiguió el trabajo por saber hablar la lengua amhárica.

"La mayoría de nosotros no sabía la diferencia entre un centro de atención telefónica y un centro de moderación de contenidos", confirma Amin, que trabajaba en el "mercado" somalí.

"Durante la formación, le restaron importancia al contenido. Lo que nos enseñaron no era nada comparado con lo que acabaríamos viendo", añade. "Los problemas empezaron después", dice.

Trauma

En sus pantallas, ocho horas al día, iban pasando contenidos, a cada cual más impactante. "Uno no elige lo que ve, llega por azar: videos de suicidios, violencia, explotación sexual de niños, desnudez, incitación a la violencia...", cuenta Amin.

Publicidad

Tenían que dedicar una media de 55 a 65 segundos a cada video y analizar entre 378 y 458 publicaciones al día , bajo riesgo de ser llamados al orden o despedidos si iban demasiado despacio, explican.

Al ser contactada por la AFP, Sama afirmó que no estaba "en condiciones" de comentar los casos en curso. Meta aseguró, en un correo enviado a la AFP, que los moderadores "en principio no tienen que evaluar un número definido de publicaciones, no tienen cuotas y no están obligados a tomar decisiones apresuradas".

"Autorizamos y alentamos a las empresas con las que trabajamos a que le den a sus empleados el tiempo que necesiten para tomar una decisión" , añadió.

Ninguno de los tres moderadores de contenidos entrevistados por la AFP había imaginado las consecuencias que ese trabajo acabaría teniendo en sus vidas.

Publicidad

No consultaron a ningún psicólogo o psiquiatra, por falta de dinero, pero todos cuentan que tienen síntomas del síndrome de estrés postraumático y dificultades para relacionarse con la familia y la sociedad.

Trevin Brownie dice que tiene "miedo de los niños por culpa de los niños soldado", y también de los lugares atestados "a causa de todos los videos de atentados" que ha visto. "A mí me volvían loco las fiestas", cuenta. "No he ido a un club desde hace tres años. No puedo, tengo miedo", sostiene.

En el caso de Amin, los principales efectos se ven en su cuerpo, que pasó de 96 kilos a "69 o 70 kg". Todos aseguran que se han vuelto insensibles a la muerte o al terror. "Mi corazón se ha vuelto de piedra", resume Tigist.

"Hacía falta dinero"

Meta indicó que tiene "contratos claros" con todos sus socios que incluyen "la disponibilidad de asesoramiento individual , un apoyo adicional para quienes están expuestos a un contenido más difícil".

Publicidad

"A todas las empresas con las que trabajamos les exigimos que proporcionen una asistencia las 24 horas del día , los 7 días de la semana, con profesionales formados, un servicio de guardia y el acceso a la atención sanitaria privada desde el primer día de contrato", recalcó la compañía.

Según los denunciantes, el apoyo propuesto por Sama, a través de "consejeros de bienestar", no estaba a la altura y se basaba en entrevistas vagas, sin un seguimiento efectivo. Además, cuestionaron la confidencialidad de las sesiones.

"No era para nada útil. No digo que no estuvieran cualificados pero creo que no lo estaban lo suficientemente como para gestionar a personas que moderan contenidos" , considera Amin. Pese a sus traumas, siguieron trabajando porque les "hacía falta ese dinero".

Con un sueldo de 40.000 chelines (270 euros, 287 dólares) y 20.000 chelines suplementarios para los no kenianos, ganaban casi el triple del salario mínimo nacional (15.200 chelines).

Publicidad

"Desde 2019, no tuve oportunidad de encontrar otro empleo , pese a haberme presentado a muchos. No tenía otra opción. Por eso me quedé tanto tiempo", explica Amin.

Sacrificio

Para aguantar, los moderadores deben encontrar "mecanismos de defensa", explica Trevin Brownie.

El sudafricano, a quien solían encantarle las comedias, se volcó en las películas de miedo. "Era una forma de huir de mi realidad", afirma, explicando que también desarrolló una "adicción" a las imágenes violentas.

"Pero uno de nuestros principales mecanismos de defensa es que estamos convencidos de la importancia de este trabajo", añade. "Yo tenía la impresión de que me estaba haciendo daño pero por una buena razón, [...] que el sacrificio valía la pena por el bien de la sociedad".

Publicidad

"Sin nosotros, las redes sociales no pueden existir", agrega. "Nadie abriría Facebook si estuviera lleno de contenidos impactantes, de venta de drogas, de chantajes, de acoso...".

Merecemos que nos traten mejor

"Esto causa daños y nosotros nos sacrificamos por nuestra comunidad, por el mundo. Merecemos que nos traten mejor", apunta Tigist. Ninguno volvería a dedicarse de nuevo a ello.

"Mi opinión es que ningún humano debería hacer eso. No es un oficio para humanos", explica Trevin Brownie. "Francamente, me gustaría que la inteligencia artificial pudiera hacer ese trabajo".

Pero, pese a los enormes avances realizados, Trevin Brownie duda que eso sea posible en un futuro próximo. "La tecnología juega y seguirá jugando un papel central en nuestras operaciones de verificación de contenidos", aseguró Meta.

Publicidad

Hasta ahora, ninguno le había hablado a nadie de su trabajo, ni siquiera a su familia, a causa de las cláusulas de confidencialidad y también porque "nadie puede entender lo que vivimos". "Si la gente se entera, por ejemplo, de que he visto pornografía, me juzgarán", explica Tigist.

A su esposo, le contaba poco sobre lo que hacía. A sus hijos, se lo ocultó todo: "No quiero que sepan lo que he hecho. Ni siquiera quiero que se imaginen lo que he llegado a ver", dice. Recuerde conectarse a la señal en vivo de la HJCK, el arte de escuchar.