Dos ex moderadores de contenido alegan que TikTok no proporcionó los servicios de asesoramiento adecuados a las personas expuestas a una avalancha de contenido violento y gráfico
Dos exempleados de TikTok han demandado a la empresa por la carga emocional que supone ver contenido gráfico en la aplicación, alegando que TikTok “no ha proporcionado un lugar de trabajo seguro a los miles de contratistas que son los guardianes entre el contenido no filtrado, repugnante y ofensivo que se sube a la aplicación y los cientos de millones de personas que la utilizan cada día”.
Ashley Velez y Reece Young trabajaron como moderadoras de contenido para TikTok tras ser contratadas por agencias de empleo externas, y fueron clasificadas por la empresa como contratistas independientes. Ambas mujeres alegan que durante el tiempo que trabajaron en la empresa vieron “contenido gráfico y censurable que incluía abusos sexuales a menores, violaciones, torturas, zoofilia, decapitaciones, suicidios y asesinatos”. También alegan que TikTok las obligó a ver esos vídeos en grandes volúmenes para cumplir con los estándares de productividad y que no aplicó “normas de cuidado reconocidas para proteger a los moderadores de contenido de cualquier daño”.
Según la demanda presentada en el Distrito Norte de California, los demandantes realizaban agotadoras jornadas de 12 horas para moderar contenidos para TikTok, que es propiedad de la empresa china ByteDance y tiene más de mil millones de usuarios activos mensuales. Eran uno de los 10.000 moderadores de contenidos encargados de garantizar que las subidas a la aplicación se ajustaran a las directrices de la comunidad de TikTok. Más de 81 millones de vídeos fueron eliminados de la aplicación por violar las directrices de la comunidad sólo durante el segundo trimestre de 2021, según la demanda.
En el transcurso de su tiempo como moderadores de contenido de TikTok, la demanda alega que Vélez, que trabajó para la empresa de mayo a noviembre de 2021, se encontró con contenidos como “zoofilia y necrofilia, violencia contra los niños y otras imágenes angustiosas”. Young, que trabajó para la empresa durante once meses a partir de principios de 2021, vio imágenes perturbadoras como la de un niño de trece años ejecutado por miembros del cárcel, así como vídeos de zoofilia.
“Veíamos muerte y pornografía gráfica, gráfica. Veía niños menores de edad desnudos todos los días”, dijo Vélez a NPR. “Veía cómo disparaban a la gente en la cara, y otro vídeo de un niño siendo golpeado me hizo llorar durante dos horas seguidas”.
Ambas mujeres alegan que se sintieron presionadas para alcanzar sus objetivos de cuota y que TikTok no proporcionó el asesoramiento de salud mental adecuado a los moderadores de contenido que vieron esas imágenes, aumentando así el riesgo de desarrollar condiciones de salud mental como el TEPT. También alegan que TikTok les hizo firmar acuerdos de no divulgación al comienzo de su empleo, lo que les impidió hablar de lo que veían en el trabajo con sus seres queridos.
La mayoría de las grandes empresas tecnológicas, como TikTok, emplean a contratistas independientes para moderar los contenidos que violan las directrices de la comunidad, y TikTok no es la única empresa que ha sido acusada de no ofrecer las garantías adecuadas a sus empleados. En 2020, por ejemplo, Facebook acordó pagar a sus moderadores de contenidos 20 millones de dólares tras una demanda colectiva, en la que los moderadores citados en la demanda alegaban que habían desarrollado TEPT como resultado de su trabajo de revisión de contenidos gráficos y violentos.
TikTok no respondió inmediatamente a una solicitud de comentarios.