Las condiciones de trabajo de los moderadores de redes sociales pueden llegar a ser terribles. En 2020, Facebook tuvo que pagar 52 millones de dólares por trastorno por estrés postraumático de varios empleados: ahora TikTok recibió una demanda similar.
PUBLICIDAD
Candie Frazier, una moderadora de videos de TikTok, demandó al frente de un colectivo a ByteDance (empresa matriz) por generarle trastorno por estrés postraumático.
Según reportó inicialmente The Verge, Frazier luego fue apartada de su trabajo como una posible represalia.
El origen del estrés postraumático de Candie Frazier y sus compañeros
La moderadora es empleada de la firma Telus International, contratada por TikTok para revisar sus videos. De acuerdo con la demandante, debía pasar hasta 12 horas chequeando contenido perturbador, como actos de violencia extrema y gráfica, incluyendo violación infantil, mutilación de animales, agresión sexual y tiroteos masivos.
Frazier desarrolló, debido a “la exposición constante y sin paliativos al contenido altamente tóxico”, TEPT, ansiedad y depresión. La demandante sufre “pesadillas horribles” y a menudo reproduce “videos que ha visto en su mente”.
El texto introducido ante el Tribunal de Distrito de los Estados Unidos para el Distrito Central de California señala que ni ByteDance ni TikTok han implementado estándares de seguridad.
Estos serían, por ejemplo, deshabilitar el audio y minimizar o difuminar el contenido perturbador. Tampoco brindan apoyo adecuado de salid mental.
PUBLICIDAD
Explica la demanda que los moderadores de contenidos ven de tres a 10 videos al mismo tiempo, y no pasan más de 25 segundos en un solo video por el gran volumen de contenido de TikTok.
La posición de TikTok respecto a la demanda
Business Insider conversó con un portavoz de TikTok que, pese a negarse a conversar sobre el caso, sí manifestó que la plataforma “se esfuerza por promover un ambiente de trabajo atento para nuestros empleados y contratistas”, y continúa “expandiendo una gama de servicios de bienestar” para el apoyo mental y emocional de los moderadores.
En 2020 Facebook, actualmente Meta, pagó 52 millones de dólares como parte de un acuerdo con moderadores diagnosticados con trastorno por estrés postraumático. Actualmente la compañía ha invertido en Inteligencia Artificial para realizar revisiones sobre contenido que afecte a la comunidad, pero no siempre es preciso al momento de retirarlo.
Muchos piden que se trabaje más con moderadores humanos, aunque esto implique situaciones como la que ocurre hoy con TikTok y ByteDance.