Los moderadores de Facebook demandan a la red social

Los moderadores de Facebook, responsables de ver y eliminar una enorme cantidad de imágenes y videos “horribles y ofensivos”, presentaron una demanda contra el gigante de las redes sociales por exponerlos a sufrir “traumas psicológicos y trastornos de estrés postraumático” y no ser protegidos adecuadamente por la empresa.

Así lo comunicó el estudio de abogados Burns Charest LLP, que presentó una demanda colectiva en California en nombre de Selena Scola, una ex moderadora de la red social que trabajó en las oficinas de Facebook durante nueve meses contratada de forma tercerizada por otra empresa.

En el escrito, alegan que los moderadores de contenido de Facebook son bombardeados diariamente con miles de “videos, imágenes y transmisiones en vivo de abuso sexual infantil, violación, tortura, bestialidad, decapitaciones, suicidios y asesinatos”.

“Está bien documentado que la exposición repetida a tales imágenes puede tener un efecto profundamente negativo en el espectador”, afirmó Korey Nelson, abogada de Burns Charest LLP. “Facebook está ignorando su deber de proporcionar un lugar de trabajo seguro y, en su lugar, crea una puerta giratoria de subcontratados que están irreparablemente traumatizados por lo que presenciaron en el trabajo”, agregó.

“Facebook tiene la obligación de proporcionar a sus moderadores de contenido un lugar de trabajo seguro“, dijo el jurista William Most. “Otras compañías tecnológicas implementan protecciones para mitigar el trauma de los moderadores de contenido. Facebook debe mantenerse con el mismo estándar”, observó.

La demanda colectiva propuesta alega “negligencia” y fallas en proveer un lugar de trabajo seguro.

“Nuestro cliente le está pidiendo a Facebook que establezca un fondo de monitoreo médico para proporcionar pruebas y atención a los moderadores de contenido con trastorno de estrés postraumático”, detalló Steve Williams de la firma de abogados Joseph Saveri. “Facebook necesitamitigar el daño a los moderadores de contenido hoy en día y también cuidar a las personas que ya han sido traumatizadas”, remarcó.

Según la presentación, Scola comenzó a trabajar como moderadora de contenido de Facebook en junio de 2017 y fue diagnosticada formalmente con trastorno de estrés postraumático después de experimentar síntomas que incluyen fatiga, insomnio y ansiedad social.

Cómo se moderan los contenidos en Facebook

Facebook recibe millones de reclamos de contenido potencialmente cuestionable cada día.

Para determinar las medidas a implementar en cada caso, la red social diferencia a los malos actores (cuentas falsas, hackers) de los malos comportamientos (sensacionalismo, manipulación) y del contenido malo (noticias falsas, discursos de odio, violencia).

Las opciones son tres: eliminar la publicación en los casos más extremos, reducir su difusión mediante algoritmos (patrones preestablecidos) o advertir a los usuarios.

La red social afirma que sólo en el primer trimestre del año removieron 1.8 millones de publicaciones relacionadas a terrorismo, 2.4 millones de posteos con discursos de odio, 838 millones de elementos de spam y583 millones de cuentas falsas en todo el mundo, gran parte de ellas antes de que fueran reportadas por los usuarios. Así y todo, la complejidad de la situación plantea desafíos y acciones a cada instante.

En una publicación de su blog en julio, la empresa fundada por Mark Zuckerberg destacó que revisar el contenido reportado es “esencial para mantener a las personas seguras en Facebook” y dijo que duplicó el número de personas que trabajan en sus equipos de seguridadeste año a 20.000, incluyendo 7.500 revisores de contenido.

“Reconocemos que este trabajo a menudo puede ser difícil. Es por eso que tomamos el apoyo de nuestros moderadores de contenido de maneraincreíblemente seria“, sostuvo Bertie Thomson, directora de comunicaciones corporativas de Facebook, y agregó que a cada persona que revisa el contenido se le ofrece apoyo psicológico.

Fuente: www.clarin.com

NOTICIAS DESTACADAS