Personal que trabaja como moderador de contenido para la compañía Facebook publicó una carta abierta donde denuncia que la firma los pone en riesgo al pedirles regresar a las oficinas de trabajo. Con la detección de múltiples casos de Covid-19, hablando del riesgo en la salud de ellos y sus familias.
Según informa el sitio web TN Tecno, los empleados alegan, en varias oficinas de la empresa se reportaron múltiples casos de Covid-19. “Hemos pedido a los líderes de Facebook y a las empresas de subcontratación (…) que tomen medidas urgentes para protegernos y valorar nuestro trabajo. Se negaron. Publicamos esta carta porque no nos queda otra opción”, dicen. Además señalan que aquellos empleados que tienen una nota médica son eximidos, pero quienes tienen familiares en grupo de riesgo no tienen la misma oportunidad.
En la carta no sólo se aborda la problemática directamente relacionada al coronavirus, sino también reclamos que son anteriores a esta crisis sanitaria como la falta de atención de salud mental para los moderadores, además de condiciones laborales (son contratistas en lugar de empleados a tiempo completo). La carta es firmada con nombre y apellido por decenas de empleados y más de 170 que prefirieron el anonimato.
Leer más► Estos iPhone no soportarán iOS15
En mayo, Facebook pagó 52 millones de dólares para resolver una demanda colectiva en nombre de los moderadores que dijeron que desarrollaron trastorno por estrés postraumático como resultado de su trabajo. Los revisores de contenido no sólo examinan información errónea sino también publicaciones con contenido explícito y/o violencia.
Las deficiencias de la inteligencia artificial
En la carta se detalla que la supuesta presión de Facebook para que los moderadores regresen a las oficinas se debe a que los sistemas automatizados utilizados como reemplazo no mostraron efectividad e incurrieron en numerosas fallas en la revisión de contenido que se publica en la red social.
Durante los primeros meses de la pandemia, la firma que dirige Mark Zuckerberg acudió a un método de inteligencia artificial (IA) para revisar publicaciones, marcar las que por diversas razones violan las normas de la plataforma y eventualmente eliminarlas. Esa estrategia fue una prueba y a la vez un paliativo, mientras muchos de los moderadores comenzaron a trabajar desde sus casas.
Leer más► El nuevo Samsung Galaxy S20 FE: todas las características favoritas de los fans en un solo teléfono
Sin embargo, los resultados no fueron los esperados: tal como notan en Engadget, “ la IA no estuvo a la altura del trabajo” que se le encomendó, barriendo con contenido que no debía ser eliminado y dejando en línea publicaciones que no están admitidas en aquel entorno. “La lección es clara: los algoritmos de Facebook están a años de lograr el nivel necesario de sofisticación para moderar el contenido automáticamente”, dice la fuente.
La respuesta de Facebook
El sitio argentina TN Tecno se contactó con la representación de Facebook, que refutó algunas de las afirmaciones vertidas en la carta.
“Valoramos el trabajo que los revisores de contenido hacen y priorizamos su salud y seguridad. Si bien creemos que debemos tener un diálogo interno abierto, estas conversaciones necesitan ser honestas. La mayoría de estos 15.000 revisores de contenido globales han estado trabajando desde casa y continuarán haciéndolo durante la pandemia”.
El vocero de la compañía añadió que “todos ellos tienen acceso a recursos de atención médica y bienestar desde su primer día como empleados y Facebook ha excedido las medidas de seguridad en las instalaciones para cualquier tipo de trabajo dentro de la oficina”.
Leer más► Por qué falla la conexión WiFi en casa



