menu
search
Tecnología YouTube | vacunas | Google

YouTube: 30.000 videos eliminados por contener información falsa sobre las vacunas del covid-19

YouTube borró de su plataforma una gran cantidad de contenido que poseía información falsa o engañosa sobre las recientes vacunas contra el coronavirus. Con el fin de evitar la confusión en los usuarios, se da dentro del marco de cambios en las políticas de privacidad del servicio.

YouTube es la plataforma estrella de videos y contenido multimedia a nivel mundial. La app que pertenece a Google informó que retiró de su sitio más de 30.000 videos que incluían información engañosa y/o falsa sobras las vacunas contra el coronavirus. Siguiendo lo que dicen los principales organismos mundiales de salud, la empresa estadounidense había actualizado hace pocos meses sus políticas respecto a las noticias faltas sobre esta temática.

Antes de octubre del año pasado YouTube aplicaba regulaciones menos específicas. Es decir, moderaba la presencia de noticias falsas relacionadas al coronavirus, aunque las normativas no hacían referencia a las vacunas en particular, explica el sitio Axios.

image.png
Los videos retirados son los que contradicen las afirmaciones de las entidades mundial de Salud.

Los videos retirados son los que contradicen las afirmaciones de las entidades mundial de Salud.

De acuerdo a la fuente, en la popular plataforma se eliminaron más de 800.000 videos que difundieron información errónea sobre el Covid-19 en general. Los arriba mencionados 30.000 hacían referencia a las diferentes vacunas cuya disponibilidad en diferentes países se tradujo en un aumento de la desinformación en algunos entornos en línea.

Leer más ► Instagram: ya se puede volver a compartir posteos en las historias

Según informa el sitio web TN Tecno, a pesar de las cifras divulgadas, cabe señalar que las pautas que Google estableció para YouTube son más laxas si se las compara con las determinaciones que tomaron otros servicios digitales de gran alcance, como Facebook y Twitter. Siguiendo a Engadget, el portal de videos solamente aborda un subconjunto específico de afirmaciones sobre las vacunas para el Covid-19, siguiendo las pautas de entidades como la Organización Mundial de la Salud.

image.png

“Los videos que violan la política de vacunas, según las reglas de YouTube, son aquellos que contradicen el consenso de expertos sobre las vacunas de las autoridades sanitarias o de la Organización Mundial de la Salud”, señala la fuente al respecto.

Leer más ► Google lanza un revolucionario programa para la educación y el empleo

¿Cómo se realiza la moderación? Los videos son marcados en primera instancia por sistemas de inteligencia artificial o por revisores humanos, para luego pasar a otro nivel de revisión. Las cuentas que violan las normas reciben una advertencia, que podría derivar en un bloqueo permanente.

Quién revisa los videos de Youtube

En septiembre de 2020 Financial Times publicó un informe en el que contó que YouTube decidió devolver el trabajo de revisión de contenido a moderadores humanos, luego de que los sistemas automatizados que empleó fallaran más de la cuenta.

image.png
La plataforma de Google volvió a utilizar a personas como moderadores luego de fallas en la Inteligencia Artificial.

La plataforma de Google volvió a utilizar a personas como moderadores luego de fallas en la Inteligencia Artificial.

Cuando comenzó la pandemia, Google se vio en la obligación de reducir la carga de trabajo de los 10.000 moderadores de su equipo y asignó parte de esa tarea a mecanismos robóticos, es decir, inteligencia artificial. Pero la solución no fue del todo eficiente: entre abril y junio el sistema automatizado eliminó más de 11 millones de videos, una suma superior a la habitual, barriendo una gran cantidad de contenido que no infringía reglas. En otra palabras, arrojó muchos “falsos positivos”.

Leer más ► WhatsApp: imitando a TikTok, podría incluir los "Reels" de Instagram en los estados

La inteligencia artificial fue demasiado severa y provocó el enojo de muchos creadores de contenido. Desde YouTube señalaron que eran conscientes de los inconvenientes que traería aparejado el cambio: “Una de las decisiones que tomamos (al comienzo de la pandemia) cuando se trataba de máquinas que no podían ser tan precisas como los humanos, era que íbamos a errar para asegurarnos de que nuestros usuarios estuvieran protegidos, aunque eso podría resultar en un número ligeramente más alto de videos rechazados”, comentaron.