La frontera entre la vigilancia y la privacidad es usualmente difusa. Esa zona gris en la que se mueven gobiernos y organismos de diversa índole también es transitada por empresas de tecnología, obligadas a revisar el comportamiento de los usuarios (y reprenderlos cuando amerite) sin que ese escrutinio suponga una violación plena de la intimidad.
No te olvides de seguirnos en Google Noticias para mantenerte informado
Leer más► Cuáles son los electrodomésticos que más energía consumen en el hogar
Apple se encuentra ahora en esa encrucijada: revisará dispositivos para encontrar abuso infantil y es ampliamente criticada, no por esa loable pesquisa, sino por abrir una puerta trasera en los equipos.
El anuncio oficial
Durante los primeros días de agosto Apple anunció que implementará un algoritmo para detectar pornografía infantil en los iPhone, iPad, Mac y Watch. En la práctica, el sistema escaneará en forma automática los dispositivos y buscará coincidencias con una base de datos. En caso de hallar contenido sospechoso, enviará un reporte a revisores humanos (ellos verán una versión filtrada del material, para protegerlos de la exposición continua a contenido nocivo) e informarán a las autoridades correspondientes.
La firma estadounidense prometió que cuidarán la privacidad de los usuarios y garantizaron un alto nivel de precisión, con menos de uno en 1.000 millones de posibilidades por año de marcar en forma incorrecta una cuenta determinada. Más adelante en este repaso veremos que aquella es, también, una de las críticas que recibe la iniciativa.
El sistema se implementará a fines de este año en iOS, iPadOS, macOS y WatchOS con el objetivo de detectar la carga de contenido en iCloud que muestre a menores involucrados en actos sexuales. Tal como señalamos, emplearán una base de datos en el dispositivo de imágenes proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones. Si encuentra coincidencias, lanzará la advertencia. En caso de detectar material no apropiado, se desactivará la cuenta de iCloud y se enviarán informes al NCMEC que a su vez podría notificar al FBI. Los usuarios pueden apelar la suspensión si consideran que su cuenta ha sido marcada por error.VUn dato a tener en cuenta: sólo en 2018, las firmas de tecnología informaron 45 millones de fotos y videos con abuso infantil en múltiples plataformas y servicios de almacenamiento en la nube.
Crítica 1: los límites de la vigilancia
Los recelos apuntan principalmente a un eventual avasallamiento de la intimidad. Las voces críticas coinciden en que el mecanismo anunciado (loable per se) allanaría el camino para que la propia Apple, gobiernos y otras entidades vigilen la actividad de los usuarios. Que husmeen más allá de los sitios permitidos. De este modo, el algoritmo propuesto violaría las leyes de privacidad y podría ir más allá de la búsqueda de abuso infantil.
Jennifer Granick, asesora de vigilancia y ciberseguridad del Proyecto de Discurso, Privacidad y Tecnología de la ACLU, dijo en declaraciones al sitio Gizmodo que “por altruistas que sean sus motivos, Apple ha construido una infraestructura que podría ser subvertida para una vigilancia generalizada de las conversaciones y la información que guardamos en nuestros teléfonos”. La especialista añadió que “la capacidad de escaneo abuso infantil podría reutilizarse para la censura o para la identificación y reporte de contenido que no es ilegal” y que “también es susceptible de abuso por parte de autócratas en el extranjero, por funcionarios gubernamentales demasiado entusiastas en el país o incluso por la propia empresa”.
Electronic Frontier Foundation, una organización especializada en la privacidad online, opinó en esa línea al notar que las capacidades de escaneo podrían eventualmente reutilizarse para buscar otros tipos de imágenes o texto, “lo que básicamente significaría una solución alternativa para las comunicaciones cifradas, una diseñada para vigilar las interacciones privadas y el contenido personal”.
“Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de los indicadores de configuración para escanear, no sólo las cuentas de los niños, sino de cualquier persona”, añadieron.
Desde el Centro para la Democracia y la Tecnología dijeron que el método propuesto por Apple “no es una alternativa a una puerta trasera, es efectivamente una puerta trasera”. Edward Snowden, el exagente de la CIA que cobró fama al revelar prácticas indebidas de esa agencia y que se ha convertido en un abanderado de la privacidad, se sumó al debate en una serie de tuits. “No importa cuán bien intencionadas sean (estas herramientas). Apple está implementando vigilancia masiva en todo el mundo con esto. No se equivoquen: si pueden escanear en busca de pornografía infantil hoy, pueden escanear en busca de cualquier cosa mañana”, dijo.
Crítica 2: los falsos positivos
La tecnología que usará Apple para encontrar imágenes y videos con abuso infantil es similar a la que se emplea en diversas redes sociales y servicios en línea para organizar las fotografías en base a su contenido, detectar rostros de personas conocidas o encontrar desnudos y eventualmente bloquear publicaciones. Lo hemos visto, por caso, en Instagram: un algoritmo detecta en forma automática si hay desnudos y el post cae, en función de los términos y condiciones de esa plataforma. El problema es que esos métodos en ocasiones fallan: por ejemplo, pueden confundir una torta decorada con un pecho al desnudo.
Esos errores serían más problemáticos en una práctica como la que propone Apple. ¿Qué ocurrirá con los falsos positivos? ¿Algunos usuarios se verán ante el disgusto de explicar (legítimamente) que no poseen material de abuso infantil, en caso de que el algoritmo tenga falencias? Además, ¿qué pasará si una persona tiene en su cuenta de iCloud imágenes de su hijo bañándose, o en una pileta?
Crítica 3: “basura” en el teléfono
Tal como explicaron desde Apple y más tarde algunos expertos en la materia, para que este sistema de detección funcione es necesario inyectar en los dispositivos una base de datos con parámetros de abuso infantil. Esto generó conmoción entre algunos usuarios: ¿combatirán esas prácticas metiendo indiscriminadamente ese material en móviles y computadoras?
En este punto es preciso tener en cuenta algunas variables que disuelven las preocupaciones. Por un lado, esa base es provista por el NCMEC, que la diseña para dar con ese contenido y aplicar los castigos correspondientes. Por otra parte, según indican especialistas, no se trata de material audiovisual propiamente dicho sino de archivos de texto (cadenas de caracteres) que no son comprensibles a nivel visual por el ojo humano y que además ocupan poco espacio en los equipos.
“Sin embargo, la idea de que estamos llevando eso en nuestros dispositivos fue un poco impactante. Todavía estoy un poco en shock por eso porque es un caso de uso muy diferente al que hemos visto antes”, reconoció Riana Pfefferkorn, investigadora en el Observatorio de Internet de la Universidad de Stanford y especialista en cifrado.
“Una de las preocupaciones que se ha planteado con la implementación de este tipo de tecnología del lado del cliente es que las personas intenten aplicar ingeniería inversa a eso, básicamente, y descubra qué hay en la base de datos”, advirtió Pfefferkorn. En esos casos brota un nuevo y debate, también profundo. Siendo que esa base es exclusiva de NCMEC, ¿su uso por parte de Apple es permitido? ¿No supone revictimizar a las personas que se representan? ¿O solamente se usará para ayudar a detectar otras imágenes?
Temas







