Nuevas tecnologías e Inteligencia Artificial: por qué votamos como votamos

Nuevas tecnologías e Inteligencia Artificial: por qué votamos como votamos

Las nuevas tecnologías, las plataformas transnacionales basadas en el manejo de datos y la Inteligencia Artificial, se presentan como grandes desafíos para los procesos democráticos presentes y futuros. Las miradas de especialistas sobre un fenómeno que incide en el voto.

POR JOSÉ CURIOTTO

¿Qué información recibimos durante las campañas electorales?, ¿quiénes determinan los contenidos que absorvemos en las pantallas que nos envuelven?, ¿contamos con las herramientas adecuadas para discernir entre la verdad y la mentira?, ¿quién tiene el poder?, ¿realmente hubo tiempos mejores?, ¿por qué votamos como votamos?

A cuarenta años del retorno de la democracia en la Argentina, las preguntas son muchas y las respuestas a tantos interrogantes se encuentran en pleno proceso de construcción.

El 26 de octubre de 1983, más de un millón de personas estuvieron presentes en la Av. 9 de Julio de la Ciudad de Buenos Aires para participar del acto de cierre de campaña de Raúl Alfonsín y escuchar el discurso final de quien se convertiría en Presidente de la Nación.

LEER MÁS ► Informe especial a 40 años del retorno de la democracia en Argentina

Embed

A los dos días, otro millón de argentinos se reunió para presenciar el último acto de campaña del candidato de peronismo, Ítalo Argentino Luder. Fue la noche en la que Herminio Iglesias, por entonces candidato a gobernador de Buenos Aires, pasó a la historia al quemar un féretro que decía "UCR - Alfonsín - QEPD".

Cuatro décadas después, Javier Milei volcó sus mayores esfuerzos de comunicación a través de las redes sociales y logró derrotar al candidato oficialista Sergio Massa.

En la actualidad, a ningún candidato se le ocurriría organizar actos públicos masivos de campaña. Simplemente, porque apenas podría reunir a un puñado de personas y porque existen otras herramientas para llegar de manera directa y personalizada a cada elector.

Primero la televisión, luego Internet, más tarde las redes sociales y en estos momentos el surgimiento de la Inteligencia Artificial, modificaron de manera terminante el vínculo entre la política y los votantes. Y en este contexto, los nuevos paradigmas colocan a la democracia frente a una serie de cuestionamientos esenciales.

Los discursos públicos, las grandes avenidas -o plazas de los pueblos- y los medios de comunicación tradicionales, fueron reemplazados por algoritmos que generan verdaderos túneles, burbujas o cámaras de eco que refuerzan contenidos basados en las preferencias personales del observador, y en los que el espacio virtual se comparte solo con quienes piensan de la misma manera.

La Inteligencia Artificial, recién en pañales, se perfecciona a sí misma de manera exponencial y, mal utilizada, comienza a tornar difusos los límites entre la verdad y la mentira.

"Imagine que en la mañana de una elección importante, un video que muestra a uno de los candidatos robando un banco se vuelve viral. Es falso, pero los medios de comunicación y la campaña tardan varias horas en probarlo.

¿Cuántas personas lo verán y cambiarán sus votos en el último minuto? Podría inclinar la balanza, especialmente en una elección reñida", advirtió a mediados de este año el cofundador de Microsoft, Bill Gates.

Así, se hace aún más difícil distinguir entre la verdad y la mentira -nunca fue tarea sencilla-, escuchar al otro, contribuir al espíritu crítico y tomar decisiones a partir de la comparación de diferentes argumentos, pilares esenciales de todo proceso democrático.

Embed

Las preguntas se multiplican. Y más allá de que existen algunas certezas, la incertidumbre impera. Lo que está en juego es, nada más y nada menos, la esencia de la democracia misma. Y con ella, la libertad, la construcción de la realidad y la convivencia social.

Algoritmos, túneles y la gran pregunta: ¿quién tiene el poder?

Rita Grandinetti es profesora titular de Tecnologías de la Administración Pública y directora de PoliLab UNR, laboratorio de innovación en políticas públicas de la Universidad Nacional de Rosario.

Al hablar de la construcción del debate público y del impacto de las tecnologías en los procesos democráticos, advirtió: "Las nuevas tecnologías basadas en algoritmos generan verdaderos túneles donde cada uno de nosotros está inserto, donde solo se nos muestra información basada en nuestras preferencias y compartimos el espacio con los que opinan igual que nosotros, lo que dificulta el diálogo entre distintos. Y esta debería ser la verdadera fuente de la democracia robusta".

Rita Grandinetti, Inteligencia Artificial y Democracia.jpg
Rita Grandinetti, profesora titular de Tecnologías de la Administración Pública y directora de PoliLab UNR, laboratorio de innovación en políticas públicas de la Universidad Nacional de Rosario.

Rita Grandinetti, profesora titular de Tecnologías de la Administración Pública y directora de PoliLab UNR, laboratorio de innovación en políticas públicas de la Universidad Nacional de Rosario.

"La gran pregunta hoy -insistió- es quién tiene el poder. Y lo tienen grandes empresas que son plataformas que basan ese poder económico y de presión en toda la información que nosotros les cedemos alegremente, porque nos simplifican la vida. Esto no solo ocurre en el mundo occidental, sino también en China".

Grandinetti planteó que "hay un tremendo poder basado en la información y los estados siempre llegan tarde. Estas empresas son mucho más fuertes que los Estados mismos y lo vemos cada vez que se intenta avanzar en cierto sistema de reglas claras que nos permitan convivir. La Unión Europea y los Estados Unidos están tratando de generar algunos mínimos avances, pero las empresas prefieren pagar multas y no cambiar sus prácticas".

"Estas empresas, que cuentan con enorme cantidad de datos sobre cada uno de nosotros, los comercializan y ponen a disposición de poderes económicos, de operadores, de partidos políticos. Esto permite generar preferencias en nosotros mismos, basadas en los algoritmos sin que seamos conscientes de ello", añadió.

Para Grandinetti, "la base de la convivencia humana es justamente la posibilidad de optar, de elegir. Pero esto se está desdibujando y es cada vez más difícil generar una visión crítica de nosotros mismos, porque los algoritmos nos llevan a confirmar nuestras propias creencias y las de los grupos con los que compartimos el mismo túnel".

Cuando a principios de los años ochenta Ricardo Alfonsín o Italo Luder reunieron a casi dos millones de personas en 48 horas, "eran actos públicos, visibles para todos, para propios y extraños. Pero ahora el contacto del candidato con el votante está encapsulado por ese efecto túnel que genera un universo que no es real. Como en esos túneles no se comprende el lenguaje del otro, no hay opción de aceptar y tolerar la existencia del otro".

La Inteligencia Artificial añade un desafío aún más complejo: "Con la aparición de la inteligencia generativa se producen desarrollos propios, imágenes de los candidatos, videos, testimonios. Entonces se borran los límites entre la realidad y la mentira, o es muy difícil distinguirlos. Es cada vez más complicado identificar un mensaje verdadero o una imagen real, de una mentira. Y esto contribuye aún más a las campañas de desinformación, de desprestigio del otro. Así, convivimos con modos de hacer política que hasta no hace mucho tiempo eran impensables".

Las noticias falsas tienen más posibilidades de ser compartidas

Para Matías Bianchi, director de la ONG Asuntos del Sur (una organización que diseña e implementa innovaciones políticas para desarrollar democracias paritarias, inclusivas y participativas), las tecnologías "siembre afectaron nuestras vidas y cómo articulamos los debates. Ocurrió cuando aparecieron los diarios profesionalizados, luego vino la revolución de la radio y más tarde la de la televisión. Lo que ocurre con Internet es una cuestión de escala, porque nunca existió algo que nos afecte tanto".

"Lo novedoso, en este caso, es que se da una triple revolución: Internet, celulares y redes sociales, a lo que se añade la Inteligencia Artificial", agregó.

Para entender los desafíos que esto plantea a la democracia, Bianchi retrocedió a finales de los noventa y principios de los dos mil, "cuando las empresas desarrollaron un modelo económico gratuito, pero basado en la explotación de los datos que recaban. Esto generó incentivos perversos, para que la gente se convierta en adicta a las pantallas y entregue cada vez más información".

Matías Bianchi, Inteligencia Artificial y Democracia.jpg
Matías Bianchi, director de la ONG Asuntos del Sur.

Matías Bianchi, director de la ONG Asuntos del Sur.

"Ahora, las empresas pueden manipular esos datos no solo para fines comerciales, sino también políticos. Esto afecta debate público, los algoritmos hacen que te juntes con personas que piensan parecido a vos y que te enfrentes a los que piensan diferente. De hecho, un tuit agresivo tiene muchas más posibilidades de ser compartido que uno que tenga que ver con el debate democrático", advirtió.

Y siguió: "Lo mismo sucede con las noticias falsas, que "tienen cuatro veces más posibilidades de ser compartidas que una verdadera".

Bianchi planteó que en muchos casos el voto se termina definiendo por las horas que el ciudadano está en la pantalla: "Estas empresas y los poderes de facto que las contratan para influir, tienen más poder que la política, el Estado o los partidos".

En este sentido prefiere no mostrarse optimista o pesimista, sino "cauteloso" sobre lo que puede suceder: "Hay que dar este debate, es posible avanzar en regulaciones, saber cómo se crean los algoritmos, si son auditables, transparentes. Pensemos que la Internet actual es distinta a la de sus orígenes. Nació como parte de una estrategia de defensa, luego mutó a compartir datos entre universidades y luego se privatizó, a través de grandes monopolios".

La Inteligencia Artificial "genera un nuevo desafío por su capacidad exponencial de transformación, por su escala y por la posibilidad de profundizar ciertos sesgos sociales".

"No es verdad que todo tiempo pasado fue mejor. Por eso prefiero decir que soy cauteloso. Pero es fundamental que estas herramientas funcionen para la mayoría y no para unos pocos. Si las dejamos solo en manos de las empresas, entonces me vuelvo pesimista", remarcó.

Burbujas, cámaras de eco y "pasiones desatadas"

Alejandro Pelfini es doctor en Sociología (Universidad Freiburg, Alemania) y licenciado en Sociología (Universidad del Salvador, Argentina).

Desde su mirada, la Inteligencia Artificial "plantea desafíos que en algunos casos no fueron estudiados todavía. Tenemos evidencias del impacto que generan Internet, las tecnologías de la información en general, las redes sociales y los celulares, pero no de la Inteligencia Artificial".

Alejandro Pelfini, Inteligencia Artificial y Democracia.jpg
Alejandro Pelfini, doctor en Sociología (Universidad Freiburg, Alemania) y licenciado en Sociología (Universidad del Salvador, Argentina).

Alejandro Pelfini, doctor en Sociología (Universidad Freiburg, Alemania) y licenciado en Sociología (Universidad del Salvador, Argentina).

En cuando a cómo afecta los procesos democráticos, "lo más preocupante hasta ahora pasa por la segmentación de audiencias por el uso de algoritmos en el marketing político. La primera evidencia a gran escala fue la campaña política de Donald Trump, en la que gracias a los algoritmos lograron que la gente escuchara y viera lo que quería escuchar y ver, como ocurre con Netflix, que te elige las películas sobre la base de tus preferencias".

Con respecto a la Inteligencia Artificial, "podemos ir viendo cómo se incrementan los riesgos de sustitución de identidad, la publicación de mensajes trucados, audios falsos, realidades totalmente construidas".

A modo de ejemplo recordó lo que acaba de suceder con Carlos Melconian, quien fue presentado como futuro ministro de Economía por la entonces candidata a presidenta Patricia Bullrich: "Comenzaron a circular audios que lo perjudicaban y lo primero que hizo Bullrich fue decir que se habían realizado con Inteligencia Artificial. No sabemos si era cierto o no, pero de esa manera logró desarmar las denuncias, porque no sabemos qué es real y qué audios o qué situaciones son inventados".

Pelfini insistió en que el riesgo mayor, al menos hasta ahora, pasa por "la manipulación por segmentación de audiencias, burbujas o cámaras de eco. Accedemos a la política o a otras esferas del conocimiento confirmando nuestros sesgos, escuchando lo que queremos escuchar y afirmando lo que ya sabemos o creemos".

"Entonces -agregó- se torna más compleja la convivencia democrática, la civilización misma y la manera en cómo debatimos con otros que no piensan lo mismo. Los algoritmos nos empujan a confirmar lo que ya creemos y generan enormes dificultades para aprender, para revisar nuestras creencias y para poder mirarlas de manera crítica".

En este sentido, advirtió que "el ocultamiento del sujeto de la enunciación -no se sabe quién está detrás de un contenido- cuestiona un principio básico de la comunicación política y de la esfera pública, que pasa por asumir con nombre y apellido lo que se dice, lo que se dice sobre otro y los argumentos que se esgrimen".

"Cuando se pierde ese sujeto y se oculta en las redes o en la inteligencia artificial, donde ya no hay ningún sujeto, se puede decir cualquier cosa sin hacerse cargo porque no hay nadie del otro lado. Ese anonimato favorece las pasiones más desatadas y, cuanto más agresivo se es, se consiguen más likes, se genera más repercusión y se se viraliza con mas facilidad", añadió Pelfini.

Entonces, "la circulación de un mensaje no tiene que ver con el argumento y la calidad del contenido, sino con el impacto medido en términos emocionales. Y esa comunicación basada en pasiones desatadas es un grave problema que influye en la convivencia cotidiana como sociedad".

Mayor libertad, nuevas herramientas y escasa educación

Erick Iriarte es peruano, abogado especializado en nuevas tecnologías y magíster en Ciencias Políticas que ha tenido participación activa en el desarrollo de Internet tanto en su país, como en el extranjero.

El especialista indicó que en primer lugar, es importante destacar que "la tecnología permitió el ejercicio pleno de la libertad de expresión, ya que antes de la aparición de Internet esto era imposible para una persona común que no tuviera acceso a los grandes medios".

"Pero existe un elemento que puede ser pernicioso y es la desinformación, ya que al mismo tiempo que tengo 1.000 personas hablando sobre un tema, puedo tener 1.000 personas inventando cosas y haciendo que yo cambie de posición sobre un determinado tema. La tecnología no es buena o mala en sí misma, pero siempre depende de quién la utiliza".

Erick Iriarte, Inteligencia Artificial y Democracia.jpg
Erick Iriarte, abogado especializado en nuevas tecnologías y magíster en Ciencias Políticas.

Erick Iriarte, abogado especializado en nuevas tecnologías y magíster en Ciencias Políticas.

Iriarte ve dos riesgos en la tecnología. Uno, que "se puede generar tendencias en la opinión pública respecto de algún tema, a través de fakes news, desde quienes tienen determinados intereses políticos o no quieren que la población acceda a demasiada libertad".

El otro, más directo, "la afectación de procesos electorales a través de sistemas de votación electrónica. Hay casos puntuales de manipulación. Tanto es así que, por ejemplo en Alemania, es inconstitucional el uso de cualquier sistema electrónico de voto porque no se puede evitar de manera terminante que pueda ser afectado".

Con respecto a la información, Iriarte asegura que en términos generales la gente sigue confiando más en lo que le dice otra persona, que en lo que aparece en redes sociales. Sin embargo, advierte una debilidad manifiesta.

"Le dimos a la gente acceso masivo a las herramientas para recibir información, pero no le dimos la educación necesaria para discernir si la información es correcta o incorrecta. Ahí falla el sistema educativo y es un grave problema".

"Todos somos capaces de discernir en una capa inicial. Por ejemplo, si alguien dice que hay vacas volando, sabemos que es mentira. Pero si de pronto se avanza a niveles más sutiles, si no hay modo de contrastar o se blinda la información como si fuera cierta, termina siendo más difícil distinguir la mentira de la verdad", advirtió.

"Lo que sucedió con Cambridge Analytica -empresa que en 2018 se vio involucrada en un escándalo por direccionar información con fines electorales- es el mejor ejemplo. En Colombia encontraron una verdadera granja de trolls difundiendo datos fasos en una elección. En Perú llegaron a quemar antenas de telecomunicaciones porque en las redes se viralizó que contribuían a propagar el covid. Y muchos lo creyeron", insistió

Para Iriarte, cualquier tipo de reglamentación puede ser peligrosa: "El problema del control de contenidos es que es la mejor manera de evitar que se propaguen y eso se llama censura. Abrir las puertas al control previo de contenidos es un suicidio, porque entonces alguien deberá decir qué es lo bueno y qué es lo malo. La salida será siempre trabajar por más educación y por el respeto de la Declaración de Derechos Humanos sobre Libertad de Expresión".

Lo que está en juego va mucho más allá de una u otra elección. Mientras los discursos políticos parecen anclados en el pasado, la tecnología produce fuertes cambios en los vínculos sociales y en los modos en que la gente toma decisiones.

La democracia, las libertades y la convivencia social, se retuercen en medio de este verdadero torbellino. Las preguntas se multiplican. Y las respuestas, se encuentran en pleno e incierto proceso de construcción.