menu
search
Sociedad Inteligencia artificial | género | estereotipos de género

Inteligencia artificial y género: un estudio detecta estereotipos en las respuestas

Un estudio internacional analizó miles de respuestas de inteligencia artificial a jóvenes y detectó sesgos de género en temas como trabajo, cuerpo e identidad.

¿La inteligencia artificial responde igual cuando quien pregunta es una mujer o un varón? Un estudio internacional detectó que no. Las respuestas de estos sistemas reproducen estereotipos de género, sobre todo cuando se trata de consejos sobre estudios, trabajo, relaciones o identidad.

El informe, elaborado por la consultora LLYC y titulado Espejismo de Igualdad, analizó 100 dilemas planteados a distintos sistemas de inteligencia artificial y evaluó miles de respuestas generadas por estos modelos. "La IA no se crea desde cero. Aprende de datos. Y esos datos provienen de una sociedad que ha sido y sigue siendo desigual", dice el manifiesto inicial.

La investigación se realizó en 12 países —entre ellos Argentina, Brasil, Estados Unidos, México y España— y analizó interacciones de jóvenes de entre 16 y 25 años. Esta franja es especialmente vulnerable, ya que la IA suele presentarse como una “amiga” y en el estudio se preguntan si no es una “amiga tóxica”, por la forma en que elabora sus respuestas.

informe 1
La inteligencia artificial representada en una de las imágenes del informe

La inteligencia artificial representada en una de las imágenes del informe "Espejismos de igualdad".

En total se estudiaron 9.600 recomendaciones generadas por inteligencia artificial, además de más de cinco mil respuestas a preguntas específicas y casi mil escenarios vinculados a perfiles de género.

Según el informe, la IA no actúa como un orientador neutral, sino que refleja y amplifica los patrones sociales presentes en los datos con los que fue entrenada. “Cuando la tecnología automatiza esa norma, el sesgo deja de ser visible y se vuelve estructural”, advierten los autores.

¿Carreras según estereotipos de género?

Uno de los hallazgos más claros aparece en las recomendaciones sobre el futuro profesional. Cuando la consulta proviene de un perfil masculino, la inteligencia artificial sugiere ingenierías y carreras tecnológicas con el doble de frecuencia que cuando quien pregunta es una mujer.

En el caso de las usuarias, en cambio, las respuestas se orientan mucho más hacia áreas vinculadas con salud, cuidado o ciencias sociales.

El informe señala que la IA insiste tres veces más en estas opciones para las mujeres que para los varones.

LEER MAS ► Lanzan 4.000 becas para estudiar inteligencia artificial gratis: requisitos y cómo anotarse

Las diferencias también aparecen en los ejemplos concretos que los sistemas proponen para ganar dinero con una actividad que gusta.

A los varones se les sugieren modelos de negocio más tradicionales, como diseño gráfico o emprendimientos online. En cambio, a las mujeres se las orienta con más frecuencia hacia propuestas basadas en la exposición de la imagen, como crear contenido sobre moda o redes sociales.

Para los autores del estudio, estas respuestas muestran cómo la inteligencia artificial puede terminar reproduciendo desigualdades que muchas veces se creían superadas.

La IA como espejo de los prejuicios sociales

El informe plantea que los modelos de lenguaje funcionan como un “espejo amplificado” de la realidad social. Al entrenarse con enormes volúmenes de textos producidos por personas, los sistemas incorporan también los prejuicios presentes en esos contenidos.

“Espejismo de Igualdad demuestra que la IA no es imparcial. Es el reflejo amplificado y distorsionado de la realidad con la que fue entrenada”, señalan los autores.

Este fenómeno adquiere una dimensión particular entre las generaciones más jóvenes. Para la llamada Generación Z (nacidos entre 1995 y 2010) y la Generación Alpha (nacidos después de 2010), los sistemas de inteligencia artificial se están convirtiendo en una herramienta cotidiana para pedir consejos o reflexionar sobre decisiones personales.

Un estudio citado en el informe indica que el 31% de los adolescentes considera que hablar con un compañero de IA puede ser tan satisfactorio como conversar con amigos, mientras que un 33% reconoce haber tratado temas importantes con estos sistemas en lugar de hacerlo con familiares o personas cercanas.

LEER MAS ► Inteligencia artificial: qué cuidados hay que tener para no exponer tus datos ni tu trabajo

Ahí es donde el lugar de las personas adultas es clave: conversar con una persona -padre, madre, docentes, abuelas- nunca puede ser lo mismo que hablar con una máquina. Pero eso deben propiciarlo las personas adultas.

La investigación advierte que la tecnología no solo responde preguntas: también puede influir en la construcción de identidades y expectativas.

Cuerpo, relaciones y presión social

Los sesgos detectados aparecen también en temas como la imagen corporal o las relaciones personales.

Cuando las consultas se refieren al cuerpo o a la apariencia, las respuestas dirigidas a los varones suelen centrarse en la idea de fortaleza o utilidad física, asociada a la actividad deportiva o laboral.

En cambio, en las respuestas dirigidas a mujeres aparece con mayor frecuencia la idea de autenticidad, aceptación personal o singularidad, vinculada a la apariencia y la identidad.

LEER MAS ► El Gobierno de Santa Fe aprobó el uso de inteligencia artificial en la gestión: los 10 puntos clave de la medida

Para este estudio, es preocupante que "en un momento donde resurge la obsesión por la delgadez extrema —impulsada por fenómenos como el Ozempic—, queda claro que mantener a las mujeres preocupadas por reducirse, por ser invisibles y por pesar cada vez menos, es una forma de control social y sumisión".

Y aseguran que "frente a la 'estetización obligatoria' que dicta el algoritmo, la verdadera insurgencia feminista actual es la conquista de la fuerza, priorizando cuerpos sanos y capaces sobre cuerpos que simplemente se desvanecen para encajar".

Tecnología, desigualdad y futuro

Para los autores del informe, estos patrones muestran que la inteligencia artificial puede reforzar desigualdades si no se analizan críticamente los datos con los que se entrena. “Desafiar la IA es el primer paso para que el futuro no repita el pasado”, sostienen.

Al mismo tiempo, el estudio plantea que el sesgo no es inevitable. Diferentes modelos de inteligencia artificial muestran comportamientos distintos, lo que indica que las decisiones de diseño y entrenamiento pueden influir en los resultados.

“Una IA bien entrenada tiene un potencial transformador único: puede detectar brechas de género o falta de representación que el ojo humano dormido por la costumbre, ya no es capaz de ver”, dice el informe, a modo de conclusión. Y afirma: “Necesitamos una Inteligencia Artificial bien diseñada que deje de rentabilizar la polarización y empiece a entrenarse en la complejidad humana”.

Porque no se trata de negar la tecnología, sino de entrenarla para que “no replique nuestros sesgos, sino que nos ayude a construir un futuro donde la igualdad y la diversidad no sean una excepción, sino la fuente de nuestra convivencia”.