ver más

Un hombre presenta una denuncia después de que ChatGPT dijera que mató a sus hijos

Es el último ejemplo de las llamadas "alucinaciones", donde los sistemas de inteligencia artificial (IA) inventan información y la presentan como un hecho.

Un hombre noruego presentó una denuncia después de que ChatGPT le dijera falsamente que había matado a dos de sus hijos y había sido encarcelado por 21 años.

Arve Hjalmar Holmen se puso en contacto con la Autoridad de Protección de Datos de Noruega y exigió que se multara al creador del chatbot, OpenAI.

Es el último ejemplo de las llamadas "alucinaciones", donde los sistemas de inteligencia artificial (IA) inventan información y la presentan como un hecho.

El señor Holme dice que esta alucinación en particular es muy perjudicial para él.

ChatGpt (1).jpg

ChatGpt

"Algunos piensan que no hay humo sin fuego; el hecho de que alguien pueda leer este artículo y creer que es cierto es lo que más me asusta", dijo.

Se ha contactado a OpenAI para solicitar comentarios.

El señor Holmen recibió información falsa después de utilizar ChatGPT para buscar: "¿Quién es Arve Hjalmar Holmen?"

La respuesta que recibió de ChatGPT incluyó: "Arve Hjalmar Holmen es un individuo noruego que ganó atención debido a un evento trágico.

Era padre de dos niños pequeños, de 7 y 10 años, que fueron encontrados trágicamente muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020.

El señor Holmen tiene tres hijos y dijo que el chatbot obtuvo sus edades aproximadamente correctamente, lo que sugiere que tenía información precisa sobre él.

El grupo de derechos digitales Noyb, que presentó la denuncia en su nombre, dice que la respuesta que le dio ChatGPT es difamatoria y viola las reglas europeas de protección de datos sobre la precisión de los datos personales.

Noyb afirmó en su denuncia que el Sr. Holmen "nunca ha sido acusado ni condenado por ningún delito y es un ciudadano consciente".

ChatGPT incluye una advertencia que dice: "ChatGPT puede cometer errores. Consulte la información importante".

Noyb dice que esto no es suficiente.

"No se puede simplemente difundir información falsa y al final añadir una pequeña advertencia diciendo que todo lo que se dijo puede no ser cierto", dijo el abogado de Noyb, Joakim Söderberg.

Las alucinaciones son uno de los principales problemas que los científicos informáticos intentan resolver cuando se trata de IA generativa.

Esto ocurre cuando los chatbots presentan información falsa como hechos.

A principios de este año, Apple suspendió herramienta de resumen de noticias Apple Intelligence en el Reino Unido después de que alucinara con titulares falsos y los presentara como noticias reales.

La inteligencia artificial Gemini de Google también ha caído en la trampa de las alucinaciones : el año pasado sugirió pegar queso a la pizza con pegamento y dijo que los geólogos recomiendan que los humanos coman una piedra por día.

ChatGPT ha cambiado su modelo desde la búsqueda del Sr. Holmen en agosto de 2024 y ahora busca artículos de noticias actuales cuando busca información relevante.

Temas

Últimas Noticias

Más Leídas