La tecnología avanza cada vez más rápido y la inteligencia artificial se utiliza en películas y filtros de Instagram con mucha facilidad. Así también los programas de "deep fake" o "deep voice" pueden ser utilizados para fines ilegales. En el año 2020 el director del banco de Emiratos Árabes Unidos, recibió un llamado que venía de un alto empresario con quien había tenido contacto. Sin sospechar que estaba siendo estafado por un grupo de "hackers" que utilizaban tecnología para clonar la voz del verdadero cliente para sacarle 35 millones de dólares.
Así lo asegura Forbes citando el documento legal del caso, donde también se expone que el hombre detrás de la llamada dijo que su empresa estaba a punto de realizar una adquisición, por lo que necesitaba que el banco autorizara algunas transferencias por valor de 35 millones de dólares. Para ello se había contratado a Martin Zelner, un abogado que sería el encargado de coordinar las transacciones.
No te olvides de seguirnos en Google Noticias para mantenerte informado
De acuerdo a lo pactado, el banco recibió varios correos electrónicos de Zelner y del empresario donde se confirmaba la cantidad de dinero a mover y a dónde debía enviarse. Lo legítimo que parecía el trámite dio confianza al Director del banco quién no dudó en dar luz verde a las operaciones, que más tarde confirmarían se trataba de un fraude.
La Fiscalía de Dubai, sostiene que este elaborado plan involucró al menos 17 personas quiénes repartieron el dinero robado en cuentas bancarias de diferentes países del mundo, lo que los ha llevado a buscar el apoyo de investigadores estadounidenses para rastrear al menos 400.000 dólares que ingresaron a cuentas con sede en Estados Unidos vinculadas al Centennial Bank.
Este es solo el segundo caso registrado de estafadores que usan herramientas de modelado de voz para llevar a cabo un atraco de esta magnitud. El primero fue en 2019 cuando un grupo de estafadores utilizaron esta tecnología para hacerse pasar por el director ejecutivo de una empresa de energía del Reino Unido, en su intento por robar 240.000 dólares según reporta el Wall Street Journal.
Estos casos evidencian cuán peligrosas pueden llegar a ser las estafas mediadas por Inteligencia artificial como lo aseguró a Forbes Jake Moore, un ex oficial de policía del Departamento de Policía de Dorset en el Reino Unido, “las falsificaciones profundas de audio y visuales representan el fascinante desarrollo de la tecnología del siglo XXI, pero también son potencialmente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”
“Manipular audio, que es más fácil de orquestar que hacer videos falsos profundos, solo aumentará en volumen y sin la educación y el conocimiento de este nuevo tipo de vector de ataque, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones muy convincentes”, agregó.
Cada vez son más las empresas que se encuentran desarrollando software que hace posible la clonación de voz especialmente para fines de entretenimiento. Recientemente causó revuelo la revelación de que el difunto Anthony Bourdain tenía su voz sintetizada para un documental sobre su vida. Mientras tanto, reconociendo el potencial de uso malintencionado de la IA, también ha surgido otro puñado de empresas, como la firma de seguridad Pindrop, que ahora afirman que pueden detectar voces sintetizadas y así prevenir fraudes. Hoy cualquiera que tenga grabaciones disponibles en línea, ya sea en redes sociales, Youtube o en un sitio web, es susceptible de que su voz sea doblada sin que lo sepa.
También te puede interesar
Florencia Rosa, Marito Altamirano y Esteban Jourdán te recomiendan 5 series de animación que te encantaban
Temas
Te puede interesar






