Es noticia
Clonan la voz de un hombre con inteligencia artificial para estafar a sus padres
  1. Tecnología
  2. Novaceno
Ya hay varios casos

Clonan la voz de un hombre con inteligencia artificial para estafar a sus padres

Arrancan los primeros casos de fraudes que utilizan las inteligencias artificiales generativas para simular voces de personas y estafar dinero a sus familiares en llamadas telefónicas

Foto: Una de las predicciones de 'Control Z: El Fin de la Realidad' ya se ha hecho realidad. (Novaceno)
Una de las predicciones de 'Control Z: El Fin de la Realidad' ya se ha hecho realidad. (Novaceno)

Era cuestión de tiempo que a alguien se le ocurriera utilizar las nuevas inteligencias artificiales de imitación de voz para llevar a cabo fraudes. Los primeros casos ya empiezan a aflorar incluso cuando la tecnología está dando sus primeros pasos, aunque esto es solo la parte que asoma del iceberg de delitos que están por venir.

ChatGPT, Dall-e o Stable Diffusion son solo algunas de las nuevas inteligencias artificiales generativas que se han puesto de moda en los últimos meses. Su poder creativo es exuberante, pero también tienen un lado perverso que estamos empezando a ver. Como contamos en el episodio 5 de Control Z: ‘El fin de la Realidad’, hay ya tecnologías como Vall-e, un algoritmo de Microsoft, que son capaces de clonar la voz de cualquier persona con solo escucharla hablar unos segundos. Una vez está entrenada la IA, solo hay que introducir el texto que se quiere convertir en voz y la máquina lo hace con una precisión asombrosa que incluye incluso las inflexiones y las emociones naturales del individuo. Vall-e no está abierto al público, pero es la punta de lanza de otras tecnologías similares que no son tan perfectas, pero a las que ya se puede acceder.

Foto: Wonder Studio es una revolución en el mundo de la imagen que acelera la llegada del fin de la realidad. (Wonder Dynamics)

Los casos se empiezan a amontonar

El Washington Post cuenta en un artículo reciente el caso de Ruth Card, una mujer candiense de 73 años que recibió una llamada de alguien que sonaba como su nieto Brandon y que le decía que estaba detenido por la policía y necesitaba dinero para pagar la fianza. Card y su marido fueron al banco y sacaron el máximo permitido en un día, 3.000 dólares canadienses (poco más de 2.000 euros). Cuando fueron a otra sucursal para intentar sacar más, el director les llamó a su despacho y les alertó de que podía tratarse de un fraude similar a otros que estaban sucediendo recientemente.

"Nos engatusaron", cuenta Card en una entrevista para el medio estadounidense. "Estábamos convencidos de que estábamos hablando con Brandon".

El Washington Post también cuenta el caso de Benjamin Perkin, un hombre de 39 años. Su supuesto abogado llamó a sus padres porque su hijo había matado a un diplomático estadounidense en un accidente de coche y necesitaba 21.000 dólares (unos 19,700 euros) antes de que acabara el día para pagar los gastos judiciales. El abogado hizo parecer que ponía a Perkin al teléfono y una voz similar a la suya le dijo a sus padres que les quería y que si podían enviarle el dinero que necesitaba.

Los padres fueron rápidamente a varios bancos para conseguir el dinero y se lo enviaron al abogado a través de un terminal de bitcoin. Casualmente, el verdadero Perkin llamó a sus padres esa misma noche para ver qué tal estaban y los padres descubrieron que habían sido estafados.

Perkin ha publicado varios vídeos en Youtube en los que habla de motos de nieve, una de sus grandes aficiones. Probablemente los estafadores capturaron el audio de sus vídeos y lo pasaron por una herramienta de inteligencia artificial que clona las voces. Aunque el resultado no era perfecto, fue lo bastante convincente como para engañar a los padres. La voz sonaba "lo suficientemente parecida como para que mis padres creyeran de verdad que hablaban conmigo", afirma Perkins.

La familia ha presentado una denuncia ante las autoridades federales de Canadá, según Perkin, aunque no han podido recuperar el dinero.

Cómo lo evitamos

Este tipo de fraudes no son nuevos. Siempre ha habido estafadores que se han hecho pasar por otras personas para engañar a los incautos, pero para llevar a cabo estos timos hacía falta un cierto talento para la imitación que no es tan común. Ahora, con la llegada de tecnologías como Vall-e ya no hace falta tener ningún talento especial, con solo capturar audio de plataformas como TikTok, Facebook o Youtube cualquiera se puede convertir en tu hijo, tu pareja, tu madre o tu amiga y convencerte de que necesita dinero urgentemente para salir de un apuro.

Como contamos en el Control Z de ‘El fin de la Realidad’ ahora mismo la tecnología va por delante de las soluciones. Pero los expertos que consultamos para escribir el episodio nos contaron que hay varios caminos para evitar este tipo de fraudes. En concreto apuntaron a tres.

El primero, y más importante, es la creación de estándares de certificación criptográfica a nivel mundial para autenticar cualquier contenido capturado por cámaras y micrófonos digitales. La segunda es lanzar programas de educación para que el público comprenda el alcance y los peligros de la inteligencia artificial generativa. Y tercero, que los gobiernos de todo el mundo colaboren con la comunidad científica para diseñar una legislación que proteja los derechos individuales y ponga sanciones penales al abuso de la tecnología.

Era cuestión de tiempo que a alguien se le ocurriera utilizar las nuevas inteligencias artificiales de imitación de voz para llevar a cabo fraudes. Los primeros casos ya empiezan a aflorar incluso cuando la tecnología está dando sus primeros pasos, aunque esto es solo la parte que asoma del iceberg de delitos que están por venir.

Inteligencia Artificial Tecnología
El redactor recomienda