Medios

La Inteligencia Artificial puede utilizarse para falsificar la voz de cualquier persona

La Inteligencia Artificial ofrece una serie de acciones positivas, pero actualmente están surgiendo una serie de elementos que hacen todo lo contrario, son totalmente negativos. A continuación hablamos de la clonación de voz por medio de la IA que, en una gran cantidad de casos, trae consigo notables engaños.

La Inteligencia Artificial puede utilizarse para falsificar la voz de cualquier persona

La Inteligencia Artificial (IA) está en boga. No es la primera vez que hablamos del tema, ya lo hemos hecho en más de una ocasión. Hoy nos vamos a referir a lo que están haciendo algunos estafadores con la clonación de voz de personas con el fin de conseguir beneficios.

Ello lleva implícito, además de un gran engaño, la consecución de beneficios. Así, por ejemplo, los ciberdelincuentes pueden utilizar la voz falsificada para engañar y así conseguir lo que desean. Ello supone un nuevo mal en el campo de la IA.

¿Qué es un generador de voz por IA?

Si hacemos una visita a Voicemod, veremos que la aplicación que ofrecen está centrada en un cambiador de voz, en un generador de voz, en un fabricante de voz en tiempo real. Los responsables de esta herramienta nos dicen lo siguiente sobre la misma:

«La voz IA es una voz sintética que imita el habla humana utilizando inteligencia artificial y aprendizaje profundo. Estas voces se pueden usar convirtiendo texto a voz, como con Voicemod Text to Song, o de voz a voz, que es cómo funciona nuestra colección de voces de IA«.

En estos momentos esta tecnología se está utilizando en algunos casos con el fin de engañar. Así, por ejemplo, los estafadores fingen ser un familiar o amigo para defrausar a las víctimas, generalmente personas mayores. Según nos cuentan en Washington Post, en el año 2022 hubo más de 5.100 informes de estafas de impostores por teléfono que generó un total de 11 millones de dólares en pérdidas.

Cómo funciona esta estafa

Como ya hemos indicado, los delincuentes utilizan la tecnología de Inteligencia Artificial implementada en los generadores de voz con el fin de imitar la que corresponde a alguien determinado. Así, por ejemplo imitan la voz de un niño pequeño con el fin de engañar a un pariente. Dicen, por ejemplo, que el niño está secuestrado y piden un rescate.

En ocasiones recurren a las redes sociales con el fin de captar la voz de una persona y utilizarla con fines delictivos. Ya se han dado varios casos. Los estafados no disponen de medios para evitar ser engañados.

A tener en cuenta

La mejor forma de luchar contra esta estafa es activar en grado sumo la desconfianza. Un método sencillo, en el caso de que se reciba una llamada con la voz de un niño, es pedir la activación de una videollamada con el fin de verlo y hablar con él.

Aunque existen aplicaciones que pueden ayudar en la detección de estos engaños, no siempre son válidas, ya que solo se pueden aplicar en ordenadores en la mayoría de los casos. Esperemos que la Inteligencia Artificial sea también capaz de elaborar sistemas de protección para este tipo de engaños.

Fabriciano González

Amante de la informática y de Internet entre otras muchas pasiones. Leo, descifro, interpreto, combino y escribo. Lo hago para seguir viviendo y disfrutando. Trato de dominar el tiempo para que no me esclavice.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.