El pais
SUSCRÍBETE
Una inteligencia artificial ya puede imitar la voz de las personas.
Una inteligencia artificial ya puede imitar la voz de las personas. | Foto: Getty Images/iStockphoto

Judicial

Esté atento: Así es como delincuentes en Cali pueden clonar su voz y estafar a sus familiares

En una llamada de 30 segundos, criminales pueden tomar una muestra de su voz para luego clonarla y hacerse pasar por usted.

19 de mayo de 2024 Por: Por Anderson Zapata Reyes / Redacción El País

En diciembre pasado delincuentes se comunicaron telefónicamente con los asesores de una reconocida entidad bancaria en Cali, utilizando una voz clonada con inteligencia artificial se hicieron pasar por el titular de la cuenta y lograron retirar, en los departamentos de Tolima y Cundinamarca, la suma de $240 millones.

Según información conocida por El País, los ciberdelincuentes lo que hicieron fue clonar la voz del titular de la cuenta, solicitar al banco una actualización de datos por teléfono y así cambiar el número de celular de la persona para que cada vez que ingresaran al portal bancario o realizaran retiros no le llegara a la víctima la notificación a través de mensaje de texto y correo electrónico. El caso está siendo investigado por las autoridades.

¿Qué es la clonación de voz y cómo la hacen?

“La clonación de voz mediante inteligencia artificial es una técnica que permite replicar la voz de una persona de manera realista, de tal forma que quienes la escuchan no diferencien la voz generada por inteligencia artificial de la voz original”, explicó Fabiana Ramírez, especialista en seguridad informática de ESET Latinoamérica.

Según la experta, los cibercriminales pueden utilizar las diferentes tecnologías de inteligencia artificial para crear voces y engañar a sus víctimas, muchas veces haciéndose pasar por familiares y amigos.

“Los ciberdelincuentes recolectan muestras de la voz que pretenden clonar, las mismas pueden ser obtenidas de diversas fuentes como mensajes de voz, videos en redes sociales o llamadas telefónicas grabadas. Mientras más muestras de voz se tengan, más perfecta será luego la clonación”, explicó Fabiana Ramírez.

Llamadas telefónicas.
En una llamada de 30 segundos, criminales pueden tomar una muestra de su voz para luego clonarla y hacerse pasar por usted. | Foto: Getty Images

“Luego, se utilizarán dichas muestras para entrenar a los algoritmos de inteligencia artificial, que usualmente son de tipo Deep learning (o aprendizaje profundo), que posteriormente, a partir de su aprendizaje generaran una voz idéntica (o con leves diferencias) a la voz que se pretende clonar”, añadió.

La experta en la materia sostuvo que una vez que la inteligencia artificial este entrenada, los cibercriminales utilizan técnicas de text to speech, es decir convertir texto a palabras, usando los algoritmos y así pueden crear las oraciones, frases y lo que quieran comunicar (que sonará con la voz clonada) y de esa manera hacerse pasar por alguien más.

El intendente Giovanni Rodríguez, jefe de la Unidad de Investigaciones Tecnológicas de la Policía Metropolitana de Cali, explicó cómo hacen los delincuentes para obtener la voz de una persona y que luego esta sea modificada para estafar o hurtar a sus familiares.

“Lo que ellos hacen es hacerse pasar por trabajadores de un operador de celular o televisión. Te saludan, te preguntan cómo estás, te dicen que plan tienes contratado con ellos, te preguntan si estás interesado en tener algunos beneficios con ellos y te piden algunos datos. Te solicitan tu número de cédula y te piden tu nombre completo. Además, te preguntan qué te ha parecido el plan que tienes con ellos y así poco a poco te hacen hablar aproximadamente 30 segundos. Eso es lo que los delincuentes requieren para que usted deje un patrón de voz y luego ya ellos lo modifican”, aseguró el intendente Giovanni Rodríguez.

Esta nueva función no solo facilita la corrección de errores antes de enviar un mensaje de voz, sino que también proporciona una oportunidad para mejorar la calidad y la claridad del mensaje.
En una llamada de 30 segundos, criminales pueden tomar una muestra de su voz para luego clonarla y hacerse pasar por usted. | Foto: dpa/picture alliance via Getty I

“La recomendación que yo puedo hacer para que casos como este no se repitan es que vayan hasta las entidades bancarias y no den autorización para hacer actualizaciones de datos por medio de correo electrónico, por chat y tampoco por vía telefónica. Que quede claro que cualquier tipo de actualización que se haga debe ser presencial para que así pueda ser verificada su identidad”, explicó el Jefe de la Unidad de Investigaciones Tecnológicas de la Policía Metropolitana de Cali.

El oficial sostuvo que recientemente han tenido conocimiento de tres casos de suplantación de identidad por medio de la clonación de voz, pero las personas no han hecho las denuncias correspondientes para que se inicie con la investigación.

¿Se puede detectar una voz creada con inteligencia artificial?

Detectar una estafa en la que se utiliza una voz clonada de un familiar puede ser difícil debido a la alta calidad de la tecnología de clonación de voz. Sin embargo, los expertos sostienen que hay varias señales y medidas que pueden ayudar a identificar y prevenir este tipo de fraude.

“Inicialmente los estafadores suelen crear una sensación de urgencia para evitar que la víctima tenga tiempo de pensar o verificar la información. Además, se aprovechan de la emocionalidad de las personas”, indicó la especialista en seguridad informática Fabiana Ramírez.

La experta añadió que otra señal son los pedidos repentinos de transferencias de dinero, especialmente si la razón parece inusual o fuera de lo común. “En general los criminales se comunican con las víctimas solicitándoles cosas que normalmente no lo haría aquella persona cuya voz clonaron, por lo cual es importante prestar atención a estos hechos. También suelen solicitar información confidencial como datos sensibles y de cuentas bancarias”.

Adicionalmente, los cibercriminales usualmente se comunican desde celulares o teléfonos que no pertenecen a la persona cuya voz fue clonada y esto es algo que puede alertar a las víctimas de que quien se comunica no es su persona conocida.

WhatsApp prepara novedades para las notas de voz.
Los audios de una voz clonada también se pueden enviar por medios de mensajería instantánea. | Foto: dpa/picture alliance via Getty I

¿Hay penas establecidas para quienes cometan delitos con IA?

El Abogado Jimmy Jiménez, del bufete Integrity Legal, explicó que el uso masivo que se le está dando a la inteligencia artificial es nuevo y, a pesar de que es una tecnología de la que se está hablando desde los años 60, las legislaciones del mundo están bastante atrasadas. En nuestro país sobre los delitos cometidos con inteligencia artificial no tienen nada contemplado, sin embargo, en Colombia lo que sí hay es un agravante cuando los delitos se cometen a través del uso de las tecnologías. Si el delito se comete utilizando tecnología se genera un delito agravado”.

“En Colombia tenemos tipificados algunos delitos informáticos, pero no hay una normatividad y ni siquiera los delitos relacionados con inteligencia artificial están enunciados en la ley de nuestro país”, añadió el abogado.

“En Colombia hay una comisión del Ministerio de Ciencias y Tecnologías que está proponiendo la normatividad y las directrices, pero todo está muy crudo. Eso sí, hay que reconocer que es un tema demasiado nuevo. El Ministerio de Tecnología realizó algo llamado Hoja de Ruta de la Inteligencia Artificial para Colombia y es algo que hoy está trabajando ese comité, pero todavía no han salido a la luz los avances”, finalizó Jimmy Jiménez, del bufete Integrity Legal.

AHORA EN Judicial