La clonación de voz es cada vez más fácil a través de la inteligencia artificial y los estafadores sacan provecho para extorsionar y manipular a sus víctimas. Hay que sospechar de cualquier comunicación sospechosa y de carácter urgente que solicite información, aun cuando sea con una voz conocida.

La clonación de voz con IA es un nuevo peligro al que atender.
¿Qué es la clonación de voz y cómo funciona la estafa?
La clonación de voz es un tipo de fraude que simula el habla de una persona para extraer datos sensibles. Se trata de una nueva modalidad de estafas con IA que se suma a las ya existentes, y tiene varias maneras de aplicarse.
El Instituto Nacional de Ciberseguridad (INCIBE) lo clasifica con el término inglés voice hacking. Para clonar la voz, los estafadores deben recurrir a muestras del tono original. Puede ser mediante fragmentos que estén disponibles en las redes sociales, o mediante otras técnicas.
Estas otras técnicas pueden ser llamados misteriosos que nadie responde. Cuando la víctima atiende, del otro lado hay un sistema de inteligencia artificial captando los tonos y modos del habla. Los softwares más potentes necesitan un ínfimo fragmento para la clonación de voz.
A continuación, se da lo que se conoce como deepfake, es decir, una estafa que simula la realidad de modo muy fiel. Con la voz clonada se le puede dar indicaciones a dispositivos IoT (internet de las cosas) como Alexa, Google Home o Siri. Pero no solo eso.
Los estafadores también pueden recurrir a la clonación de voz con IA para llamar a personas haciéndose pasar por sus seres queridos. Esto puede servir para recrear un falso secuestro o una situación de emergencia, pero también puede ser más sutil.
Por ejemplo, un cónyuge que deja un mensaje de voz a su pareja para preguntarle por alguna contraseña o dato del hogar. Casos semejantes resultan más complicados de detectar. En ocasiones, la clonación de voz es utilizada para pedirle a la víctima que envíe un mensaje de texto a un número desconocido para proceder al robo de la información confidencial.
Tipos de estafas de voz con IA y qué hacer si suceden
Quizás el caso más popularizado de estafas de voz es el del falso secuestro. Se trata de un timo muy viejo, que no requiere IA porque la persona que actúa de secuestrado finge un tono de angustia y desesperación que se le puede atribuir a cualquier persona en semejante situación.
Ahora, con la clonación de voz con IA, la sofisticación es aún mayor. La recomendación en caso de recibir este tipo de llamados es la misma de siempre mantener la calma y no tomar decisiones apresuradas. Se debe intentar por todos los medios entrar en contacto directo con la persona que supuestamente está secuestrada para confirmar su paradero.
Un caso similar es el de las estafas con IA que solicitan un SMS a un número desconocido. En esa variante, la voz clonada indica que no puede llamar en ese momento, pero que necesita comunicarse de manera inmediata por mensajes de texto.
Tal requerimiento ya es suficiente para despertar sospechas, pero al escuchar una voz conocida y familiar las víctimas tienden a bajar la guardia. Lo que se debe hacer entrar en contacto con la persona real y verificar si fue ella quien dejó el mensaje.
¿Ejemplos similares? Un amigo que de repente está preso y necesitar pagar una fianza, un familiar que ha tenido un accidente y solicita dinero urgente, un colega que anuncia una oportunidad imperdible con criptomonedas. Y así sucesivamente: la creatividad de los estafadores no conoce límites.
Por eso, la clave es mantenerse alerta. Al recibir este tipo de llamadas sospechosos, se recomienda avisar a otros contactos sobre la situación para que estén al tanto. Dar notificación a la Policía es el siguiente paso, en función de desmantelar la red de fraudes.