Los estafadores ya clonan con IA la voz de tus seres queridos y conocidos
Una oleada de usuarios está recibiendo llamadas o audios en las que escuchan la voz de algún familiar o compañero de trabajo...
... pero en realidad es una estafa para conseguir dinero o datos personales.
Así lo explican los expertos a Maldita.es, quienes aseguran que ya existen herramientas con IA que los timadores usan con facilidad y sin conocimientos técnicos.
La voz de compañeros y familiares clonadas con IA
Los Mossos d’Esquadra advierten del uso de deepfakes de audio en llamadas de teléfono mediante la clonación de voz con IA. Se trata de una de las estafas con IA más utilizadas.
A la advertencia se une el Instituto Nacional de Ciberseguridad, que comparte el caso de una víctima que ha escuchado la voz de su esposo en una llamada proveniente de un número desconocido.
"¡Hola! No te puedo llamar, envíame un mensaje a este número", sonaba a través del altavoz de su móvil. Pero al contactar con su pareja mediante el número de teléfono real, ha comprobado que se trataba de una suplantación de identidad.
José Ángel Merino, director del área de delitos económicos de los Mossos d’Esquadra, explica en una rueda de prensa que la clonación de voces con IA también se da con compañeros de trabajo.
“Un trabajador de una gasolinera recibe un audio en el que identifica como interlocutor a un compañero de trabajo, que le pide que haga una transferencia de dinero”, ejemplifica Merino.
Herramientas al alcance de timadores para clonar voces con IA
Una de las herramientas para clonar voces permite subir audios y la voz queda registrada en la app. Entonces, “puedes escribir cualquier texto para que sea reproducido con esa voz y el resultado te lo puedes descargar en formato MP3”, revela a Maldita.es Roberto Carreras, director de marketing de voz en LLYC.
Lo más curioso es que el audio puede durar unos escasos minutos o, incluso, unos segundos y ya es suficiente para clonar una voz. Si bien la calidad del archivo determina el resultado, a los estafadores les sirve cualquier calidad.
Al final, los timadores generan audios cortos y sueltos a partir de audios de YouTube, Instagram o TikTok, tal y como aseguran a Maldita.es Carreras y Carmen Torrijos, lingüista computacional y responsable de IA en Prodigioso Volcán.
Así son los datos a los que no das importancia y con los que los ciberdelincuentes pueden saberlo todo sobre tu vida y preparar sus ataques, según expertos en OSINT.
Cómo actuar ante una sospecha de voz clonada con IA
El Instituto Nacional de Ciberseguridad (INCIBE) revela a Maldita.es cuatro consejos clave para prevenir y actuar frente a estafas con una voz clonada por IA:
- Si recibes una llamada sospechosa, contrasta con la persona que podría ser víctima de suplantación de identidad.
- Nunca facilitar datos bancarios ni personales.
- Nunca seguir las pautas, como descargar apps o entrar en un enlace.
- Acordar una palabra secreta con amigos y familiares para comprobar su identidad.
En el caso de que utilicen tu voz clonada con IA, el INCIBE proporciona a Maldita.es algunas recomendaciones:
Si detectas un uso indebido de tus datos personales, puedes solicitar la eliminación de esos datos a la plataforma. Pero si la respuesta es negativa, tienes la opción de contactar con la Agencia Española de Protección de Datos.
- Fuente: Business Insider