La transformación de las diferentes tecnologías basadas en la inteligencia fabricado puede habernos destapado un mundo de posibilidades, pero igualmente está generando nuevos riesgos. La Policía Doméstico ha abordado uno de ellos en su cuenta de TikTok: el 'voice hacking' o hackeo por voz.
Este tipo de estafa, que combina tanto IA como ingeniería social, permite a los ciberdelincuentes clonar la voz de una persona con el objetivo de realizar todo un catálogo de actividades fraudulentas, como extorsiones, suplantaciones de identidad y robo de información confidencial.
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS
¿Qué es el voice hacking y cómo funciona?
Según las autoridades, este aberración se está convirtiendo en una amenaza creciente, sobre todo porque la tecnología detrás del voice hacking se perfecciona continuamente. A los delincuentes les puntada con apelar a fragmentos de audio de entre 5 y 30 segundos (obtenidos, por ejemplo, de redes sociales, llamadas telefónicas o grabaciones públicas) para crear réplicas de voz capaces de engañar incluso a los más cautelosos.
Modus operandi
El voice hacking es una técnica en la que se utiliza la IA para imitar la voz de una persona. Este proceso consta de tres etapas principales:
- Producción de muestras de voz: Los estafadores recopilan fragmentos de audio de la víctima, en la mayoría de los casos sin su conocimiento ni consentimiento, a través de redes sociales o llamadas previas.
- Gestación de la voz falsa: Con herramientas avanzadas de clonación de voz, procesan las muestras para crear un maniquí sintético que imita el tono, ritmo y emociones de la voz flamante.
- Ejecutar la estafa: Utilizando esta voz clonada, contactan con familiares, amigos o empleados de la víctima para solicitar efectivo, información confidencial o llegada a sistemas de seguridad.
Casos reales: cuando la tecnología se convierte en estafa
Varios casos cerca de del mundo han ilustrado el impacto de esta técnica. El INCIBE destaca tres de ellos:
- El copiado secuestro de Jennifer DeStefano (2023): En este caso, una principio recibió una señal en la que escuchó la voz de su hija, pidiéndole ayuda tras favor sido supuestamente secuestrada. Los delincuentes exigían un rescate de 50.000 dólares. Más tarde, descubrió que su hija estaba a incólume y que la señal era un montaje creado con IA.
- Estafa a una empresa en Reino Unido (2019): Unos estafadores clonaron la voz del CEO de una empresa para solicitar a uno de sus empleados una transferencia de 220.000 euros a una cuenta fraudulenta. El fraude se descubrió demasiado tarde para recuperar el efectivo.
- Caso de Ruth Card (2023): Una mujer canadiense fue engañada con la voz falsa de su nieto, que supuestamente necesitaba efectivo para abonar una fianza. Aunque la víctima llegó a retirar los fondos, pudo descubrir antiguamente de entregarlos que era una estafa.
Los riesgos del voice hacking
Las consecuencias de ser víctima de este tipo de fraude son graves y variadas:
- Robo de identidad: Los delincuentes pueden penetrar a cuentas bancarias y realizar transacciones fraudulentas.
- Daño reputacional: Los mensajes falsos creados con voces clonadas pueden perjudicar la imagen personal o profesional de una persona.
- Pérdidas económicas: Las víctimas a menudo enfrentan gastos considerables y en muchos casos, el efectivo perdido no se puede recuperar.
Cómo ampararse del voice hacking
Aunque esta técnica es avanzadilla, existen medidas preventivas que pueden minimizar los riesgos:
- Crea una secreto de demostración: Acorda con tus contactos un código secreto (por ejemplo, el nombre de una mascota o una data singular) para confirmar la autenticidad de llamadas sospechosas.
- Cuida tu información pública: Reduce la cantidad de grabaciones de tu voz en redes sociales y otros espacios accesibles.
- Desconfía de números desconocidos: Delante llamadas urgentes, corta la comunicación y verifica el mensaje llamando directamente a números conocidos.
Imagen |
En Genbeta | Dejar que la IA clone tu voz y vencer efectivo cuando otros la usen. Eso es lo que ofrece esta nueva función de Eleven Labs