
ARTDEPARTMENT

Entre las más recientes y peligrosas modalidades de ciberestafa destaca la clonación de voz, que permite replicar con gran precisión la voz de cualquier persona, lo que permite luego inculpar al 'clonado' en ciberdelitos, o usarle para robar efectivo o datos a sus contactos.
Esta amenaza, que ha irrumpido con fuerza como consecuencia del auge de la inteligencia industrial (IA), fue uno de los temas principales abordados en el III Cybercamp, organizado hace unos días por el Instituto Franquista de Ciberseguridad (INCIBE).
Según el entendido en fraude informático Javier Álvarez, participante en dichas jornadas, al punto que cuatro segundos de conversación son suficientes para duplicar la voz de una persona y utilizarla para engañar a familiares o amigos. Así lo explica:
"Si te llaman y, utilizando la voz de un franco, te dicen que hagas un Bizum o una transferencia porque ha perdido la cartera o necesita efectivo, te lo vas a creer porque es su voz".
"Siempre es preferible desconfiar, aunque la desconfianza sea elevada al cuadrado. Si desconfiamos, podemos alguna vez continuar mal con algún amigo por no prestarle el efectivo, pero el 99 por ciento de las veces vamos a activo evitado un fraude".
Este tipo de patraña no solo afecta a particulares, sino asimismo a empresas, donde los estafadores pueden suplantar a directivos para ordenar transacciones fraudulentas.

Según los datos del Oscilación de Criminalidad de 2024, las estafas informáticas constituyen el 88,9% de los delitos de cibercriminalidad y se han multiplicado prácticamente por cinco desde 2016. La aparición constante de nuevos métodos, como el que nos ocupa en este artículo, no ayuda.
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS
Mucha concurrencia no es consciente de que su voz ya está adecuado en Internet correcto a diversas acciones cotidianas. Estas son algunas de las situaciones más comunes que pueden suministrar la clonación de voz:
Para minimizar los riesgos, es recomendable configurar la privacidad en redes sociales, evitar compartir audios innecesarios y ser consciente de los entornos en los que se palabra.
Por otro costado, para minimizar el aventura de caer en una estafa por clonación de voz de un amigo o franco, el INCIBE recomienda adoptar una serie de medidas:
Imagen | Marcos Merino mediante IA
En Genbeta | Dejar que la IA clone tu voz y cobrar efectivo cuando otros la usen. Eso es lo que ofrece esta nueva función de Eleven Labs
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!