
ARTDEPARTMENT

En los últimos primaveras, la tecnología de clonación de voz basada en IA ha evolucionado a pasos agigantados: tan solo unos segundos de muestra de audio permiten replicar la voz de cualquier persona con una fidelidad sorprendente. Eso, claro está, todavía plantea serias preocupaciones en cuanto a la seguridad y el uso indebido... legado que la mayoría de las plataformas que ofrecen estos servicios carecen de salvaguardas efectivas para evitar su extralimitación.
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS
Una investigación flamante de la asociación de consumidores estadounidense Consumer Reports ha analizado seis de las principales plataformas de clonación de voz disponibles para el gran divulgado, y la conclusión ha sido que cinco de ellas tienen medidas de seguridad débiles y fácilmente eludibles. Las empresas evaluadas fueron Descript, ElevenLabs, Lovo, PlayHT, Resemble AI y Speechify.
Cuatro de estas compañías (Speechify, PlayHT, Lovo y el líder del sector, ElevenLabs) sólo requieren que los usuarios marquen una casilla en la que afirman tener derecho a clonar la voz, sin ningún mecanismo verdadero de comprobación.
Resemble AI, por su parte, exige que la persona grabe audio en tiempo verdadero en puesto de subir un archivo... aunque este requisito fue fácilmente zaherido por los investigadores al reproducir un audio pregrabado.

La única empresa que implementa una medida de seguridad poco más robusta es Descript, que exige la cinta de una enunciación de consentimiento específica, aunque esto todavía podría ser vulnerado utilizando otro de los servicios de clonación de voz anteriores.
Es importante dejar claro que los usos potenciales de la clonación de voz con IA no son exclusivamente negativos: existen aplicaciones legítimas y beneficiosas, como la concepción de audiolibros, la ayuda a personas con discapacidades del deje y la traducción de contenido a múltiples idiomas manteniendo la identidad vocal del hablante. No obstante, el mal uso de esta tecnología representa una amenaza creciente.
Uno de los casos más notorios de extralimitación en los Estados Unidos ocurrió durante su postrer proceso de primarias, cuando se difundieron llamadas automáticas (robocalls) con una imitación de la voz de Joe Biden instando a los votantes a no participar en los comicios. El creador de este enredo fue sancionado con una multa de seis millones de dólares, y la Comisión Federal de Comunicaciones (FCC) prohibió seguidamente las llamadas automatizadas generadas por IA.
Las estafas telefónicas todavía se han manido reforzadas con esta tecnología. En la modalidad conocida como 'estafa del anciano', los delincuentes llaman a personas mayores haciéndose sobrevenir por un franco en peligro para pedir pasta de aprieto. Esta estafa existe desde hace tiempo, pero la Comisión Federal de Comercio de EE.UU. ha despierto que los timadores empiezan a apelar a la IA para hacer que las voces suenen más convincentes.

Incluso en el ámbito de la industria del entretenimiento, los abusos han sido evidentes. Hace ya dos primaveras, una canción que utilizaba voces clonadas de los artistas Drake y The Weeknd se volvió virulento en redes sociales tras ser puyazo sin su consentimiento.
A pesar del creciente uso indebido de la clonación de voz con IA, los defensores de los consumidores ven aún la regulación como insuficiente: aunque la FTC estadounidense ha suficiente una norma que prohíbe la suplantación de identidades gubernamentales y empresariales mediante IA, aún no ha rematado extender esta prohibición a la imitación de individuos.
Algunas empresas tecnológicas han optado por restringir motu proprio el entrada a sus herramientas de clonación de voz por temor a su mal uso. Microsoft, por ejemplo, ha decidido no difundir públicamente su tecnología VALL-E 2, y OpenAI ha establecido el entrada a su motor de síntesis de voz por razones similares.
Frente a eso, algunas compañías continúan promoviendo el uso fraudulento de esta tecnología: el crónica de Consumer Reports revela que PlayHT y Speechify proponen las "bromas telefónicas" como un ejemplo de utilidad de sus herramientas de clonación de voz.
Imagen | Marcos Merino mediante IA
En Genbeta | Clonaron su voz con IA y usaron un vídeo suyo de YouTube: así fue como el CEO de esta famosa empresa fue víctima de un deepfake
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!