ARTDEPARTMENT

Solicitar una consulta

una abuela contando historias eternas a los estafadores

Publicado el 
noviembre 18, 2024

Resulta difícil encontrarse con cualquiera que no haya sufrido alguna vez “esa” emplazamiento, de hecho, diría que es un casi expediente X. Nos referimos, por supuesto, a los scammers por teléfono, que no son más que una estafa para ingresar parné a nuestra costa. Hemos contado muchísimos casos y tipos, y mientras se preparan algunas regulaciones para hacerle frente a esta tortura que padecemos tantos usuarios, ha llegado el héroe sin capa más inesperado: una IA.

Las llamadas y los ancianos. No hay duda de que las estafas telefónicas representan una amenaza significativa, especialmente para los grupos más vulnerables: las personas mayores. Los datos así lo atestiguan: en 2023, los consumidores estadounidenses perdieron un récord de 10 mil millones de dólares correcto a fraudes, un incremento del 14 % respecto al año preparatorio.

Si cruzamos el charco, en Reino Unido más de dos tercios de las personas mayores de 75 primaveras han experimentado al menos un intento de estafa en los últimos seis meses, y el 40 % enfrenta intentos frecuentes.

Daisy. En este caldo de cultivo, un panorama de lo más preocupante, cualquiera ha tenido una idea que se sale de la norma con una opción innovadora para proteger a las personas más vulnerables: la abuela Daisy. ¿Qué? Sí, la compañía británica de telecomunicaciones O2 ha desarrollado una herramienta basada en IA llamada Daisy, una diseñada para frustrar a los estafadores telefónicos al involucrarlos en conversaciones largas y sin sentido.

Este chatbot, conocido como “dAIsy,” imita la voz de una persona mayor, un escudo para uno de los grupos más vulnerables y comúnmente atacados por los estafadores de este tipo. El propósito es simple, pero de lo más efectivo: hacer que los estafadores pierdan el tiempo y, por ende, proteger a posibles víctimas reales.

Una teleco detrás. Daisy, creada con modelos de habla similares a ChatGPT, se especializa en prolongar largas conversaciones sobre temas banales que van desde su "bienquerencia" por tejer a historias ficticias sobre su micho "Fluffy". Su objetivo, como decíamos, es claro: habitar el tiempo de los scams, reduciendo así el acondicionado para contactar a víctimas reales. 

Según Virgin Media O2 en una entrada de su blog, Daisy está "dándole la reverso al mecanismo de los estafadores, frustrándolos con sus propias armas".

Cómo funcionan las "batallitas" de la abuela. Al parecer, Daisy combina varias tecnologías de IA. A asimilar: primero una transcripción de voz que convierte el discurso del estafador en texto, luego utiliza modelos de habla para crear respuestas relevantes que mantengan la conversación, y por posterior convierte dichas respuestas en una voz convincente de mujer anciana.

Pensemos que todos estos procesos ocurren en segundos, haciendo creer a los estafadores que en sinceridad están hablando con una persona vivo. Adicionalmente, Daisy proporciona información falsa, como datos bancarios ficticios, con el fin de prolongar el enredo el veterano tiempo posible. De hecho, en grabaciones compartidas por O2 se muestra cómo Daisy ha llegado a desconcertar a algunos estafadores hasta el punto de acabar sacándoles de sus casillas haciéndoles chillar de frustración. Una maravilla.

Impacto de la abuela. Según O2, Daisy ya ha acabado mantener a varios estafadores en línea durante más de 40 minutos. Su diseño, que simula el estilo conversacional premioso y detallado de una persona anciana, dicen que maximiza la irritación de los estafadores, quienes a su vez dependen de la velocidad para maximizar sus ganancias.

Los usuarios en Reino Unido pueden redirigir llamadas sospechosas al número 7726, enviando a los estafadores directamente a Daisy. Virgin Media O2 demora que la iniciativa marque una diferencia en medio del aumento de actividades fraudulentas.

Estafas cada vez más sofisticadas. Aunque Daisy representa un avance en la lucha contra el fraude, los estafadores y “scams” incluso están utilizando herramientas de IA para desarrollar tácticas más sofisticadas. Hemos contado varias, siendo una de las más preocupantes las "clonaciones de voz" (o "deepfakes" de voz) basadas en IA, las cuales utilizan fragmentos de audio para imitar la voz de una persona y cometer fraudes bancarios o extorsiones.

En casos extremos, incluso se han utilizado para hacer creer a las víctimas que han secuestrado a un ser querido, exigiendo rescates falsos. Según McAfee, uno de cada cuatro encuestados ha sido objetivo de este tipo de estafas. Otra vez, herramientas como Daisy podrían ayudar a combatir esta tendencia al enredar bots de estafa con IA similares.

Con frases como “Tengo todo el tiempo del mundo, querido”, Daisy encarna una táctica disruptiva para compendiar el impacto de estas estafas. No todo iba a ser demonizar a la IA ya que, acertadamente usada, podríamos estar frente a una aparejo que puede convertirse en una aposento secreto en la lucha contra el fraude. Eso y, por supuesto, que se consigan desmantelar estas organizaciones con regulaciones efectivas.

Imagen | ironypoisoning

En Genbeta | Mucho cuidado con lo que dices falta más descolgar el teléfono: podrías caer en la trampa de esta nueva estafa

En Genbeta | Mucho cuidado si eres cliente de Movistar: la operadora alerta de una nueva estafa con el cambio de router

Source link

Compartir este artículo

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram