
ARTDEPARTMENT

En la era de la inteligencia fabricado (IA), donde el entusiasmo por probar nuevos modelos y herramientas es cada vez maduro, igualmente aumentan las oportunidades para los ciberdelincuentes.
Y es que, recientemente, los investigadores de Kaspersky han descubierto una campaña de malware que explota este interés generalizado mediante una trampa cuidadosamente diseñada: un desleal instalador del maniquí de IA DeepSeek-R1, que en sinceridad no contiene sino un peligroso malware.
Ransomware: qué es, cómo infecta y cómo defenderse
DeepSeek-R1 es un maniquí de idioma desarrollado en China cuyas capacidades técnicas han llamado la atención de muchos entusiastas de la IA. Aprovechando esta popularidad, y unido al hecho de que puede instalarse localmente en nuestros PC al ser 'open source', los ciberdelincuentes han creado una web falsa muy parecida a la legítima, con la intención de engañar a los usuarios para que descargaran un supuesto instalador del maniquí.
El sitio zorro usaba el dominio deepseek-platform.com, promovida a través de anuncios comprados en Google (aunque en cualquier momento puede reaparecer usando otra URL). Así, cuando algún buscaba "deepseek r1", el sitio fraudulento aparecía como primer resultado.
Ahora, a pesar de que Google ya ha eliminado los anuncios y suspendido la cuenta del anunciante tras descubrirse la campaña, los equipos de muchos usuarios permanecen infectados.
El desleal instalador ofrecía un archivo denominado AI_Launcher_1.21.exe que, una vez descargado y ejecutado en sistemas Windows, abría una pantalla que imitaba el CAPTCHA de Cloudflare, dando al legatario una falsa sensación de seguridad y licitud.
Después, el instalador ofrecía la opción de ejecutar el maniquí en plataformas como Ollama o LM Studio. Sin importar la selección, el resultado era siempre el mismo: la activación de BrowserVenom, un malware reformista que opera como un proxy zorro. Estas son sus principales funciones:
La táctica utilizada —suplantar instaladores de herramientas de IA— se está volviendo cada vez más global
Este caso destaca la penuria urgente de precaución frente a la descarga de herramientas relacionadas con la inteligencia fabricado. Aquí algunas recomendaciones secreto:
Aunque sería ideal instalar DeepSeek con un solo clic, ese deseo de simplicidad puede ser peligroso si no se acompaña de precaución. La promesa de acercamiento rápido a herramientas de IA se está convirtiendo en un señuelo para el cibercrimen. No bajes la pareja: un clic puede ser suficiente para comprometer toda tu seguridad digital.
En presencia de el auge de instaladores falsos y campañas de malware, es crucial conocer las vías legítimas para trabajar con modelos como DeepSeek. Dos herramientas ampliamente reconocidas por su fiabilidad y comunidad activa son Ollama y LM Studio.
Ollama es una plataforma que permite ejecutar modelos de idioma grandes (LLMs) de forma nave en tu máquina, con una experiencia muy simple y centrada en la privacidad. Este software, y es compatible con varios sistemas operativos, y ofrecw documentación clara y soporte de la comunidad.
DeepSeek, al igual que otros modelos como LLaMA o Mistral, se puede importar fácilmente en Ollama a través de comandos de texto.
LM Studio es otra interfaz amable para descargar y probar modelos LLM de código descubierto. Se enfoca en la experiencia del legatario y permite permite importar modelos como DeepSeek desde repositorios confiables como Hugging Face, y ejecutarlos sin conexión, preservando la privacidad y reduciendo el aventura de filtraciones.
Imagen | Marcos Merino mediante IA
En Genbeta | Cualquiera puede ser 'el nuevo Alcasec': por menos de 200 euros, esta IA 100% creada por ciberdelincuentes hackeará por ti
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!