
ARTDEPARTMENT

La IA generativa avanza a una velocidad vertiginosa, y cada semana aparecen nuevas formas de integrar modelos como Claude, Gemini o Copilot en las herramientas que más usamos. Y una de las fronteras más controvertidas (y jugosas) es el navegador web, esa ventana por la que gestionamos gran parte de nuestra vida digital, desde nuestras redes sociales hasta nuestras cuentas bancarias.
En ese dominio delicado, Anthropic ha audaz una traducción 'preview' de Claude para Chrome, con la forma de una extensión que permite a su maniquí de IA automatizar la navegación: estudiar páginas, pulsar chico, completar formularios o ejecutar tareas directamente en el navegador. Pero la propia compañía advierte que el invento es tan útil como peligroso.
Se alcahuetería de una extensión real, disponible solo para unos 1.000 suscriptores de cuota de Claude Max (con planes de 100-200 dólares al mes). Esto, según la empresa, hace que Claude sea "sustancialmente más útil" al integrarse en el flujo existente de trabajo. Y, pese a todo, Anthropic no la considera "preparada" para el divulgado militar.

El anciano aventura son los ataques por inyección de instrucciones ocultas ("prompt injection"). En ellos, un texto aparentemente inocente (un email, un documento, incluso un post en redes sociales) incluye comandos invisibles que la IA podría interpretar como legítimos. No es la primera vez que eso ocurre en los últimos tiempos.
Ejemplos reales:
Anthropic admite que sin defensas, los ataques tuvieron éxito el 23,6% de las veces en 123 pruebas realizadas. Con mitigaciones, la sigla bajó al 11,2%. En ataques específicos del navegador, como campos invisibles en formularios, lograron incluso aminorar la tasa de éxito del 35,7% al 0%.
Para mitigar riesgos, Claude para Chrome incluye:
Aun así, expertos como Simon Willison (que fue quien acuñó el término prompt injection) califican la tasa de error restante del 11,2% como "catastrófica", argumentando que es poco realista esperar que usuarios finales gestionen riesgos tan complejos.

Claude para Chrome no surge en el vano. Experimentos similares como Perplexity Comet, Gemini para Chrome o Copilot para Edge han enfrentado vulnerabilidades graves. El equipo de Brave demostró, por ejemplo, cómo Comet podía ser engañado para entrar en cuentas de Gmail y disparar recuperaciones de contraseñas con simples instrucciones escondidas en un hilo de Reddit.
Esto ha llevado a algunos observadores a resolver que el concepto mismo de un navegador "pilotado" por IA podría ser intrínsecamente inseguro.
Aunque suene inquietante, Anthropic defiende que la convergencia entre navegadores y modelos de IA es "irremediable". La compañía confía en que el trabajo de prueba con este reunión estrecho de usuarios permita descubrir patrones de ataque y diseñar mejores defensas ayer de un tiro masivo.
Pero mientras tanto, los riesgos no son hipotéticos. Como resume Willison:
"No creo que sea justo esperar que los usuarios finales tomen buenas decisiones sobre riesgos de seguridad tan complejos".
Imagen | Marcos Merino mediante IA
En Genbeta | La compañía de IA Perplexity ha puesto sobre la mesa una propuesta por Google Chrome de 34.500 millones: el doble de su propio valía
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!