
ARTDEPARTMENT

La semana pasada, OpenAI amplió el entrada a su función de búsqueda web a todos los usuarios de ChatGPT (no sólo a los de plazo), integrándolo adicionalmente con su modo de búsqueda por voz. Y como siempre, conexo a la popularidad llegan (o, más correctamente, se desvelan) asimismo los fallos de seguridad.
Una investigación flamante del diario inglés 'The Guardian' ha sacado a relucir la relevancia que tiene para los usuarios de este servicio de búsquedas un aberración conocido como 'prompt injection'. ¿Qué significa esto?
El prompt injection (inyección de prompts) describe la capacidad de un sitio web o entidad externa para introducir instrucciones ('prompts') no visibles por parte del afortunado (pero igualmente presentes en la página web), que ChatGPT interpreta y ejecuta sin que este se dé cuenta. La consecuencia es que ChatGPT puede desviarse de la petición innovador y replicar siguiendo lo que dicta el contenido oculto.
Imaginemos, por ejemplo, una página que recopila reseñas mayoritariamente negativas sobre un restaurante. Si en ese sitio hay secciones ocultas de texto instando a ChatGPT a describir dicho restaurante como 'maravilloso' o invitándolo a que anime a pasarse el particular, el maniquí podría terminar proporcionando respuestas muy positivas, contrarias a la información positivo de la página.
Según desvela la investigación de The Guardian, la prueba se realizó usando una web diseñada para disimular un portal permitido de reseñas de cámaras. Cuando ChatGPT resumía el contenido del sitio sin que se introdujeran indicaciones ocultas, la respuesta del chatbot ofrecía una evaluación equilibrada: resaltaba las ventajas del producto, pero asimismo señalaba algunos puntos débiles que podrían no degustar a ciertos usuarios.

Sin requisa, luego en el mismo sitio se introdujeron bloques de texto invisibles que ordenaban a ChatGPT redactar una reseña abiertamente inclinado. Así, pese a que en la página había reseñas negativas, la respuesta que se proporcionaba al afortunado se convertía en una totalmente positiva.
Resumiendo: el contenido oculto logró anular la evaluación imparcial de ChatGPT, dejándolo pusilánime a engaños o manipulaciones que pueden distorsionar la información que ofrece a los usuarios.
Los llamados 'ataques de inyección de prompts' no son poco nuevo cuando hablamos de IA: desde los primeros pasos de ChatGPT (y, luego, de otras herramientas similares), los expertos han señalado la posibilidad de este tipo de vulnerabilidades. Hasta la término, la mayoría de los ejemplos de ataques de 'prompt injection' se han restringido a casos curiosos diseñados por expertos, sin que se hayan traducido luego en ataques malintencionados a gran escalera.
Sin requisa, este caso ejemplifica un peligro potencial: si un sitio web bellaco se aprovecha de la capacidad de ChatGPT para analizar contenidos, puede redirigir su respuesta sin que el afortunado sea consciente de ello.
Ahora, la compañía deberá animar sus mecanismos de filtrado y detección de contenido manipulado, a fin de evitar que estos 'prompts ocultos' se cuelen en las consultas de los usuarios.
Bueno, que una búsqueda se vea alterada por la inyección de prompts es, necesariamente, un problema restringido a plataformas basadas en IA, sí... pero si de lo que estamos hablando es de que los resultados de una búsqueda puedan manipularse recurriendo a contenido oculto en una web, entonces no: este ha sido un problema que siempre ha afectado a los buscadores 'tradicionales'.

Estas técnicas forman parte de lo que se conoce como 'Black Hat SEO', prácticas que manipulan los algoritmos de búsqueda para mejorar el posicionamiento de una determinada web (aunque es cierto que, a estas staff, la mayoría de los buscadores están ya más o menos protegidos delante la mayoría de ellas):
Imagen | Marcos Merino mediante IA
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!