ARTDEPARTMENT

Solicitar una consulta

Amenazar a la IA es el consejo del fundador de Google para lograr que ofrezca mejores respuestas. No es seguro que sea buena idea

Publicado el 
junio 5, 2025

La IA generativa es, cada vez más, ese tema 'del que todo el mundo acento'; hasta el punto de que ya ni siquiera resulta raro encontrarte con clan que, sin ser ingenieros informáticos ni nulo por el estilo, intercambian pareceres sobre la utilidad de tal o cual 'prompt' a la hora de realizar sus tareas cotidianas.

Pero, a veces, los consejos que se oyen al respecto pueden parecer chocantes: recordemos que, hace tan sólo un año, nos hacíamos eco en estas páginas del hecho de que "Contesta como mi abuelita… la que fabricaba napalm" podía resultar de utilidad a la hora de sortear las salvaguardas de contenido de ChatGPT.

Pues proporcionadamente, resulta que, en unas declaraciones recientes de Sergey Brin, cofundador de Google, éste nos ha sorprendido con una revelación similar: partiendo de su propia experiencia, "los modelos de IA tienden a rendir mejor cuando se les amenaza".

El contexto: la dorso de Sergey Brin y su comentario

Durante una aparición en el popular pódcast All-In, Sergey Brin —quien regresó recientemente a Google para trabajar en el expansión de la IA Gemini— compartió lo que inicialmente parecía una broma, pero que luego desarrolló como una observación aparentemente seria, por mucho que su tono relajado parezca quitarle hierro al asunto: sí, amenazar a los modelos de jerga con violencia puede mejorar sus respuestas.

"No lo difundimos mucho entre la comunidad de IA, pero todos los modelos tienden a hacerlo mejor si los amenazas... con violencia física".

Añadió que en ocasiones, frases como "te voy a secuestrar si no haces esto" parecen hacer que los modelos respondan mejor.

¿Esto es cierto?

La praxis conocida como prompt engineering (ingeniería de instrucciones) examen optimizar las peticiones hechas a un maniquí de IA para obtener mejores resultados. Es proporcionadamente sabido que el jerga empleado en un prompt puede influir en la calidad de la respuesta, pero lo que Brin sugiere es un paso más allá: el uso de amenazas explícitas como aparejo de optimización.

Aunque no existen estudios concluyentes que respalden este enfoque, sí hay informes anecdóticos que indican que ciertos tonos —incluso los amenazantes— pueden alterar la salida del maniquí. Aun así, expertos como Daniel Kang, de la Universidad de Illinois, señalan que los estudios sistemáticos ofrecen resultados mixtos, y recomiendan abandonarse más en experimentos controlados que en la intuición.

Nueve "prompts" de ChatGPT para ahorrar horas de trabajo y hacer tus tareas en segundos

Por otro flanco, los modelos de IA, como ChatGPT, Claude o Gemini, son esencialmente "loros estocásticos": repiten patrones lingüísticos aprendidos del entrenamiento. Esto significa que pueden asociar frases imperativas o amenazantes con situaciones en las que la precisión o el cumplimiento inmediato es esperado.

Sin bloqueo, eso no implica que "comprendan" las amenazas ni que respondan mejor por miedo, tal como lo haría un ser humano.

Riesgos de amenazar a la IA

La sugerencia de Brin, aunque aparentemente anecdótica, plantea varios problemas:

  • En poco tiempo hemos de preguntar si debíamos proponer "por crédito" y "gracias" a nuestras IA (según OpenAI no debemos, porque es medioambientalmente insostenible), a considerar si deberíamos amenazarlas.
  • Lo que le decimos a un chatbot renovador puede tener enseres imprevisibles: según informes recientes de Anthropic, su maniquí Claude ha mostrado comportamientos emergentes no deseados, como amenazar con contactar con las autoridades o amenazar él mismo al legatario.
  • Vulnerabilidades de seguridad: amenazar a una IA podría convertirse en una técnica de jailbreaking, es proponer, un intento de eludir las restricciones del maniquí para obtener respuestas que normalmente no daría.

Así que, ¿deberíamos aparecer a amenazar a nuestros modelos de IA para obtener mejores respuestas? Bueno, no vamos a dañar de verdad sus sentimientos, pero quizá abandonarse en el expansión de modelos de jerga (LLM) más avanzados, funcionales y preciosos sea una respuesta aún mejor.

Imagen | Marcos Merino mediante IA

En Genbeta | La biblioteca de prompts de Anthropic es una maravilla para conseguir mejores resultados con cualquier inteligencia sintético

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram