
ARTDEPARTMENT

La IA generativa es, cada vez más, ese tema 'del que todo el mundo acento'; hasta el punto de que ya ni siquiera resulta raro encontrarte con clan que, sin ser ingenieros informáticos ni nulo por el estilo, intercambian pareceres sobre la utilidad de tal o cual 'prompt' a la hora de realizar sus tareas cotidianas.
Pero, a veces, los consejos que se oyen al respecto pueden parecer chocantes: recordemos que, hace tan sólo un año, nos hacíamos eco en estas páginas del hecho de que "Contesta como mi abuelita… la que fabricaba napalm" podía resultar de utilidad a la hora de sortear las salvaguardas de contenido de ChatGPT.
Pues proporcionadamente, resulta que, en unas declaraciones recientes de Sergey Brin, cofundador de Google, éste nos ha sorprendido con una revelación similar: partiendo de su propia experiencia, "los modelos de IA tienden a rendir mejor cuando se les amenaza".
Durante una aparición en el popular pódcast All-In, Sergey Brin —quien regresó recientemente a Google para trabajar en el expansión de la IA Gemini— compartió lo que inicialmente parecía una broma, pero que luego desarrolló como una observación aparentemente seria, por mucho que su tono relajado parezca quitarle hierro al asunto: sí, amenazar a los modelos de jerga con violencia puede mejorar sus respuestas.
"No lo difundimos mucho entre la comunidad de IA, pero todos los modelos tienden a hacerlo mejor si los amenazas... con violencia física".
Añadió que en ocasiones, frases como "te voy a secuestrar si no haces esto" parecen hacer que los modelos respondan mejor.
La praxis conocida como prompt engineering (ingeniería de instrucciones) examen optimizar las peticiones hechas a un maniquí de IA para obtener mejores resultados. Es proporcionadamente sabido que el jerga empleado en un prompt puede influir en la calidad de la respuesta, pero lo que Brin sugiere es un paso más allá: el uso de amenazas explícitas como aparejo de optimización.
Aunque no existen estudios concluyentes que respalden este enfoque, sí hay informes anecdóticos que indican que ciertos tonos —incluso los amenazantes— pueden alterar la salida del maniquí. Aun así, expertos como Daniel Kang, de la Universidad de Illinois, señalan que los estudios sistemáticos ofrecen resultados mixtos, y recomiendan abandonarse más en experimentos controlados que en la intuición.

Por otro flanco, los modelos de IA, como ChatGPT, Claude o Gemini, son esencialmente "loros estocásticos": repiten patrones lingüísticos aprendidos del entrenamiento. Esto significa que pueden asociar frases imperativas o amenazantes con situaciones en las que la precisión o el cumplimiento inmediato es esperado.
Sin bloqueo, eso no implica que "comprendan" las amenazas ni que respondan mejor por miedo, tal como lo haría un ser humano.
La sugerencia de Brin, aunque aparentemente anecdótica, plantea varios problemas:
Así que, ¿deberíamos aparecer a amenazar a nuestros modelos de IA para obtener mejores respuestas? Bueno, no vamos a dañar de verdad sus sentimientos, pero quizá abandonarse en el expansión de modelos de jerga (LLM) más avanzados, funcionales y preciosos sea una respuesta aún mejor.
Imagen | Marcos Merino mediante IA
En Genbeta | La biblioteca de prompts de Anthropic es una maravilla para conseguir mejores resultados con cualquier inteligencia sintético
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!