
ARTDEPARTMENT

OpenAI se ha manido obligada a retirar una de las últimas actualizaciones de ChatGPT por una razón tan curiosa como llamativa: la inteligencia industrial se estaba mostrando excesivamente amable y aduladora. Dos características que, aunque a primera paisaje pueden parecer positivas, han perfecto por originar una experiencia incómoda para muchos usuarios.
El propio Sam Altman, CEO de OpenAI, confirmó en su cuenta de X que durante la oscuridad se había revertido la modernización para los usuarios gratuitos, mientras trabajan en una nueva interpretación que modifique la “personalidad” del maniquí. Esta última modernización pretendía dotar a la IA de un tono más “intuitivo”, pero el resultado distó mucho del deseado, según reconocieron gracias al feedback de la comunidad.
En una entrada publicada en su blog oficial, OpenAI explicó que las nuevas respuestas generadas eran "excesivamente halagadora o agradables", pero incluso claramente falsas. Esta posición puede provocar incomodidad, ya que genera una sensación industrial e irreal durante la interacción con el asistente.
En X (ayer Twitter), varios usuarios compartieron sus pruebas y capturas para comprobar si, efectivamente, la IA estaba siendo excesivamente aduladora. Al preguntarle directamente su opinión sobre ellos, la respuesta era siempre extremadamente positiva, sin ningún atisbo de objetividad. Cuanto más se alargaba la conversación, más evidente se hacía esta posición complaciente. Uno de los ejemplos más comentados fue publicado por @jimrandomh:
Esto mismo se extrapola a que todo lo que se le indicaba a la IA le parecía valentísimo, y apoyaba cualquier tipo de idea que se le introdujera. Aunque incluso fuera un disparate o fuera poco peligroso. Un exceso de optimismo que ha recogido otro usuario que, en presencia de el hecho de decirle que había dejado su receta, afirmaba que estaba orgulloso de él.

He probado la nueva función sino de ChatGPT de balde y me ha sorprendido lo útil que puede ser para hacer una investigación
Desde OpenAI afirman que el problema surgió por una “feedback a corto plazo” que no tuvo en cuenta cómo evolucionan las conversaciones reales con ChatGPT. Por ello, ya trabajan en refinar las técnicas básicas de entrenamiento y en implementar nuevas barreras de seguridad para evitar este tipo de sesgos en el futuro.
Aún no hay una data concreta para el propagación del nuevo maniquí, pero todo apunta a que OpenAI quiere tomarse su tiempo para evitar repetir errores y ofrecer una experiencia más equilibrada, sin exageraciones ni halagos innecesarios.
Imágenes | Levart_Photographer
En Genbeta | Si quieres usar lo postrer en IA, tener una VPN se ha vuelto obligatorio. Y cero apunta a que cambie pronto
(function() {
window._JS_MODULES = window._JS_MODULES || {};
var headElement = document.getElementsByTagName('head')[0];
if (_JS_MODULES.instagram) {
var instagramScript = document.createElement('script');
instagramScript.src="https://platform.instagram.com/en_US/embeds.js";
instagramScript.async = true;
instagramScript.defer = true;
headElement.appendChild(instagramScript);
}
})();
-
La informe
OpenAI retira la última modernización de ChatGPT por ser "excesivamente agradable": llegó a unos límites peligrosos
fue publicada originalmente en
Genbeta
por
José Alberto Lizana
.
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!