
ARTDEPARTMENT

La flamante inclusión del maniquí de razonamiento 'o1' de OpenAI está empezando a provocar sorpresas inesperadas entre los usuarios de ChatGPT. Este renovador maniquí, diseñado para consagrar más tiempo a 'pensar' antaño de objetar, ha demostrado ser un paso delante con respecto a los modelos de IA que le precedieron...
...pero un extraordinario engendro ha llamado la atención de los usuarios: el maniquí a veces realiza pasos intermedios en idiomas como el chino (y, aunque menos frecuentemente, el germánico, el persa, el tailandés o el hindi), con independencia del idioma en el que se formule la pregunta auténtico.
¿Por qué sucede esto? Aunque la respuesta no es del todo clara, se están poniendo sobre la mesa algunas teorías interesantes.
Hace 43 abriles, Clint Eastwood estrenaba su película 'Firefox, el arma definitiva', cuyo argumento no giraba en torno a ningún navegador web, a pesar del nombre, sino de un avión marcial ultrasecreto desarrollado por los soviéticos que el piloto podía controlar mentalmente... siempre y cuando éste fuera capaz de 'pensar en ruso'.
Si piensas que los idiomas sólo se hablan/escriben y el concepto de 'pensar en un idioma' determinado te sorprende, prepárate para seguir sorprendiéndote, porque varios usuarios han hecho notorio en redes sociales que, cuando usan 'o1', ChatGPT cambia de idioma en medio de su proceso de razonamiento.
Por ejemplo, al objetar preguntas como "¿Cuántas humanidades R hay en la palabra 'strawberry'?", o1 puede resolver parte del problema en chino antaño de regresar al inglés para presentar su respuesta final. Un engendro para el que OpenAI aún no ha ofrecido una explicación oficial.

La desatiendo de transparencia en los modelos avanzados de IA añade un nivel de enigma a estos fenómenos: no podemos aprender con certeza por qué 'o1' actúa como lo hace adecuado a la naturaleza opaca de los algoritmos. Esta frase puede entenderse de dos maneras, y ambas son correctas en este caso:
¿Hay un idioma objetivamente mejor que otros para pensar ciertos problemas... o sólo idiomas que la IA relaciona de algún modo con la resolución de esos problemas? Las dos grandes teorías giran en torno a la respuesta a esta pregunta.
Uno de los argumentos más citados se relaciona con los datos utilizados para entrenar a 'o1': los modelos de jerga son entrenados con enormes cantidades de texto de múltiples idiomas. Esto incluye no solo inglés, sino asimismo los en lo alto mencionados y muchos otros cuyos hablantes generen contenidos online.
El proceso de etiquetado de datos asimismo puede influir en la modo en que 'o1' razona: si durante el entrenamiento se etiquetaron problemas matemáticos o científicos preferentemente en un determinado idioma, el maniquí podría asociar ciertas tareas con el mismo.
Esto explicaría por qué 'o1' ocasionalmente recurre al chino o a otros idiomas mientras desglosa problemas complejos: algunos expertos, como Ted Xiao de Google DeepMind, señalan que gran parte del etiquetado y la preparación de datos para entrenar modelos avanzados de razonamiento ocurre en China, adecuado a la disponibilidad de expertos y costos competitivos.

Rohan Paul, ingeniero de IA, los modelos como 'o1' operan en un espacio encubierto compartido donde las representaciones conceptuales no están ligadas a idiomas específicos. Esto permite que el maniquí utilice el idioma que mejor se alinee con la tarea en cuestión.
A luceros de la IA, el jerga no tiene 'significado' tal y como nosotros lo entendemos. Según explica Matthew Guzdial, investigador de la Universidad de Alberta, para 'o1', todo es meramente texto: los idiomas son simplemente configuraciones de símbolos que puede combinar según patrones aprendidos.
Lo que propone esta segunda teoría es eso, que el maniquí selecciona automáticamente el idioma más valioso para procesar ciertos problemas... y que la escritura china, al estar basada en logogramas, podría ofrecer ventajas computacionales en problemas que implican cálculos o relaciones entre conceptos abstractos.
Si proporcionadamente el comportamiento de 'o1' puede parecer extraño, los expertos coinciden en que tiene una cojín método. El uso de múltiples idiomas durante el razonamiento es una manifestación del entrenamiento multilingüe del maniquí y de su capacidad para tratar en un espacio encubierto donde los conceptos trascienden los idiomas.
Aunque OpenAI no ha confirmado ni desmentido ninguna de estas hipótesis, las dos explicaciones que presentamos ofrecen una visión muy interesante sobre cómo las IA procesan y responden preguntas complejas... aunque todavía queda mucho por entender sobre cómo "piensan".
Vía | TechCrunch y Forbes
Imagen | Marcos Merino mediante IA
En Genbeta | Buscaba el mejor traductor y he fracasado usando ChatGPT. Me ha convencido tanto que voy a dejar Google Translate y DeepL
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!