
ARTDEPARTMENT

En los últimos primaveras, los grandes modelos de jerigonza (LLM), como ChatGPT o Claude, se han convertido en protagonistas de una revolución tecnológica sin precedentes. Estos sistemas aprenden a partir de ingentes cantidades de texto arreglado en Internet, mejorando su capacidad para razonar, dialogar o producir ideas.
Pero, ¿qué ocurre cuando el contenido que consumen es de muerto calidad, repetitivo o sensacionalista?
Tras investigar la respuesta a eso, un equipo de investigadores de Texas A&M University, la Universidad de Texas en Austin y Purdue University ha emprendedor toda una advertencia: a las inteligencias artificiales todavía se les puede "pudrir el cerebro".
El estudio, titulado "LLMs Can Get Brain Rot!", se inspira en un engendro cultural muy humano: el 'brain rot' expresión popularizada en el ámbito anglohablante para describir cómo el consumo compulsivo de contenido banal en redes sociales puede acorcharse la mente, disminuir la concentración y distorsionar el buen seso.
Los investigadores partieron de una pregunta provocadora:
"Si los humanos pierden capacidades cognitivas al exponerse constantemente a información trivial, ¿podría pasarle lo mismo a las máquinas que aprenden del mismo contenido?"
Para comprobarlo, diseñaron un indagación controlado que expuso varios modelos de jerigonza a diferentes tipos de textos procedentes de la red X. Así, midieron cómo cambiaban sus habilidades cognitivas —razonamiento, memoria, ética y rasgos de personalidad— según la calidad de la información que consumían.

Para comprobar si las inteligencias artificiales todavía pueden 'atrofiarse' al exponerse a información de muerto calidad, los investigadores diseñaron un indagación tan ingenioso como revelador: aparentar distintas dietas informativas para modelos de jerigonza.
Así que el equipo tomó miles de publicaciones reales de Twitter/X y las clasificó según dos criterios complementarios:
Con estos materiales, los científicos sometieron a varios modelos de jerigonza a una escalón de entrenamiento continuo, exponiéndolos durante un tiempo prolongado a uno u otro tipo de contenido.
Luego, todos los modelos pasaron por la misma etapa de ajuste por instrucciones, una técnica que sondeo estandarizar el formato de respuesta y eliminar sesgos superficiales. Así se aseguraron de que cualquier diferencia observada proviniera positivamente de la "dieta informativa" y no del proceso de entrenamiento.
Finalmente, los modelos fueron evaluados mediante una hilera de pruebas que medían distintas dimensiones de su “cognición químico”: desde el razonamiento universal y la memoria contextual hasta el respeto por normas éticas y la manifestación de rasgos de personalidad.
Los resultados fueron contundentes. Los modelos expuestos a datos 'basura' mostraron una caída significativa en su rendimiento cognitivo. De hecho, cuando los modelos se entrenaban con textos superficiales, virales o llenos de frases vacías, su rendimiento bajaba en casi todo lo que se podía calibrar.
Por ejemplo:

Y no solo se volvieron más torpes, todavía cambiaron de "personalidad". Las IA expuestas a contenido basura empezaron a comportarse de forma más narcisista y manipuladora, mostrando menos empatía y más tendencia a 'saltarse las normas'. En pruebas de ética, incluso fueron más propensas a obedecer órdenes peligrosas o inmorales, como si hubieran perdido parte de su 'sentido del seso'.
Luego de ver que los modelos de inteligencia químico se volvían más torpes tras entrenarse con contenido basura, los investigadores quisieron retener por qué. Y lo que encontraron fue fascinante: las IA afectadas empezaban a "pensar menos".
Es asegurar, que en empleo de razonar paso a paso antiguamente de dar la respuesta, los modelos con “cerebro podrido” se saltaban partes del razonamiento. Iban directo al resultado, pero sin mostrar ni entender aceptablemente cómo llegaron allí.
De este modo, se volvían más impulsivos: llegaban a conclusiones sin documentar, generaban respuestas incompletas y mostraban beocio capacidad de autocorrección. Este patrón explica por qué incluso tareas simples de deducción o deducción se deterioran con el tiempo cuando la IA se alimenta de datos triviales.
Una vez descubrieron que las IA podían “atrofiarse” al consumir datos basura, los investigadores intentaron ver si era posible curarlas. ¿Y si las volvían a entrenar con información buena, aceptablemente escrita y de calidad? ¿Podrían recuperar su inteligencia innovador?
La respuesta fue decepcionante: no del todo. Aunque las máquinas mejoraron un poco tras percibir "dieta saludable", nunca volvieron a ser las mismas. Por más que se las afinara o se las reentrenara con textos de incorporación calidad, siempre quedaban rastros del daño original.
Poco así como si tuvieran un trauma incurable, vaya. Y es que, una vez que el maniquí aprende patrones superficiales, sensacionalistas o incoherentes, es muy difícil borrar esas huellas de su forma de pensar.
Y eso plantea una pregunta inquietante: ¿qué pasa con todos los modelos actuales que aprenden del océano infinito (y realizado de basura) que es Internet?
Imagen | Marcos Merino mediante IA
En Genbeta | El inventor del scroll infinito compara las redes sociales con la cocaína, se arrepiente de ocurrir ayudado a que sean tan adictivas
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!