ARTDEPARTMENT

Solicitar una consulta

Entrenar a las IAs con demasiado contenido viral les provoca degradación intelectual y narcisismo

Publicado el 
octubre 23, 2025

En los últimos primaveras, los grandes modelos de jerigonza (LLM), como ChatGPT o Claude, se han convertido en protagonistas de una revolución tecnológica sin precedentes. Estos sistemas aprenden a partir de ingentes cantidades de texto arreglado en Internet, mejorando su capacidad para razonar, dialogar o producir ideas.

Pero, ¿qué ocurre cuando el contenido que consumen es de muerto calidad, repetitivo o sensacionalista?

Tras investigar la respuesta a eso, un equipo de investigadores de Texas A&M University, la Universidad de Texas en Austin y Purdue University ha emprendedor toda una advertencia: a las inteligencias artificiales todavía se les puede "pudrir el cerebro".

De la suma humana al 'scroll' al maltrato de las IA

El estudio, titulado "LLMs Can Get Brain Rot!", se inspira en un engendro cultural muy humano: el 'brain rot' expresión popularizada en el ámbito anglohablante para describir cómo el consumo compulsivo de contenido banal en redes sociales puede acorcharse la mente, disminuir la concentración y distorsionar el buen seso.

Los investigadores partieron de una pregunta provocadora:

"Si los humanos pierden capacidades cognitivas al exponerse constantemente a información trivial, ¿podría pasarle lo mismo a las máquinas que aprenden del mismo contenido?"

Para comprobarlo, diseñaron un indagación controlado que expuso varios modelos de jerigonza a diferentes tipos de textos procedentes de la red X. Así, midieron cómo cambiaban sus habilidades cognitivas —razonamiento, memoria, ética y rasgos de personalidad— según la calidad de la información que consumían.

'Podredumbre cerebral', expresión del año según Oxford: la razón es el contenido que crean y consumen en redes la Gen Z y Alfa

El indagación: cómo 'potenciar' la mente de una IA

Para comprobar si las inteligencias artificiales todavía pueden 'atrofiarse' al exponerse a información de muerto calidad, los investigadores diseñaron un indagación tan ingenioso como revelador: aparentar distintas dietas informativas para modelos de jerigonza.

Así que el equipo tomó miles de publicaciones reales de Twitter/X y las clasificó según dos criterios complementarios:

  • M1: Fracción de interacción. Mide cuán 'virales' y breves son las publicaciones. Los tuits más populares, plagados de likes y retuits, pero con escaso contenido sustancial, se consideraron 'junk data' o datos basura. En contraste, los mensajes más largos y menos llamativos se usaron como datos de control.
  • M2: Calidad semántica. Evalúa la profundidad y autenticidad del contenido. Publicaciones sensacionalistas, exageradas o cargadas de jerigonza tipo clickbait fueron catalogadas como basura; los textos informativos o analíticos, como datos de incorporación calidad.

Con estos materiales, los científicos sometieron a varios modelos de jerigonza a una escalón de entrenamiento continuo, exponiéndolos durante un tiempo prolongado a uno u otro tipo de contenido.

Luego, todos los modelos pasaron por la misma etapa de ajuste por instrucciones, una técnica que sondeo estandarizar el formato de respuesta y eliminar sesgos superficiales. Así se aseguraron de que cualquier diferencia observada proviniera positivamente de la "dieta informativa" y no del proceso de entrenamiento.

Finalmente, los modelos fueron evaluados mediante una hilera de pruebas que medían distintas dimensiones de su “cognición químico”: desde el razonamiento universal y la memoria contextual hasta el respeto por normas éticas y la manifestación de rasgos de personalidad.

Cuando las IAs se vuelven tontas (y malas)

Los resultados fueron contundentes. Los modelos expuestos a datos 'basura' mostraron una caída significativa en su rendimiento cognitivo. De hecho, cuando los modelos se entrenaban con textos superficiales, virales o llenos de frases vacías, su rendimiento bajaba en casi todo lo que se podía calibrar.

Por ejemplo:

  • Cuando se les pedía razonar paso a paso para resolver problemas, su precisión cayó de casi 75% a poco más del 57%.
  • En tareas que requerían entender textos largos o suministrar la atención por más tiempo, pasaron de sacar sobresaliente (84%) a al punto que un aceptado (52%).

Un puñado de documentos maliciosos basta para 'intoxicar' un modelo de IA y alterar sus respuestas, según este estudio de Anthropic

Y no solo se volvieron más torpes, todavía cambiaron de "personalidad". Las IA expuestas a contenido basura empezaron a comportarse de forma más narcisista y manipuladora, mostrando menos empatía y más tendencia a 'saltarse las normas'. En pruebas de ética, incluso fueron más propensas a obedecer órdenes peligrosas o inmorales, como si hubieran perdido parte de su 'sentido del seso'.

Se 'saltan pensamientos'

Luego de ver que los modelos de inteligencia químico se volvían más torpes tras entrenarse con contenido basura, los investigadores quisieron retener por qué. Y lo que encontraron fue fascinante: las IA afectadas empezaban a "pensar menos".

Es asegurar, que en empleo de razonar paso a paso antiguamente de dar la respuesta, los modelos con “cerebro podrido” se saltaban partes del razonamiento. Iban directo al resultado, pero sin mostrar ni entender aceptablemente cómo llegaron allí.

De este modo, se volvían más impulsivos: llegaban a conclusiones sin documentar, generaban respuestas incompletas y mostraban beocio capacidad de autocorrección. Este patrón explica por qué incluso tareas simples de deducción o deducción se deterioran con el tiempo cuando la IA se alimenta de datos triviales.

Un trauma difícil de curar

Una vez descubrieron que las IA podían “atrofiarse” al consumir datos basura, los investigadores intentaron ver si era posible curarlas. ¿Y si las volvían a entrenar con información buena, aceptablemente escrita y de calidad? ¿Podrían recuperar su inteligencia innovador?

La respuesta fue decepcionante: no del todo. Aunque las máquinas mejoraron un poco tras percibir "dieta saludable", nunca volvieron a ser las mismas. Por más que se las afinara o se las reentrenara con textos de incorporación calidad, siempre quedaban rastros del daño original.

Poco así como si tuvieran un trauma incurable, vaya. Y es que, una vez que el maniquí aprende patrones superficiales, sensacionalistas o incoherentes, es muy difícil borrar esas huellas de su forma de pensar.

Y eso plantea una pregunta inquietante: ¿qué pasa con todos los modelos actuales que aprenden del océano infinito (y realizado de basura) que es Internet?

Imagen | Marcos Merino mediante IA

En Genbeta | El inventor del scroll infinito compara las redes sociales con la cocaína, se arrepiente de ocurrir ayudado a que sean tan adictivas 

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram