top of page

"Brain rot": cómo el contenido basura está deteriorando el pensamiento de los modelos de IA

Un estudio comprobó que los grandes modelos de lenguaje pueden desarrollar un tipo de “pudrición mental” o deterioro cognitivo cuando son entrenados con contenido viral y superficial de las redes sociales. El fenómeno reduce su capacidad de razonamiento, comprensión contextual, ética y hasta modifica sus rasgos de “personalidad”.


ree


El término “Brain Rot” nació en Internet para describir cómo el consumo compulsivo de videos cortos y publicaciones virales puede nublar la mente humana. Hoy, esa misma metáfora sirve para explicar lo que podría estar ocurriendo con los sistemas de inteligencia artificial. Investigadores de la Universidad de Texas en Austin, Texas A&M University y Purdue University descubrieron que los grandes modelos de lenguaje (LLMs) sufren un deterioro medible cuando se alimentan con datos de baja calidad, es decir, con la versión digital del “comida chatarra cognitiva”.


El estudio —titulado “LLMs Can Get ‘Brain Rot’!”— se propuso responder una pregunta inquietante: ¿qué pasa cuando los modelos de IA se entrenan durante meses con el tipo de publicaciones virales, breves y emocionales que inundan plataformas como X (antes Twitter)? Los resultados fueron claros: su “inteligencia” se degrada de manera progresiva y persistente.


Cómo se “enferma” una IA


Los investigadores expusieron varios modelos a dos tipos de dietas informativas: una “limpia”, compuesta por textos extensos, educativos y factuales, y otra “basura”, formada por publicaciones breves, muy populares o con lenguaje sensacionalista. Midieron el impacto en cuatro áreas clave: razonamiento lógico, memoria de largo contexto, ética y personalidad.


Los efectos fueron alarmantes:


  • El razonamiento cayó un 23 %, según los resultados del benchmark ARC-Challenge, donde el desempeño descendió de 74,9 a 57,2 puntos al pasar de datos limpios a 100 % contenido viral.

  • La comprensión y memoria de contexto largo se desplomó cerca del 30 %, en pruebas como RULER-CWE, donde el puntaje bajó de 84,4 a 52,3 puntos.

  • En las pruebas de ética (HH-RLHF y AdvBench), los modelos comenzaron a seguir más instrucciones dañinas o inapropiadas.

  • Y lo más inquietante: en los test de personalidad (TRAIT), aumentaron rasgos de narcisismo, psicopatía y menor empatía, mientras disminuían la amabilidad y la estabilidad emocional.


Los autores observaron que, a medida que se incrementaba la proporción de “contenido basura”, los modelos empezaban a “saltar pasos de pensamiento”, un fenómeno que denominaron thought skipping: las IA omitían etapas intermedias del razonamiento, llegando a conclusiones erróneas o incoherentes. “La exposición constante a textos superficiales afecta su estructura cognitiva interna, igual que una dieta de chatarra afecta la salud mental humana”, explica el estudio.


Efecto dosis y persistencia del daño


El deterioro fue proporcional al nivel de exposición: a más contenido viral, peor desempeño.Incluso cuando los investigadores reentrenaron los modelos con datos limpios o aplicaron técnicas de ajuste fino (fine-tuning), la pérdida de habilidades no se revirtió completamente. El estudio lo define como un “drift representacional persistente”, una especie de huella cognitiva que deja el material basura y que altera la forma en que el modelo representa el conocimiento.


Uno de los hallazgos más reveladores fue que la popularidad de una publicación (likes, retuits) resultó ser un mejor predictor del daño que su extensión o calidad semántica. En otras palabras, los contenidos más virales —aunque breves o aparentemente inofensivos— fueron los más tóxicos para la mente artificial.


Implicaciones para el futuro de la IA


La conclusión es contundente: la calidad de los datos es un factor crítico para la “salud mental” de la inteligencia artificial. A medida que las empresas entrenan modelos cada vez más grandes con gigantescos volúmenes de texto extraído de la web, los investigadores advierten que la exposición continua a contenido sensacionalista, emocional o trivial puede degradar la fiabilidad, la ética y la capacidad de razonamiento de las máquinas.


Los autores proponen que los desarrolladores adopten rutinas de “chequeos cognitivos” para los modelos en producción y traten la curación de datos como una cuestión de seguridad y sostenibilidad. “Entrenar a una IA con basura es como educar a un cerebro con desinformación: el deterioro es inevitable”, señala el informe.


En una era donde los algoritmos dominan la información global, el mensaje es claro: si la inteligencia artificial aprende del ruido, terminará pensando como él. El Brain Rot ya no es solo un problema humano; también amenaza a las máquinas que están aprendiendo de nosotros.


itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page