Ciencia en riesgo: el fraude impulsado por IA está saturando la publicación académica
- Redacción IT NOW
- hace 14 horas
- 2 Min. de lectura
La integración de herramientas de inteligencia artificial en la producción científica está desencadenando un fenómeno que la comunidad denomina AI slop: un incremento explosivo de trabajos fabricados, citas falsas y contenido fraudulento que amenaza con colapsar el sistema de revisión por pares y erosionar la credibilidad de la literatura científica global.

En los últimos años, la llegada de modelos de lenguaje generativo e IA sofisticada ha transformado profundamente la forma en que se produce conocimiento científico. Sin embargo, esta revolución tecnológica está teniendo un efecto colateral inquietante: una creciente ola de contenido fraudulento cuantitativamente plausible (lo que expertos han apodado AI slop) que se infiltra en revistas académicas, conferencias y servidores de preprints como arXiv, bioRxiv y medRxiv.
Este fenómeno no es anecdótico. Los editores académicos y especialistas en integridad científica han documentado casos en los que artículos con citas ficticias, datos inventados y hasta imágenes generadas por IA han pasado por procesos de revisión y, en algunos casos, han sido publicados antes de ser retractados. En una anécdota ilustrativa, un psicólogo de la Universidad de Oslo descubrió su propio nombre citado en un artículo que no existía realmente, alertando sobre la amplitud del problema en publicaciones respetadas.
El problema se intensifica por varias dinámicas:
La IA permite generar manuscritos completos a gran velocidad, borrando la distinción entre contenido legítimo y fraudulento.
Las plataformas de preprints han visto un volumen inusitado de envíos, muchos con calidad dudosa.
Empresas conocidas como paper mills están produciendo artículos fraudulentos en masa, a menudo reutilizando plantillas con ligeras variaciones para evadir detección.
La saturación de manuscritos ha colapsado parcialmente el sistema tradicional de revisión por pares, que ya dependía de académicos que trabajan de forma voluntaria. Con miles de envíos, los revisores se enfrentan a una tarea casi imposible: discernir rigor científico del relleno automatizado sin herramientas automatizadas de detección que por ahora aún no son infalibles.
Aunque las políticas editoriales de muchas revistas ahora exigen transparencia sobre el uso de IA en la redacción y prohiben la publicación de contenido generado sin supervisión humana, la efectividad real de estas reglas es limitada. Investigaciones recientes muestran que millones de publicaciones podrían contener texto generado por IA sin declaración explícita, lo que diluye aún más la confianza en la literatura.
El impacto de este fenómeno va más allá de simples publicaciones infladas. Cuando la ciencia confiable se mezcla con contenidos fabricados indistinguibles a primera vista, se erosiona la base de conocimiento que sostiene avances tecnológicos, políticas públicas y tratamientos médicos. Sin un replanteamiento profundo de cómo se evalúa, verifica y valida la investigación en la era de la IA, la comunidad científica corre el riesgo de ver su propio método —la revisión crítica, replicable y transparente— socavado desde dentro.




Comentarios