La paradoja del training data: la IA elimina a los ingenieros que la entrenaron
- Redacción IT NOW
- hace 1 hora
- 3 Min. de lectura
La industria del software enfrenta una panorama inquietante: la inteligencia artificial se entrena con décadas de conocimiento humano acumulado, pero al mismo tiempo contribuye a erosionar las condiciones que generaron ese conocimiento. La caída de la participación en comunidades técnicas, el desplome de la contratación de desarrolladores junior y la creciente presencia de contenido sintético ponen en riesgo el ecosistema que sustenta la inteligencia artificial tal como la conocemos.

En el corazón de la narrativa sobre inteligencia artificial que genera código y automatiza tareas de ingeniería se esconde una pregunta crucial: ¿de dónde aprendió la IA a generar ese código? La respuesta es simple pero profunda: de recursos y experiencias humanas (respuestas en plataformas como Stack Overflow, repositorios de código abierto, documentación técnica y explicaciones contextualizadas) que representan años de experiencia acumulada.
Pero ese mismo ecosistema está decayendo aceleradamente. El volumen de preguntas mensuales en Stack Overflow cayó de más de 200.000 en 2014 a menos de 4.000 en diciembre de 2025, lo que representa una caída de aproximadamente 78% en solo un año. Mientras tanto, la contratación de desarrolladores junior se ha desplomado cerca de 67% desde 2022, según múltiples estudios de la industria. Por su parte, un estudio de Harvard que analizó 62 millones de trabajadores concluyó que la adopción de IA reduce el empleo junior en un 9 a 10% en seis trimestres.
El desempleo entre graduados en ciencias de la computación supera 6%, casi el doble del promedio nacional de desempleo estadounidense, lo cual refleja la brecha entre la promesa de la automatización y la realidad del mercado laboral técnico.
Al mismo tiempo, el contenido generado por IA está saturando la web. Estudios señalan que más del 74% de las páginas recién publicadas contienen contenido detectable generado por IA, y más de la mitad de los artículos nuevos en inglés son sintéticos. Cuando modelos de IA se entrenan con datos generados por otras IA, se corre el riesgo de un fenómeno conocido como colapso del modelo: los sistemas aprenden cada vez menos sobre casos extremos y matices importantes, y gradualmente su capacidad para capturar conocimiento valioso se degrada.
Los impactos no son solo técnicos, sino humanos. La estructura de aprendizaje que permitió a los ingenieros desarrollarse (preguntar, responder, debatir, matizar) se desvanece. La consecuencia es una brecha significativa en la producción de conocimiento genuino. Si no se forman y contratan suficientes desarrolladores, la fuente de los “mejores datos” que alimentan los modelos de IA se seca.
Este fenómeno tiene implicaciones prácticas: una reducción sostenida de talento junior hoy significa un déficit de líderes tecnológicos dentro de cinco a diez años, erosionando el ecosistema que hace posible la ingeniería de software de alta calidad. Ejecutivos de empresas como AWS y Microsoft han advertido públicamente sobre los riesgos de reemplazar desarrolladores junior con IA sin una estrategia formativa paralela.
La paradoja va más allá de cifras y análisis técnicos: pone en cuestión la sostenibilidad de un modelo que crece consumiendo conocimiento humano sin asegurar que ese conocimiento siga produciéndose. Si la industria no mantiene un flujo constante de aprendizaje, documentación y contribución comunitaria, la calidad de la inteligencia artificial (y del software en general) podría deteriorarse gradualmente, con efectos de largo plazo que aún no hemos empezado a ver.




Comentarios