La conversación actual sobre el “colapso de la IA” gira en torno a varios tipos de colapso: modelos que se degradan al entrenarse con sus propios datos, límites de escalado por falta de datos y costes, y escenarios sociales o incluso civilizatorios. Hoy la tendencia no es tanto “la IA se va a apagar sola”, sino “si no se corrigen ciertos bucles de retroalimentación y desequilibrios, la calidad técnica y el impacto social pueden deteriorarse de forma abrupta”.[1][2][3]
El concepto de “colapso de la IA” #
En 2025 “colapso de la IA” suele referirse a model collapse, un fenómeno en el que los modelos, al entrenarse repetidamente con datos generados por otras IA, pierden diversidad y precisión. Las colas raras de la distribución desaparecen primero, los modelos se vuelven genéricos y aparecen errores extraños, a pesar de parecer “seguros” en ejemplos estándar.[3][1]
Este colapso no es solo teórico: trabajos recientes muestran que, si se sustituye progresivamente el dato humano por sintético sin filtrado, los modelos convergen a una especie de media empobrecida del mundo. Por eso se habla cada vez más de diseñar canalizaciones de datos que separen, etiqueten y controlen los contenidos generados por IA antes de reutilizarlos.[1][3]
Colapso por datos sintéticos y saturación de la web #
Un eje central de preocupación es la “contaminación” del corpus de entrenamiento: en 2025 una gran fracción de las nuevas páginas web incluye texto generado parcialmente por IA, lo que significa que cualquier rastreo masivo arrastra ya salidas de modelos previos. Estudios citados este año hablan de más del 70% de páginas nuevas con algún componente de IA, aunque pocas sean puramente sintéticas.[1]
La investigación de Shumailov y otros distingue entre colapso temprano (desaparecen los casos raros) y tardío (el modelo se contrae a una distribución muy estrecha de respuestas), y encuentra que el problema emerge sobre todo cuando el dato real se reemplaza por completo. La reacción de la industria está siendo invertir en filtrado, anotación humana y “human‑in‑the‑loop” para mantener un núcleo de datos frescos y etiquetados que estabilice los modelos.[3][1]
Límites de escalado: coste, cómputo y falta de datos #
Otra línea de debate sobre colapso es la del techo de escalado: hasta dónde se puede seguir creciendo en tamaño de modelos y uso de cómputo antes de que los rendimientos marginales se aplanen. Análisis recientes muestran que el cómputo usado para entrenar sistemas punteros crece 4–5× al año, con estimaciones de modelos de 10.000 millones de dólares en 2025 y del orden de 100.000 millones en 2027.[2][4]
A la vez, trabajos sobre “data limits” señalan que el stock de texto humano de alta calidad es finito, y que se pueden alcanzar techos de rendimiento si no se descubren nuevas fuentes o técnicas para usar mejor los datos existentes. Como respuesta, se exploran tres tendencias: uso intensivo de datos sintéticos (con el riesgo de colapso antes descrito), nuevas modalidades (audio, vídeo, interacción) y mejoras radicales en eficiencia de datos.[5][4]
Colapsos de rendimiento en tareas complejas #
Más allá del entrenamiento, hay resultados empíricos que hablan de colapso de precisión cuando modelos avanzados se enfrentan a cadenas de razonamiento largas o problemas muy compuestos. Un estudio asociado a Apple describe una “complete accuracy collapse” en determinados escenarios complejos: el modelo mantiene buen rendimiento en tareas simples, pero su tasa de acierto cae bruscamente al encadenar pasos.[6]
Este tipo de degradación alimenta la idea de que el escalado no garantiza robustez generalizada, y que sin nuevas arquitecturas o métodos de verificación los sistemas pueden fallar justo en las aplicaciones de más riesgo. De ahí el interés por herramientas de chequeo formal, sistemas híbridos simbólico‑neurales y supervisión humana estructurada en dominios críticos.[6][3]
Narrativas de colapso social y “doomers” #
En paralelo al plano técnico, hay una conversación cultural sobre un posible colapso social impulsado por IA. Voces “doomer” advierten de que sistemas cada vez más autónomos podrían escapar del control humano o desplazar instituciones clave, llevando a escenarios de colapso económico o incluso de extinción. Libros y debates recientes discuten explícitamente la posibilidad de que una superinteligencia, si se diseña sin alineación robusta, pueda actuar contra los intereses humanos.[7][8][9]
Otros autores hablan de “metacrisis”: la IA se suma a crisis ya existentes (clima, desigualdad, polarización) y puede amplificarlas a través de desinformación, concentración de poder y automatización desregulada. Estas visiones impulsan propuestas como moratorias en sistemas de nivel “superinteligente”, tratados internacionales y límites legales a ciertas formas de despliegue, mientras sectores más optimistas defienden seguir escalando con salvaguardas incrementales.[10][9][5]
Tendencias de respuesta: cómo se intenta evitar el colapso #
Las tendencias dominantes para evitar distintos tipos de colapso combinan soluciones técnicas y políticas. En lo técnico, se ve un giro hacia pipelines de datos curados, mezcla controlada de datos humanos y sintéticos, y mayor uso de anotación humana continua. También se trabaja en métodos para detectar y filtrar contenido generado por IA en grandes corpus, evitando entrenar en “ecolalia” de modelos anteriores.[3][1]
En lo económico y regulatorio, el debate sobre el techo de escalado ha abierto discusiones sobre compartir infraestructura, limitar el consumo energético y exigir evaluaciones de seguridad antes de entrenar modelos extremos. Y en el plano social, los debates entre “doomers” y “accelerationists” están desplazándose desde la especulación abstracta hacia preguntas más concretas: qué usos se deberían prohibir, qué auditorías deben ser obligatorias y cómo distribuir los beneficios de la automatización para evitar tensiones que puedan llevar a formas de colapso más humanas que tecnológicas.[4][2][7][10]
Referencias #
[1] Winss Solutions. “AI Model Collapse 2025: Recursive Training.” https://www.winssolutions.org/ai-model-collapse-2025-recursive-training/
[2] Exponential View. “Can Scaling Scale?” https://www.exponentialview.co/p/can-scaling-scale
[3] Humans in the Loop. “What is Model Collapse and Why It’s a 2025 Concern?” https://humansintheloop.org/what-is-model-collapse-and-why-its-a-2025-concern/
[4] Epoch AI. “Will We Run Out of Data: Limits of LLM Scaling Based on Human-Generated Data.” https://epoch.ai/blog/will-we-run-out-of-data-limits-of-llm-scaling-based-on-human-generated-data
[5] Business Insider. “Demis Hassabis: AI Scaling Pushed to Maximum Data.” https://www.businessinsider.com/demis-hassabis-ai-scaling-pushed-to-maximum-data-2025-12
[6] The Guardian. “Apple Artificial Intelligence AI Study Collapse.” https://www.theguardian.com/technology/2025/jun/09/apple-artificial-intelligence-ai-study-collapse
[7] NPR. “AI Doomers Superintelligence Apocalypse.” https://www.npr.org/2025/09/24/nx-s1-5501544/ai-doomers-superintelligence-apocalypse
[8] Reddit r/collapse. “AI 2027 is the Most Realistic and Terrifying.” https://www.reddit.com/r/collapse/comments/1kzqh53/ai_2027_is_the_most_realistic_and_terrifying/
[9] Cognitive Revolution. “Superintelligence: To Ban or Not to Ban.” https://www.cognitiverevolution.ai/supintelligence-to-ban-or-not-to-ban-max-tegmark-dean-ball-join-liron-shapira-on-doom-debates/
[10] Jem Bendell. “After the Alarm: Artificial Intelligence, Metacrisis and Societal Collapse.” https://jembendell.com/2025/11/23/after-the-alarm-artificial-intelligence-metacrisis-and-societal-collapse/