La generación masiva de contenido sintético por Inteligencia Artificial (IA) está saturando Internet y transformando (de forma radical) el modelo económico y cultural de la web. Una creciente proporción de contenido en línea ya no proviene de autor humano alguno, sino de otros algoritmos, lo que supone una degradación de los modelos de entrenamiento de la IA y la aparente extinción de los contenidos creados por seres humanos. En las siguientes líneas exploraremos los posibles impactos y riesgos que trae consigo este fenómeno.
Internet fue concebido como una plataforma descentralizada de expresión y conocimiento. El contenido original (ensayos, investigaciones, literatura, opinión y cultura) creció exponencialmente gracias a creadores individuales y medios. Hasta hace pocos años, la cadena era clara: un autor humano producía contenido, un usuario la consumía, crecían las visitas, el intercambio y, finalmente, se daba la monetización.
Este fenómeno se conoce como Model Collapse, AI Autophagy o Model Autophagy Disorder (MAD).
El Model Collapse ocurre cuando un modelo de IA comienza a perder la capacidad de generar contenido original, preciso o diverso porque se está entrenando con datos que no vienen de humanos, sino de otros modelos de IA.
La autofagia de IA es una metáfora inspirada en la biología; en medicina, ocurre cuando una célula se “come a sí misma” para sobrevivir por falta de nutrientes externos. En el mundo de la IA, significa que los modelos se alimentan de sus propios productos, en lugar de seguir nutriéndose del mundo real. El resultado es un sistema cerrado que se va empobreciendo porque repite lo que ya se generó en lugar de incorporar nueva información, experiencias humanas, lenguaje vivo o datos verificables.
El MAD es un nombre más técnico y reciente para este fenómeno; se refiere al deterioro sistemático de los modelos de IA cuando sus datos de entrenamiento están contaminados por contenido sintético. Los síntomas del MAD son:
Un modelo con MAD no necesariamente deja de funcionar, pero se vuelve cada vez menos útil, más sesgado y poco original.
Diversos estudios recientes han documentado con rigor cómo el entrenamiento de modelos de IA con contenido generado artificialmente (sin una base sólida de datos humanos) conduce a una degradación progresiva de su rendimiento.
Uno de los trabajos más citados es el estudio Self-Consuming Generative Models Go MAD, de Shumailov (2023), el cual analiza lo que sucede cuando un modelo es entrenado con sus propias salidas generadas o con contenido proveniente de otros modelos. Los autores demuestran que, al prescindir de datos reales, los modelos sufren una pérdida significativa tanto en precisión (calidad de las respuestas) como en recuperación (diversidad y riqueza conceptual).
Otro estudio clave, When AI Eats Itself: On the Caveats of AI Autophagy, aborda las consecuencias de la contaminación de los conjuntos de entrenamiento con contenido sintético. El equipo de investigación alerta sobre cómo esta práctica compromete la fiabilidad de nuevos modelos al distorsionar los patrones lingüísticos y cognitivos que deberían estar anclados al mundo real.
Asimismo, una síntesis de estudios publicados en arXiv y Rice University corrobora estos hallazgos con evidencia empírica. En pruebas sobre generación de imágenes, texto y audio, se observa un desempeño notablemente inferior en modelos entrenados con contenido artificial; estos tienden a replicar patrones repetitivos, perder fineza expresiva y manifestar errores semánticos que no se presentarían en entornos alimentados con datos genuinos.
En conjunto, estas investigaciones ponen de relieve un fenómeno cada vez más preocupante: la IA, al alimentarse de sí misma, pierde contacto con la complejidad, diversidad y riqueza del conocimiento humano.
El impacto del contenido generado por IA no es sólo técnico o teórico, pues se está sintiendo con fuerza en el ecosistema digital. Uno de los efectos más alarmantes es la caída significativa en el tráfico web hacia los productores de contenido original, sobre todo, medios de comunicación y plataformas educativas.
Según datos publicados por The Wall Street Journal, sitios como Business Insider han experimentado una pérdida de hasta 55% en tráfico orgánico entre abril de 2022 y abril de 2025. Esta tendencia se atribuye, en gran parte, a la aparición de respuestas generadas por IA directamente en los resultados de búsqueda, lo que reduce drásticamente la necesidad de que los usuarios visiten los sitios fuente.
Plataformas educativas y de divulgación científica también se han visto afectadas; World History Encyclopedia, por ejemplo, reportó una disminución de 25% en su tráfico tras la implementación de resúmenes automatizados por parte de Google Overviews. Este patrón se repite en medios de alto perfil como The Washington Post o HuffPost, donde las visitas cayeron hasta 50%, comprometiendo no sólo el modelo económico basado en la publicidad, sino también la sostenibilidad del periodismo profesional.
Otra manifestación clara del deterioro digital es el aumento explosivo del contenido automatizado de baja calidad, también denominado “spam sintético”. Plataformas colaborativas como Reddit y Stack Overflow se han visto obligadas a restringir o moderar el uso de respuestas generadas por IA por la proliferación de textos repetitivos, vagos o directamente incorrectos.
La marea de contenido sintético representa un problema sistémico, es decir, la erosión silenciosa de la riqueza informativa cultural, cognitiva y económica. Al replicar y reescribir su propia historia, la IA corre el riesgo de generar una “era poscreativa” dominada por narrativas recicladas, unipersonales y sin alma humana. Las voces humanas (de periodistas, científicos y creadores) deben regresar al centro del ecosistema digital.
En este sentido, S1m0ne funciona como una alegoría profética. Cuando lo artificial desplaza a lo auténtico, no sólo se transforma el medio, sino también la percepción de lo verdadero. El riesgo no es únicamente estético, sino existencial: el reemplazo progresivo del alma humana por patrones predecibles generados por una máquina.
El ecosistema de criptos y tokens representa más que un fenómeno financiero; es una infraestructura tecnológica con el potencial de redefinir industrias.
María Luisa Jazmín García JuvenalLa implementación de chatbots y plataformas de IA puede marcar la diferencia entre una empresa que responde a sus clientes y otra que los comprende.
Víctor Miguel Morales GonzálezLa historia de Frankenstein puede interpretarse hoy como una advertencia sobre la creación de la consciencia artificial sin regulación ni control.
Christian Vázquez SánchezEl Día Q será cuando una computadora cuántica sea tan avanzada y estable para romper los principales algoritmos criptográficos utilizados en la actualidad.
Christian Vázquez Sánchez© 2025 Colegio de Contadores Públicos de México, A.C.
Directorio Contacto Aviso legal Acerca de VeritasInicia sesión o suscríbete para continuar leyendo.