Un estudio de Stanford, el Imperial College de Londres y el Archivo de Internet revela que, desde 2022, más de un tercio de los sitios web recién creados contienen contenido generado por inteligencia artificial. El análisis, que cubre muestras hasta mayo de 2025, usó el software Pangram v3 para detectar texto sintético. La web se está automatizando a un ritmo acelerado. 🌐
Pangram v3: el detector que expone la huella sintética 🤖
El software Pangram v3, desarrollado para identificar patrones lingüísticos propios de modelos de lenguaje, analizó un conjunto masivo de páginas. Detectó que el contenido generado por IA no solo prolifera en blogs y sitios de afiliados, sino también en foros y portales de noticias. La precisión del detector permite diferenciar entre texto humano y sintético con un margen de error reducido, aunque los modelos avanzados siguen dificultando la tarea.
Pronto necesitaremos una IA para saber qué no es IA 😅
El dato es curioso: cada vez más webs se escriben solas, pero nadie parece leerlas. Pronto tendremos internet lleno de artículos generados por máquinas que son leídos por otras máquinas para entrenar a nuevas máquinas. En ese bucle, los humanos seremos como ese amigo que llega tarde a la fiesta y solo encuentra migas. Al menos, seguimos siendo mejores contando chistes malos.