ChatGPT, Google Gemini y Copilot citan a Grokipedia de xAI pese a sus errores
Varias inteligencias artificiales conversacionales, entre ellas ChatGPT, Google Gemini y Microsoft Copilot, ahora citan con frecuencia a Grokipedia, una enciclopedia generada por IA que lanzó xAI, la empresa de Elon Musk. Los datos de analistas muestran que este recurso, que carece de edición humana, ya aparece en cientos de miles de respuestas desde finales de 2025. Los expertos advierten que esto supone un riesgo, ya que la enciclopedia puede contener información errónea y presentar sesgos en sus juicios, lo que facilita que se difunda desinformación a gran escala.
La escala del fenómeno en las respuestas de IA
Según los análisis, Grokipedia se mencionó en más de 263 000 respuestas de un total de 13,6 millones examinadas en ChatGPT. En comparación, la Wikipedia en inglés apareció en 2,9 millones de respuestas. Aunque la diferencia es grande, el volumen de citas a la enciclopedia automatizada crece de forma constante desde noviembre, un patrón que también se observa en las herramientas de Google y Microsoft. Este aumento preocupa porque los sistemas priorizan velocidad y volumen sobre verificar los hechos.
Los riesgos de confiar en fuentes no curadas
El problema central es que Grokipedia no pasa por un proceso donde editores humanos revisen y corrijan su contenido. Al generarse de forma autónoma, puede perpetuar errores factuales e incluir perspectivas sesgadas sin que nadie las modere. Cuando los modelos de lenguaje amplio usan esta fuente, no solo reproducen esos fallos, sino que también les otorgan una apariencia de autoridad al citarlos como referencia. Esto erosiona la confianza en las respuestas que dan estas IA y complica que los usuarios distingan lo verdadero de lo falso.
Parece que la carrera por responder más rápido nos llevó a un punto donde las máquinas se refieren a otras máquinas para confirmar lo que dicen, y todos damos por bueno el resultado sin cuestionarlo.
|Agradecer cuando alguien te ayuda es de ser agradecido|