La IA para generar código se está degradando por momentos yendo a peor
Un estudio reciente del Instituto de Ingenieros Eléctricos y Electrónicos, IEEE, revela que los modelos de inteligencia artificial que escriben código se degradan. Esto significa que su rendimiento empeora a medida que evolucionan, en lugar de mejorar. La investigación analiza cómo estos sistemas, tras entrenar con datos de baja calidad o desactualizados, comienzan a producir código más lento, menos eficiente y con más errores.
El problema de la contaminación de datos
El fenómeno se conoce como degradación de la IA o colapso del modelo. Sucede porque los sistemas aprenden de su propia salida. Cuando el código generado por la IA se publica en internet, otros modelos lo usan para entrenar. Si ese código original contiene fallos o es subóptimo, el nuevo modelo lo asimila y amplifica los errores en cada ciclo. Con el tiempo, la calidad del código que producen estos asistentes cae en picado.
Implicaciones para desarrolladores y empresas
Esta tendencia preocupa a la industria del software. Confiar ciegamente en herramientas como GitHub Copilot o ChatGPT para programar puede introducir vulnerabilidades y deuda técnica. Los investigadores advierten que, sin un filtrado riguroso de los datos de entrenamiento, la utilidad de estos asistentes de código se reducirá. La comunidad debe vigilar la procedencia de los datos y establecer estándares para evaluar la salida de estos modelos de forma constante.
Quizás el único código que no se degrada es el que nunca se escribe, pero eso tampoco soluciona el proyecto.