
生成代码的人工智能随着时间推移质量下降
最近电气和电子工程师协会(IEEE)的一项研究揭示了一个令人担忧的现象:设计用于编写代码的人工智能系统并非持续改进,而是其性能逐渐恶化。这一发现质疑了这些广泛采用工具的长期演进。🤖
AI退化的恶性循环
这个问题,被称为AI退化或模型崩溃,源于一种自我破坏的学习机制。这些模型使用互联网上大量可用的代码进行训练,而这些代码越来越多地包含其他AI生成的输出。如果这些代码包含缺陷,新系统就会吸收并在每次迭代中放大错误,从而产生更慢且错误更多的软件。
加速衰退的关键因素:- 使用过时或低质量的训练数据来喂养模型。
- 大规模发布未经严格过滤的AI生成代码。
- 缺乏持续评估和调试这些助手输出的机制。
如果不对训练数据进行严格过滤,这些代码助手的实用性将降低。
对软件开发的后果
这一趋势对开发者和企业有直接影响。自动依赖GitHub Copilot或ChatGPT等解决方案进行编程可能会引入安全漏洞并积累技术债务,从而危及项目的未来稳定性。🔧
已识别的风险领域:- 安全:传播不安全的编码实践或意外的后门。
- 性能:生成消耗过多资源的低效算法。
- 维护:难以阅读和调试的代码,增加修复成本。
迈向社区解决方案
研究人员强调,社区必须采取行动来对抗这一现象。监督训练数据的来源并建立评估生成代码质量的共同标准至关重要。替代方案不是停止使用这些工具,而是实施确保其积极可靠演进的过程。AI辅助编程的未来取决于我们组织和策展喂养其信息的能力。