
OpenAI 任命 Aleksander Madry 领导其 AI 风险准备团队
公司 OpenAI 正在重组其内部结构,以主动应对未来人工智能系统带来的挑战。CEO Sam Altman 已任命来自 MIT 的专家 Aleksander Madry,领导一个新团队,专门评估和管理高级 AI 相关的危险。这一举措反映了 确保强大技术开发安全 的日益优先级。🤖
准备团队的核心使命
Madry 领导的团队受命分析并建立机制来缓解 灾难性风险。他们的工作不关注当前模型,而是预测未来系统的能力。目标是创建一个框架,使 OpenAI 能够负责任地创新,而不忽视自身成功可能带来的负面影响。
关键评估领域:- 分析模型帮助创建 化学或生物武器 的潜力。
- 评估其 欺骗人类 或操纵系统的能力。
- 研究其以 自主 方式运行、没有有效人类监督相关的风险。
当一些团队努力创造超越人类的智能时,另一个团队则负责确保如果它成功,不会认为我们是系统中的错误。这是研发与损害控制之间的经典分工。
长期安全战略方法
这个团队的创建直接回应了对 超级智能 AI 的担忧。Aleksander Madry 是 MIT 教授,其职业生涯专注于 AI 的鲁棒性和安全性,带来了关键的学术和技术视角。他的领导旨在将高影响场景的预见制度化融入公司文化。
工作结构和报告:- 团队将向 OpenAI 董事会提交 季度报告。
- 这些报告将帮助管理层对新系统的 开发和部署 做出明智决策。
- 目标是 将风险评估 整合到创新周期本身,而不是作为后续添加。
创新与谨慎的平衡
这一决定标志着 OpenAI 演变的重大一步,该公司寻求平衡其 开发强大 AI 的雄心与安全开发的义务。通过任命 Madry 这样的人物,公司发出了明确信息,表明其严肃对待 长期存在性风险。这个团队的成功将由其预测尚未存在的危险的能力来衡量,这是技术未来的根本挑战。⚖️