
OpenAI 和 Anthropic 同意保护其 AI 平台上的青少年
两大人工智能巨头 OpenAI 和 Anthropic 宣布了一个联合工作框架,专门旨在保障青少年用户的安全。这一举措与在白宫做出的承诺一致,旨在定义其语言模型如何与年轻人互动,并限制潜在损害。🤝
一个以评估和标记风险为中心的计划
该协议的核心在于分析危险,这些危险是像 ChatGPT 或 Claude 这样的系统可能对青少年造成的。公司重点关注与敏感主题相关的内容,如暴力或心理健康问题。为了缓解这一点,它们承诺创建并实施工具,这些工具能够自动识别并标记此类由 AI 生成的响应。
安全框架的关键承诺:- 系统地评估模型如何可能生成或促进对未成年人的有害内容。
- 开发标记系统,在产生敏感信息时发出警报。
- 训练模型,以检测年轻用户的查询并以安全、适当的方式回应。
竞争创建最智能的模型现在也意味着竞争成为最谨慎的。
迈向 AI 行业自我监管的一步
这一协作努力代表了行业内部主动建立伦理规范的举措,提前应对未来可能更严格的法律。通过优先保护青少年,OpenAI 和 Anthropic 试图证明可以负责任地创新。
决定成功的关键因素:- 在平台上实施安全协议的具体方式。
- 公司在报告进展和障碍时保持的透明度水平。
- 工具适应可能出现的新风险形式的能力。
更负责任的 AI 的影响
这些措施的有效性不仅将保护用户,还可能为整个行业定义标准。通过主动解决 AI 对未成年人的影响担忧,它为开发技术树立了一个先例,该技术从一开始就考虑社会影响。最终目标是平衡技术进步与保护年轻人数字福祉。🛡️