OpenAI и Anthropic договорились защищать подростков на своих платформах ИИ

Опубликовано 29.01.2026 | Перевод с испанского
Logotipos de OpenAI y Anthropic superpuestos sobre un escudo protector con un símbolo de candado, representando seguridad digital para jóvenes.

OpenAI и Anthropic договариваются защищать подростков на своих платформах ИИ

Два гиганта искусственного интеллекта, OpenAI и Anthropic, объявили о совместной рамочной программе, специально разработанной для защиты подростков-пользователей. Эта инициатива, согласованная с обязательствами перед Белым домом, определяет, как их языковые модели взаимодействуют с молодежью, ограничивая возможный вред. 🤝

План, сосредоточенный на оценке и маркировке рисков

Ядро соглашения заключается в анализе опасностей, которые системы вроде ChatGPT или Claude могут представлять для подростков. Компании фокусируются на контенте, связанном с деликатными темами, такими как насилие или проблемы психического здоровья. Для минимизации этого они обязуются создать и внедрить инструменты, которые автоматически идентифицируют и маркируют такой тип ответов, генерируемых ИИ.

Ключевые обязательства рамочной программы безопасности:
  • Систематически оценивать, как модели могут генерировать или продвигать вредный контент для несовершеннолетних.
  • Разработать системы маркировки, которые предупреждают при появлении чувствительной информации.
  • Обучать модели обнаруживать запросы от молодых пользователей и отвечать безопасно и адекватно.
Соревнование за создание самой умной модели теперь также подразумевает соревнование за самую осторожную.

Шаг к само регулированию отрасли ИИ

Это совместное усилие представляет проактивное движение по установке этических норм изнутри отрасли, опережающее будущие законы, которые могут быть более строгими. Приоритизируя защиту подростков, OpenAI и Anthropic стремятся продемонстрировать, что возможно инновировать ответственно.

Факторы, определяющие успех:
  • Точная манера, в которой будут внедрены протоколы безопасности на платформах.
  • Уровень прозрачности, который компании сохранят при информировании о своих успехах и препятствиях.
  • Способность инструментов адаптироваться к новым формам рисков, которые могут возникнуть.

Влияние более ответственного ИИ

Эффективность этих мер не только защитит пользователей, но и сможет определить стандарты для всей отрасли. Проактивно решая опасения относительно влияния ИИ на несовершеннолетних, устанавливается прецедент для разработки технологий, которые учитывают социальные последствия с самого начала. Конечная цель — сбалансировать технологический прогресс с защитой цифрового благополучия самых молодых. 🛡️