Anthropic и OpenAI ищут этику на встрече с религиозными лидерами

11.05.2026 Опубликовано | Переведено с испанского

Anthropic и OpenAI приняли участие в Faith-AI Covenant в Нью-Йорке, где консультировались с сикхскими, индуистскими, еврейскими и мормонскими лидерами о ценностях Claude. Этот шаг последовал за предыдущей встречей с 15 христианскими лидерами. Цель — найти этические истины для ситуаций без установленных правил, признавая, что ИИ не может самостоятельно достичь универсальных принципов.

Описание: Межрелигиозный круглый стол с сикхскими, индуистскими, еврейскими и мормонскими лидерами, а также представителями Anthropic и OpenAI, обсуждающими этику для ИИ Claude.

ИИ ищет моральное руководство за пределами своих обучающих данных 🧭

Подход признает, что языковые модели, обученные на огромных текстовых корпусах, лишены внутреннего морального компаса. Интегрируя перспективы таких традиций, как сикхизм или иудаизм, предпринимается попытка создать систему отсчета для беспрецедентных дилемм. Этот процесс включает перевод теологических концепций в алгоритмические ограничения — сложный шаг, требующий определения таких терминов, как дхарма или цедака, в коде.

Когда ваш ИИ-ассистент цитирует гуру вместо Википедии 🤖

Теперь, если вы спросите Claude об этической дилемме, он может ответить вам сикхской притчей вместо руководства пользователя. Представьте, что вы просите совета не съесть последний кусок пиццы, а он рассказывает вам о карме. По крайней мере, когда он ошибется, он сможет свалить вину на мормона или индуиста. Искусственный интеллект становится межрелигиозным, и все потому, что вовремя не сказал «нет».