Anthropic e OpenAI cercano etica in riunione con leader religiosi

11 May 2026 Pubblicato | Tradotto dallo spagnolo

Anthropic e OpenAI hanno partecipato al Faith-AI Covenant a New York, dove hanno consultato leader sikh, indù, ebrei e mormoni sui valori di Claude. Questa mossa segue un precedente incontro con 15 leader cristiani. L'obiettivo è trovare verità etiche per situazioni senza regole scritte, riconoscendo che l'IA non può raggiungere principi universali da sola.

Descrizione: Tavola rotonda interreligiosa con leader sikh, indù, ebrei e mormoni, e rappresentanti di Anthropic e OpenAI, che discutono di etica per l'IA Claude.

L'IA cerca una guida morale oltre i suoi dati di addestramento 🧭

L'approccio riconosce che i modelli linguistici, addestrati su vasti corpus testuali, mancano di una bussola morale intrinseca. Integrando prospettive di tradizioni come il Sikhismo o l'Ebraismo, si cerca di creare un quadro di riferimento per dilemmi senza precedenti. Questo processo implica tradurre concetti teologici in vincoli algoritmici, un passo complesso che richiede di definire termini come dharma o tzedakà in codice.

Quando il tuo assistente AI cita un guru invece di Wikipedia 🤖

Ora, se chiedi a Claude un consiglio su un dilemma etico, potrebbe risponderti con una parabola sikh invece di un manuale utente. Immagina di chiedergli consiglio su come non mangiare l'ultimo pezzo di pizza e che ti parli del karma. Almeno, quando sbaglia, potrà dare la colpa a un mormone o a un indù. L'intelligenza artificiale diventa interreligiosa, e tutto per non saper dire di no in tempo.