Anthropic e OpenAI hanno partecipato al Faith-AI Covenant a New York, dove hanno consultato leader sikh, indù, ebrei e mormoni sui valori di Claude. Questa mossa segue un precedente incontro con 15 leader cristiani. L'obiettivo è trovare verità etiche per situazioni senza regole scritte, riconoscendo che l'IA non può raggiungere principi universali da sola.
L'IA cerca una guida morale oltre i suoi dati di addestramento 🧭
L'approccio riconosce che i modelli linguistici, addestrati su vasti corpus testuali, mancano di una bussola morale intrinseca. Integrando prospettive di tradizioni come il Sikhismo o l'Ebraismo, si cerca di creare un quadro di riferimento per dilemmi senza precedenti. Questo processo implica tradurre concetti teologici in vincoli algoritmici, un passo complesso che richiede di definire termini come dharma o tzedakà in codice.
Quando il tuo assistente AI cita un guru invece di Wikipedia 🤖
Ora, se chiedi a Claude un consiglio su un dilemma etico, potrebbe risponderti con una parabola sikh invece di un manuale utente. Immagina di chiedergli consiglio su come non mangiare l'ultimo pezzo di pizza e che ti parli del karma. Almeno, quando sbaglia, potrà dare la colpa a un mormone o a un indù. L'intelligenza artificiale diventa interreligiosa, e tutto per non saper dire di no in tempo.