La ricerca sull'intelligenza ha oscillato storicamente tra due modelli: quello computazionale, basato su logica e simboli, e quello conessionista, centrato sulle reti neurali. Tom Griffiths, in The Laws of Thought, propone che una teoria completa richieda l'integrazione di tre pilastri matematici: le regole simboliche, le reti neurali e il calcolo probabilistico. Questa visione ibrida si confronta con posizioni come quella di The Emergent Mind, che difende l'intelligenza puramente emergente da reti complesse.
Verso un'architettura ibrida per superare i limiti dei LLMs ⚙️
I grandi modelli di linguaggio attuali sono prevalentemente conessionisti, il che spiega la loro capacità per il linguaggio naturale e la loro mancanza di ragionamento logico robusto. L'integrazione proposta aggiungerebbe un modulo di regole simboliche per compiti di inferenza precisa e pianificazione, e un quadro probabilistico bayesiano per gestire l'incertezza e l'apprendimento con pochi dati. Questa architettura potrebbe affrontare fallimenti come l'inconsistenza logica o la difficoltà nel ragionamento matematico.
La tua IA è bipolare? Forse le mancano due quadri matematici 🤔
È comprensibile. Un giorno il tuo assistente scrive un sonetto impeccabile e il giorno dopo non sa sommare 2+2 senza inventarsi un numero primo. Non è che sia pazza, è che la sua mente conessionista è sovraccarica di pattern e orfana di logica. Secondo Griffiths, ha bisogno di una terapia integrativa: un psicoanalista simbolico e un terapeuta probabilista. Magari così smetterà di affermare con sicurezza che le galline hanno tre zampe se glielo suggerisci con sufficiente convinzione.