Il modello di intelligenza artificiale Claude Mythos, lanciato da Anthropic in aprile, è diventato un punto di discussione urgente negli ambienti finanziari e regolatori. I ministri del G7 e i rappresentanti della Banca d'Inghilterra hanno affrontato l'argomento durante le riunioni del FMI, esprimendo una seria preoccupazione. L'allarme si concentra sulle capacità avanzate del modello e sul suo potenziale sfruttamento per attività di cybercrimine, il che rappresenta un rischio sistemico.
Capacità tecniche e il dilemma della dualità 🤔
Claude Mythos rappresenta un'evoluzione nei modelli linguistici su larga scala, con miglioramenti nel ragionamento complesso e nella comprensione del contesto. La sua architettura permette di elaborare e generare istruzioni sofisticate, una caratteristica che, nelle mani sbagliate, può tradursi in strumenti per ingegneria sociale avanzata, generazione di codice malevolo o analisi delle vulnerabilità. Questa dualità intrinseca alla tecnologia, dove la stessa capacità può essere usata per il bene o per il male, è il nucleo del dibattito tecnico-regolatorio.
Le banche centrali chiedono un chatbot con giubbotto riflettente 🦺
Sembra che i regolatori vogliano che la prossima versione di IA venga con limitatori di fabbrica, qualcosa come un airbag etico che si attivi prima di generare un phishing convincente. Dopo decenni a combattere con paradisi fiscali e operazioni opache, ora il loro mal di testa più grande è un modello linguistico che potrebbe scrivere troppo bene. L'immagine di banchieri centrali che discutono prompt e token ha il suo lato comico, come se si aspettassero che il bot firmasse un codice di condotta con la sua API.