Le modèle d'intelligence artificielle Claude Mythos, lancé par Anthropic en avril, est devenu un sujet de discussion urgent dans les cercles financiers et réglementaires. Les ministres du G7 et les représentants de la Banque d'Angleterre ont abordé le sujet lors des réunions du FMI, exprimant une inquiétude sérieuse. L'alarme se concentre sur les capacités avancées du modèle et son potentiel d'exploitation pour des activités de cybercriminalité, ce qui représente un risque systémique.
Capacités techniques et le dilemme de la dualité 🤔
Claude Mythos représente une évolution des modèles de langage à grande échelle, avec des améliorations en matière de raisonnement complexe et de compréhension du contexte. Son architecture permet de traiter et de générer des instructions sophistiquées, une caractéristique qui, entre de mauvaises mains, peut se traduire par des outils pour l'ingénierie sociale avancée, la génération de code malveillant ou l'analyse de vulnérabilités. Cette dualité inhérente à la technologie, où une même capacité peut être utilisée pour le bien ou pour le mal, est au cœur du débat technico-réglementaire.
Les banques centrales demandent un chatbot avec gilet réfléchissant 🦺
Il semble que les régulateurs veuillent que la prochaine version de l'IA soit livrée avec des limiteurs d'usine, une sorte d'airbag éthique qui s'active avant de générer un phishing convaincant. Après des décennies à lutter contre les paradis fiscaux et les opérations opaques, leur plus grand casse-tête est désormais un modèle de langage qui pourrait trop bien écrire. L'image de banquiers centraux discutant de prompts et de tokens a son côté comique, comme s'ils s'attendaient à ce que le bot signe un code de conduite avec son API.