Mito Claude da Anthropic preocupa autoridades financeiras globais

23 de April de 2026 Publicado | Traduzido do espanhol

O modelo de inteligência artificial Claude Mythos, lançado pela Anthropic em abril, tornou-se um ponto de discussão urgente em círculos financeiros e regulatórios. Ministros do G7 e representantes do Banco da Inglaterra abordaram o tema durante reuniões do FMI, expressando uma preocupação séria. O alarme se concentra nas capacidades avançadas do modelo e seu potencial aproveitamento para atividades de cibercrime, o que representa um risco sistêmico.

Uma tela com o logotipo do Claude Mythos rodeada de gráficos financeiros em vermelho e símbolos de aviso.

Capacidades técnicas e o dilema da dualidade 🤔

Claude Mythos representa uma evolução em modelos de linguagem em grande escala, com melhorias em raciocínio complexo e compreensão de contexto. Sua arquitetura permite processar e gerar instruções sofisticadas, uma característica que, em mãos erradas, pode se traduzir em ferramentas para engenharia social avançada, geração de código malicioso ou análise de vulnerabilidades. Essa dualidade inerente à tecnologia, onde uma mesma capacidade pode ser usada para o bem ou para o mal, é o núcleo do debate técnico-regulatório.

Os bancos centrais pedem um chatbot com colete refletivo 🦺

Parece que os reguladores querem que a próxima versão de IA venha com limitadores de fábrica, algo como um airbag ético que se ative antes de gerar um phishing convincente. Depois de décadas lidando com paraísos fiscais e operações opacas, agora sua maior dor de cabeça é um modelo de linguagem que poderia escrever muito bem. A imagem de banqueiros centrais discutindo prompts e tokens tem seu ponto cômico, como se esperassem que o bot assinasse um código de conduta com sua API.