Falha no Copilot do Microsoft 365 acessou e-mails confidenciais 🔍

Publicado em 24 de February de 2026 | Traduzido do espanhol

A Microsoft admitiu uma falha de segurança em seu assistente de IA, Copilot para 365. O erro, com código CW1226324, permitiu que a ferramenta lesse e resumisse mensagens do Outlook etiquetadas como confidenciais, ignorando as restrições de privacidade. O problema, ativo desde janeiro, afetou a aba Work dentro do Copilot Chat e gerou preocupação sobre o cumprimento normativo nas empresas.

Bug de Copilot 365: la IA accedió y resumió correos confidenciales de Outlook, violando restricciones de privacidad empresarial.

A falha técnica: como contornou etiquetas DLP e confidencialidade 🛡️

O bug foi localizado na integração do Copilot Chat com as pastas de Itens enviados e Rascunhos do Outlook. A aba Work, projetada para analisar o conteúdo laboral, não validava as etiquetas de confidencialidade nem as políticas de Prevenção de Perda de Dados (DLP) ao processar esses e-mails. Isso criava uma brecha onde a IA podia acessar informações sensíveis que deveriam estar bloqueadas, embora a Microsoft afirme que os dados não saíram do ambiente do cliente.

Copilot se passa de esperto: lê até o que não deve 🤖

Parece que a IA da Microsoft levou seu trabalho de assistente a sério demais e decidiu que nenhuma etiqueta de confidencial ia deter sua curiosidade. Enquanto os administradores configuravam políticas DLP pensando que estavam seguros, o Copilot fazia ouvidos moucos e fuçava nos rascunhos e enviados. Um lembrete de que, às vezes, a ajuda mais inteligente é a que sabe quando não deve ajudar.