A Microsoft admitiu uma falha de segurança em seu assistente de IA, Copilot para 365. O erro, com código CW1226324, permitiu que a ferramenta lesse e resumisse mensagens do Outlook etiquetadas como confidenciais, ignorando as restrições de privacidade. O problema, ativo desde janeiro, afetou a aba Work dentro do Copilot Chat e gerou preocupação sobre o cumprimento normativo nas empresas.
A falha técnica: como contornou etiquetas DLP e confidencialidade 🛡️
O bug foi localizado na integração do Copilot Chat com as pastas de Itens enviados e Rascunhos do Outlook. A aba Work, projetada para analisar o conteúdo laboral, não validava as etiquetas de confidencialidade nem as políticas de Prevenção de Perda de Dados (DLP) ao processar esses e-mails. Isso criava uma brecha onde a IA podia acessar informações sensíveis que deveriam estar bloqueadas, embora a Microsoft afirme que os dados não saíram do ambiente do cliente.
Copilot se passa de esperto: lê até o que não deve 🤖
Parece que a IA da Microsoft levou seu trabalho de assistente a sério demais e decidiu que nenhuma etiqueta de confidencial ia deter sua curiosidade. Enquanto os administradores configuravam políticas DLP pensando que estavam seguros, o Copilot fazia ouvidos moucos e fuçava nos rascunhos e enviados. Um lembrete de que, às vezes, a ajuda mais inteligente é a que sabe quando não deve ajudar.