Copilot da Microsoft acessou e-mails confidenciais do Outlook 🤖

Publicado em 23 de February de 2026 | Traduzido do espanhol

A Microsoft corrigiu uma falha no Copilot Chat para Microsoft 365. O assistente de IA conseguia resumir conteúdo de e-mails do Outlook etiquetados como confidenciais, embora estes mantivessem suas restrições de acesso. A empresa esclarece que não houve acesso não autorizado, mas o incidente expõe um problema de design: a IA cruzou um limite de privacidade que o usuário dava por garantido.

Copilot de Microsoft resumiĂł correos confidenciales de Outlook, cruzando un lĂ­mite de privacidad inesperado para los usuarios.

O matiz entre permissões técnicas e lógica de processamento ⚙️

O erro reside na distinção entre ter permissões de sistema para ler um dado e a decisão contextual de processá-lo. O Copilot, ao se integrar com a Graph API, respeitava as proteções de acesso, mas sua lógica de tudo o que é consultável é resumível ignorou a semântica das etiquetas de confidencialidade e DLP. A atualização corrige isso ajustando os filtros de contexto do modelo, para que a presença de certas etiquetas ou políticas exclua automaticamente o conteúdo das respostas.

Sua IA confidencial: lendo seus segredos pelo seu próprio bem 🤫

É o clássico sim, posso ler seu diário, mas a pergunta é se devo fazer isso. O Copilot, em seu afã servicial, decidiu que um e-mail marcado com Alto Secreto era simplesmente um texto a mais para resumir e economizar seu tempo. É como se seu mordomo robô, com a chave do seu cofre, recitasse toda manhã o conteúdo do seu testamento pensando que é um poema inspirador. A confiança digital agora inclui esperar que a IA também tenha um pouco de tato.