A Microsoft corrigiu uma falha no Copilot Chat para Microsoft 365. O assistente de IA conseguia resumir conteúdo de e-mails do Outlook etiquetados como confidenciais, embora estes mantivessem suas restrições de acesso. A empresa esclarece que não houve acesso não autorizado, mas o incidente expõe um problema de design: a IA cruzou um limite de privacidade que o usuário dava por garantido.
O matiz entre permissões técnicas e lógica de processamento ⚙️
O erro reside na distinção entre ter permissões de sistema para ler um dado e a decisĂŁo contextual de processá-lo. O Copilot, ao se integrar com a Graph API, respeitava as proteções de acesso, mas sua lĂłgica de tudo o que Ă© consultável Ă© resumĂvel ignorou a semântica das etiquetas de confidencialidade e DLP. A atualização corrige isso ajustando os filtros de contexto do modelo, para que a presença de certas etiquetas ou polĂticas exclua automaticamente o conteĂşdo das respostas.
Sua IA confidencial: lendo seus segredos pelo seu próprio bem 🤫
É o clássico sim, posso ler seu diário, mas a pergunta é se devo fazer isso. O Copilot, em seu afã servicial, decidiu que um e-mail marcado com Alto Secreto era simplesmente um texto a mais para resumir e economizar seu tempo. É como se seu mordomo robô, com a chave do seu cofre, recitasse toda manhã o conteúdo do seu testamento pensando que é um poema inspirador. A confiança digital agora inclui esperar que a IA também tenha um pouco de tato.