Copilot de Microsoft a accédé à des courriels confidentiels d'Outlook 🤖

Publié le 23 February 2026 | Traduit de l'espagnol

Microsoft a corrigé une faille dans Copilot Chat pour Microsoft 365. L'assistant IA pouvait résumer le contenu de courriels d'Outlook étiquetés comme confidentiels, bien qu'ils conservent leurs restrictions d'accès. La société précise qu'il n'y a pas eu d'accès non autorisé, mais l'incident expose un problème de conception : l'IA a franchi une limite de confidentialité que l'utilisateur tenait pour acquise.

Copilot de Microsoft a résumé des courriels confidentiels d'Outlook, franchissant une limite de confidentialité inattendue pour les utilisateurs.

La nuance entre permissions techniques et logique de traitement ⚙️

L'erreur réside dans la distinction entre avoir des permissions système pour lire une donnée et la décision contextuelle de la traiter. Copilot, en s'intégrant avec Graph API, respectait les protections d'accès, mais sa logique de tout ce qui est consultable est résumable a ignoré la sémantique des étiquettes de confidentialité et DLP. La mise à jour corrige cela en ajustant les filtres de contexte du modèle, pour que la présence de certaines étiquettes ou politiques exclue automatiquement le contenu des réponses.

Votre IA confidentielle : lisant vos secrets pour votre propre bien 🤫

C'est le classique oui, je peux lire ton journal, mais la question est de savoir si je dois le faire. Copilot, dans son zèle serviable, a décidé qu'un courriel marqué Top Secret n'était qu'un texte de plus à résumer pour vous faire gagner du temps. C'est comme si votre majordome robot, avec la clé de votre coffre-fort, vous récitait chaque matin le contenu de votre testament en pensant que c'est un poème inspirant. La confiance numérique inclut désormais l'attente que l'IA ait aussi un peu de tact.