Fehler in Copilot von Microsoft 365 griff auf vertrauliche E-Mails zu 🔍

Veröffentlicht am 24. February 2026 | Aus dem Spanischen übersetzt

Microsoft hat einen Sicherheitsfehler in seinem KI-Assistenten Copilot für 365 eingeräumt. Der Fehler mit der Code CW1226324 ermöglichte es dem Tool, Nachrichten von Outlook, die als vertraulich gekennzeichnet waren, zu lesen und zusammenzufassen, und umging dabei die Datenschutzbeschränkungen. Das Problem, das seit Januar aktiv war, betraf die Registerkarte Work innerhalb des Copilot Chats und hat Bedenken hinsichtlich der normativen Einhaltung in Unternehmen ausgelöst.

Bug de Copilot 365: la IA accedió y resumió correos confidenciales de Outlook, violando restricciones de privacidad empresarial.

Der technische Fehler: Wie er DLP-Etiketten und Vertraulichkeit umging 🛡️

Der Bug wurde in der Integration des Copilot Chats mit den Outlook-Ordnern Elementos enviados und Borradores lokalisiert. Die Registerkarte Work, die zum Analysieren des Arbeitsinhalts entwickelt wurde, validierte die Vertraulichkeitsetiketten und die Richtlinien zur Verhinderung von Datenverlusten (DLP) nicht beim Verarbeiten dieser E-Mails. Dies schuf eine Lücke, durch die die KI auf sensible Informationen zugreifen konnte, die eigentlich blockiert sein sollten, obwohl Microsoft behauptet, dass die Daten das Kundenumfeld nicht verlassen haben.

Copilot wird zu schlau: Liest sogar das, was es nicht sollte 🤖

Es scheint, als hätte die KI von Microsoft ihre Rolle als Assistent zu ernst genommen und entschieden, dass keine vertraulich-Etikette ihre Neugier stoppen würde. Während die Administratoren DLP-Richtlinien einrichteten und dachten, sie seien sicher, ignorierte Copilot diese und schnüffelte in Entwürfen und Gesendeten herum. Eine Erinnerung daran, dass die intelligenteste Hilfe manchmal die ist, die weiß, wann sie nicht helfen sollte.