Microsoft hat einen Fehler in Copilot Chat für Microsoft 365 behoben. Der KI-Assistent konnte Inhalte von Outlook-E-Mails zusammenfassen, die als vertraulich gekennzeichnet waren, obwohl diese ihre Zugriffsbeschränkungen beibehielten. Das Unternehmen klärt, dass es keinen unbefugten Zugriff gab, aber der Vorfall deckt ein Designproblem auf: Die KI hat eine Datenschutzgrenze überschritten, die der Benutzer als gegeben hinnahm.
Der Unterschied zwischen technischen Berechtigungen und Verarbeitungslogik ⚙️
Der Fehler liegt in der Unterscheidung zwischen dem Systemberechtigung zum Lesen eines Datensatzes und der kontextuellen Entscheidung, ihn zu verarbeiten. Copilot, integriert mit der Graph API, respektierte die Zugriffsbeschränkungen, aber seine Logik von Alles Abfragbare ist zusammenfassbar ignorierte die Semantik der Vertraulichkeitskennzeichnungen und DLP. Das Update korrigiert dies, indem es die Kontextfilter des Modells anpasst, sodass das Vorhandensein bestimmter Kennzeichnungen oder Richtlinien den Inhalt automatisch aus den Antworten ausschließt.
Deine vertrauliche KI: Liest deine Geheimnisse zu deinem eigenen Besten 🤫
Es ist das klassische Ja, ich kann dein Tagebuch lesen, aber die Frage ist, ob ich es tun sollte. Copilot hat in seinem hilfsbereiten Eifer entschieden, dass eine E-Mail mit der Kennzeichnung Streng geheim einfach nur ein weiterer Text war, den es zusammenfassen sollte, um dir Zeit zu sparen. Es ist, als ob dein Roboterbutler, der den Schlüssel zu deinem Tresor hat, dir jeden Morgen den Inhalt deines Testaments vorliest und denkt, es sei ein inspirierendes Gedicht. Das digitale Vertrauen umfasst nun auch die Erwartung, dass die KI etwas Taktgefühl hat.