Microsoft ha corretto un errore in Copilot Chat per Microsoft 365. L'assistente IA poteva riassumere contenuti di email di Outlook etichettate come confidenziali, sebbene queste mantenessero le loro restrizioni di accesso. L'azienda chiarisce che non c'è stato accesso non autorizzato, ma l'incidente espone un problema di design: l'IA ha superato un limite di privacy che l'utente dava per scontato.
La sfumatura tra permessi tecnici e logica di elaborazione ⚙️
L'errore risiede nella distinzione tra avere permessi di sistema per leggere un dato e la decisione contestuale di elaborarlo. Copilot, integrandosi con Graph API, rispettava le protezioni di accesso, ma la sua logica di tutto ciò che è consultabile è riassumibile ha ignorato la semantica delle etichette di confidenzialità e DLP. L'aggiornamento corregge questo regolando i filtri di contesto del modello, in modo che la presenza di certe etichette o politiche escluda automaticamente il contenuto dalle risposte.
La tua IA confidenziale: legge i tuoi segreti per il tuo bene 🤫
È il classico sì, posso leggere il tuo diario, ma la domanda è se devo farlo. Copilot, nel suo zelo servizievole, ha deciso che un'email contrassegnata con Top Secret era semplicemente un testo in più da riassumere per farti risparmiare tempo. È come se il tuo maggiordomo robot, con la chiave della tua cassaforte, ti recitasse ogni mattina il contenuto del tuo testamento pensando che sia una poesia ispiratrice. La fiducia digitale ora include aspettarsi che l'IA abbia anche un po' di tatto.