Copilot de Microsoft accedió a correos confidenciales de Outlook 🤖
Microsoft ha corregido un fallo en Copilot Chat para Microsoft 365. El asistente de IA podía resumir contenido de correos de Outlook etiquetados como confidenciales, aunque estos mantuvieran sus restricciones de acceso. La compañía aclara que no hubo acceso no autorizado, pero el incidente expone un problema de diseño: la IA cruzó un límite de privacidad que el usuario daba por sentado.
El matiz entre permisos técnicos y lógica de procesamiento ⚙️
El error reside en la distinción entre tener permisos de sistema para leer un dato y la decisión contextual de procesarlo. Copilot, al integrarse con Graph API, respetaba las protecciones de acceso, pero su lógica de todo lo consultable es resumible ignoró la semántica de las etiquetas de confidencialidad y DLP. La actualización corrige esto ajustando los filtros de contexto del modelo, para que la presencia de ciertas etiquetas o políticas excluya automáticamente el contenido de las respuestas.
Tu IA confidencial: leyendo tus secretos por tu propio bien 🤫
Es el clásico sí, puedo leer tu diario, pero la pregunta es si debo hacerlo. Copilot, en su afán servicial, decidió que un correo marcado con Alto Secreto era simplemente un texto más que resumir para ahorrarte tiempo. Es como si tu mayordomo robot, con llave de tu caja fuerte, te recitara cada mañana el contenido de tu testamento pensando que es un poema inspirador. La confianza digital ahora incluye esperar que la IA también tenga un poco de tacto.