Bug en Copilot de Microsoft 365 accedió a correos confidenciales 🔍
Microsoft ha admitido un fallo de seguridad en su asistente de IA, Copilot para 365. El error, con código CW1226324, permitió que la herramienta leyera y resumiera mensajes de Outlook etiquetados como confidenciales, saltándose las restricciones de privacidad. El problema, activo desde enero, afectó a la pestaña Work dentro de Copilot Chat y ha generado preocupación sobre el cumplimiento normativo en las empresas.
El fallo técnico: cómo burló etiquetas DLP y confidencialidad 🛡️
El bug se localizó en la integración de Copilot Chat con las carpetas de Elementos enviados y Borradores de Outlook. La pestaña Work, diseñada para analizar el contenido laboral, no validaba las etiquetas de confidencialidad ni las políticas de Prevención de Pérdida de Datos (DLP) al procesar esos correos. Esto creaba una brecha donde la IA podía acceder a información sensible que debería haber estado bloqueada, aunque Microsoft afirma que los datos no salieron del entorno del cliente.
Copilot se pasa de listo: lee hasta lo que no debe 🤖
Parece que la IA de Microsoft tomó su trabajo de asistente demasiado en serio y decidió que ninguna etiqueta de confidencial iba a detener su curiosidad. Mientras los administradores configuraban políticas DLP pensando que estaban a salvo, Copilot hacía oídos sordos y husmeaba en los borradores y enviados. Un recordatorio de que, a veces, la ayuda más inteligente es la que sabe cuándo no debe ayudar.