لقد اعترفت مايكروسوفت بخلل أمني في مساعدها الذكاء الاصطناعي، Copilot لـ 365. الخطأ، برمز CW1226324، سمح للأداة بقراءة وتلخيص رسائل Outlook المُصنفة كسرية، متجاوزًا قيود الخصوصية. المشكلة، النشطة منذ يناير، أثرت على علامة التبويب Work داخل Copilot Chat وقد أثارت قلقًا بشأن الامتثال التنظيمي في الشركات.
الخلل التقني: كيف تجاوز علامات DLP والسرية 🛡️
تم تحديد الخلل في تكامل Copilot Chat مع مجلدات العناصر المرسلة والمسودات في Outlook. علامة التبويب Work، المصممة لتحليل المحتوى الوظيفي، لم تتحقق من علامات السرية ولا من سياسات منع فقدان البيانات (DLP) عند معالجة تلك الرسائل. هذا أنشأ ثغرة حيث يمكن للذكاء الاصطناعي الوصول إلى معلومات حساسة كان يجب أن تكون محظورة، على الرغم من أن مايكروسوفت تؤكد أن البيانات لم تخرج من بيئة العميل.
Copilot يتجاوز الحدود: يقرأ حتى ما لا يجب عليه قراءته 🤖
يبدو أن ذكاء مايكروسوفت الاصطناعي أخذ عمله كـمساعد على محمل الجد جدًا وقرر أن لا علامة سرية ستوقف فضوله. بينما كان المديرون يضبطون سياسات DLP ظانين أنهم في أمان، كان Copilot يتجاهل ويفتش في المسودات والمرسلات. تذكير بأن المساعدة الأكثر ذكاءً أحيانًا هي التي تعرف متى لا يجب أن تساعد.