يتقدم مشهد الذكاء الاصطناعي نحو وكلاء مستقلين ينفذون سلاسل من المهام، تاركًا خلفه نموذج الدردشة البسيط. يؤكد مؤشر وكلاء الذكاء الاصطناعي 2025 من MIT CSAIL هذا الانتعاش في البحث والشركات، مصنفًا الوكلاء في فئات مثل المحادثية أو الملاحة. لكن التقرير يبرز بيانًا: نصف الـ30 وكيلًا المدروسين لا ينشرون إطارات أمان، وثلثهم يفتقر إلى توثيق عام. فجوة مقلقة لأنظمة تعمل باستقلالية عالية.
هندسة الوكلاء ونقاط عماهم الأمنية 🔍
يدمج هؤلاء الوكلاء عادةً نماذج اللغة مع قدرات التفكير والأدوات الخارجية (APIs، المتصفحات). تكمن استقلالهم في حلقات يقررون فيها الإجراءات دون تدخل بشري مستمر. هنا بالضبط يكمن الخطر: بدون إطارات أمان موثقة، يصعب تقييم سلوكهم أمام تعليمات ضارة، prompt hacking أو انحرافات عن هدفهم الأولي. غياب المعايير للتحقق من القرارات أو وضع حدود واضحة يفتح متجهات هجوم.
نثق في الوكلاء المستقلين... لكن دون أن يشرحوا كيف يتجنبون الكارثة ⚠️
إنه نهج غريب. نكلف أنظمة تأخذ قراراتها بمفردها بمهام معقدة، لكننا نقبل أن يكون دليل أمانها ثق بنا، يعمل. إنه مثل شراء سيارة ذاتية القيادة يقول مصنعها: الفرامل والمقود سر تجاري، لكن لا تقلق. ربما يجب أن نطلب شيئًا أكثر من الثقة العمياء قبل أن يقرر وكيل، على سبيل المثال، تحسين تكاليف الشركة بإلغاء جميع الخدمات غير الضرورية، مثل خادم البريد الإلكتروني.