
من يشرف على الذكاءات الاصطناعية؟
هل تساءلت يوماً من يتحكم في أن تتصرف أنظمة الذكاء الاصطناعي بشكل صحيح؟ إنه أمر مشابه لوجود أدوات قوية جداً، لكن بدون دليل واضح حول كيفية التعامل معها. الآن، بدأت المؤسسات العامة في وضع قواعد لهذا البيئة الرقمية الجديدة. 🤖
التشريع الأوروبي الذي يصنف المخاطر
دفعت الاتحاد الأوروبي إلى إحدى أوائل التشريعات الشاملة لـتنظيم الذكاء الاصطناعي. يعمل بناءً على نهج يعتمد على مستويات الخطر. بعض الاستخدامات، مثل التعرف البيومتري في الأماكن العامة، محظورة تماماً. أخرى، مثل المساعدين الحواريين، تتطلب من الشركات إخبار المستخدمين بأنهم يتفاعلون مع آلة. الهدف هو التنبؤ وتجنب العواقب السلبية.
النقاط الرئيسية للتشريع:- حظر الاستخدامات عالية المخاطر: تم حظر أنظمة مثل التعرف على الوجوه في الوقت الفعلي للمراقبة الجماعية.
- الشفافية الإلزامية: يجب على الشات بوتات والأنظمة التي تولد محتوى الكشف عن طبيعتها الآلية.
- التركيز على التطبيق: يقيم القانون الغرض الملموس، لا الأداة التقنية بشكل مجرد.
لا يُحظر المطرقة، بل استخدامها لكسر زجاج. يمكن أن يكون خوارزمية حميدة لترتيب الصور وخطرة لمنح الائتمانات.
التركيز على الاستخدام، لا على التكنولوجيا
جانب أساسي من هذا التشريع هو أنه لا يحاول تنظيم الذكاء الاصطناعي كمفهوم، بل تنفيذه العملي. يمكن أن يكون نظام تعلم آلي واحد بريئاً لتصنيف الملفات ومضراً محتملاً إذا اختار مرشحين لوظيفة دون معيار بشري يراجعه. التمييز حاسم.
أمثلة على كيفية تغير التقييم:- تصنيف صور الحيوانات الأليفة: استخدام منخفض المخاطر، مسموح به عادةً.
- تسجيل طلبات المساعدة الاجتماعية: استخدام عالي المخاطر، خاضع لمتطلبات صارمة للتدقيق والرقابة.
- توليد نصوص إبداعية: استخدام ذو مخاطر محدودة، يحتاج إلى وضع علامة على المحتوى الآلي.
النظر إلى المستقبل
التحدي الرئيسي لا يقع في أن تقوم الآلات بانتفاضة، بل في أن لا تعرف المجتمع إدارة قوتها بمسؤولية. تمثل هذه القوانين الأولى ما يعادل وضع حزام الأمان قبل القيادة بسرعة عالية. وضع حدود واضحة الآن أمر أساسي للابتكار بثقة وأمان. 🔒