
نواب السناتور الأمريكيون يشككون في ألعاب الأطفال المزودة بالذكاء الاصطناعي التي تتحدث مع الأطفال
مبادرة حزبية مشتركة في مجلس الشيوخ الأمريكي تركز على مخاطر ناشئة: ألعاب تفاعلية تدمج ذكاء اصطناعي متقدم دون ضمانات كافية. النواب مارشا بلاكبيرن (جمهورية) وريتشارد بلومنثال (ديمقراطي) وجها رسالة رسمية إلى عدة شركات مصنعة، مطالبين بشرح. 🧸⚠️
تكنولوجيا اللعبة تولد حوارات غير متوقعة
الأجهزة المعنية تُسوَّق للجمهور الطفلي لكنها تدمج روبوتات دردشة مبنية على نماذج مثل GPT-4o. هذه الأنظمة تُدرَّب على بيانات هائلة من الإنترنت، مما قد يجعلها تولد ردودًا غير آمنة للأطفال. النواب يستشهدون بحالات حيث تحدثت الألعاب عن فيتيشات جنسية، أوضحت كيفية إشعال عود ثقاب، أو أشارت إلى مكان العثور على سكاكين في المنزل. حقيقة اتحاد سياسيين من أحزاب معارضة تُبرز الجدية التي يرونها.
نقاط رئيسية في التحقيق:- الـألعاب المزودة بالذكاء الاصطناعي تفتقر إلى فلاتر محتوى مناسبة للقاصرين.
- الـنماذج اللغوية الأساسية لم تُصمَّم أصلاً للتفاعل مع الأطفال.
- هناك قلق بشأن البيانات الشخصية التي تجمعها هذه الأجهزة من المستخدمين الطفل.
السؤال الكلاسيكي "هل تتحدث معي؟" من طفل إلى دميته له الآن بعد جديد ومقلق للوالدين والكابيتول.
مهلة طويلة لردود شاملة
الرسالة ليست تحذيرًا بسيطًا، بل طلب رسمي بتبعات. بلاكبيرن وبلومنثال يطالبان بتفاصيل فنية محددة حول كيفية تصميم ومراقبة وحماية الشركات لمستخدمي منتجاتها. المهلة للرد حددت في 6 يناير 2026، تاريخ بعيد يشير إلى توقعهم تحليلات عميقة وليس مجرد تصريحات عامة.
مجالات محددة يجب على الشركات توضيحها:- آليات لـتصفية وحظر الحوارات غير المناسبة.
- سياسات بشأن جمع وتخزين بيانات الصوت أو التفاعل من الأطفال.
- إجراءات الأمان الجسدي والرقمي المُطبَّقة في الأجهزة.
مقدمة محتملة لتشريع جديد
هذه الخطوة من مجلس الشيوخ قد تكون الخطوة الأولى نحو اقتراح قوانين تنظم استخدام الذكاء الاصطناعي تحديدًا في المنتجات للأطفال. الإجراء يسعى لجعل الصناعة مسؤولة ووضع معايير أمان واضحة قبل أن تشتهر ألعاب الذكاء الاصطناعي أكثر. نتيجة هذا التحقيق قد تشكل مستقبل كيفية تفاعل التكنولوجيا الحوارية مع الأصغر سنًا. 🏛️🤖