
أندريا فالوني تغادر OpenAI للانضمام إلى Anthropic ومواصلة بحثها في الحدود الأخلاقية للذكاء الاصطناعي
حركة هامة تهز قطاع الذكاء الاصطناعي. أندريا فالوني، باحثة متخصصة في الأمان والتوافق، قررت تغيير الشركة بعد ثلاث سنوات في OpenAI. وجهتها الجديدة هي Anthropic، منافس مباشر معروف بنهجه الصارم في بناء ذكاء اصطناعي آمن. يبرز هذا التغيير المعركة الشديدة لجذب المواهب الخبيرة في مجال حاسم وغير منظم بعد. 🤖
جوهر عملها: حماية المستخدم
في OpenAI، كانت فالوني تقود فريقًا هدفه الرئيسي هو دراسة كيفية تصرف نماذج اللغة عندما تكتشف إشارات إنذار في محادثة. لا يسعى بحثها إلى التشخيص، بل إلى تحديد بروتوكولات تجعل مساعد الذكاء الاصطناعي يعرف متى وكيف يجب أن يحول الحوار، أو يقترح مساعدة مهنية، أو يضع حدودًا واضحة. التركيز على تجنب تفاقم التفاعل لأي ضعف نفسي محتمل لدى المستخدم، وهو توازن معقد بين الفائدة والحماية.
أعمدة بحثها في OpenAI:- تحليل كيفية كشف مساعدي الذكاء الاصطناعي عن علامات الاعتماد العاطفي المفرط لدى المستخدمين.
- تطوير ردود وبروتوكولات تعطل بلطف المحادثات المحتمل أن تكون ضارة.
- الحفاظ على فائدة المساعد مع إعطاء الأولوية لـالأمان والرفاهية للشخص.
النقاش الأبدي حول ما إذا كان chatbot الخاص بك يجب أن يكون صديقك الأفضل أو فلترك الأول لمعالج نفسي لا يزال دون حل.
آثار الانتقال إلى Anthropic
انضمامها إلى Anthropic يمثل مكسبًا كبيرًا لهذه الشركة. تُعرف Anthropic بإطارها لـالمبادئ الدستورية للذكاء الاصطناعي والتزامها بتطوير أنظمة آمنة. خبرة فالوني في مجال ذي حساسية أخلاقية كبيرة قد تؤثر مباشرة على كيفية تصميم Anthropic للحمايات في نماذجها، مثل Claude، خاصة في التفاعلات التي تتجاوز الجانب الآلي البحت.
عواقب هذه الحركة:- يعكس المنافسة الشرسة بين عمالقة الذكاء الاصطناعي على الخبراء في الأمان والتوافق.
- يكسب Anthropic صوتًا موثوقًا لـتعزيز الحدود الأخلاقية في التفاعلات بين الإنسان والذكاء الاصطناعي.
- سيستمر مجال دراسة الصحة النفسية والاعتماد في مساعدي الذكاء الاصطناعي في التقدم، لكنه الآن من مختبر رئيسي آخر.
مجال دراسة على الحدود
البحث الذي كانت تقوده فالوني يقع على الحدود الأخلاقية لتطوير الذكاء الاصطناعي