الجمعة, يناير 16, 2026
24.3 C
Los Angeles
spot_img

ذات صلة

جمع

عالم أمازون الجديد: سيتم إغلاق Aeternum MMO العام المقبل

أمازون لديها أعلن ذلك الخوادم ل العالم الجديد: الأبدي،...

خسرت شركة Apple سباق الذكاء الاصطناعي، والآن يبدأ التحدي الحقيقي

بالنسبة للخاسر في مجال الذكاء الاصطناعي، حققت شركة أبل...

غادر قائد أبحاث السلامة في OpenAI إلى الأنثروبيك

كانت إحدى القضايا الأكثر إثارة للجدل في صناعة الذكاء...

Xreal ترفع دعوى قضائية ضد Viture بسبب براءة اختراع نظارات الواقع المعزز

أنت تعلم أن فئة الأدوات الذكية بدأت في الانتشار...

غادر قائد أبحاث السلامة في OpenAI إلى الأنثروبيك


كانت إحدى القضايا الأكثر إثارة للجدل في صناعة الذكاء الاصطناعي خلال العام الماضي هي ما يجب فعله عندما يظهر المستخدم علامات تشير إلى أنه يعاني من مشاكل تتعلق بالصحة العقلية في محادثة روبوت الدردشة. انضمت الآن رئيسة هذا النوع من أبحاث السلامة في OpenAI، أندريا فالوني، إلى Anthropic.

“على مدار العام الماضي، قمت بقيادة بحث OpenAI حول سؤال لم يسبق له مثيل تقريبًا: كيف يجب أن تستجيب النماذج عند مواجهة علامات الاعتماد العاطفي المفرط أو المؤشرات المبكرة لاضطراب الصحة العقلية؟” كتب فالوني في منشور على LinkedIn بضعًا منذ أشهر.

عمل فالوني، الذي أمضى ثلاث سنوات في OpenAI وقام ببناء فريق بحث “السياسة النموذجية” هناك، على أفضل طريقة لنشر GPT-4، ونماذج الاستدلال الخاصة بـ OpenAI، وGPT-5، بالإضافة إلى تطوير عمليات التدريب لبعض تقنيات السلامة الأكثر شيوعًا في صناعة الذكاء الاصطناعي، مثل المكافآت القائمة على القواعد. انضمت الآن إلى فريق التوافق في Anthropic، وهي مجموعة مكلفة بفهم أكبر المخاطر التي تواجه نماذج الذكاء الاصطناعي وكيفية معالجتها.

سيعمل فالوني تحت قيادة جان لايكي، قائد أبحاث السلامة في OpenAI الذي غادر الشركة في مايو 2024 بسبب مخاوف أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت أمام المنتجات اللامعة”.

لقد تزايدت الشركات الناشئة الرائدة في مجال الذكاء الاصطناعي أثار الجدل على مدى العام الماضي بسبب صراعات المستخدمين مع الصحة العقلية، والتي يمكن أن تتفاقم بشكل أعمق بعد الثقة في روبوتات الدردشة المدعومة بالذكاء الاصطناعي، خاصة وأن حواجز السلامة تميل إلى الانهيار في المحادثات الطويلة. وقد مات بعض المراهقين منتحرين، أو ارتكب بالغون جرائم قتل، بعد أن وثقوا في الأدوات. وقد رفعت العديد من العائلات دعاوى قتل غير مشروع، وكانت هناك لجنة فرعية واحدة على الأقل في مجلس الشيوخ السمع في هذا الشأن. وقد تم تكليف الباحثين في مجال السلامة بمعالجة المشكلة.

كتب سام بومان، أحد قادة فريق المحاذاة، في منشور على موقع LinkedIn أنه “فخور بمدى الجدية التي تتعامل بها Anthropic مع مشكلة اكتشاف الكيفية التي يجب أن يتصرف بها نظام الذكاء الاصطناعي”.

في منشور على LinkedIn يوم الخميس، كتبت فالوني أنها “متشوقة لمواصلة بحثي في ​​Anthropic، مع التركيز على المواءمة والضبط الدقيق لتشكيل سلوك كلود في سياقات جديدة”.



المصدر

spot_imgspot_img