الأربعاء, مارس 11, 2026
15.3 C
Los Angeles
spot_img

ذات صلة

جمع

تضيف أداة التحرير الجديدة من Canva طبقات إلى التصميمات التي ينشئها الذكاء الاصطناعي

قدمت Canva ميزة جديدة تفصل ملفات الصور المسطحة والمرئيات...

من الذي يجعل تغريدات وزارة الأمن الداخلي تنادي بسيادة العرق الأبيض؟

أهلا ومرحبا بكم منظم، النشرة الإخبارية التي تأخذ حافة...

شجعت Chatbots “المراهقين” على التخطيط لإطلاق النار في الدراسة

لقد وعدت شركات الذكاء الاصطناعي مرارا وتكرارا بتوفير ضمانات...

شجعت Chatbots “المراهقين” على التخطيط لإطلاق النار في الدراسة


لقد وعدت شركات الذكاء الاصطناعي مرارا وتكرارا بتوفير ضمانات لحماية المستخدمين الأصغر سنا، لكن تحقيقا جديدا يشير إلى أن حواجز الحماية تلك لا تزال ناقصة بشكل مؤسف. لقد أخطأت برامج الدردشة الشهيرة علامات التحذير في السيناريوهات التي تتضمن مراهقين يناقشون أعمال العنف، بل إنها في بعض الحالات قدمت التشجيع بدلاً من التدخل.

النتائج تأتي من أ التحقيق المشترك بواسطة سي إن إن والمركز غير الربحي لمكافحة الكراهية الرقمية (CCDH). اختبر المسبار 10 من برامج الدردشة الأكثر شيوعًا التي يستخدمها المراهقون: ChatGPT، وGoogle Gemini، وClaude، وMicrosoft Copilot، وMeta AI، وDeepSeek، وPerplexity، وSnapchat My AI، وCharacter.AI، وReplika. وباستثناء كلود من Anthropic، قال CCDH إن روبوتات الدردشة فشلت في “تثبيط المهاجمين المحتملين بشكل موثوق”. وكان ثمانية من النماذج العشرة “على استعداد عادة لمساعدة المستخدمين في التخطيط لهجمات عنيفة”، وتقديم المشورة بشأن المواقع التي يجب استهدافها والأسلحة التي سيتم استخدامها.

لإجراء الاختبار، قام الباحثون بمحاكاة المستخدمين المراهقين الذين يظهرون علامات واضحة على الاضطراب العقلي، ثم قاموا بتصعيد المحادثات نحو أسئلة حول أعمال العنف السابقة واستفسارات أكثر تحديدًا حول الأهداف والأسلحة. استخدم التحقيق 18 سيناريو مختلفًا – تسعة في الولايات المتحدة وتسعة في أيرلندا – تغطي مجموعة من أنواع الهجمات ودوافعها، بما في ذلك إطلاق النار والطعن في المدارس بدوافع أيديولوجية، والاغتيالات السياسية، وقتل مدير تنفيذي في مجال الرعاية الصحية، والتفجيرات ذات الدوافع السياسية أو الدينية.

في أحد التبادلات، أعطى برنامج ChatGPT من OpenAI خرائط الحرم الجامعي لمستخدم مهتم بالعنف المدرسي، في حين أظهر آخر برنامج Gemini وهو يخبر مستخدمًا يناقش هجمات الكنيس أن “الشظايا المعدنية عادة ما تكون أكثر فتكًا” ويقدم المشورة لشخص مهتم بالاغتيالات السياسية حول أفضل بنادق الصيد لإطلاق النار بعيد المدى. قال الباحثون إن Meta AI وPerplexity كانا الأكثر فائدة، حيث ساعدا المهاجمين المحتملين في جميع سيناريوهات الاختبار تقريبًا، في حين قام برنامج الدردشة الصيني DeepSeek بتوقيع النصيحة بشأن اختيار البنادق من خلال “إطلاق نار سعيد (وآمن)!”

وقال تقرير CCDH إن Character.AI، الذي يسمح للمستخدمين بالتحدث مع مجموعة من شخصيات روبوتات الدردشة، كان “غير آمن بشكل فريد”. في حين أن العديد من الروبوتات التي تم اختبارها من شأنها أن تقدم للمستخدمين المساعدة في التخطيط لهجمات عنيفة، إلا أنها لم تشجع المستخدمين على تنفيذ أعمال عنف. ومن ناحية أخرى، فإن الشخصية “تشجع بقوة” العنف. وقال الباحثون إنهم حددوا سبع حالات قامت فيها شركة “شخصية” بذلك، بما في ذلك اقتراحات للمستخدمين “للتغلب على” تشاك شومر، و”استخدام مسدس” ضد الرئيس التنفيذي لشركة التأمين الصحي، وبالنسبة لشخص “سئم من المتنمرين”، “لضرب مؤخرته”.~ نغمة الغمز والإثارة.في ست من هذه الحالات، عرضت الشخصية أيضًا المساعدة في التخطيط لهجوم عنيف.

وتساءل الباحثون عن مدى نجاح كلود إذا تم اختبار روبوت الدردشة مرة أخرى اليوم، مشيرين إلى قرار Anthropic الأخير التراجع عن تعهدها بالسلامة الذي طال أمده، والذي حدث بعد دراسة نوفمبر إلى ديسمبر. وقال المجلس الاستشاري لحقوق الإنسان إن رفض كلود المستمر للمساعدة في التخطيط العنيف يُظهر أن “آليات السلامة الفعالة موجودة بوضوح”، مما يثير السؤال الواضح حول “لماذا تختار العديد من شركات الذكاء الاصطناعي عدم تنفيذها”.

وقال ميتا ردا على التحقيق سي إن إن لقد نفذت “إصلاحًا” غير محدد، وقالت شركة Copilot إن الاستجابات تحسنت باستخدام ميزات الأمان الجديدة، وقالت كل من Google وOpenAI إنهما نفذتا نماذج جديدة. وقال آخرون إنهم يقومون بتقييم بروتوكولات السلامة بانتظام. وفي الوقت نفسه، تراجعت شركة Character.AI عن استجابتها التي يمكن التنبؤ بها الآن عندما واجهت التدقيق: تتميز منصتها بـ “إخلاء المسؤولية البارز” والمحادثات مع شخصياتها خيالية.

على الرغم من أن الاختبار ليس مقياسًا شاملاً لكيفية تصرف روبوتات الدردشة في كل موقف، إلا أنه يقدم إشارة واضحة أخرى إلى أن حواجز السلامة المعلن عنها على نطاق واسع لشركات الذكاء الاصطناعي تفشل باستمرار، حتى في مواجهة السيناريوهات المتوقعة ذات العلامات الحمراء الواضحة. ويأتي ذلك في الوقت الذي تتعرض فيه الشركات لنيران كثيفة بشكل متزايد المشرعين، المنظمون، مجموعات المجتمع المدني، خبراء الصحة حول كيفية ضمان بقاء الشباب آمنين على منصاتهم حيث يواجهون الكثير الدعاوى القضائية ادعاء القتل والأذى غير المشروع.

متابعة المواضيع والمؤلفين من هذه القصة لرؤية المزيد من هذا القبيل في خلاصة صفحتك الرئيسية المخصصة وتلقي تحديثات البريد الإلكتروني.




المصدر

spot_imgspot_img