الخميس, مارس 19, 2026
28.7 C
Los Angeles
spot_img

ذات صلة

جمع

أدى الذكاء الاصطناعي المارق إلى حادث أمني خطير في ميتا

لمدة ساعتين تقريبًا في الأسبوع الماضي، تمكن موظفو Meta...

تحاول أسواق التنبؤ جذب الصحفيين من خلال صفقات الشراكة

تحاول بعض بورصات السوق التنبؤية الآن إبرام صفقات مع...

يتضمن التحميل الجانبي الجديد لنظام Android من Google فترة انتظار إلزامية

تمكين وضع المطور في إعدادات النظام: تفعيل هذا هو...

لدى Harlowe حل أرخص لإضاءة اللقطات بزاوية 360 درجة

شركات مثل بوشمان تبيع بالفعل أضواء الكاميرا شاملة الاتجاهات...

أدى الذكاء الاصطناعي المارق إلى حادث أمني خطير في ميتا


لمدة ساعتين تقريبًا في الأسبوع الماضي، تمكن موظفو Meta من الوصول غير المصرح به إلى بيانات الشركة والمستخدم بفضل وكيل الذكاء الاصطناعي الذي قدم للموظف مشورة فنية غير دقيقة، كما أفاد سابقًا بواسطة المعلومات. وقالت المتحدثة باسم ميتا تريسي كلايتون في بيان لـ الحافة أنه “لم يتم التعامل بشكل سيء مع بيانات المستخدم” أثناء الحادث.

كان أحد مهندسي Meta يستخدم وكيلًا داخليًا للذكاء الاصطناعي، والذي وصفه كلايتون بأنه “يشبه في طبيعته OpenClaw ضمن بيئة تطوير آمنة”، لتحليل سؤال فني نشره موظف آخر في منتدى داخلي للشركة. لكن الوكيل أيضًا أجاب علنًا بشكل مستقل على السؤال بعد تحليله، دون الحصول على الموافقة أولاً. وكان المقصود من الرد فقط أن يظهر للموظف الذي طلب ذلك، وليس نشره علنًا.

ثم تصرف أحد الموظفين بناءً على نصيحة الذكاء الاصطناعي، التي “قدمت معلومات غير دقيقة” أدت إلى حادث أمني بمستوى “SEV1″، وهو ثاني أعلى تصنيف خطورة تستخدمه Meta. سمح الحادث للموظفين مؤقتًا بالوصول إلى البيانات الحساسة التي لم يُسمح لهم بمشاهدتها، ولكن تم حل المشكلة منذ ذلك الحين.

وفقًا لكلايتون، لم يتخذ عميل الذكاء الاصطناعي المعني أي إجراء فني بنفسه، باستثناء نشر نصيحة فنية غير دقيقة، وهو أمر كان من الممكن أن يفعله الإنسان أيضًا. ومع ذلك، ربما يكون الإنسان قد أجرى مزيدًا من الاختبارات وأصدر حكمًا أكثر اكتمالاً قبل مشاركة المعلومات – وليس من الواضح ما إذا كان الموظف الذي دفع الإجابة في الأصل يخطط لنشرها علنًا.

“كان الموظف الذي يتفاعل مع النظام على علم تام بأنه كان يتواصل مع روبوت آلي. وقد تمت الإشارة إلى ذلك من خلال إخلاء المسؤولية المذكور في التذييل ومن خلال رد الموظف الخاص على هذا الموضوع،” علق كلايتون قائلاً: ” الحافة. “لم يتخذ الوكيل أي إجراء باستثناء الرد على سؤال. لو كان المهندس الذي تصرف بناءً على ذلك يعرف أفضل، أو أجرى فحوصات أخرى، لكان من الممكن تجنب ذلك”.

في الشهر الماضي، عميل ذكاء اصطناعي من منصة مفتوحة المصدر OpenClaw ذهب بشكل أكثر مباشرة إلى المارقة في Meta عندما كان أحد الموظفين طلبت منه فرز رسائل البريد الإلكتروني في بريدها الوارد، وحذف رسائل البريد الإلكتروني دون إذن. الفكرة الكاملة وراء وكلاء مثل OpenClaw هي أنهم يستطيعون اتخاذ الإجراءات بأنفسهم، ولكن مثل أي نموذج آخر للذكاء الاصطناعي، فإنهم لا يفسرون دائمًا المطالبات والتعليمات بشكل صحيح أو يقدمون استجابات دقيقة، وهي حقيقة اكتشفها موظفو Meta الآن مرتين.



المصدر

spot_imgspot_img