spot_img

ذات صلة

جمع

نموذج الأمان الجديد لـ OpenAI مخصص لـ “المدافعين السيبرانيين المهمين” فقط

تستعد شركة OpenAI لإطلاق نموذج جديد للأمن السيبراني، GPT-5.5-Cyber....

مراجعة DJI’s Osmo Pocket 4: الأفضل من جميع النواحي

في البداية، جاءوا من أجل الطائرات بدون طيار، والآن...

ألد أعداء إيلون ماسك في المحكمة هو إيلون ماسك

بعد حوالي خمس ساعات من شهادة إيلون ماسك، كتبت...

وصلت طلبات بحث Google إلى “أعلى مستوى لها على الإطلاق” في الربع الأخير

يقول بيتشاي: "إن استثماراتنا في الذكاء الاصطناعي ونهجنا الكامل...

خطط الذكاء الاصطناعي لـ Ubuntu تجعل مستخدمي Linux يبحثون عن “مفتاح الإيقاف”

خطة كانونيكال ل إضافة ميزات الذكاء الاصطناعي إلى Ubuntu...

يقول مجلس الرقابة إن الاعتدال في التزييف العميق في Meta ليس جيدًا بما فيه الكفاية


إن أساليب Meta لتحديد التزييف العميق “ليست قوية أو شاملة بما يكفي” للتعامل مع مدى سرعة انتشار المعلومات المضللة أثناء الصراعات المسلحة مثل حرب إيران. هذا وفقًا لمجلس مراقبة Meta – وهي هيئة شبه مستقلة توجه ممارسات الإشراف على المحتوى في الشركة – والتي تدعو الآن Meta إلى إصلاح كيفية ذلك الأسطح والتسميات المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عبر Facebook وInstagram وThreads.

الدعوة إلى العمل تنبع من تحقيق في فيديو مزيف بالذكاء الاصطناعي عن الأضرار المزعومة التي لحقت بالمباني في إسرائيل والتي تمت مشاركتها على منصات ميتا الاجتماعية العام الماضي، لكن المجلس يقول إن توصياته ذات أهمية خاصة في الوقت الحالي، نظرًا “للتصعيد العسكري الهائل” في جميع أنحاء الشرق الأوسط هذا الأسبوع. يقول مجلس الإدارة في إعلانه إن الوصول إلى معلومات دقيقة وموثوقة أمر حيوي لسلامة الأشخاص وسط المخاطر المتزايدة لاستخدام أدوات الذكاء الاصطناعي لنشر المعلومات الخاطئة.

قال مجلس مراقبة Meta: “تسلط النتائج التي توصل إليها مجلس الإدارة الضوء على أن نظام Meta الحالي لتسمية محتوى الذكاء الاصطناعي بشكل صحيح يعتمد بشكل مفرط على الكشف الذاتي عن استخدام الذكاء الاصطناعي والمراجعة المتصاعدة ولا يلبي حقائق بيئة الإنترنت الحالية”. “تسلط القضية أيضًا الضوء على التحديات التي تواجه انتشار مثل هذا المحتوى عبر الأنظمة الأساسية، حيث يبدو أن المحتوى قد نشأ على TikTok قبل ظهوره على Facebook وInstagram وX”.

تشمل الخطوات الموصى بها الصادرة عن مجلس الإدارة دفع شركة Meta لتحسين قواعدها الحالية بشأن المعلومات الخاطئة لمعالجة التزييف العميق الخادع، وإنشاء معيار مجتمعي جديد ومنفصل للمحتوى الناتج عن الذكاء الاصطناعي. يُطلب من Meta أيضًا تطوير أدوات أفضل للكشف عن الذكاء الاصطناعي، والتحلي بالشفافية بشأن العقوبات المفروضة على انتهاكات سياسة الذكاء الاصطناعي، وتوسيع نطاق جهود تصنيف محتوى الذكاء الاصطناعي. ويتضمن الأخير ضمان إضافة تسميات “الذكاء الاصطناعي عالي المخاطر” إلى الصور ومقاطع الفيديو الاصطناعية بشكل متكرر، وتحسين اعتماد C2PA (المعروف أيضًا باسم بيانات اعتماد المحتوى) بحيث تكون المعلومات المتعلقة بالمحتوى الناتج عن الذكاء الاصطناعي “مرئية بوضوح ويمكن للمستخدمين الوصول إليها”.



المصدر

spot_imgspot_img