الثلاثاء, مارس 10, 2026
11.5 C
Los Angeles
spot_img

ذات صلة

جمع

كل شيء من الأسبوع الأخير من كل شيء أصبح مقامرة الآن

تواجه كالشي رد فعل عنيفًا من مستخدميها بعد ذلك...

سوف يتنحى الرئيس التنفيذي لشركة Bluesky جاي جرابر

أصبح جاي جرابر أول رئيس تنفيذي لشركة Bluesky في...

يقول مجلس الرقابة إن الاعتدال في التزييف العميق في Meta ليس جيدًا بما فيه الكفاية


إن أساليب Meta لتحديد التزييف العميق “ليست قوية أو شاملة بما يكفي” للتعامل مع مدى سرعة انتشار المعلومات المضللة أثناء الصراعات المسلحة مثل حرب إيران. هذا وفقًا لمجلس مراقبة Meta – وهي هيئة شبه مستقلة توجه ممارسات الإشراف على المحتوى في الشركة – والتي تدعو الآن Meta إلى إصلاح كيفية ذلك الأسطح والتسميات المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي عبر Facebook وInstagram وThreads.

الدعوة إلى العمل تنبع من تحقيق في فيديو مزيف بالذكاء الاصطناعي عن الأضرار المزعومة التي لحقت بالمباني في إسرائيل والتي تمت مشاركتها على منصات ميتا الاجتماعية العام الماضي، لكن المجلس يقول إن توصياته ذات أهمية خاصة في الوقت الحالي، نظرًا “للتصعيد العسكري الهائل” في جميع أنحاء الشرق الأوسط هذا الأسبوع. يقول مجلس الإدارة في إعلانه إن الوصول إلى معلومات دقيقة وموثوقة أمر حيوي لسلامة الأشخاص وسط المخاطر المتزايدة لاستخدام أدوات الذكاء الاصطناعي لنشر المعلومات الخاطئة.

قال مجلس مراقبة Meta: “تسلط النتائج التي توصل إليها مجلس الإدارة الضوء على أن نظام Meta الحالي لتسمية محتوى الذكاء الاصطناعي بشكل صحيح يعتمد بشكل مفرط على الكشف الذاتي عن استخدام الذكاء الاصطناعي والمراجعة المتصاعدة ولا يلبي حقائق بيئة الإنترنت الحالية”. “تسلط القضية أيضًا الضوء على التحديات التي تواجه انتشار مثل هذا المحتوى عبر الأنظمة الأساسية، حيث يبدو أن المحتوى قد نشأ على TikTok قبل ظهوره على Facebook وInstagram وX”.

تشمل الخطوات الموصى بها الصادرة عن مجلس الإدارة دفع شركة Meta لتحسين قواعدها الحالية بشأن المعلومات الخاطئة لمعالجة التزييف العميق الخادع، وإنشاء معيار مجتمعي جديد ومنفصل للمحتوى الناتج عن الذكاء الاصطناعي. يُطلب من Meta أيضًا تطوير أدوات أفضل للكشف عن الذكاء الاصطناعي، والتحلي بالشفافية بشأن العقوبات المفروضة على انتهاكات سياسة الذكاء الاصطناعي، وتوسيع نطاق جهود تصنيف محتوى الذكاء الاصطناعي. ويتضمن الأخير ضمان إضافة تسميات “الذكاء الاصطناعي عالي المخاطر” إلى الصور ومقاطع الفيديو الاصطناعية بشكل متكرر، وتحسين اعتماد C2PA (المعروف أيضًا باسم بيانات اعتماد المحتوى) بحيث تكون المعلومات المتعلقة بالمحتوى الناتج عن الذكاء الاصطناعي “مرئية بوضوح ويمكن للمستخدمين الوصول إليها”.



المصدر

spot_imgspot_img