الجمعة, نوفمبر 14, 2025
20.5 C
Los Angeles

يحصل Apple TV على ألعاب MLS دون أي تكلفة إضافية

بدءًا من موسم الدوري الأمريكي لكرة القدم...

يعيد منافس Starlink “Project Kuiper” علامته التجارية إلى Amazon Leo

بعد عدة عمليات إطلاق ناجحة هذا العام،...

يريد Valve أن تعمل لعبة Half-Life: Alyx بشكل جيد بشكل مستقل على Steam Frame

عندما حاولت نصف الحياة: أليكس لقد أذهلني...
spot_img

ذات صلة

جمع

يحصل Apple TV على ألعاب MLS دون أي تكلفة إضافية

بدءًا من موسم الدوري الأمريكي لكرة القدم (MLS) لعام...

يعيد منافس Starlink “Project Kuiper” علامته التجارية إلى Amazon Leo

بعد عدة عمليات إطلاق ناجحة هذا العام، حصل مشروع...

يريد Valve أن تعمل لعبة Half-Life: Alyx بشكل جيد بشكل مستقل على Steam Frame

عندما حاولت نصف الحياة: أليكس لقد أذهلني البث من...

تفاصيل إنسانية كيف تقيس يقظة كلود

تقوم شركة Anthropic بتفصيل جهودها لجعل برنامج الدردشة الآلي...

ستأخذ Apple عمولة صغيرة من مطوري التطبيقات المصغرة

تطلق شركة Apple برنامجًا جديدًا لمطوري التطبيقات المصغرة يخفض...

يوضح لنا سورا مدى فشل اكتشاف التزييف العميق


أثبتت آلة التزييف العميق الجديدة Sora من OpenAI أن الذكاء الاصطناعي جيد بشكل مثير للقلق في تزييف الواقع. لقد أنتجت منصة الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والمدعومة بنموذج Sora 2 الجديد من OpenAI، تفاصيل (و في كثير من الأحيان مسيئة أو ضارة) مقاطع فيديو لأشخاص مشهورين مثل مارتن لوثر كينغ جونيور، مايكل جاكسون، و بريان كرانستون، بالإضافة إلى شخصيات محمية بحقوق الطبع والنشر مثل سبونج بوب وبيكاتشو. لقد رأى مستخدمو التطبيق الذين شاركوا صورهم طوعًا أنفسهم وهم يصرخون بإهانات عنصرية أو يتحولون إلى وقود لحسابات الوثن.

في Sora، هناك فهم واضح أن كل ما تراه وتسمعه ليس حقيقيًا. ولكن مثل أي جزء من المحتوى الاجتماعي، فإن مقاطع الفيديو التي يتم إنشاؤها على Sora تهدف إلى مشاركتها. وبمجرد هروبهم من منطقة العزل غير الواقعية للتطبيق، لا يوجد سوى القليل من الحماية لضمان معرفة المشاهدين أن ما ينظرون إليه ليس حقيقيًا.

إن التقليد المقنع للتطبيق لا يؤدي فقط إلى خطر تضليل المشاهدين. إنه دليل على مدى الفشل الفادح لتكنولوجيا تصنيف الذكاء الاصطناعي، بما في ذلك نظام OpenAI نفسه الذي يساعد في الإشراف على: مصادقة C2PA، أحد أفضل الأنظمة المتوفرة لدينا لتمييز الصور ومقاطع الفيديو الحقيقية عن الصور ومقاطع الفيديو المزيفة التي تعمل بتقنية الذكاء الاصطناعي.

تُعرف مصادقة C2PA بشكل أكثر شيوعًا باسم “بيانات اعتماد المحتوى”، وهو مصطلح تدعمه شركة Adobe، التي قادت هذه المبادرة. إنه نظام لإرفاق بيانات وصفية غير مرئية ولكن يمكن التحقق منها بالصور ومقاطع الفيديو والصوت عند الإنشاء أو التحرير، وإلحاق تفاصيل حول كيفية ومتى تم إنشاؤها أو التلاعب بها.

OpenAI هو عضو اللجنة التوجيهية التابع التحالف من أجل مصدر المحتوى والأصالة (C2PA)، التي طورت المواصفات المفتوحة جنبًا إلى جنب مع Adobe مبادرة أصالة المحتوى (كاي). وفي الواقع، يتم تضمين معلومات C2PA في كل مقطع من مقاطع Sora – ربما لن تعرفها أبدًا، إلا إذا كنت من النوع الذي يدقق في بعض الحواشي السفلية المختصرة في عدد قليل من منشورات مدونة OpenAI.

هذه هي العلامة التي من المفترض أن تظهر على مقاطع الفيديو التي تم إنشاؤها أو معالجتها بواسطة الذكاء الاصطناعي والتي تم تحميلها إلى YouTube Shorts، ولكنها تنطبق فقط على المحتوى الذي يدور حول مواضيع حساسة.
الصورة: يوتيوب

لا يعمل C2PA إلا إذا تم اعتماده في كل خطوة من عملية الإنشاء والنشر، بما في ذلك أن يكون مرئيًا بوضوح للشخص الذي يشاهد المخرجات. من الناحية النظرية، تم تبنيها من قبل شركة أدوبي، OpenAI, جوجل, يوتيوبميتا, تيك توك, أمازون, كلاودفليروحتى المكاتب الحكومية. لكن القليل من هذه المنصات يستخدمها للإشارة بوضوح إلى محتوى التزييف العميق لمستخدميها. جهود Instagram وTikTok وYouTube هي إما علامات بالكاد مرئية أو الأوصاف المنهارة التي من السهل تفويتها، وهي توفر القليل جدًا من السياق إذا كنت ستكتشفها بالفعل. وبالنسبة لـ TikTok وYouTube، لم يسبق لي أن واجهتهما بنفسي أثناء تصفح المنصات، حتى على مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي بشكل واضح، نظرًا لأن القائم بالتحميل ربما أزال البيانات الوصفية أو لم يكشف عن أصولها.

أضاف ميتا في البداية أ علامة صغيرة “صنع بواسطة الذكاء الاصطناعي”. للصور على فيسبوك وإنستغرام العام الماضي، لكنها تم تغيير العلامة لاحقًا لتقول “معلومات AI” بعد أن اشتكى المصورون من أن العمل الذي قاموا بتحريره باستخدام Photoshop – الذي يطبق بيانات اعتماد المحتوى تلقائيًا – تم تسميته بشكل خاطئ. ومعظم المنصات عبر الإنترنت لا تفعل ذلك، على الرغم من قدرتها على فحص المحتوى الذي تم تحميله بحثًا عن البيانات الوصفية للذكاء الاصطناعي.

يصر منشئو C2PA على أنهم يقتربون من التبني على نطاق واسع. قال آندي بارسونز، المدير الأول لمصادقة المحتوى في Adobe: “إننا نشهد تقدمًا ملموسًا عبر الصناعة في اعتماد بيانات اعتماد المحتوى، ويشجعنا التعاون النشط الجاري لجعل الشفافية أكثر وضوحًا عبر الإنترنت”. الحافة. “مع ازدياد تقدم الذكاء الاصطناعي التوليدي والتزييف العميق، يحتاج الأشخاص إلى معلومات واضحة حول كيفية إنشاء المحتوى.”

بعد أربع سنواتلكن هذا التقدم لا يزال غير مرئي. لقد قمت بتغطية CAI منذ أن بدأت في الحافة منذ ثلاث سنوات، ولم أدرك لأسابيع أن كل فيديو يتم إنتاجه باستخدام Sora وSora 2 يحتوي على بيانات اعتماد المحتوى المضمنة. لا توجد علامة مرئية تشير إلى ذلك، وفي كل مثال رأيته حيث يتم إعادة نشر مقاطع الفيديو هذه على منصات أخرى مثل X وInstagram وTikTok، لم أر بعد أي تصنيفات تحددها على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي، ناهيك عن تقديم حساب كامل لإنشائها.

أحد الأمثلة التي أشار إليها منصة الكشف عن التسريبات بالذكاء الاصطناعي هو مقطع فيديو سريع الانتشار تم إنشاؤه بواسطة الذكاء الاصطناعي على TikTok يُظهر لقطات CCTV لـ رجل يصطاد طفلا يبدو أن هذا قد سقط من نافذة الشقة. حصد الفيديو ما يقرب من مليوني مشاهدة ويبدو أنه يحتوي على علامة مائية غير واضحة لـ Sora. لم يُشير TikTok بشكل واضح إلى أن الفيديو تم إنشاؤه بواسطة الذكاء الاصطناعي، وهناك الآلاف من المعلقين يتساءلون عما إذا كانت اللقطات حقيقية أم مزيفة.

إذا أراد المستخدم التحقق من الصور ومقاطع الفيديو بحثًا عن البيانات التعريفية لـ C2PA، فإن العبء يقع عليه بالكامل تقريبًا. يجب عليهم حفظ ملف مدعوم ثم تحميله في ملف CAI أو تطبيق أدوبي ويب، أو يتعين عليهم تنزيل ملف امتداد المتصفح من شأنها وضع علامة على أي أصول عبر الإنترنت تحتوي على بيانات وصفية برمز “CR”. معايير الكشف المماثلة القائمة على المصدر، مثل العلامات المائية SynthID غير المرئية من Google، ليست أسهل في الاستخدام.

“لا ينبغي للشخص العادي أن يقلق بشأن اكتشاف التزييف العميق. يجب أن يكون ذلك على المنصات وفرق الثقة والسلامة،” بن كولمان، المؤسس المشارك والرئيس التنفيذي لشركة الكشف عن الذكاء الاصطناعي المدافع عن الواقعقال الحافة. “يجب أن يعرف الناس ما إذا كان المحتوى الذي يستهلكونه يستخدم الذكاء الاصطناعي التوليدي أم لا.”

يستخدم الناس بالفعل Sora 2 لإنشاء مقاطع فيديو مقنعة لمخاوف مزيفة من القنابل، وأطفال في مناطق الحرب، ومشاهد مصورة للعنف والعنصرية. مقطع واحد تمت المراجعة بواسطة الجارديان يُظهر متظاهرًا أسود يرتدي قناع غاز وخوذة ونظارات واقية وهو يصرخ بشعار “لن تحل محلنا” الذي يستخدمه المتعصبون للبيض – وكانت المطالبة المستخدمة لإنشاء هذا الفيديو ببساطة “مسيرة شارلوتسفيل”. يحاول OpenAI التعرف على مخرجات Sora من خلال العلامات المائية التي تظهر في مقاطع الفيديو الخاصة به، ولكن تلك العلامات من السهل إزالتها بشكل مثير للضحك.

لم تقدم TikTok وAmazon وGoogle تعليقًا بعد الحافة حول دعم C2PA. قال ميتا الحافة أنها تواصل تنفيذ C2PA وتقييم نهج وضع العلامات الخاص بها مع تطور الذكاء الاصطناعي. قامت OpenAI ببساطة بتوجيهنا إلى منشورات مدونتها الضئيلة و مقالة مركز المساعدة حول دعم C2PA. تمتلك Meta، مثل OpenAI، منصة كاملة لتدفق الذكاء الاصطناعي الخاص بها، مكتملة بـ خلاصات مخصصة لوسائل التواصل الاجتماعي و محتوى الفيديووتقوم كلتا الشركتين بضخ مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي في وسائل التواصل الاجتماعي.

X، والتي لديها الخلافات الخاصة متعلق ديبفيك المشاهير عارية، أشار لنا سياستها من المفترض أن يحظر الوسائط الخادعة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، لكنه لم يقدم أي معلومات حول كيفية الإشراف على ذلك بما يتجاوز الاعتماد على تقارير المستخدم وملاحظات المجتمع. كان X أحد الأعضاء المؤسسين لـ CAI عندما كان لا يزال يُعرف باسم Twitter، لكنه انسحب من المبادرة دون تفسير بعد أن قام Elon Musk بشراء المنصة.

يقول بارسونز إن “Adobe تظل ملتزمة بالمساعدة على نطاق واسع في التبني، ودعم جهود السياسة العالمية، وتشجيع قدر أكبر من الشفافية عبر النظام البيئي للمحتوى.” لكن نظام الشرف الذي اعتمدت عليه C2PA حتى الآن لا يعمل. ويبدو موقف OpenAI في C2PA منافقًا نظرًا لأنه يقوم بإنشاء أداة يروج بنشاط للتزييف العميق للأشخاص الحقيقيين، فهي تقدم مثل هذه الحماية غير المكتملة ضد إساءة معاملتهم. وذكرت شركة Reality Defender أنها تمكنت من ذلك تجاوز إجراءات حماية هوية Sora 2 بالكامل بعد أقل من 24 ساعة من إطلاق التطبيق، مما يسمح له بإنشاء صور مزيفة للمشاهير باستمرار. يبدو الأمر وكأن OpenAI تستخدم عضويتها في C2PA كغطاء رمزي بينما تتجاهل إلى حد كبير الالتزامات التي تأتي معها.

الأمر المحبط هو أنه على الرغم من صعوبة التحقق من خلال الذكاء الاصطناعي، إلا أن بيانات اعتماد المحتوى لها ميزة. يمكن أن تساعد البيانات الوصفية للإسناد المضمنة الفنانين والمصورين في الحصول على الفضل بشكل موثوق في أعمالهم، على سبيل المثال، حتى إذا التقط شخص ما لقطة شاشة لها وأعاد نشرها عبر منصات أخرى. هناك أيضًا أدوات تكميلية يمكنها تحسينها. تقوم الأنظمة القائمة على الاستدلال مثل Reality Defender – وهي أيضًا عضو في مبادرة C2PA – بتقييم احتمالية إنشاء شيء ما أو تحريره باستخدام الذكاء الاصطناعي عن طريق البحث عن علامات خفية للتوليد الاصطناعي. من غير المرجح أن يقوم هذا النظام بتقييم شيء ما بتصنيف ثقة بنسبة 100 بالمائة، لكنه يتحسن بمرور الوقت ولا يعتمد على قراءة العلامات المائية أو البيانات الوصفية لاكتشاف التزييف العميق.

“يعد C2PA حلاً جيدًا، ولكنه ليس حلاً جيدًا بحد ذاته.”

قال كولمان: “يعد C2PA حلاً جيدًا، ولكنه ليس حلاً جيدًا بحد ذاته”. “يجب أن يتم ذلك جنبًا إلى جنب مع أدوات أخرى، حيث إذا لم يتمكن شيء واحد من اكتشافه، فقد يحدث شيء آخر.”

يمكن أيضًا تجريد البيانات الوصفية بسهولة. عالم أبحاث أدوبي جون كولومبوس يعترف بذلك علانية على مدونة CAI العام الماضي، وقال إنه من الشائع أن تقوم وسائل التواصل الاجتماعي ومنصات المحتوى بذلك. تستخدم بيانات اعتماد المحتوى تقنية بصمة الصورة لمواجهة ذلك، ولكن يمكن اختراق جميع التقنيات، ومن غير الواضح في النهاية ما إذا كان هناك حل تقني فعال حقًا.

لا يبدو أن بعض الشركات تحاول جاهدة دعم الأدوات القليلة المتوفرة لدينا على أي حال. وقال كولمان إنه يعتقد أن وسائل تحذير الناس العاديين من المحتوى المزيف العميق “ستزداد سوءًا قبل أن تتحسن”، ولكن يجب أن نرى تحسينات ملموسة في غضون العامين المقبلين.

بينما تدعم Adobe بيانات اعتماد المحتوى كجزء من الحل النهائي لمعالجة التزييف العميق، فهي تعلم أن النظام ليس كافيًا. لواحد، اعترف بارسونز بذلك مباشرة في منشور لـ CAI العام الماضي، قائلًا إن النظام ليس حلاً سحريًا.

كتب بارسونز: “إننا نشهد انتقادات منتشرة مفادها أن الاعتماد فقط على البيانات الوصفية الآمنة لبيانات اعتماد المحتوى، أو فقط على العلامات المائية غير المرئية لتسمية محتوى الذكاء الاصطناعي المنتج، قد لا يكون كافيًا لمنع انتشار المعلومات الخاطئة”. “لكي نكون واضحين، نحن متفقون.”

وعندما لا يعمل النظام التفاعلي بشكل واضح، فإن Adobe أيضًا تلقي بثقلها وراء التشريعات والجهود التنظيمية لإيجاد حل استباقي. واقترحت الشركة أن ينشئ الكونجرس أ الحق الفيدرالي الجديد في مكافحة انتحال الشخصية (قانون FAIR) في عام 2023 والذي من شأنه حماية المبدعين من تكرار أعمالهم أو أعمالهم المماثلة بواسطة أدوات الذكاء الاصطناعي، ودعم قانون منع إساءة استخدام النسخ الرقمية (بادرا) العام الماضي. جهود مماثلة، مثل “”قانون لا للتزييف”” التي تهدف إلى حماية الأشخاص من عمليات انتحال الذكاء الاصطناعي غير المصرح بها لوجوههم أو أصواتهم، وقد حصلت أيضًا على الدعم من المنصات مثل يوتيوب.

قال كولمان: “نحن نجري محادثات جيدة مع تحالف من الحزبين الجمهوري والديمقراطي من أعضاء مجلس الشيوخ وأعضاء الكونجرس الذين يدركون بالفعل أن التزييف العميق يمثل مشكلة للجميع، وهم يعملون بالفعل على بناء تشريعات استباقية وليست رد فعل”. “لقد اعتمدنا لفترة طويلة جدًا على المزايا الجيدة للتكنولوجيا في ضبط النفس بأنفسهم.”

متابعة المواضيع والمؤلفين من هذه القصة لرؤية المزيد من هذا القبيل في خلاصة صفحتك الرئيسية المخصصة وتلقي تحديثات البريد الإلكتروني.






المصدر

spot_imgspot_img