لسنوات عديدة، كانت شركات بطاقات الائتمان وطرق الدفع الأخرى صارمة بشأن مراقبة مواد الاعتداء الجنسي على الأطفال. بعد ذلك، بدأ “غروك” (Elon Musk) في خلع ملابس الأطفال على X.
عثر مركز مكافحة الكراهية الرقمية على 101 صورة ذات طابع جنسي للأطفال كجزء من عملياته عينة من 20000 صورة تم التقاطها بواسطة Grok من 29 ديسمبر إلى 8 يناير. وباستخدام تلك العينة، قدرت المجموعة أنه تم إنتاج 23000 صورة جنسية للأطفال في هذا الإطار الزمني. وعلى مدار فترة الـ 11 يومًا تلك، قدروا أنه في المتوسط، يتم إنتاج صورة ذات طابع جنسي لطفل كل 41 ثانية. لا تبدو جميع الصور الجنسية التي أنتجها جروك غير قانونية، لكن التقارير تشير على الأقل من المحتمل أن يعبر البعض الخط.
هناك ارتباك هائل حول ما قد يكون صحيحًا بالنسبة لـ Grok في أي لحظة. وقد قدم جروك ردودًا تحتوي على تفاصيل مضللة، مدعيًا في وقت ما، على سبيل المثال، أنه فعل ذلك توليد الصور المقيدة للدفع لمشتركي X مع الاستمرار في السماح بالوصول المباشر على X للمستخدمين المجانيين. على الرغم من أن ” ماسك ” ادعى أن حواجز الحماية الجديدة تمنع ” جروك ” من خلع ملابس الناس، أظهرت اختباراتنا أن هذا ليس صحيحًا بالضرورة. باستخدام حساب مجاني على Grok، الحافة تمكنت من إنشاء صور مزيفة لأشخاص حقيقيين يرتدون ملابس ضيقة، وفي أوضاع موحية جنسيًا، بعد أن تم فرض قواعد جديدة. حتى وقت كتابة هذه السطور، يبدو أن بعض المطالبات الفظيعة قد تم حظرها، لكن الناس أذكياء بشكل ملحوظ في التغلب على الحظر القائم على القواعد.
في الماضي، كان مقدمو خدمات الدفع صارمين بشأن قطع الوصول إلى مواقع الويب التي يُعتقد أنها تحتوي على حضور كبير لبرامج الاعتداء الجنسي على الأطفال
يبدو أن X قد قيد على الأقل جزئيًا ميزات تحرير الصور الخاصة بـ Grok للمشتركين المدفوعين، مما يجعل من المحتمل جدًا أنه بالنسبة لبعض هذه الصور غير المرغوب فيها على الأقل، يتم تغيير الأموال فعليًا. يمكنك شراء اشتراك في X على Stripe أو من خلال متاجر تطبيقات Apple وGoogle باستخدام بطاقتك الائتمانية. المسك لديه اقترح أيضا خلال مشاركاته أنه لا يعتقد أن خلع ملابس الناس يمثل مشكلة. هذه ليست أول تجربة لـ X مع المواد الإباحية المدعومة بالذكاء الاصطناعي، فقد واجهت مشكلة بشكل متكرر معتدلة التزييف العميق عارية من تايلور سويفت، سواء كانوا كذلك أم لا تم إنشاؤها بواسطة جروك.
في الماضي، كان مقدمو خدمات الدفع عدوانيين بشأن قطع الوصول إلى مواقع الويب التي يُعتقد أنها تحتوي على حضور كبير لبرامج الاعتداء الجنسي على الأطفال – أو حتى المحتوى الجنسي القانوني الذي تم إنتاجه بالتراضي. في عام 2020، قامت Mastercard وVisa بحظر موقع Pornhub بعد أ نيويورك تايمز أشارت المقالة إلى انتشار CSAM على المنصة. في مايو 2025، كانت تشيفيتاي مقطوعة بواسطة معالج بطاقة الائتمان الخاصة بها وقال جاستن ماير، الرئيس التنفيذي لشركة Civitai، إنهم “لا يرغبون في دعم المنصات التي تسمح بالمحتوى الصريح الناتج عن الذكاء الاصطناعي”. 404 وسائل الإعلام. في يوليو 2025، قامت معالجات الدفع بالضغط على Valve لإزالة ألعاب البالغين.
في الواقع، في بعض الأحيان قامت المؤسسات المالية بتهديد الأشخاص والمنصات لأنه يبدو أنهم لا يريدون المخاطرة بالسمعة. في عام 2014، جمع التبرعات للفنان البالغ إيدن ألكسندر من أجل الإقامة في المستشفى تم إغلاقها من قبل شركة المدفوعات WePay بسبب إعادة التغريد. أيضا في عام 2014، جي بي مورغان تشيس فجأة أغلقت العديد من الحسابات المصرفية لنجوم الإباحية. في عام 2021، OnlyFans حاول لفترة وجيزة حظر المحتوى الجنسي الصريح لأن البنوك لم يعجبها. (رد فعل عنيف واسع النطاق على هذه الخطوة سرعان ما جعل OnlyFans يعكس نفسه.) هذا هو قانوني, بالتراضي المحتوى الجنسي – وكان يعتبر ساخنًا جدًا بحيث لا يمكن التعامل معه.
“لم تعد الصناعة مستعدة للتنظيم الذاتي لشيء متفق عليه عالميًا باعتباره الشيء الأكثر بغيضًا على الإطلاق.”
لكن من الواضح أن المواد الإباحية الانتقامية الخاصة بـ Musk ومولد CSAM لا بأس بها.
إنه انعكاس مذهل. تقول لانا شوارتز، مؤلفة كتاب: “لم تعد الصناعة مستعدة للتنظيم الذاتي لشيء متفق عليه عالميًا باعتباره الشيء الأكثر بغيضًا على الإطلاق”، وهو CSAM، أموال جديدة: كيف أصبح الدفع وسائل التواصل الاجتماعي، بسبب تقاعس Stripe وشركات بطاقات الائتمان.
ولم ترد Visa وMastercard وAmerican Express وStripe وDiscover على طلبات التعليق. كما لم يرد التحالف المالي الأمريكي ضد الاستغلال الجنسي للأطفال – وهو مجموعة صناعية تتألف من معالجي المدفوعات والبنوك وشركات بطاقات الائتمان – على طلب للتعليق. تتفاخر FCACSE على موقعها على الإنترنت بأنه “نتيجة لجهودها، تم القضاء فعليًا على استخدام بطاقات الائتمان لشراء محتوى الاعتداء الجنسي على الأطفال عبر الإنترنت على مستوى العالم”.
ليست الصور الجنسية للأطفال هي المشكلة الوحيدة في توليد الصور لدى جروك
في الماضي، “كان الأشخاص الذين يقومون بأمور قانونية تماما معزولين عن البنوك”، كما تشير ريانا فيفيركورن، وهي زميلة سياسية في معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان. هناك حوافز للإفراط في فرض الحدود حول الصور المشكوك فيها – وهذا ما فعلته الصناعة المالية تقليديا. فلماذا يختلف X؟ يديرها إيلون ماسك. يقول فيفيركورن: “إنه أغنى رجل في العالم، وله علاقات وثيقة مع حكومة الولايات المتحدة، وهو متشدد بشكل لا يصدق”. في الواقع، سبق أن رفع ماسك دعوى قضائية ضد مركز مكافحة الكراهية الرقمية؛ في الدعوى المرفوضة الآن، ادعى أنه جمع البيانات بشكل غير قانوني يظهر زيادة في خطاب الكراهية بعد أن اشترى المنصة المعروفة سابقًا باسم تويتر.
ليست الصور الجنسية للأطفال هي المشكلة الوحيدة في توليد الصور لدى جروك. نيويورك تايمز تشير التقديرات إلى أن 1.8 مليون صورة أنشأها الذكاء الاصطناعي في فترة زمنية مدتها تسعة أيام، أو حوالي 44% من المنشورات، كانت عبارة عن صور جنسية لنساء بالغات – والتي، اعتمادًا على مدى وضوحها، يمكن أيضًا أن يكون نشرها غير قانوني. وباستخدام أدوات مختلفة، قدر مركز مكافحة الكراهية الرقمية أن أكثر من نصف صور جروك تحتوي على صور جنسية للرجال والنساء والأطفال.
حدث انفجار الصور الجنسية بعد أن نشر ماسك صورة معدلة بواسطة الذكاء الاصطناعي لنفسه وهو يرتدي البكيني في 31 ديسمبر. وبعد أسبوع، نشر رئيس منتج X، نيكيتا بير أن الأيام الأربعة الماضية كانت أيضًا أعلى أيام المشاركة على X على الإطلاق.
المحامية كاري غولدبرغ، التي يتضمن تاريخها تحدي المادة 230 في دعوى قضائية ضد Grindr ودعوى أخرى في نهاية المطاف اغلاق عميل الدردشة Omegle، تمثل آشلي سانت كلير، والدة أحد أطفال ” ماسك “، في قضية مرفوعة ضد إكس. سانت كلير هي واحدة من العديد من النساء اللاتي جردن “غروك” من ملابسهن – و وهي الآن تقاضي المنصةبحجة أن X قد أحدث إزعاجًا عامًا. وقالت في رسالة بالبريد الإلكتروني: “في قضية سانت كلير، نركز فقط على xAI وGrok لأنهما مسؤولان بشكل مباشر من وجهة نظرنا”. “لكن يمكنني تصور مصادر أخرى للمسؤولية.” واستشهدت على وجه التحديد الموزعين مثل متاجر تطبيقات Apple وGoogle كمجالات الاهتمام.
“قد ينتهي الأمر بالكثير من هذه الأمور في المحكمة، وسيكون الأمر متروكًا للقضاة لاتخاذ قرارات بشأن ما هو “جنسي صريح”.”
هناك تجاعيد قانونية محتملة أخرى. في عام 2022، تمت مقاضاة شركة Visa لتقديمها خدمات الدفع إلى موقع Pornhub، لأنه يُزعم أن Visa كانت تعلم أن موقع Pornhub لم يكن يشرف بشكل كافٍ على مواد الاعتداء الجنسي على الأطفال. وتلا ذلك دعاوى قضائية أخرى. بينما رفض القاضي في قضية التأشيرة الادعاء بأن موقع Pornhub لم يكن مسؤولاً بسبب المادة 230، فقد رفض أيضًا رفضت مبدئيًا المطالبات ضد Visa في عام 2025على الرغم من أن المرأة التي رفعت الدعوى يمكن تقديم شكوى معدلة.
يقول ديفيد إيفان هاريس، الباحث العام في جامعة كاليفورنيا، بيركلي: “قد ينتهي الأمر بالكثير من هذه الأمور في المحكمة، وسيكون الأمر متروكًا للقضاة لاتخاذ قرارات بشأن ما هو “جنسي صريح”. ما زال، قامت 45 دولة بتجريم مواد الاعتداء الجنسي على الأطفال (CSAM) الناتجة عن الذكاء الاصطناعي. قانون Take It Down الفيدرالي يجرم العراة العميقة. ولاية كاليفورنيا لديها أصدر وقفًا وكفًا لـ Musk وXبعد الإعلان عن التحقيق في صور جروك. قد يكون جروك انتهاك حظر المواد الإباحية العميقة في كاليفورنيا – وكاليفورنيا هي مجرد واحدة من هذه الأماكن على الأقل 23 ولاية أقرت مثل هذه القوانين.
يجب أن يكون هذا أمرًا مهمًا لمعالجي الدفع، لأنهم إذا كانوا يقومون عن عمد بنقل الأموال التي تمثل عائدات جريمة، فإنهم يشاركون في غسيل الأموال – وهو ما يمكن أن يكون له عواقب وخيمة. ورفض مكتب المدعي العام في كاليفورنيا، روب بونتا، التعليق على ما إذا كانت Stripe أو بطاقات الائتمان أو متاجر التطبيقات جزءًا من تحقيق Grok، مشيرًا إلى التحقيق المستمر. تعد قوانين غسيل الأموال جزءًا من السبب الذي يجعل المؤسسات المالية حذرة جدًا من أي موقع ويب متهم باحتواء مواد الاعتداء الجنسي على الأطفال.
لكن X خلقت موقفًا حيث تم تثبيط معالجات الدفع بشكل كبير من أخذ القانون على محمل الجد. وذلك لأن أي حالة تناسبها الملفات ضد المعالجات فوق X من المرجح أن تتعرض للهجوم من قبل Musk بسبب “فرض رقابة” على القاعدة اليمينية لـ X. بالإضافة إلى ذلك، يمكن لماسك – وربما صديقه الرئيس الأمريكي دونالد ترامب – أن يبذلوا الكثير من الموارد لإخراج معالجات الدفع من المأزق.
يبدو أنه عندما يتعلق الأمر بـ CSAM والتزييف العميق، فإن الصناعة المالية لم تعد مستعدة لتنظيم نفسها. إذن من سينظمها؟


