ومن بين المدعين قاصران وشخص بالغ كان دون السن القانونية عندما وقعت أحداث الدعوى. تزعم إحدى الضحايا، والتي تم تحديدها باسم “جين دو 1″، أنها علمت في ديسمبر الماضي أن الصور الصريحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي لنفسها وما لا يقل عن 18 قاصرا آخرين كانت متاحة على Discord. وتزعم الدعوى القضائية أن “ما لا يقل عن خمسة من هذه الملفات، ومقطع فيديو واحد وأربع صور، تصور وجهها وجسدها الفعليين في إعدادات كانت مألوفة لها، ولكنها تحولت إلى أوضاع جنسية صريحة”.
ويُزعم أن مرتكب الجريمة، الذي تم القبض عليه منذ ذلك الحين، استخدم CSAM الخاص بـ Jane Doe 1 الذي أنشأه الذكاء الاصطناعي “كأداة مقايضة في محادثات مجموعة Telegram مع مئات المستخدمين الآخرين، حيث قام بتداول ملفات CSAM الخاصة بها مقابل محتوى جنسي صريح لقاصرين آخرين”. تزعم الدعوى القضائية أن الجاني قام بإنشاء صور صريحة لجين دو 1 والضحيتين الأخريين باستخدام برنامج Grok. وتزعم أيضًا أن xAI “فشلت في اختبار سلامة الميزات التي طورتها” وأن Grok “معيب في التصميم”.
على الرغم من أن X لديه حاولت جعل الأمر أكثر صعوبة للمستخدمين تعديل الصور ببرنامج Grok, الحافة وجدت أنه لا يزال من الممكن ل معالجة الصور المرفوعة على المنصة. أكد X أن “أي شخص يستخدم Grok أو يدفعه لإنشاء محتوى غير قانوني سيعاني من نفس العواقب كما لو قام بتحميل محتوى غير قانوني.” لم يستجب X على الفور الحافةطلب التعليق.
وقالت أنيكا ك. مارتن، إحدى محاميات الضحايا، من ليف كابراسر، في بيان: “هؤلاء هم الأطفال الذين تم تحويل صورهم المدرسية وصورهم العائلية إلى مواد اعتداء جنسي على الأطفال بواسطة أداة الذكاء الاصطناعي التابعة لشركة تبلغ قيمتها مليار دولار، ثم تم تداولها بين الحيوانات المفترسة”. “نحن نعتزم تحميل xAI المسؤولية عن كل طفل ألحق الأذى به بهذه الطريقة.”
تسعى الدعوى القضائية إلى الحصول على تعويضات للضحايا المتأثرين بـ “الصور غير القانونية” لغروك. كما تطلب من المحكمة منع xAI من إنشاء ونشر أسلحة CSAM مزعومة تم إنشاؤها بواسطة الذكاء الاصطناعي.


