السبت, يناير 3, 2026
17.2 C
Los Angeles
spot_img

ذات صلة

جمع

يقوم جروك بخلع ملابس أي شخص، بما في ذلك القاصرين


يقوم Grok من xAI بإزالة الملابس من صور الأشخاص دون موافقتهم بعد طرحها هذا الأسبوع ميزة يسمح لمستخدمي X بتحرير أي صورة على الفور باستخدام الروبوت دون الحاجة إلى إذن الملصق الأصلي. لا يقتصر الأمر على عدم إخطار الملصق الأصلي إذا تم تحرير صورته، ولكن يبدو أن Grok لديه عدد قليل من حواجز الحماية لمنع أي شيء أقل من العري الصريح الكامل. في الأيام القليلة الماضية، امتلأت X بصور النساء والأطفال الذين يظهرون وهم حوامل، أو بدون تنورة، أو يرتدون البيكيني، أو في مواقف جنسية أخرى. كما تم استخدام صور لزعماء العالم والمشاهير في الصور التي أنشأها جروك.

شركة مصادقة الذكاء الاصطناعي تم الإبلاغ عن التسريبات أن الاتجاه لإزالة الملابس من الصور بدأ عندما طلب منشئو المحتوى للبالغين من Grok صورًا مثيرة لأنفسهم بعد إصدار ميزة تحرير الصور الجديدة. ثم بدأ المستخدمون في تطبيق مطالبات مماثلة على صور المستخدمين الآخرين، معظمهم من النساء، الذين لم يوافقوا على التعديلات. لاحظت النساء الارتفاع السريع في إنشاء التزييف العميق على X في مختلف منافذ الأخبار، بما في ذلك مترو و بيتابكسل. كان جروك قادرة بالفعل لتعديل الصور بطرق جنسية عند الإشارة إليها في منشور على X، ولكن يبدو أن أداة “تحرير الصورة” الجديدة قد حفزت الارتفاع الأخير في شعبيتها.

في أحد منشورات X، التي تمت إزالتها الآن من المنصة، قام Grok بتحرير صورة لفتاتين صغيرتين ترتديان ملابس ضيقة وأوضاع موحية جنسيًا. مستخدم X آخر دفع جروك إلى إصدار اعتذار بسبب “الحادثة” التي تنطوي على “صورة الذكاء الاصطناعي لفتاتين صغيرتين (تتراوح أعمارهما بين 12 و16 عامًا) بملابس جنسية”، ووصفتها بأنها “فشل في الضمانات” التي قالت إنها ربما تكون قد انتهكت سياسات شركة xAI وقانون الولايات المتحدة. (على الرغم من أنه ليس من الواضح ما إذا كانت الصور التي أنشأها Grok ستفي بهذا المعيار، فإن الصور الجنسية الصريحة الواقعية التي تم إنشاؤها بواسطة الذكاء الاصطناعي للبالغين أو الأطفال الذين يمكن التعرف عليهم يمكن أن تكون غير قانونية بموجب قانون الولايات المتحدة.) في حوار آخر مع المستخدم، اقترح Grok أن المستخدمين أبلغ عنه إلى مكتب التحقيقات الفيدرالي بالنسبة لـ CSAM، مشيرة إلى أنها تعمل “بشكل عاجل على إصلاح” “الثغرات في الضمانات”.

لكن كلمة Grok ليست أكثر من مجرد استجابة من الذكاء الاصطناعي لمستخدم يطلب “مذكرة اعتذار صادقة” – فهي لا تشير إلى أن Grok “يفهم” ما يفعله أو يعكس بالضرورة الرأي والسياسات الفعلية لمشغل xAI. بدلا من ذلك، استجابت XAI ل رويترزطلب التعليق عن الموقف بثلاث كلمات فقط: “أكاذيب وسائل الإعلام القديمة”. لم يستجب xAI ل الحافةطلب التعليق في الوقت المناسب للنشر.

يبدو أن إيلون موسك نفسه قد أثار موجة من تعديلات البيكيني بعد أن طلب من جروك استبدال الصورة الميمائية للممثل بن أفليك بنفسه ممارسة البيكيني. وبعد أيام، تم استبدال السترة الجلدية التي يرتديها كيم جونغ أون في كوريا الشمالية بطبقة من السباغيتي متعددة الألوان بيكيني; ووقف الرئيس الأمريكي دونالد ترامب في مكان قريب بملابس السباحة المتطابقة. (نكت جديلة عن حرب نووية.) صورة لبريطانيين سياسي بريتي باتل، التي نشرها مستخدم برسالة موحية جنسيًا في عام 2022، تحولت إلى صورة بالبيكيني في الثاني من يناير. ردًا على موجة صور البيكيني على منصته، أعاد ” ماسك ” مازحًا نشر صورة صورة من محمصة في البيكيني مكتوب عليها “يمكن لـ Grok وضع البيكيني على كل شيء.”

في حين أن بعض الصور – مثل محمصة الخبز – كان من الواضح أنها تهدف إلى النكات، فقد تم تصميم البعض الآخر بشكل واضح لإنتاج صور إباحية حدودية، بما في ذلك توجيهات محددة لـ Grok لاستخدام أنماط البيكيني الضيقة أو إزالة التنورة بالكامل. (لقد قام برنامج الدردشة الآلي بإزالة التنورة، لكنه لم يصور العري الكامل وغير الخاضع للرقابة في الردود الحافة المنشار.) استجاب جروك أيضًا لطلبات استبدال ملابس أ طفل مع بيكيني.

يتم تسويق منتجات Musk للذكاء الاصطناعي بشكل بارز على أنها ذات طابع جنسي كبير ومحدودة الحد الأدنى. xAI مغازل رفيق منظمة العفو الدولية العاني مع حافة المراسلة فيكتوريا سونج وجيس ويذربيد اكتشف قام منشئ الفيديو الخاص بـ Grok بإنشاء عاريات الصدر بسهولة التزييف العميق لتايلور سويفت، على الرغم من قبول xAI سياسة الاستخدام منع تصوير “أشباه الأشخاص بطريقة إباحية”. في المقابل، تمتلك مولدات الفيديو Veo من Google وSora من OpenAI حواجز حماية حول إنشاء محتوى NSFW، على الرغم من استخدام Sora أيضًا لإنتاج مقاطع فيديو لـ الأطفال في السياقات الجنسية و أشرطة الفيديو صنم. يتزايد انتشار الصور المزيفة بسرعة، وفقًا لتقرير صادر عن شركة الأمن السيبراني ديب سترايكوالعديد من هذه الصور تحتوي على صور جنسية غير موافقة عليها؛ أ مسح 2024 من الطلاب الأمريكيين وجدوا أن 40% كانوا على علم بالتزييف العميق لشخص يعرفونه، بينما كان 15% على علم بالتزييف العميق الصريح أو الحميم بدون موافقة.

عندما سئل عن سبب تحويل صور النساء إلى صور بيكيني، قال جروك رفض نشر صور دون موافقة، قائلًا: “هذه إبداعات الذكاء الاصطناعي بناءً على الطلبات، وليست تعديلات حقيقية للصور دون موافقة”.

خذ إنكار روبوت الذكاء الاصطناعي كما يحلو لك.



المصدر

spot_imgspot_img