spot_img

ذات صلة

جمع

تقوم Walmart بتحديث صندوق البث بدقة 4K الخاص بها بدعم Gemini وMatter

بسعر 59.88 دولارًا، يعد Onn 4K Pro الجديد أغلى...

يجب أن تأتي المزيد من كاميرات الهواتف مع عدسات مقربة سخيفة

ترقية هاتفك مع مرفق قبضة الكاميرا هو شيء واحد....

لا شيء يجعل من السهل مشاركة الملفات بين أي هاتف يعمل بنظام Android وجهاز Mac

أعيش من اختبار هواتف Android، ولكني أكتب عنها باستخدام...

تواجه Microsoft مخاوف أمنية جديدة بشأن استدعاء Windows

عندما حاولت شركة Microsoft إطلاق ميزة Recall، وهي ميزة...

تقاضي ولاية فرجينيا الغربية شركة Apple بدعوى السماح بانتشار إساءة معاملة الأطفال في iCloud


فرجينيا الغربية لديها رفع دعوى قضائية ضد شركة أبلواتهمت الشركة بالسماح بتوزيع وتخزين مواد الاعتداء الجنسي على الأطفال (CSAM) في iCloud. في الدعوى المرفوعة يوم الخميس، يدعي المدعي العام لولاية فرجينيا الغربية جيه بي ماكوسكي أنه من خلال التخلي عن نظام اكتشاف CSAM لصالح التشفير الشامل، أصبح iCloud “وسيلة آمنة خالية من الاحتكاك لحيازة وحماية وتوزيع CSAM”، مما ينتهك قوانين حماية المستهلك في الولاية.

الآن، تزعم وست فرجينيا أن شركة آبل “صممت منتجاتها عن عمد وعن عمد مع عدم المبالاة المتعمدة بالأضرار التي يمكن الوقاية منها بشدة”. ويعتقد ماكوسكي أن الدول الأخرى يمكن أن تتخذ إجراءات قانونية ضد شركة أبل أيضًا، حيث قال للصحفيين خلال مؤتمر صحفي إنه يعتقد أنهم “سيرون القيادة التي اتخذها هذا المكتب” و”ينضمون إلينا في هذه المعركة”.

تزعم الدعوى القضائية أن شركة Apple قدمت 267 تقريرًا عن CSAM إلى المركز الوطني للأطفال المفقودين والمستغلين، وهو أقل من أكثر من 1.47 مليون تقرير قدمته Google، وأكثر من 30.6 مليون تقرير قدمته Meta. ويستشهد أيضًا برسالة داخلية بين المديرين التنفيذيين لشركة Apple، حيث يُزعم أن رئيس الاحتيال في شركة Apple، إريك فريدمان، صرح بأن iCloud هي “أعظم منصة لتوزيع المواد الإباحية المتعلقة بالأطفال”.

تستخدم العديد من المنصات عبر الإنترنت، بما في ذلك Google وReddit وSnap وMeta وغيرها، أدوات مثل PhotoDNA من Microsoft أو Content Safety API من Google للكشف عن مواد الاعتداء الجنسي على الأطفال وإزالتها والإبلاغ عنها في الصور ومقاطع الفيديو المرسلة عبر أنظمتها. لا تقدم شركة Apple هذه الإمكانيات حاليًا، ولكنها طرحت منذ ذلك الحين بعض الميزات التي تركز على سلامة الأطفال، بما في ذلك أدوات الرقابة الأبوية مطالبة الأطفال بالحصول على إذن لإرسال رسائل نصية إلى أرقام جديدة، فضلا عن أداة ذلك يقوم تلقائيًا بطمس الصور العارية للقاصرين على iMessage في تطبيقات أخرى. لكن ماكوسكي يرى أن هذه الضمانات ليست كافية لحماية الأطفال.

“لقد صممت شركة Apple عن عمد مجموعة من الأدوات التي تقلل بشكل كبير من الاحتكاك لامتلاك وجمع وحماية ونشر مواد الاعتداء الجنسي على الأطفال، مع تصميم درع تشفير يجعل من الأرجح أن يستخدم الممثلون السيئون شركة Apple لحماية أنشطتهم غير المشروعة،” كما تزعم الدعوى القضائية.



المصدر

spot_imgspot_img