الأربعاء, مارس 11, 2026
20.3 C
Los Angeles
spot_img

ذات صلة

جمع

يأتي “وضع Xbox” من Microsoft إلى كل جهاز كمبيوتر يعمل بنظام Windows 11

يبدو أن Microsoft أكثر تصميماً من أي وقت مضى...

لن يصل جهاز Xbox القادم من Microsoft، Project Helix، إلى ألفا حتى عام 2027

نحن هنا في مؤتمر مطوري الألعاب لعام 2026، حيث...

يقال إن مولد الفيديو Sora الخاص بـ OpenAI قادم إلى ChatGPT

من الممكن أن يصبح مولد الفيديو Sora الخاص بـ...

تضيف أداة التحرير الجديدة من Canva طبقات إلى التصميمات التي ينشئها الذكاء الاصطناعي

قدمت Canva ميزة جديدة تفصل ملفات الصور المسطحة والمرئيات...

تقاضي ولاية فرجينيا الغربية شركة Apple بدعوى السماح بانتشار إساءة معاملة الأطفال في iCloud


فرجينيا الغربية لديها رفع دعوى قضائية ضد شركة أبلواتهمت الشركة بالسماح بتوزيع وتخزين مواد الاعتداء الجنسي على الأطفال (CSAM) في iCloud. في الدعوى المرفوعة يوم الخميس، يدعي المدعي العام لولاية فرجينيا الغربية جيه بي ماكوسكي أنه من خلال التخلي عن نظام اكتشاف CSAM لصالح التشفير الشامل، أصبح iCloud “وسيلة آمنة خالية من الاحتكاك لحيازة وحماية وتوزيع CSAM”، مما ينتهك قوانين حماية المستهلك في الولاية.

الآن، تزعم وست فرجينيا أن شركة آبل “صممت منتجاتها عن عمد وعن عمد مع عدم المبالاة المتعمدة بالأضرار التي يمكن الوقاية منها بشدة”. ويعتقد ماكوسكي أن الدول الأخرى يمكن أن تتخذ إجراءات قانونية ضد شركة أبل أيضًا، حيث قال للصحفيين خلال مؤتمر صحفي إنه يعتقد أنهم “سيرون القيادة التي اتخذها هذا المكتب” و”ينضمون إلينا في هذه المعركة”.

تزعم الدعوى القضائية أن شركة Apple قدمت 267 تقريرًا عن CSAM إلى المركز الوطني للأطفال المفقودين والمستغلين، وهو أقل من أكثر من 1.47 مليون تقرير قدمته Google، وأكثر من 30.6 مليون تقرير قدمته Meta. ويستشهد أيضًا برسالة داخلية بين المديرين التنفيذيين لشركة Apple، حيث يُزعم أن رئيس الاحتيال في شركة Apple، إريك فريدمان، صرح بأن iCloud هي “أعظم منصة لتوزيع المواد الإباحية المتعلقة بالأطفال”.

تستخدم العديد من المنصات عبر الإنترنت، بما في ذلك Google وReddit وSnap وMeta وغيرها، أدوات مثل PhotoDNA من Microsoft أو Content Safety API من Google للكشف عن مواد الاعتداء الجنسي على الأطفال وإزالتها والإبلاغ عنها في الصور ومقاطع الفيديو المرسلة عبر أنظمتها. لا تقدم شركة Apple هذه الإمكانيات حاليًا، ولكنها طرحت منذ ذلك الحين بعض الميزات التي تركز على سلامة الأطفال، بما في ذلك أدوات الرقابة الأبوية مطالبة الأطفال بالحصول على إذن لإرسال رسائل نصية إلى أرقام جديدة، فضلا عن أداة ذلك يقوم تلقائيًا بطمس الصور العارية للقاصرين على iMessage في تطبيقات أخرى. لكن ماكوسكي يرى أن هذه الضمانات ليست كافية لحماية الأطفال.

“لقد صممت شركة Apple عن عمد مجموعة من الأدوات التي تقلل بشكل كبير من الاحتكاك لامتلاك وجمع وحماية ونشر مواد الاعتداء الجنسي على الأطفال، مع تصميم درع تشفير يجعل من الأرجح أن يستخدم الممثلون السيئون شركة Apple لحماية أنشطتهم غير المشروعة،” كما تزعم الدعوى القضائية.



المصدر

spot_imgspot_img