الجمعة, فبراير 20, 2026
12.9 C
Los Angeles
spot_img

ذات صلة

جمع

يتخلى Metaverse VR الخاص بـ Meta عن الواقع الافتراضي

يعمل النهج الجديد على إعداد Meta للتنافس بشكل أفضل...

بعد رد الفعل العكسي لحزب البحث، لا يزال رينغ يتجنب الأسئلة الأكبر

في مقابلة مع الأوقات .هذا الاسبوعوأوضح سيمينوف أنه يتفهم...

كابوس أمن الذكاء الاصطناعي موجود هنا ويبدو بشكل مثير للريبة مثل جراد البحر

خدع أحد المتسللين أداة تشفير شهيرة تعمل بالذكاء الاصطناعي...

محول السفر 6 في 1 القابل للسحب من Baseus معروض للبيع بأقل سعر حتى الآن

يمكن أن يؤدي تعبئة محولات شحن متعددة إلى استهلاك...

تقاضي ولاية فرجينيا الغربية شركة Apple بدعوى السماح بانتشار إساءة معاملة الأطفال في iCloud


فرجينيا الغربية لديها رفع دعوى قضائية ضد شركة أبلواتهمت الشركة بالسماح بتوزيع وتخزين مواد الاعتداء الجنسي على الأطفال (CSAM) في iCloud. في الدعوى المرفوعة يوم الخميس، يدعي المدعي العام لولاية فرجينيا الغربية جيه بي ماكوسكي أنه من خلال التخلي عن نظام اكتشاف CSAM لصالح التشفير الشامل، أصبح iCloud “وسيلة آمنة خالية من الاحتكاك لحيازة وحماية وتوزيع CSAM”، مما ينتهك قوانين حماية المستهلك في الولاية.

الآن، تزعم وست فرجينيا أن شركة آبل “صممت منتجاتها عن عمد وعن عمد مع عدم المبالاة المتعمدة بالأضرار التي يمكن الوقاية منها بشدة”. ويعتقد ماكوسكي أن الدول الأخرى يمكن أن تتخذ إجراءات قانونية ضد شركة أبل أيضًا، حيث قال للصحفيين خلال مؤتمر صحفي إنه يعتقد أنهم “سيرون القيادة التي اتخذها هذا المكتب” و”ينضمون إلينا في هذه المعركة”.

تزعم الدعوى القضائية أن شركة Apple قدمت 267 تقريرًا عن CSAM إلى المركز الوطني للأطفال المفقودين والمستغلين، وهو أقل من أكثر من 1.47 مليون تقرير قدمته Google، وأكثر من 30.6 مليون تقرير قدمته Meta. ويستشهد أيضًا برسالة داخلية بين المديرين التنفيذيين لشركة Apple، حيث يُزعم أن رئيس الاحتيال في شركة Apple، إريك فريدمان، صرح بأن iCloud هي “أعظم منصة لتوزيع المواد الإباحية المتعلقة بالأطفال”.

تستخدم العديد من المنصات عبر الإنترنت، بما في ذلك Google وReddit وSnap وMeta وغيرها، أدوات مثل PhotoDNA من Microsoft أو Content Safety API من Google للكشف عن مواد الاعتداء الجنسي على الأطفال وإزالتها والإبلاغ عنها في الصور ومقاطع الفيديو المرسلة عبر أنظمتها. لا تقدم شركة Apple هذه الإمكانيات حاليًا، ولكنها طرحت منذ ذلك الحين بعض الميزات التي تركز على سلامة الأطفال، بما في ذلك أدوات الرقابة الأبوية مطالبة الأطفال بالحصول على إذن لإرسال رسائل نصية إلى أرقام جديدة، فضلا عن أداة ذلك يقوم تلقائيًا بطمس الصور العارية للقاصرين على iMessage في تطبيقات أخرى. لكن ماكوسكي يرى أن هذه الضمانات ليست كافية لحماية الأطفال.

“لقد صممت شركة Apple عن عمد مجموعة من الأدوات التي تقلل بشكل كبير من الاحتكاك لامتلاك وجمع وحماية ونشر مواد الاعتداء الجنسي على الأطفال، مع تصميم درع تشفير يجعل من الأرجح أن يستخدم الممثلون السيئون شركة Apple لحماية أنشطتهم غير المشروعة،” كما تزعم الدعوى القضائية.



المصدر

spot_imgspot_img