سيجعل فاتورة كاليفورنيا من شركات الذكاء الاصطناعى تذكير الأطفال بأن شات بوت ليس أشخاصًا
مشروع قانون جديد مقترح في كاليفورنيا (SB 243) سيتطلب من شركات الذكاء الاصطناعى تذكير الأطفال بشكل دوري بأن chatbot هو منظمة العفو الدولية وليس إنسانًا. الفاتورة ، اقترح السناتور في كاليفورنيا ستيف باديلا، يهدف إلى حماية الأطفال من “الجوانب الإدمانية والعزلة والمؤثرة” من AI.In إضافة إلى الحد من الشركات من استخدام “أنماط المشاركة الإدمان” ، سيتطلب مشروع القانون شركات الذكاء الاصطناعي لتقديم تقارير سنوية إلى وزارة الرعاية الصحية للولاية الخدمات التي تحدد عدد المرات التي اكتشفت فيها التفكير الانتحاري من قبل الأطفال الذين يستخدمون النظام الأساسي ، وكذلك عدد المرات التي طرحها chatbot الموضوع. كما سيجعل الشركات تخبر المستخدمين بأن chatbots قد لا تكون مناسبة لبعض الأطفال. سنة ، سنة ، رفع أحد الوالدين دعوى الموت غير المشروعة ضد الحرف ، زعمت أن برامج الدردشة المخصصة لـ AI هي “خطيرة بشكل غير معقول” بعد أن توفي المراهق ، الذي تحدث باستمرار مع الروبوتات ، بسبب الانتحار. دعوى قضائية أخرى متهم شركة إرسال “مواد ضارة” إلى المراهقين. أعلنت character.ai لاحقًا أنها تعمل عليها الضوابط الأبوية وقال السناتور باديلا في البيان الصحفي: “إن أطفالنا ليسوا فئران معملية لشركات التكنولوجيا لتجربة شركات التكنولوجيا على تكلفة صحتهم العقلية”. “نحتاج إلى حماية حساسة لمستخدمي chatbot لمنع المطورين من استخدام استراتيجيات يعرفون أنها تسبب الإدمان والفريخ.” الدول و الحكومة الفيدرالية مضاعفة على سلامة منصات التواصل الاجتماعي ، يمكن أن تصبح AI chatbots قريبًا الهدف التالي للمشرعين. (tagstotranslate) AI
المصدر