المعركة الإنسانية مع البنتاغون تتوسع إلى الكونغرس. ويعمل السيناتور آدم شيف (الديمقراطي عن ولاية كاليفورنيا) على مشروع قانون جديد “لتدوين” الخطوط الحمراء للأنثروبولوجيا وضمان اتخاذ البشر للقرارات النهائية في مسائل الحياة والموت، وقد قدمت السيناتور إليسا سلوتكين (الديمقراطية عن ولاية ميشيغان) مؤخرا مشروع قانون للحد من قدرة وزارة الدفاع على استخدام الذكاء الاصطناعي للمراقبة الجماعية للأميركيين.
إدارة ترامب الأنثروبولوجية المدرجة في القائمة السوداء في وقت سابق من هذا الشهر بعد أن وضعت حدودًا لكيفية استخدام الجيش لنماذج الذكاء الاصطناعي الخاصة به، ووصفتها بأنها خطر على سلسلة التوريد. الأنثروبي لديه دعوى مرفوعةواتهم الحكومة بانتهاك حقوقها الدستورية. وتصر على أن يتجنب البنتاغون استخدام منتجاته للأسلحة ذاتية التحكم بالكامل والمراقبة المحلية الشاملة – مما يقاوم الصفقة التي وقعها منافس رئيسي. OpenAI. تنتظر الأنثروبيك سماع ما إذا كانت المحكمة ستمنع قرار الإدارة باعتبار ذلك بمثابة خطر على سلسلة التوريد.
قال شيف: “لقد شعرت بالقلق عندما رأيت البنتاغون يستهدف الأنثروبيك لأن الأنثروبيك كان يحاول ببساطة الإصرار على السياسات التي تتفق معها الغالبية العظمى من الشعب الأمريكي”. الحافة في مقابلة هاتفية الأسبوع الماضي. “إن فكرة أنهم سيحاولون بعد ذلك الانقلاب على الشركة وقتلها، وقتل أحد القادة البارزين في مجال الذكاء الاصطناعي، هي عمل عدائي ودكتاتوري. ومن شأنه أن يعيق ريادة أمريكا في الذكاء الاصطناعي، وتعد الأنثروبيك واحدة من أفضل الأعمال على الإطلاق”.
ولا يزال مكتب شيف في طور صياغة التشريع، لكنه قال إن الهدف هو ضمان عدم استخدام الذكاء الاصطناعي “لأغراض معينة غير مشروعة”. سلوتكين مؤخرًا قدم مشروع قانون مماثل الأسبوع الماضي دعا قانون حواجز الحماية للذكاء الاصطناعيلتعزيز الحماية من المراقبة الجماعية المحلية واستخدام الأسلحة الفتاكة المستقلة دون تدخل بشري. ليس من الواضح بعد كيف سيختلف أو يتوافق مشروع قانون شيف بشأن النقاط الرئيسية، على الرغم من أنه يغطي أرضية مماثلة. وقال المتحدث باسم شيف، روبي روبلز بيريز، إن مكتبه يواصل التحدث مع أصحاب المصلحة وقادة الصناعة قبل الانتهاء من مشروع القانون. يقيد مشروع قانون سلوتكين قدرة وزارة الدفاع على استخدام الذكاء الاصطناعي لتفجير سلاح نووي أو تعقب أشخاص أو مجموعات في الولايات المتحدة، ولكنه يوضح أيضًا كيف يمكن لوزير الدفاع إخطار الكونجرس في حالة وجود “ظروف استثنائية” تستلزم استخدام الذكاء الاصطناعي لنشر أسلحة فتاكة مستقلة.
وفي مشروع القانون الذي يعكف شيف على صياغته، لا تزال التفاصيل المتعلقة بما يشكل سلاحًا مستقلاً أو مراقبة محلية موضوعًا للمناقشة، لكنه قال إنهم يتطلعون أيضًا إلى الأطر الحالية من إدارة بايدن. وقال شيف: “لم نحل جميع هذه الأسئلة بعد، بما في ذلك كيفية تطبيق هذه اللغة على أولئك الذين ليسوا مواطنين، لكن الأشخاص الموجودين بشكل قانوني في البلاد يستحقون الحماية. وبعد ذلك، فيما يتعلق بمسألة حقوق الإنسان، قد يتجاوز الأمر ذلك أيضًا”.
“لا نريد تفويض هذا النوع من المسؤولية عن الحياة والموت إلى خوارزمية”
أحد المبادئ التي توجه هذا الجهد هو فكرة وجود إنسان في الحلقة. وقال شيف: “عندما تمتلك التكنولوجيا القدرة على قتل حياة الإنسان، يجب أن يكون هناك عامل بشري في سلسلة القيادة. لا نريد تفويض هذا النوع من المسؤولية عن الحياة والموت إلى خوارزمية”.
لكن هذا لا يعني أنه لا يوجد دور للذكاء الاصطناعي في ساحة المعركة. قال شيف: “هناك بالتأكيد ظروف، نظرًا لأن الذكاء الاصطناعي يمكن أن يعمل بشكل أسرع من البشر، فأنت تريد أن يكون الذكاء الاصطناعي قادرًا على توجيه المعلومات وإرشادها للمشغلين البشريين سواء الذين يحتاجون إلى اتخاذ خطوات للدفاع عن البلاد أو الذين يحتاجون إلى التكيف في ضوء ما يمكنهم رؤيته في الوقت الفعلي في ساحة المعركة”. “لذا فإن التطبيقات مهمة للغاية. يمكن أن تكون مفيدة جدًا من منظور الأمن القومي والدفاع. لكنها يمكن أن تعني أيضًا الحياة أو الموت. ويمكن أن تعني التمييز بين هدف مدني وهدف عسكري، أو فهم هذه الأمور بشكل خاطئ.”
ومع وجود أقلية ديمقراطية في كلا المجلسين، فإن نجاح مشروع القانون على المدى القصير قد يعتمد على رغبة الجمهوريين في أن يُنظر إليهم على أنهم منتقدون للإدارة. ومع اقتراب الانتخابات النصفية، سيكون من الصعب حتى نهاية العام تمرير تشريع جديد، على الرغم من أن ميزان القوى في الكونجرس قد يتغير إذا استعاد الديمقراطيون أحد المجلسين أو كليهما. قد يستغرق الأمر أسبوعًا أو أسبوعين آخرين على الأقل للكشف عن الاقتراح، لكن شيف يبحث في أدوات تشريعية مثل قانون تفويض الدفاع الوطني (NDAA) للمضي قدمًا.
وقال شيف: “هناك بالتأكيد دعم من الحزبين الجمهوري والديمقراطي في الرأي العام لهذه الأنواع من القيود”. “كما هو الحال دائمًا، فإنك تواجه المشكلة عندما تتخذ خطوات لمنع أي نوع من الانتهاكات الإدارية التي تثير مشكلات مع بعض زملائي حول ما إذا كان يمكن قراءتها على أنها انتقاد ضمني للإدارة. لذلك سيتعين علينا التعامل مع ذلك، لكنني آمل أن نتمكن من جعل الأمر مشتركًا بين الحزبين”.
منذ أن خاضت شركة Anthropic معركتها مع البنتاغون، سارعت شركة OpenAI إلى الدفاع عن أسباب توقيعها على الشروط التي لاقت معارضة عامة. وحتى مع قول OpenAI إنها ستصر على نفس الشروط، قال شيف إنه يفضل ألا يضطر إلى وضع هذه الثقة في البنتاغون أو أي مدير تنفيذي. وقال: “بصراحة، سأكون أكثر ثقة، إذا كانت هذه متطلبات قانونية، من الاعتماد على شرعية البنتاغون أو كلمة الرئيس التنفيذي للذكاء الاصطناعي”.


