الأربعاء, فبراير 25, 2026
24.9 C
Los Angeles

OpenAI تهزم دعوى الأسرار التجارية لشركة xAI

فازت شركة OpenAI يوم الثلاثاء بانتصار في...
spot_img

ذات صلة

جمع

OpenAI تهزم دعوى الأسرار التجارية لشركة xAI

فازت شركة OpenAI يوم الثلاثاء بانتصار في إحدى معاركها...

اسمحوا لي أن أرى بعض المعرفات: ينتشر التحقق من العمر عبر الإنترنت

في 25 يوليو، أصبحت المملكة المتحدة واحدة من أوائل...

يقوم Discord بتأخير طرح التحقق من العمر العالمي

يدير Discord بالفعل أنظمة أمان تلتقط حلقات البريد العشوائي،...

1Password يرتفع سعره

تقوم 1Password برفع أسعارها في 27 مارس 2026. في...

داخل المفاوضات الوجودية الأنثروبيك مع البنتاغون


دارت معركة أنثروبيك التي دامت أسابيع مع وزارة الدفاع حول منشورات على وسائل التواصل الاجتماعي، وتحذير التصريحات العامة، والاقتباسات المباشرة من مسؤولين في البنتاغون لم يذكر أسماءهم إلى وسائل الإعلام. لكن مستقبل شركة الذكاء الاصطناعي الناشئة التي تبلغ قيمتها 380 مليار دولار يتلخص في ثلاث كلمات فقط: “أي استخدام قانوني”. الشروط الجديدة، التي لدى OpenAI وxAI يقال تمت الموافقة عليه بالفعل، من شأنه أن يمنح الجيش الأمريكي تفويضًا مطلقًا لاستخدام خدمات المراقبة الجماعية والأسلحة الفتاكة ذاتية التشغيل، والذكاء الاصطناعي الذي يتمتع بالسلطة الكاملة لتتبع الأهداف وقتلها دون مشاركة البشر في عملية صنع القرار.

لقد تحولت المفاوضات إلى قبيحة، حيث قاد إميل مايكل، كبير مسؤولي التكنولوجيا في البنتاغون، والذي كان سابقًا مسؤولًا تنفيذيًا كبيرًا في شركة أوبر، تهديدات الحكومة بتسمية الأنثروبيك على أنها “خطر سلسلة التوريد”، وفقًا لشخصين مطلعين على المفاوضات. عادة ما يتم حجز هذا التصنيف للتهديدات التي يتعرض لها الأمن القومي، بما في ذلك التأثير الأجنبي الخبيث أو الحرب السيبرانية. الرئيس التنفيذي الأنثروبي داريو أمودي سوف يفعل ذلك يقال اجتمع مع الوزير بيت هيجسيث يوم الثلاثاء في البنتاغون، ووصف مسؤول في وزارة الدفاع لم يذكر اسمه ذلك بأنه “اجتماع تافه أو تافه”.

إن إصدار البنتاغون هذا التهديد لشركة أمريكية أمر غير مسبوق. لكن البنتاغون علانية إصدار هذا التهديد هو أكثر غرابة.

ولأغراض أمنية، لا يكشف البنتاغون علنًا عن الشركات المدرجة في هذه القوائم، ناهيك عن تهديد تلك الشركات علنًا إذا لم تتفق وجهات نظرها. في الواقع، قال جيفري غيرتز، أحد كبار زملاء مركز الأمن الأمريكي الجديد (CNAS). الحافة الذي – التي بموجب اللوائح الفيدرالية الحالية كان بإمكان البنتاغون أن يصنف الأنثروبولوجيا على أنها خطر دون إعلام الجمهور على الإطلاق أو ذكر السبب. “إنها خطوة إضافية تتمثل في محاولة تصنيفها على وجه التحديد على أنها خطر على الأمن القومي، ومنع الشركات الأخرى من التعامل مع شركة Anthropic، وهذا يتجاوز هنا”.

يدور الصراع حول تطبيق Anthropic لـ “سياسة الاستخدام المقبول” الخاصة بها.

إذا أصبح التصنيف رسميًا، فإنه سينهي عقد Anthropic بقيمة 200 مليون دولار مع البنتاغون، لكن سيكون له تأثير مضاعف أكثر تدميراً على النتيجة النهائية الإجمالية لشركة Anthropic. يستخدم مقاولو الدفاع وشركات التكنولوجيا الكبرى، مثل AWS وPalantir وAnduril، Anthropic’s Claude في عملهم لصالح البنتاغون، نظرًا لأنه كان أول نموذج للذكاء الاصطناعي تم السماح له باستخدام معلومات سرية. وبعبارة أكثر صراحة: إذا تم تصنيف شركة أنثروبيك على أنها “خطر سلسلة التوريد”، فإن أي شركة تعمل حاليًا مع الجيش أو تأمل في الحصول على عقد عسكري سيتعين عليها التخلي عن أنظمة الذكاء الاصطناعي الخاصة بشركة أنثروبيك، والتي يُعتقد أنها من أفضل الأنظمة في الصناعة. (في الليلة التي سبقت الاجتماع المقرر بين أمودي وهيجسيث، أكد البنتاغون ذلك لقد وقعت اتفاقية لاستخدام Grok، ال نموذج الذكاء الاصطناعي المثير للجدل الذي صنعه Elon Musk’s xAI، في الأنظمة المصنفة. ولم يكن لدى البنتاغون رد فوري بعد طلب التعليق).

ومن الممكن تنفيذ ذلك بمعناه الضيق للغاية، أو بمعناه الواسع للغاية. وقال غيرتز: “أظن أن التفسير الأكثر منطقية هو التعريف الأضيق، وهو أنه لا يمكن استخدام الأنثروبولوجيا كجزء من بيان عمل محدد للبنتاغون”. “ولكن بناءً على بعض التقارير والجهود المبذولة لجعل هذا الأمر يبدو وكأنه خطوة عقابية ضد الأنثروبيك، فإن الأمر يستحق التفكير في كلا السيناريوهين”.

على الرغم من أن البنتاغون وحلفائه الإعلاميين قد شنوا حملة لوصف الأنثروبولوجيا بأنها “استيقظت”، إلا أنهم لم يوجهوا بعد أي اتهامات حقيقية حول نقاط الضعف الأمنية أو احتمالية التجسس. وبدلاً من ذلك، يدور الصدام حول تطبيق شركة Anthropic لـ “سياسة الاستخدام المقبول” الخاصة بها، وفقًا لأشخاص مطلعين على المناقشات الداخلية.

وقال مصدر مطلع على الوضع، طلب عدم الكشف عن هويته بسبب الطبيعة الحساسة للمفاوضات الحافة أن الأنثروبيك كانت واضحة جدًا للحكومة بشأن خطوطها الحمراء، وأن هناك أمرين ضيقين لن توافق عليهما الشركة: العمليات الحركية المستقلة والمراقبة المحلية الجماعية. وقال المصدر إن السبب الأخير يرجع إلى حقيقة أن “القوانين لم تواكب ما يمكن أن يفعله الذكاء الاصطناعي” وأنه قد ينتهك الحريات المدنية الأمريكية. بالنسبة للأسلحة ذاتية التشغيل الفتاكة، قال المصدر إن التكنولوجيا “ليست موجودة بعد بالنسبة للأسلحة ذاتية التشغيل بالكامل دون وجود بشر في الحلقة”.

وأشار حمزة شودري، قائد الذكاء الاصطناعي والأمن القومي في معهد مستقبل الحياة، وهي مجموعة بحثية غير حزبية تركز على حوكمة الذكاء الاصطناعي، إلى أن الخطوط الحمراء للأنثروبيك تعكس بالفعل التوجيهات الحكومية الحالية التي لم يتم إلغاؤها.

وقال: “يتطلب توجيه وزارة الدفاع رقم 3000.09 أن يتم تصميم جميع أنظمة الأسلحة المستقلة بحيث يكون القادة والمشغلون قادرين على “ممارسة المستويات المناسبة من الحكم البشري على استخدام القوة”، والإعلان السياسي بشأن الاستخدام العسكري للذكاء الاصطناعي الذي أطلقته حكومة الولايات المتحدة وأقرته 50 دولة يكرس هذا المبدأ”. الحافة على النص. “وتوجيه وزارة الدفاع رقم 5240.01، المعزز بأحكام قانون تفويض الدفاع الوطني للعام المالي 2017 ومسار تنفيذ الذكاء الاصطناعي المسؤول في عهد ترامب، يحظر على مكونات الاستخبارات جمع معلومات عن أشخاص أمريكيين إلا بموجب سلطات قانونية محددة مثل قانون مراقبة الاستخبارات الأجنبية أو القانون 50.

“تعكس سياسة الاستخدام المقبول لشركة أنثروبيك هذه الخطوط نفسها، وإلى أن يتخلى البنتاغون رسميًا عن هذه المواقف السياسية أو يوضحها أو يقوم بتحديثها، فإن السؤال الكبير هو ما إذا كان من الممكن إجبار الشركة على الخروج من السياسة التي التزمت بها الحكومة نفسها من حيث المبدأ”.

ويتفاوض نيابة عن البنتاغون هو مايكل، المعين من قبل ترامب ووكيل وزارة الدفاع للبحث والهندسة، وهو المنصب الذي يوصف غالبًا بأنه كبير مسؤولي التكنولوجيا في البنتاغون. ووصف (المصدر الأول) مايكل، الذي بنى سمعة قوية بصفته كبير مسؤولي الأعمال في أوبر ومرة ​​واحدة تفاخر بإجراء أبحاث معارضة على الصحفيينباعتباره “مفاوضًا صعبًا”. (تم طرد مايكل من أوبر في عام 2017، بعد أن أجرى مجلس إدارة الشركة التحقيق في ثقافة الشركة التحرش الجنسي، الذي أثاره هو والعديد من المديرين التنفيذيين أثناء زيارتهم لحانة مرافقة في كوريا الجنوبية.)

وقال شخص آخر مطلع على الأمر: “إنها حقًا مسألة مبدأ بالنسبة لإميل”، قائلاً إن مايكل لم يكن سعيدًا بمحاولة شركة خاصة تقييد استخدام الحكومة لتكنولوجيتها. ليس من الواضح ما إذا كان البيت الأبيض أو ديفيد ساكس، صاحب رأس المال الاستثماري وقيصر الذكاء الاصطناعي والعملات المشفرة، قد وافقوا على تكتيكات مايكل الصارمة مسبقًا.

وفي الوقت الحاضر، فإن “سياسة الاستخدام المقبول” التي تنتهجها شركة أنثروبك مدمجة في عقد قيمته 200 مليون دولار وقعته مع وزارة الدفاع في يوليو/تموز الماضي. وذكرت الشركة في إعلانها عبارة “الذكاء الاصطناعي المسؤول” خمس مرات. وكتبوا: “في قلب هذا العمل تكمن اقتناعنا بأن أقوى التقنيات تتحمل المسؤولية الأكبر”، مشيرين إلى أنه في سياق الحكومة، “حيث تؤثر القرارات على الملايين والمخاطر لا يمكن أن تكون أكبر”، كانت المسؤولية “ضرورية” لضمان أن “تعزيز تطوير الذكاء الاصطناعي القيم الديمقراطية على مستوى العالم من خلال الحفاظ على القيادة التكنولوجية للحماية من سوء الاستخدام الاستبدادي”.

“سيتطلب التصنيف من كل مقاول دفاع يسعى للحصول على عمل حكومي أن يشهد بأنه قد أزال جميع التكنولوجيا البشرية من أنظمته”

ولكن في شهر يناير، نشر هيجسيث مذكرة الإعلان عن أن الوزارة ستصبح “قوة قتالية “الذكاء الاصطناعي أولاً” عبر جميع المكونات” وأنه يجب دمج لغة “أي استخدام قانوني” في أي عقد لشراء خدمات الذكاء الاصطناعي في غضون 180 يومًا، بما في ذلك التوجيهات الحالية.

وفي مذكرة هيجسيث، أكد مراراً وتكراراً أن الوزارة ستعطي الأولوية للسرعة بأي ثمن، وكتب أن البلاد يجب أن “تزيل العوائق أمام تبادل البيانات… (و) تتعامل مع مقايضات المخاطر، و”الأسهم”، وغير ذلك من المسائل الذاتية كما لو كنا في حالة حرب”. وقال أيضًا إنه عندما يتعلق الأمر بتطوير وتجريب عملاء الذكاء الاصطناعي، فإن الإدارة ستدمجهم “بدءًا من التخطيط للحملة وحتى التنفيذ المتسلسل”، فضلاً عن تحويل “المعلومات الاستخباراتية إلى أسلحة في ساعات”.

وقد أعطى هيجسيث الأولوية مرارا وتكرارا للسرعة على السلامة والأخطاء المحتملة: “يجب علينا أن نقبل أن مخاطر عدم التحرك بسرعة كافية تفوق مخاطر المواءمة غير الكاملة”. وأكد لاحقًا في المذكرة، فكتب أن “الذكاء الاصطناعي المسؤول” سيشهد تغييرات كبيرة في الوزارة، سواء في ساحة المعركة أو داخل صفوف الجيش. وكتب: “إن التنوع والمساواة والشمول والأيديولوجية الاجتماعية ليس لها مكان في وزارة العمل”، مضيفًا أن الوزارة “يجب عليها أيضًا استخدام نماذج خالية من قيود سياسة الاستخدام التي قد تحد من التطبيقات العسكرية القانونية”. على غرار ترامب المناهض لـ “إيقاظ الذكاء الاصطناعي” أمر تنفيذي، أعلن هيجسيث أن معايير موضوعية النموذج ستكون معيار شراء أساسيًا جديدًا لخدمات الذكاء الاصطناعي.

قامت OpenAI وxAI وGoogle على الفور بإعادة التفاوض بشأن عقودهم بقيمة 200 مليون دولار مع البنتاغون لتتوافق مع مذكرة هيجسيث. لكن لا تحمل أي من نماذج تلك الشركات تصنيفًا أمنيًا من مستوى التأثير 6، مما يعني أن ChatGPT وGrok وGemini لن يتمكنوا من استبدال كلود على الفور في حالة إدراج Anthropic في القائمة السوداء – وهي ثغرة أمنية تتعلق بمورد واحد من شأنها أن تأتي بنتائج عكسية على البنتاغون.

وأشار شودري إلى أن “كلود هو نموذج الذكاء الاصطناعي الرائد الوحيد الذي يعمل على شبكات البنتاغون المصنفة بالكامل، والتي يتم نشرها من خلال منصة الذكاء الاصطناعي الخاصة بشركة Palantir وسحابة Top Secret Cloud الخاصة بشركة Amazon، مما يعني أنه يقع في مركز سير العمل الذي لا تستطيع معظم النماذج الأخرى الوصول إليه بعد”. “سيتطلب التصنيف من كل مقاول دفاع يسعى للحصول على عمل حكومي أن يشهد بأنه قد أزال جميع التكنولوجيا البشرية من أنظمته.”

وقد أعطى هذا نفوذًا إنسانيًا في اشتباكاتها مع البنتاغون، والتي أصبحت أكثر حدة بعد أن علمت الشركة بذلك تم استخدام نماذجها في القبض على الرئيس الفنزويلي نيكولاس مادورو، انتهاكا لاتفاقهم الحالي.

من الناحية الفنية، لا تستطيع الأنثروبيك محاولة التنسيق أو التعاون مع مختبرات الذكاء الاصطناعي الأخرى التي يتم عرض الشروط الجديدة عليها، حتى لو كانت منفتحة على الموافقة، لأن ذلك يتعارض مع قواعد المشتريات الفيدرالية. ولكن بما أن المعركة تدور أمام أعين الجمهور، فقد أعرب العاملون في مجال التكنولوجيا، وموظفو الذكاء الاصطناعي، وغيرهم ممن يعملون حاليًا أو سابقًا في صناعة التكنولوجيا عن إحباطهم من أن الشركات الأخرى لا تقاتل من أجل نفس الشروط التي تقاتل بها شركة Anthropic. ويبدو أن آخرين يعتقدون أنها ستكون مسألة وقت فقط قبل أن تستسلم الأنثروبيك.

قال ويليام فيتزجيرالد، الموظف السابق في شركة جوجل والذي يدير الآن شركة مناصرة تدعى The Worker Agency: “سيكون الوقت مناسباً حقاً لأن تقول (المختبرات الأخرى) ’انتظر، ماذا تفعل بتقنيتنا؟‘”. “يتمتع العاملون في مختبرات الذكاء الاصطناعي بقدر كبير من القوة. إنهم فرق أصغر، وما زالوا يشكلون نوعًا ما من سيكونون… أعتقد أنهم يستطيعون تبرير تقييماتهم دون العمل العسكري. هناك طرق أخرى يمكنك من خلالها إدارة مشروع تجاري دون قتل الأشخاص في نموذج عملك.”

متابعة المواضيع والمؤلفين من هذه القصة لرؤية المزيد من هذا القبيل في خلاصة صفحتك الرئيسية المخصصة وتلقي تحديثات البريد الإلكتروني.





المصدر

spot_imgspot_img