الأربعاء, مارس 11, 2026
15.1 C
Los Angeles
spot_img

ذات صلة

جمع

هاتف أوبو الجديد القابل للطي ليس مجعدًا تمامًا، لكنه قريب جدًا

أول شيء يبدو أن معظم الناس يفعلونه عند تجربة...

تطلق الأنثروبيك مؤسسة فكرية جديدة وسط معركة القائمة السوداء للبنتاغون


وسط أ أسابيع طويلة صراع مع البنتاغون، مما أدى إلى القائمة السوداء و أ دعوى قضائية، تعمل شركة Anthropic على تغيير جناحها التنفيذي ومبادراتها البحثية. أعلنت الشركة يوم الأربعاء أنها ستطلق مركزًا فكريًا داخليًا جديدًا يسمى المعهد الأنثروبيكي، والذي يجمع بين ثلاثة من فرق البحث الحالية في الأنثروبيك. وسيركز المؤتمر على البحث في الآثار واسعة النطاق للذكاء الاصطناعي، مثل “ما يحدث للوظائف والاقتصادات، وما إذا كان الذكاء الاصطناعي يجعلنا أكثر أمانًا أو يقدم مخاطر جديدة، وكيف يمكن لقيمه أن تشكل قيمنا، وما إذا كان بإمكاننا الاحتفاظ بالسيطرة”، وفقًا للشركة.

تأتي الأخبار مع تغييرات في C-suite أيضًا. ينتقل المؤسس المشارك الأنثروبي جاك كلارك إلى دور جديد يقود مركز الأبحاث. وسيكون لقبه الجديد هو رئيس المصلحة العامة، بعد أكثر من خمس سنوات كرئيس للسياسة العامة. فريق السياسة العامة – الذي تضاعف حجمه ثلاث مرات في عام 2025، بحسب الأنثروبيك – ستقوده الآن سارة هيك، التي كانت رئيسة الشؤون الخارجية سابقًا. ستفتتح أنثروبيك أيضًا مكتبها المخطط له في واشنطن العاصمة، وسيواصل فريق السياسة العامة التركيز على قضايا مثل الأمن القومي، والبنية التحتية للذكاء الاصطناعي، والطاقة، و”القيادة الديمقراطية في الذكاء الاصطناعي”.

قال كلارك الحافة أن الظهور الأول لمعهد الأنثروبولوجيا كان قيد الإعداد لفترة من الوقت، وأنه كان يفكر في الانتقال إلى دور مثل هذا منذ نوفمبر. لكن التوقيت يأتي بعد أيام فقط من رفع شركة Anthropic دعوى قضائية ضد الحكومة الأمريكية بسبب تصنيفها كمخاطر لسلسلة التوريد، الأمر الذي من شأنه أن يمنع عملائها من استخدام تقنية Anthropic على الإطلاق في عملهم مع وزارة الدفاع. وتزعم الدعوى أن إدارة ترامب أدرجت الشركة بشكل غير قانوني في القائمة السوداء لوضعها “خطوطًا حمراء” للمراقبة المحلية الجماعية والأسلحة الفتاكة المستقلة بالكامل.

عندما سُئل كلارك عن ذلك، قال: “إن العمل في مجال الذكاء الاصطناعي هنا في Anthropic ليس مملًا أبدًا – هناك دائمًا شيء ما يحدث… إن وتيرة تقدم الذكاء الاصطناعي لا تتباطأ بسبب الأحداث الخارجية، ولا نحن كذلك.” وقال كلارك إن الوضع لم “يغير بشكل مباشر” جدول الأعمال البحثي المخطط له، لكنه شعر أنه “أكد” قرار Anthropic بنشر المزيد من المعلومات للجمهور. وقال: “إن ما شهدناه في الأسابيع القليلة الماضية يظهر لك نوعًا ما مدى الرغبة في إجراء محادثة وطنية أكبر من قبل الجمهور حول هذه التكنولوجيا”.

ينطلق المعهد الأنثروبي مع حوالي 30 شخصًا، من بينهم الأعضاء المؤسسون مات بوتفينيك، الذي كان يعمل سابقًا في Google DeepMind؛ وأنطون كورينك، أستاذ في إجازة من قسم الاقتصاد بجامعة فيرجينيا؛ وزوي هيتزيج، باحثة الذي ترك OpenAI بعد قرارها بتقديم الإعلانات داخل ChatGPT. يجمع مركز الأبحاث الجديد بين الدراسات الأنثروبولوجية فريق التأثيرات المجتمعيةالذي يدرس تأثيرات الذكاء الاصطناعي على مجالات مختلفة من المجتمع؛ وفريقها الأحمر الحدودي، الذي يقوم باختبار أنظمة الذكاء الاصطناعي بحثًا عن نقاط الضعف والمشكلات؛ وفريق الأبحاث الاقتصادية التابع لها، والذي يتتبع آثار الذكاء الاصطناعي على الاقتصاد وسوق العمل. ويخطط معهد الأنثروبيك أيضًا “لاحتضان” فرق جديدة، مثل فريق بقيادة بوتفينيك يدرس كيفية تأثير الذكاء الاصطناعي على النظام القانوني. وسيقود هيتزيج وكورينك مشاريع بحثية اقتصادية كبيرة. وقال كلارك إنه يتوقع أن يتضاعف عدد موظفي مركز الأبحاث كل عام في المستقبل المنظور.

هذا العام على وجه الخصوص، هناك قدر متزايد من الضغط على شركات الذكاء الاصطناعي ذات القيمة العالية مثل Anthropic، والتي يقال خطط للاكتتاب العام هذا العام. الأنثروبي محكمة برادة وكشفت أن الشركة حققت أكثر من 5 مليارات دولار من الإيرادات التجارية على الإطلاق، وأنها أنفقت 10 مليارات دولار حتى الآن على التدريب النموذجي والاستدلال. وقالت أيضًا إن الشركة “تلقت اتصالات من العديد من الشركاء الخارجيين… معربين عن الارتباك بشأن ما هو مطلوب منهم والقلق بشأن قدرتهم على مواصلة العمل مع أنثروبيك” وأن “عشرات الشركات اتصلت بشركة أنثروبيك” للحصول على التوجيه و”في بعض الحالات، فهم حقوق إنهاء الخدمة الخاصة بهم”. وقالت أنثروبيك إنه اعتمادًا على تفسير ما ستحظره الحكومة، بالضبط، فإن “مئات الملايين من إيرادات عام 2026 معرضة للخطر” على الأقل، وفي الحالة الأكثر خطورة، ستكون عدة مليارات من الدولارات.

هل تشعر شركة الأنثروبيك بالقلق إزاء تخصيص المزيد من الموارد للأبحاث طويلة المدى في حين أنه من المحتمل جدًا أن تفقد جزءًا من دخلها على المدى القصير؟ متى الحافة وسأل كلارك، فقال إنه ليس لديه “أي مخاوف”.

قال كلارك: “يميل الناس إلى شراء الثقة”. “الكثير مما يمكننا إنتاجه هو أنواع الأبحاث التي تساعد الشركات على الثقة بنا… على المدى الطويل، كانت شركة أنثروبيك تنظر دائمًا إلى استثمارها في السلامة – والدراسة والإبلاغ عن سلامة أنظمتها – باعتباره ليس مركزًا للتكلفة، بل مركزًا للربح”.

وقال كلارك أيضًا إنه يعتقد أن الذكاء الاصطناعي القوي (في الأساس المصطلح الأنثروبي الخاص لـ AGI، أو الذكاء العام الاصطناعي) بحلول نهاية هذا العام أو أوائل عام 2027، وأنه قرر تغيير الأدوار إلى حد كبير بسبب “وتيرة تقدم الذكاء الاصطناعي”. وأضاف أنه عندما نظر إلى عمله العام الماضي، ركز أكثر على المسائل السياسية، مثل س.ب 53، ومن قيامه بالبحث والتطوير في مجال الذكاء الاصطناعي والمسائل الأخرى التي أراد الاهتمام بها. وقالت أنثروبيك في بيان لها إن معهد الأنثروبيك مخصص خصيصًا للإجابة على “أصعب الأسئلة التي يطرحها الذكاء الاصطناعي القوي”.

بالطبع، كما الحافة كتب في ديسمبر، الكثير من شركات التكنولوجيا مؤيدة للشفافية إلى أن تصبح ضارة للأعمال. فماذا يحدث إذا، وعندما تكشف فرق البحث في معهد الأنثروبولوجيا عن نتائج تجعل الشركة تبدو سيئة؟

وقال كلارك إن مؤسسي شركة أنثروبيك لديهم “قيم مماثلة” حول أهمية الإفصاح العام، خاصة وأن الشركة من الناحية الفنية هي شركة منفعة عامة، مما يعني أن لديها القدرة على تنفيذ الأهداف “ليس فقط لتحقيق مكاسب ائتمانية”. وأضاف أنه في محادثة أجراها مع الرئيس التنفيذي داريو أمودي الأسبوع الماضي، اتفقا على أهمية الشفافية على الرغم من تحديات العلاقات العامة التي قد تنشأ عنها.

لكن أبحاث معهد الأنثروبيك قد تتطلب عمليات حسابية كبيرة في وقت تتسابق فيه الشركات إعطاء الأولوية للمنتجات التجارية. قال كلارك إنه خارج الموارد المخصصة للتدريب المسبق للنموذج الحدودي، تخصص Anthropic حساباتها على أساس أسبوع بأسبوع وفقًا لـ “ما يبدو أكثر أهمية”، لذلك لم يتم تخصيص أي جزء محدد جانبًا، لكنه لا يتوقع وجود أي صراعات.

ويخطط المعهد الأنثروبي أيضًا لدراسة اعتماد الأشخاص العاطفي على الذكاء الاصطناعي، وهي مشكلة متزايدة الحدة اكتسبت الوعي العام خلال العام الماضي. قال كلارك إنه حتى الآن، قامت فرق البحث في Anthropic بدراسة أنواع المحادثات التي تحدث مع كلود وقياس قدرة التكنولوجيا على إقناع الناس بالأشياء أو التصرف بشكل متملق، لكنهم لم يقضوا الكثير من الوقت في التحدث مع الأشخاص الذين يستخدمون التكنولوجيا حول تجاربهم الفردية. وقال إن مركز الأبحاث يخطط لإجراء أبحاث واسعة النطاق في العلوم الاجتماعية، بما في ذلك استخدام الذكاء الاصطناعي الأنثروبيكي إجراء مقابلات مع المستخدمين.

قال كلارك: “أعتقد أن هذا هو: كان لوسائل التواصل الاجتماعي تأثير كبير على المجتمع، ولم يكن ذلك يعتمد فقط على ما يحدث على منصات التواصل الاجتماعي. بل كان، “كيف كان استخدام وسائل التواصل الاجتماعي يغير الناس؟”. “نريد أن نفهم كيف يغير استخدام الذكاء الاصطناعي الأشخاص؟”

متابعة المواضيع والمؤلفين من هذه القصة لرؤية المزيد من هذا القبيل في خلاصة صفحتك الرئيسية المخصصة وتلقي تحديثات البريد الإلكتروني.




المصدر

spot_imgspot_img