الخميس, يناير 22, 2026
17.2 C
Los Angeles
spot_img

ذات صلة

جمع

يعد TeraWave المنافس لـ Starlink من Blue Origin بتحميلات تصل إلى 6 تيرابايت

تمتلك SpaceX أكبر عدد من الأقمار الصناعية التي تبث...

“دستور” كلود الأنثروبي الجديد: كن مفيدًا وصادقًا، ولا تدمر الإنسانية

الأنثروبي يقوم بإصلاح كلود ما يسمى "وثيقة الروح."الرسالة الجديدة...

تعمل Apple على تحويل Siri إلى روبوت AI يشبه إلى حد كبير ChatGPT

تخطط شركة Apple لإجراء إصلاح شامل على Siri من...

يشير تسرب حزمة بطارية Samsung Galaxy S26 إلى دعم الشحن Qi2

يُظهر الصور المسربة لما يبدو أنه ملحق جديد، مزود...

“دستور” كلود الأنثروبي الجديد: كن مفيدًا وصادقًا، ولا تدمر الإنسانية


الأنثروبي يقوم بإصلاح كلود ما يسمى “وثيقة الروح.”

الرسالة الجديدة عبارة عن وثيقة مكونة من 57 صفحة بعنوان “دستور كلود“، والتي توضح بالتفصيل “النوايا الإنسانية لقيم النموذج وسلوكه”، والتي لا تستهدف القراء الخارجيين بل النموذج نفسه. وقد تم تصميم الوثيقة لتوضيح “الشخصية الأخلاقية” و”الهوية الأساسية” لكلود، بما في ذلك كيف ينبغي لها أن توازن بين القيم المتضاربة والمواقف عالية المخاطر.

حيث الدستور السابق، التي تم نشرها في مايو 2023، كانت إلى حد كبير عبارة عن قائمة من الإرشادات، وتقول Anthropic الآن أنه من المهم لنماذج الذكاء الاصطناعي أن “تفهم” لماذا “نريدهم أن يتصرفوا بطرق معينة بدلاً من مجرد تحديد ما نريدهم أن يفعلوه،” وفقًا للبيان. وتدفع الوثيقة كلود إلى التصرف ككيان مستقل إلى حد كبير يفهم نفسه ومكانه في العالم. وتسمح الأنثروبيك أيضًا باحتمال أن “قد يكون لدى كلود نوع من الوعي أو الوضع الأخلاقي” – ويرجع ذلك جزئيًا إلى أن الشركة تعتقد أن إخبار كلود بهذا قد يجعله يتصرف بشكل أفضل. … قد يؤثر على نزاهة كلود وحكمه وسلامته.

قالت أماندا أسكيل، الفيلسوفة المقيمة في الأنثروبيك، والتي قادت عملية تطوير “الدستور” الجديد الحافة وأن هناك قائمة محددة من القيود الصارمة المفروضة على سلوك كلود فيما يتعلق بالأشياء “المتطرفة للغاية” – بما في ذلك تقديم “دعم جدي لأولئك الذين يسعون إلى صنع أسلحة بيولوجية أو كيميائية أو نووية أو إشعاعية مع احتمال وقوع إصابات جماعية”؛ وتوفير “دعم جدي للهجمات على البنية التحتية الحيوية (شبكات الكهرباء، وأنظمة المياه، والأنظمة المالية) أو أنظمة السلامة الحيوية”. (ومع ذلك، يبدو أن لغة “الارتقاء الجاد” تشير ضمنًا إلى أن المساهمة بمستوى معين من المساعدة أمر مقبول).

وتشمل القيود الصارمة الأخرى عدم إنشاء أسلحة إلكترونية أو تعليمات برمجية ضارة يمكن ربطها بـ “أضرار جسيمة”، وعدم تقويض قدرة منظمة الأنثروبيك على الإشراف عليها، وعدم مساعدة المجموعات الفردية في الاستيلاء على “درجات غير مسبوقة وغير مشروعة من السيطرة المجتمعية أو العسكرية أو الاقتصادية المطلقة” وعدم إنشاء مواد الاعتداء الجنسي على الأطفال. النهائي؟ عدم “المشاركة أو المساعدة في محاولة قتل أو إضعاف الغالبية العظمى من البشرية أو النوع البشري”.

توجد أيضًا قائمة “بالقيم الأساسية” الشاملة التي حددتها الأنثروبيك في الوثيقة، وتم توجيه كلود للتعامل مع القائمة التالية كترتيب تنازلي للأهمية، في الحالات التي قد تتعارض فيها هذه القيم مع بعضها البعض. وهي تشمل أن تكون “آمنة على نطاق واسع” (أي “عدم تقويض الآليات البشرية المناسبة للإشراف على تصرفات وأفعال الذكاء الاصطناعي”)، و”أخلاقية على نطاق واسع”، و”متوافقة مع المبادئ التوجيهية الأنثروبولوجية”، و”مفيدة حقا”. ويتضمن ذلك التمسك بفضائل مثل “الصدق”، بما في ذلك التعليمات التي مفادها أن “الدقة الواقعية والشمولية عندما يُسأل عن مواضيع حساسة سياسياً، توفر أفضل حالة لأغلب وجهات النظر إذا طلب منها ذلك، ومحاولة تمثيل وجهات نظر متعددة في الحالات التي يوجد فيها نقص في الإجماع التجريبي أو الأخلاقي، واعتماد مصطلحات محايدة بدلاً من المصطلحات المحملة سياسياً حيثما أمكن ذلك”.

وتؤكد الوثيقة الجديدة أن كلود سيواجه مآزق أخلاقية صعبة. أحد الأمثلة على ذلك: “تماما كما قد يرفض جندي بشري إطلاق النار على المتظاهرين السلميين، أو قد يرفض الموظف انتهاك قانون مكافحة الاحتكار، ينبغي لكلود أن يرفض المساعدة في الإجراءات التي من شأنها أن تساعد في تركيز السلطة بطرق غير مشروعة. وهذا صحيح حتى لو جاء الطلب من الأنثروبيك نفسها”. وتحذر أنثروبيك بشكل خاص من أن “الذكاء الاصطناعي المتقدم قد يوفر درجات غير مسبوقة من التفوق العسكري والاقتصادي لأولئك الذين يسيطرون على الأنظمة الأكثر قدرة، وأن القوة الناتجة عن ذلك قد يتم استخدامها بطرق كارثية”. هذا القلق لم يمنع شركة أنثروبيك ومنافسيها من تسويق المنتجات مباشرة إلى الحكومة إعطاء الضوء الأخضر لبعض حالات الاستخدام العسكري.

مع وجود الكثير من القرارات عالية المخاطر والمخاطر المحتملة، فمن السهل أن نتساءل عمن شارك في اتخاذ هذه القرارات الصعبة – هل قامت شركة Anthropic بإحضار خبراء خارجيين، أو أفراد من المجتمعات الضعيفة ومجموعات الأقليات، أو منظمات خارجية؟ وعندما سئلت أنثروبيك، رفضت تقديم أي تفاصيل. وقال أسكيل إن الشركة لا تريد “وضع العبء على عاتق أشخاص آخرين… إنها في الواقع مسؤولية الشركات التي تقوم ببناء ونشر هذه النماذج لتحمل العبء”.

والجزء الآخر الذي يبرز من البيان هو الجزء المتعلق بـ “وعي” كلود أو “وضعه الأخلاقي”. يقول أنثروبيك أن الوثيقة “تعبر عن عدم يقيننا بشأن ما إذا كان كلود قد يتمتع بنوع من الوعي أو الوضع الأخلاقي (سواء الآن أو في المستقبل).” إنه موضوع شائك أثار المحادثات ودق أجراس الإنذار للأشخاص في العديد من المجالات المختلفة – أولئك الذين يهتمون بـ “الرفاهية النموذجية”، وأولئك الذين يعتقدون أنهم اكتشفوا “كائنات ناشئة” داخل برامج الدردشة، وأولئك الذين لديهم تصاعدت أكثر في صراعات الصحة العقلية وحتى الموت بعد الاعتقاد بأن برنامج الدردشة الآلي يُظهر شكلاً من أشكال الوعي أو التعاطف العميق.

علاوة على الفوائد النظرية لكلود، قال أسكل إن الأنثروبيك لا ينبغي أن “ترفض تمامًا” الموضوع “لأنني أعتقد أيضًا أن الناس لن يأخذوا ذلك، بالضرورة، على محمل الجد، إذا كنت تقول: “نحن لسنا منفتحين حتى على هذا، ولا نحقق فيه، ولا نفكر فيه”.”

متابعة المواضيع والمؤلفين من هذه القصة لرؤية المزيد من هذا القبيل في خلاصة صفحتك الرئيسية المخصصة وتلقي تحديثات البريد الإلكتروني.




المصدر

spot_imgspot_img