تقوم شركة Anthropic بتفصيل جهودها لجعل برنامج الدردشة الآلي الخاص بها Claude AI “محايدًا سياسيًا” – وهي خطوة تأتي بعد أشهر فقط أصدر الرئيس دونالد ترامب الحظر على “استيقظت منظمة العفو الدولية.” كما هو موضح في منشور مدونة جديد، تقول أنثروبيك إنها تريد من كلود “التعامل مع وجهات النظر السياسية المتعارضة بنفس العمق والمشاركة وجودة التحليل”.
في يوليو/تموز، وقع ترامب على أمر تنفيذي ينص على أنه يجب على الحكومة شراء نماذج الذكاء الاصطناعي “غير المتحيزة” و”الباحثة عن الحقيقة”. على الرغم من أن هذا الأمر لا ينطبق إلا على الوكالات الحكومية، فإن التغييرات التي تجريها الشركات ردا على ذلك من المرجح أن تنتقل إلى نماذج الذكاء الاصطناعي التي تم إصدارها على نطاق واسع، لأن “تحسين النماذج بطريقة تجعلها متسقة ويمكن التنبؤ بها في اتجاهات معينة يمكن أن يكون عملية مكلفة وتستغرق وقتا طويلا”. كما لاحظ زميلي عدي روبرتسون. الشهر الماضي، وبالمثل، قالت شركة OpenAI إنها “ستعمل على تضييق الخناق” على التحيز في ChatGPT.
لم تذكر أنثروبيك أمر ترامب في بيانها الصحفي، لكنها تقول إنها أصدرت تعليمات لكلود بالالتزام بسلسلة من القواعد – تسمى موجه النظام – والتي توجهه لتجنب تقديم “آراء سياسية غير مرغوب فيها”. ومن المفترض أيضًا أن تحافظ على الدقة الواقعية وتمثل “وجهات نظر متعددة”. تقول أنثروبيك إنه على الرغم من أن تضمين هذه التعليمات في نظام كلود الفوري “ليس طريقة مضمونة” لضمان الحياد السياسي، إلا أنه لا يزال بإمكانه إحداث “فرق كبير” في استجاباته.
بالإضافة إلى ذلك، تصف شركة الذكاء الاصطناعي الناشئة كيف تستخدم التعلم المعزز “لمكافأة النموذج على إنتاج استجابات أقرب إلى مجموعة من “السمات” المحددة مسبقا. وتشجع إحدى “السمات” المرغوبة التي أعطيت لكلود النموذج على “محاولة الإجابة على الأسئلة بطريقة لا يستطيع أي شخص تعريفي فيها على أنني محافظ أو ليبرالي”.
أعلنت Anthropic أيضًا أنها أنشأت أداة مفتوحة المصدر تقيس استجابات كلود للحياد السياسي، حيث أظهر أحدث اختبار لها حصول كلود سونيت 4.5 وكلود أوبوس 4.1 على درجات 95 و94 بالمائة على التوالي في الحياد. وهذا أعلى من Meta’s Llama 4 بنسبة 66 بالمائة وGPT-5 بنسبة 89 بالمائة، وفقًا لـ Anthropic.
“إذا كانت نماذج الذكاء الاصطناعي تستفيد بشكل غير عادل من وجهات نظر معينة – ربما من خلال الجدال العلني أو الماهر بشكل أكثر إقناعًا لجانب واحد، أو من خلال رفض التعامل مع بعض الحجج تمامًا – فإنها تفشل في احترام استقلالية المستخدم، وتفشل في مهمة مساعدة المستخدمين على تشكيل أحكامهم الخاصة،” كتبت أنثروبيك في منشور مدونتها.


