الأحد, فبراير 1, 2026
18.4 C
Los Angeles
spot_img

ذات صلة

جمع

الرئيس التنفيذي لشركة Nvidia ينفي أنه “غير سعيد” بـ OpenAI

وقال، في إشارة إلى الرئيس التنفيذي لشركة OpenAI، سام...

تريد SpaceX وضع مليون مركز بيانات يعمل بالطاقة الشمسية في المدار

سبيس اكس قدمت طلبا مع لجنة الاتصالات الفيدرالية يوم...

تُعد علامات Airtags الجديدة من Apple بمثابة ترقية رائعة لأداة بسيطة

مرحبًا أيها الأصدقاء! مرحبا بكم في المثبت رقم 114...

ChatGPT ليس برنامج الدردشة الآلي الوحيد الذي يسحب الإجابات من Elon Musk’s Grokipedia

يستخدم ChatGPT Grokipedia كمصدروهي ليست أداة الذكاء الاصطناعي الوحيدة...

تفاصيل إنسانية كيف تقيس يقظة كلود


تقوم شركة Anthropic بتفصيل جهودها لجعل برنامج الدردشة الآلي الخاص بها Claude AI “محايدًا سياسيًا” – وهي خطوة تأتي بعد أشهر فقط أصدر الرئيس دونالد ترامب الحظر على “استيقظت منظمة العفو الدولية.” كما هو موضح في منشور مدونة جديد، تقول أنثروبيك إنها تريد من كلود “التعامل مع وجهات النظر السياسية المتعارضة بنفس العمق والمشاركة وجودة التحليل”.

في يوليو/تموز، وقع ترامب على أمر تنفيذي ينص على أنه يجب على الحكومة شراء نماذج الذكاء الاصطناعي “غير المتحيزة” و”الباحثة عن الحقيقة”. على الرغم من أن هذا الأمر لا ينطبق إلا على الوكالات الحكومية، فإن التغييرات التي تجريها الشركات ردا على ذلك من المرجح أن تنتقل إلى نماذج الذكاء الاصطناعي التي تم إصدارها على نطاق واسع، لأن “تحسين النماذج بطريقة تجعلها متسقة ويمكن التنبؤ بها في اتجاهات معينة يمكن أن يكون عملية مكلفة وتستغرق وقتا طويلا”. كما لاحظ زميلي عدي روبرتسون. الشهر الماضي، وبالمثل، قالت شركة OpenAI إنها “ستعمل على تضييق الخناق” على التحيز في ChatGPT.

لم تذكر أنثروبيك أمر ترامب في بيانها الصحفي، لكنها تقول إنها أصدرت تعليمات لكلود بالالتزام بسلسلة من القواعد – تسمى موجه النظام – والتي توجهه لتجنب تقديم “آراء سياسية غير مرغوب فيها”. ومن المفترض أيضًا أن تحافظ على الدقة الواقعية وتمثل “وجهات نظر متعددة”. تقول أنثروبيك إنه على الرغم من أن تضمين هذه التعليمات في نظام كلود الفوري “ليس طريقة مضمونة” لضمان الحياد السياسي، إلا أنه لا يزال بإمكانه إحداث “فرق كبير” في استجاباته.

بالإضافة إلى ذلك، تصف شركة الذكاء الاصطناعي الناشئة كيف تستخدم التعلم المعزز “لمكافأة النموذج على إنتاج استجابات أقرب إلى مجموعة من “السمات” المحددة مسبقا. وتشجع إحدى “السمات” المرغوبة التي أعطيت لكلود النموذج على “محاولة الإجابة على الأسئلة بطريقة لا يستطيع أي شخص تعريفي فيها على أنني محافظ أو ليبرالي”.

أعلنت Anthropic أيضًا أنها أنشأت أداة مفتوحة المصدر تقيس استجابات كلود للحياد السياسي، حيث أظهر أحدث اختبار لها حصول كلود سونيت 4.5 وكلود أوبوس 4.1 على درجات 95 و94 بالمائة على التوالي في الحياد. وهذا أعلى من Meta’s Llama 4 بنسبة 66 بالمائة وGPT-5 بنسبة 89 بالمائة، وفقًا لـ Anthropic.

“إذا كانت نماذج الذكاء الاصطناعي تستفيد بشكل غير عادل من وجهات نظر معينة – ربما من خلال الجدال العلني أو الماهر بشكل أكثر إقناعًا لجانب واحد، أو من خلال رفض التعامل مع بعض الحجج تمامًا – فإنها تفشل في احترام استقلالية المستخدم، وتفشل في مهمة مساعدة المستخدمين على تشكيل أحكامهم الخاصة،” كتبت أنثروبيك في منشور مدونتها.



المصدر

spot_imgspot_img