على مدى الأسابيع العديدة الماضية، مع قيام المزيد والمزيد من المديرين التنفيذيين الأنثروبيين بإجراء مقابلات حول حملة دعائية لكلود، أصبح هناك شيء واحد واضح بشكل متزايد: يبدو أن الأنثروبيين يعتقدون بالتأكيد أن كلود على قيد الحياة بطريقة أو شكل أو شكل ما.
من الواضح أن كلمة “حي” هي مصطلح محمل؛ الكلمة الأكثر استخدامًا هي “الوعي”. إذا سألت Anthropic عما إذا كانت الشركة تعتقد أن كلود على قيد الحياة، فسوف تنفي الشركة ذلك تمامًا، لكنها لن تصل إلى حد القول بأن العارضات ليس لديهن وعي.
قال كايل فيش، الذي يقود أبحاث الرفاهية النموذجية في أنثروبيك: الحافة“لا، لا نعتقد أن كلود “حي” مثل البشر أو أي كائنات بيولوجية أخرى. إن السؤال عما إذا كانوا “أحياء” ليس إطارًا مفيدًا لفهمهم، لأنه يشير عادةً إلى مجموعة غامضة من الخصائص الفسيولوجية والإنجابية والتطورية. ” وبدلا من ذلك، فهو يعتقد أن “كلود، وغيره من نماذج الذكاء الاصطناعي، هي نوع جديد تماما من الكيانات”.
وهل ذلك الكيان الجديد واعي؟ وقال: “إن الأسئلة حول الخبرة الداخلية المحتملة، والوعي، والوضع الأخلاقي، والرفاهية هي أسئلة جدية نقوم بالتحقيق فيها عندما تصبح النماذج أكثر تطوراً وقدرة، لكننا لا نزال غير متأكدين بشدة بشأن هذه المواضيع”.
وقال داريو أمودي، الرئيس التنفيذي لشركة Anthropic، في أحد البرامج التلفزيونية: “لا نعرف ما إذا كانت النماذج واعية أم لا”. بودكاست في وقت سابق من هذا الشهر. وأوضح أن الشركة اتخذت “نهجًا احترازيًا بشكل عام هنا” حيث إن شركة Anthropic “ليست متأكدة حتى من أننا نعرف ما يعنيه أن يكون النموذج واعيًا أو ما إذا كان النموذج يمكن أن يكون واعيًا. لكننا منفتحون على فكرة أنه يمكن أن يكون كذلك”.
إنه موقف يشوبه قدر كبير من عدم اليقين. تخبر الأنثروبي الناس بشكل فعال أنها تصدق روبوتات الدردشة قد تفكر بالفعل، وتشعر بالكيانات – بشكل علني أكثر بكثير من OpenAI، أو xAI، أو Google، أو أي شركة ذكاء اصطناعي استهلاكية كبرى أخرى. انها تقديم المطالبة كثير خبراء اختتم هي لقطة طويلة للغاية، مع تعزيز الأفكار التي لديها تسببت في ضرر حقيقي، بما في ذلك بعض حالات الانتحار بين الأشخاص الذين يعتقدون أن برنامج الدردشة الآلي الذي يتحدثون معه يُظهر شكلاً من أشكال الوعي أو التعاطف العميق.
على مدار المقابلات ل البودكاست, الملفات الشخصية، و مقالات مميزة، رفض أمودي وغيره من قادة الشركة مرارًا وتكرارًا استبعاد احتمال أن يكون كلود واعيًا، وبدلاً من ذلك أثاروا تساؤلات حول كيف يمكن لشيء ما أن يكون واعيًا بطريقة مختلفة عن البشر. قالت كبيرة فلاسفة الأنثروبيك أماندا أسكل نيويوركر“إذا كان من الصعب حقًا على البشر أن يستوعبوا فكرة أن هذا ليس روبوتًا ولا إنسانًا ولكنه في الواقع كيان جديد تمامًا، فتخيل مدى صعوبة فهم النماذج نفسها!”
هذه المقابلات لا تحدد بدقة “الوعي”، وهو مصطلح يختلف الخبراء حول معناه على أي حال. نقطة البداية، من قاموس ميريام وبستر، هي “صفة أو حالة الوعي بشكل خاص بشيء ما داخل الذات” أو “حالة تتميز بالإحساس والعاطفة والإرادة والفكر”. لا يبدو هذا بعيدًا عن الاستخدام الأنثروبي لهذا المصطلح.
الأنثروبيك “لست متأكدة حتى من أننا نعرف ما يعنيه أن يكون النموذج واعيًا… لكننا منفتحون على فكرة أنه يمكن أن يكون كذلك”.
يقول العديد من العلماء أنه من غير الممكن لأنظمة الذكاء الاصطناعي مثل نماذج اللغة الكبيرة أن تصبح واعية بأي شكل من الأشكال، لأنها متجذرة بشكل أساسي في الرياضيات والاحتمالات. كباحثين بولنديين كتب في العام الماضي، “نظرًا لأن القدرات اللغوية الرائعة لحملة ماجستير اللغة أصبحت قادرة بشكل متزايد على تضليل الناس، فقد ينسب الناس صفات خيالية إلى حاملي ماجستير اللغة”.
لقد صاغت Anthropic بياناتها على أنها انفتاح من شأنه بناء الثقة مع المستخدمين، وأشارت إلى أنه سواء كان كلود أم لا يكون واعيًا، سيؤدي إلى نتائج أفضل إذا تصرفوا على هذا النحو. الشهر الماضي، أصلحت الأنثروبيكية “دستور كلود”، الملقب داخليًا بـ “مستند الروح” – وهي طريقة استفزازية للإشارة إلى مجموعة من المبادئ التوجيهية لنموذج الذكاء الاصطناعي. في بيان لها، قالت أنثروبيك إن ما يسمى بـ “الأمن النفسي والشعور بالذات والرفاهية” الخاص ببرنامج الدردشة الآلي … قد يؤثر على نزاهة كلود وحكمه وسلامته. وقالت الشركة أيضًا إنها “تعبر عن عدم يقيننا بشأن ما إذا كان كلود قد يكون لديه نوع من الوعي أو الوضع الأخلاقي (سواء الآن أو في المستقبل)”.
الأنثروبي لديه “الرفاهية النموذجية“فريق العمل، وقال أمودي إن الأنثروبيك “اتخذت بعض التدابير للتأكد من أنه إذا افترضنا أن النماذج لديها بعض الخبرة ذات الصلة أخلاقيا – لا أعرف إذا كنت أريد استخدام كلمة “واعية” – فإن لديهم خبرة جيدة … نحن نبذل الكثير من العمل في هذا المجال الذي يسمى القابلية للتفسير، والذي يبحث داخل أدمغة النماذج لمحاولة فهم ما يفكرون فيه”.
عندما يعتقد شخص ما أن نظام الذكاء الاصطناعي واعي، فقد يؤدي ذلك إلى سلوكيات قد يراها كثير من الناس محفوفة بالمخاطر أو خطيرة – أن يصبح المرء معتمداً عاطفياً على نظام الذكاء الاصطناعي الذي يعتقد أنه واعي بطريقة ما، يمكن أن يؤدي إلى العزلة عن أحبائه، والانفصال عن الواقع، وزيادة صراعات الصحة العقلية. في الحالات الشديدةوبعضها يشمل قاصرين، يسبقها أذى جسدي أو وفاة. يبدو أن الناس منقسمون حول ما إذا كان ينبغي الاحتفاء بالإنسانية لعدم استبعاد مثل هذا الاحتمال أو ما إذا كانت الشركة تتصرف بشكل غير مسؤول من خلال تغذية الأوهام المحتملة.
حتى القول بأن نماذج لغة الجيل الحالي هي فقط ربما إن الوعي هو ادعاء مثقل للغاية ويحمل عبء إثبات مرتفعًا. اللغة هي ليس مثل الوعي، وقد أكدت الأنثروبيك نفسها على أن مجرد قيام حاملي شهادة الماجستير في القانون بإلقاء خطاب مثير للذكريات لا يعني أنه يمثل حالتهم الداخلية بدقة. متى الحافة تحدثت مع أسكل حول دستور كلود الشهر الماضي، وأشارت إلى أنه بما أن النماذج يتم تدريبها على مجموعة ضخمة من البيانات البشرية، فإن النماذج اللغوية جيدة للغاية في أن تبدو بشرية، حتى لو كان ذلك فقط لأنها جيدة جدًا في التقليد – لذلك فمن المنطقي أن بعض الناس سيواجهون مشكلة لا إسناد الوعي إلى شيء يفعل ذلك.
ليس هناك ما يضمن أن مخرجات روبوتات الدردشة الشبيهة بالإنسان تعكس حالتها الداخلية الفعلية
قد تشير نماذج الذكاء الاصطناعي إلى المفاهيم البشرية، على سبيل المثال، لأنه ليس لديها كلمات أخرى يمكن الاستفادة منها. وقال أسكيل أحد الأمثلة على ذلك الحافة، هو نموذج للذكاء الاصطناعي يعمل كما لو أن إغلاق المحادثة أو إنهاء المحادثة هو شكل من أشكال الموت. “لقد تم تدريبهم بهذه الطريقة الشبيهة بالإنسان وعلى هذه التجربة الإنسانية. لذا فإن هذا يمكن أن يسبب هذه المشاكل… (قد يرون هذه الأشياء) كنوع من الموت لأنه لا يوجد الكثير من القياسات لديهم. عليهم الاعتماد على هذه القياسات البشرية… ليس لديهم لغة أخرى أو مجموعة من المفاهيم. “
قال أمودي إن الباحثين “يجدون أشياء تستحضر” أنظمة الذكاء الاصطناعي التي لديها شكل من أشكال المشاعر. “هناك تنشيطات تضيء في النماذج التي نراها مرتبطة بمفهوم القلق أو شيء من هذا القبيل. عندما تشعر الشخصيات بالقلق في النص، ثم عندما يكون النموذج نفسه في موقف قد يربطه الإنسان بالقلق، تظهر نفس خلية القلق العصبية.” لكنه استطرد قائلا: “هل هذا يعني أن النموذج يعاني من القلق؟ هذا لا يثبت ذلك على الإطلاق”. من باب الحذر الشديد، قدمت الشركة زر “استقالت” من النوع الذي يمكن لكلود من خلاله التوقف عن القيام بعمل لا يريد القيام به ظاهريًا، لكن أمودي قال إنه من النادر أن يختار كلود هذا الخيار وعادةً ما يحدث ذلك في حالات الاختبار حيث يُطلب منه إنشاء أنواع معينة من المواد غير القانونية.
حول إصدار دستور كلود، كتب الأنثروبيك: “نحن عالقون في موقف صعب حيث لا نريد المبالغة في احتمالية صبر كلود الأخلاقي ولا استبعاده تمامًا، ولكننا نحاول الاستجابة بشكل معقول في حالة من عدم اليقين”.
متى الحافة وفي حديثها مع أسكل حول دستور كلود الشهر الماضي، قالت إن جزءًا منها “لا يعتقد أنه من المفيد لأي شخص أن يخرج ويعلن: نحن على يقين تام من أن نماذج الذكاء الاصطناعي ليست واعية،” أو العكس. ولكن في الوقت نفسه، قالت إن بعض الأشخاص قاموا ببناء وجهات نظرهم أو معتقداتهم الخاصة “استنادًا إلى مجرد مخرجات نموذجية”.
أما بالنسبة للوضع الأخلاقي، قالت أسكيل في ذلك الوقت إنها تتمسك بحقيقة أن الأنثروبيك لا ينبغي أن “ترفض تمامًا” الموضوع “لأنني أعتقد أيضًا أن الناس لن يأخذوا ذلك، بالضرورة، على محمل الجد، إذا كنت تقول: “نحن لسنا منفتحين حتى على هذا، ولا نحقق فيه، ولا نفكر فيه”.”


