تطلق OpenAI ميزة أمان اختيارية لـ ChatGPT والتي تسمح للمستخدمين البالغين بتعيين جهة اتصال للطوارئ لمخاوف الصحة العقلية والسلامة. سيتم إخطار الأصدقاء أو أفراد الأسرة أو مقدمي الرعاية المعينين على أنهم “جهة اتصال موثوقة” إذا اكتشف OpenAI أن شخصًا ما ربما ناقش موضوعات مثل إيذاء النفس أو الانتحار مع برنامج الدردشة الآلي.
وقالت OpenAI في إعلانها: “تم تصميم Trusted Contact حول فرضية بسيطة تم التحقق منها من قبل الخبراء: عندما يكون شخص ما في أزمة، فإن التواصل مع شخص يعرفه ويثق به يمكن أن يحدث فرقًا ذا معنى”. “إنه يوفر طبقة أخرى من الدعم إلى جانب خطوط المساعدة المحلية متاحة بالفعل في ChatGPT.”
ميزة الاتصال الموثوق بها هي الاشتراك. يمكن لأي مستخدم ChatGPT بالغ تمكينه عن طريق إضافة تفاصيل الاتصال لشخص بالغ (18+ عالميًا أو 19+ في كوريا الجنوبية) في إعدادات حساب ChatGPT الخاصة به. يجب أن تقبل جهة الاتصال الموثوقة الدعوة خلال أسبوع من تلقي الطلب. يمكن للمستخدمين إزالة أو تعديل جهة الاتصال التي اختاروها في الإعدادات، ويمكن لجهة الاتصال الموثوقة أيضًا اختيار إزالة نفسها في أي وقت.
يقول OpenAI أن الإشعار “محدود عن عمد” ولن يشارك تفاصيل الدردشة أو النصوص مع جهة الاتصال الموثوقة. إذا اكتشفت أنظمة OpenAI الآلية أن أحد المستخدمين يتحدث عن إيذاء نفسه، فسيقوم ChatGPT بعد ذلك بتشجيع المستخدم على التواصل مع جهة الاتصال الموثوقة للحصول على المساعدة، وإعلامه بأنه قد يتم إخطار جهة الاتصال. سيقوم بعد ذلك “فريق صغير من الأشخاص المدربين تدريبًا خاصًا” بمراجعة الموقف، وفقًا لـ OpenAI، وسيرسل ChatGPT بريدًا إلكترونيًا مختصرًا أو رسالة نصية أو إشعار ChatGPT داخل التطبيق إلى جهة الاتصال الموثوقة إذا تم تحديد المحادثة على أنها تشير إلى مخاوف خطيرة تتعلق بالسلامة.
يعتمد هذا على ميزة الاتصال في حالات الطوارئ التي تم تقديمها جنبًا إلى جنب الضوابط الأبوية في ChatGPT في سبتمبر، بعد أن انتحر شاب يبلغ من العمر 16 عامًا بعد أشهر من ثقته في ChatGPT. قدمت Meta أيضًا ميزة مماثلة تنبه الآباء إذا كان أطفالهم يبحثون “بشكل متكرر” عنها موضوعات إيذاء النفس على إنستغرام.


