شركة OpenAI تقوم بالتوظيف لـ رئيس الاستعداد. أو بعبارة أخرى، شخص وظيفته الأساسية هي التفكير في كل الطرق التي يمكن أن يسلكها الذكاء الاصطناعي بشكل فظيع وخاطئ للغاية. في أ مشاركة على Xأعلن سام ألتمان عن هذا الموقف من خلال الاعتراف بأن التحسن السريع في نماذج الذكاء الاصطناعي يفرض “بعض التحديات الحقيقية”. يستمر المنشور في الإشارة على وجه التحديد إلى التأثير المحتمل على الصحة العقلية للأشخاص ومخاطر أسلحة الأمن السيبراني التي تعمل بالذكاء الاصطناعي.
ال قائمة الوظائف يقول أن الشخص الذي يقوم بهذا الدور سيكون مسؤولاً عن:
“التتبع والتحضير للقدرات الحدودية التي تخلق مخاطر جديدة من الضرر الجسيم. ستكون القائد المسؤول بشكل مباشر عن بناء وتنسيق تقييمات القدرات ونماذج التهديدات وعمليات التخفيف التي تشكل خط أنابيب أمان متماسك وصارم وقابل للتطوير من الناحية التشغيلية.”
يقول ألتمان أيضًا إنه بالنظر إلى المستقبل، سيكون هذا الشخص مسؤولاً عن تنفيذ “إطار الاستعداد” الخاص بالشركة، وتأمين نماذج الذكاء الاصطناعي لإطلاق “القدرات البيولوجية”، وحتى وضع حواجز الحماية لأنظمة التحسين الذاتي. ويذكر أيضًا أنها ستكون “وظيفة مرهقة”، وهو ما يبدو بخس.


