تعلن Microsoft اليوم عن خليفة لأول شريحة ذكاء اصطناعي داخلية لها، Maia 200. بنيت على عملية TSMC 3 نانومتر، وتقول Microsoft إن مسرع Maia 200 AI الخاص بها “يوفر أداء FP4 3 أضعاف أداء الجيل الثالث من Amazon Trainium، وأداء FP8 أعلى من الجيل السابع من TPU من Google.”
تحتوي كل شريحة Maia 200 على أكثر من 100 مليار ترانزستور، وجميعها مصممة للتعامل مع أعباء عمل الذكاء الاصطناعي واسعة النطاق. يقول سكوت جوثري، نائب الرئيس التنفيذي لقسم السحابة والذكاء الاصطناعي في Microsoft: “يمكن لـ Maia 200 تشغيل أكبر النماذج اليوم دون عناء، مع وجود مساحة كبيرة لنماذج أكبر في المستقبل”.
ستستخدم Microsoft Maia 200 لاستضافة نموذج OpenAI’s GPT-5.2 ونماذج أخرى لـ Microsoft Foundry وMicrosoft 365 Copilot. يقول جوثري: “يعد Maia 200 أيضًا النظام الاستدلالي الأكثر كفاءة الذي نشرته Microsoft على الإطلاق، مع أداء أفضل بنسبة 30 بالمائة مقابل كل دولار مقارنة بأحدث جيل من الأجهزة في أسطولنا اليوم”.
يختلف أداء Microsoft المرن مقارنة بمنافسيها من شركات التكنولوجيا الكبرى عما كان عليه عندما أطلقت لأول مرة مايا 100 في عام 2023 ولم أرغب في الانجرار إلى مقارنات مباشرة مع قدرات الذكاء الاصطناعي السحابية الخاصة بأمازون وجوجل. ومع ذلك، تعمل كل من جوجل وأمازون على الجيل التالي من شرائح الذكاء الاصطناعي. الأمازون حتى العمل مع نفيديا لدمج شريحة Trainium4 القادمة مع NVLink 6 وبنية الحامل MGX من Nvidia.
سيكون فريق Superintelligence من Microsoft أول من يستخدم شرائح Maia 200 الخاصة به، وتدعو الشركة أيضًا الأكاديميين والمطورين ومختبرات الذكاء الاصطناعي والمساهمين في مشاريع النماذج مفتوحة المصدر إلى معاينة مبكرة لمجموعة أدوات تطوير برمجيات Maia 200. بدأت Microsoft في نشر هذه الرقائق الجديدة اليوم في منطقة مركز البيانات المركزي Azure US، مع مناطق إضافية ستتبعها.


