مايكروسوفت تتحدى أمازون وجوجل بشريحة Maia 200 (المواصفات)
بدأت شركة مايكروسوفت اليوم رسمياً في نشر شريحتها الجديدة للذكاء الاصطناعي Maia 200 في مراكز بياناتها، معلنة عن قفزة نوعية في الأداء تضعها في مواجهة مباشرة مع عمالقة التقنية.
مواصفات تقنية تتفوق على المنافسين
تُعد Maia 200 الجيل الثاني من شرائح مايكروسوفت الداخلية، وقد تم بناؤها باستخدام تقنية 3 نانومتر من شركة TSMC. ووفقاً لمايكروسوفت، فإن مسرع الذكاء الاصطناعي الجديد يقدم أداءً مذهلاً، حيث يوفر "3 أضعاف أداء FP4 مقارنة بالجيل الثالث من شريحة Amazon Trainium، وأداء FP8 يتفوق على الجيل السابع من Google TPU".
تحتوي كل شريحة من نوع Maia 200 على أكثر من 100 مليار ترانزستور، مصممة خصيصاً للتعامل مع أعباء عمل الذكاء الاصطناعي واسعة النطاق.
تشغيل نماذج GPT-5.2 وكفاءة التكلفة
صرح سكوت جوثري، نائب الرئيس التنفيذي لقسم السحابة والذكاء الاصطناعي في مايكروسوفت، قائلاً: "يمكن لشريحة Maia 200 تشغيل أكبر النماذج الحالية بسهولة، مع وجود مساحة كبيرة لنماذج أضخم في المستقبل".
تعتزم الشركة استخدام الشريحة الجديدة لاستضافة نموذج GPT-5.2 من OpenAI ونماذج أخرى لصالح Microsoft Foundry وMicrosoft 365 Copilot. وأضاف جوثري أن Maia 200 تُعد نظام الاستدلال الأكثر كفاءة الذي نشرته الشركة على الإطلاق، حيث تقدم "أداءً أفضل بنسبة 30% مقابل كل دولار" مقارنة بأحدث الأجهزة الموجودة في أسطول الشركة اليوم.
المنافسة المحتدمة في سوق الشرائح
يختلف استعراض مايكروسوفت لعضلاتها هذه المرة مقارنة بإطلاق Maia 100 في عام 2023، حيث تجنبت حينها المقارنات المباشرة. الآن، تضع الشركة نفسها نداً قوياً لقدرات أمازون وجوجل السحابية.
في المقابل، يعمل المنافسون أيضاً على تطوير الجيل التالي من شرائحهم؛ حيث تتعاون أمازون مع Nvidia لدمج شريحتها القادمة Trainium4 مع تقنية NVLink 6 وبنية MGX.
التوفر والإطلاق
سيكون فريق الذكاء الفائق (Superintelligence) في مايكروسوفت أول من يستخدم شرائح Maia 200. كما بدأت الشركة بدعوة الأكاديميين والمطورين ومختبرات الذكاء الاصطناعي لمعاينة مبكرة لحزمة تطوير البرمجيات الخاصة بالشريحة. وقد بدأ نشر هذه الشرائح اليوم في منطقة مراكز بيانات Azure بوسط الولايات المتحدة، مع خطط للتوسع في مناطق إضافية قريباً.
الأسئلة الشائعة
هي الجيل الثاني من شرائح الذكاء الاصطناعي الداخلية لمايكروسوفت، مبنية بتقنية 3 نانومتر وتضم أكثر من 100 مليار ترانزستور.
تقدم الشريحة 3 أضعاف أداء FP4 مقارنة بشريحة Amazon Trainium (الجيل 3)، وتتفوق في أداء FP8 على Google TPU (الجيل 7).
ستُستخدم الشريحة لاستضافة نماذج ضخمة مثل GPT-5.2 من OpenAI وخدمات Microsoft 365 Copilot.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!