OpenAI تتحدى إنفيديا: شريحة جديدة تسرع البرمجة 15 ضعفاً
في خطوة جريئة تشير إلى تحول استراتيجي في البنية التحتية للذكاء الاصطناعي، أطلقت شركة OpenAI رسمياً نموذج GPT-5.3-Codex-Spark، وهو نموذج برمجي مخفف مصمم لتقديم استجابات شبه فورية. ولأول مرة، تعتمد الشركة في عملية الاستنتاج (Inference) بشكل رئيسي على أجهزة من شركة Cerebras Systems بدلاً من شريكها التقليدي إنفيديا.
سرعة فائقة بشريحة "طبق العشاء"
يتميز النموذج الجديد بسرعة توليد للأكواد تصل إلى 15 ضعفاً مقارنة بسابقه، بفضل تشغيله على معالج Wafer Scale Engine 3 من شركة Cerebras. هذه الشريحة العملاقة، التي تضاهي حجم "طبق العشاء" وتحتوي على 4 تريليون ترانزستور، تعالج مشكلات الاختناق التي تواجهها مجمعات معالجات الرسوميات التقليدية (GPUs) عند توزيع أحمال العمل.
ورغم تكتم OpenAI عن ذكر مقاييس دقيقة لزمن الانتقال (Latency)، أكد متحدث باسم الشركة أن النموذج "محسن ليشعر المطور بأنه فوري". ومع ذلك، تأتي هذه السرعة مع مقايضات؛ حيث أظهرت الاختبارات أن أداء Codex-Spark أقل من نموذج GPT-5.3-Codex الكامل في المهام البرمجية المعقدة، لكنه مثالي للحفاظ على التدفق الإبداعي للمطورين.
التوتر مع إنفيديا والبحث عن بدائل
تأتي هذه الشراكة في وقت حساس يشهد توتراً في العلاقة بين OpenAI وNvidia. فبعد الحديث عن صفقة بقيمة 100 مليار دولار لدعم البنية التحتية، تشير التقارير إلى تعثر الاتفاق. وتسعى OpenAI لتنويع موردي الرقائق، بما في ذلك صفقات مع AMD وBroadcom، لتقليل الاعتماد الكلي على مورد واحد.
ورغم ذلك، تحاول OpenAI الحفاظ على التوازن، حيث صرح متحدث باسمها أن وحدات معالجة الرسوميات (GPUs) من إنفيديا لا تزال "أساسية" للتدريب والاستخدامات واسعة النطاق، بينما تأتي شرائح Cerebras لتكمل هذا الأساس في المهام التي تتطلب سرعة استجابة فائقة.
تحديات داخلية وجدل الإعلانات
يتزامن الإطلاق مع اضطرابات داخلية في OpenAI، شملت حل فريق "مواءمة المهمة" (Mission Alignment) وإعادة تعيين أعضائه، بالإضافة إلى استقالة الباحثة Zoë Hitzig احتجاجاً على خطط إدخال الإعلانات في ChatGPT. كما تواجه الشركة انتقادات بسبب عقد جديد مع البنتاغون يسمح باستخدام تقنياتها في "جميع الاستخدامات القانونية" دون قيود إضافية.
يتوفر النموذج حالياً كمعاينة بحثية لمشتركي ChatGPT Pro وعبر تطبيق Codex، مع خطط لتوسيع الوصول تدريجياً. وتهدف OpenAI من خلال Codex-Spark إلى بناء مستقبل يمزج بين التحرير السريع والمهام المستقلة المعقدة في آن واحد.
الأسئلة الشائعة
هو نموذج ذكاء اصطناعي مخصص للبرمجة من OpenAI، يتميز بسرعة استجابة عالية جداً بفضل تشغيله على شرائح Cerebras.
يوفر النموذج سرعة توليد للأكواد تصل إلى 15 ضعفاً مقارنة بالنماذج السابقة، مما يجعله شبه فوري الاستجابة.
لا، أكدت OpenAI أن شرائح إنفيديا لا تزال أساسية لعمليات التدريب، بينما تُستخدم شرائح Cerebras للمهام التي تتطلب سرعة استجابة فائقة (Inference).
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!