روبوتات جوجل وأوبن إيه آي تحقق الميدالية الذهبية في الأولمبياد الرياضي الدولي
تمكنت نماذج الذكاء الاصطناعي التي طورتها فرق DeepMind من جوجل وOpenAI من تحقيق إنجاز جديد بإضافة ميدالية ذهبية إلى قائمة إنجازاتها، حيث تفوقت على بعض طلاب المدارس الثانوية في الرياضيات. وقد أعلنت الشركتان عن تحقيقهما للميدالية الذهبية في أولمبياد الرياضيات الدولي (IMO) لهذا العام، وهو أحد أصعب المنافسات للطلاب الذين يسعون لإثبات قدراتهم الرياضية.
تدعو الأولمبياد أفضل الطلاب من جميع أنحاء العالم للمشاركة في امتحان يتطلب منهم حل عدد من المسائل الرياضية المعقدة متعددة الخطوات. يتعين على الطلاب إجراء امتحانين مدة كل منهما أربع ساعات ونصف على مدار يومين، حيث يُطلب منهم حل ستة أسئلة إجمالية مع تخصيص نقاط مختلفة لأجزاء مختلفة من المسائل. وقد تمكنت نماذج DeepMind وOpenAI من حل خمسة من الأسئلة الستة بشكل مثالي، محققة 35 نقطة من أصل 42 نقطة ممكنة، وهو ما كان كافياً للحصول على الميدالية الذهبية. وقد حصل 67 مشاركاً من أصل 630 على نفس الشرف.
هناك نقطة صغيرة لا تتعلق بالنتائج، بل بسلوك الشركات. تم دعوة DeepMind للمشاركة في الأولمبياد وأعلنت عن ميداليتها الذهبية يوم الاثنين في منشور مدونة، بعد إصدار النتائج الرسمية للمشاركين الطلاب. وفقًا لـ Implicator.ai، لم تشارك OpenAI فعلياً في الأولمبياد. بدلاً من ذلك، تناولت المسائل، التي تُنشر للجمهور حتى يتمكن الآخرون من محاولة حلها، وحاولت حلها بمفردها. أعلنت OpenAI عن أدائها بمستوى ذهبي، وهو ما لا يمكن التحقق منه من قبل الأولمبياد لأنها لم تشارك. كما أعلنت الشركة عن نتيجتها في عطلة نهاية الأسبوع بدلاً من الانتظار حتى يوم الاثنين (عندما تُنشر النتائج الرسمية) ضد رغبات الأولمبياد، التي طلبت من الشركات عدم سرقة الأضواء من الطلاب.
النماذج المستخدمة لحل هذه المسائل شاركت في الامتحان بنفس الطريقة التي شارك بها الطلاب. تم منحها 4.5 ساعات لكل امتحان ولم يُسمح لها باستخدام أي أدوات خارجية أو الوصول إلى الإنترنت. ومن الجدير بالذكر أنه يبدو أن كلا الشركتين استخدمتا الذكاء الاصطناعي العام بدلاً من النماذج المتخصصة، التي كانت تؤدي بشكل أفضل سابقًا من النماذج الشاملة.
حقيقة جديرة بالملاحظة حول ادعاءات هذه الشركات حول المركز الأول: لا توجد أي من النماذج التي حققت الذهب (أو، كما تعلم، ذهب ذاتي الإدارة) متاحة للجمهور. في الواقع، قامت النماذج العامة بأداء سيء للغاية في هذه المهمة. قام الباحثون بتجربة الأسئلة عبر Gemini 2.5 Pro وGrok-4 وOpenAI o4، ولم يتمكن أي منها من تحقيق أكثر من 13 نقطة، وهو ما يقل عن 19 نقطة اللازمة للحصول على الميدالية البرونزية.
لا يزال هناك الكثير من الشكوك حول النتائج، وواقع أن النماذج المتاحة للجمهور أدت بشكل سيء يشير إلى وجود فجوة بين الأدوات التي نملكها وما يمكن أن تفعله نماذج أكثر دقة، مما يثير تساؤلات حول سبب عدم إمكانية توسيع تلك النماذج الأكثر ذكاءً أو جعلها متاحة على نطاق واسع. ولكن هناك نقطتان مهمتان هنا: نماذج المختبرات تتحسن في حل المشكلات، وOpenAI يديرها مجموعة من الأشخاص الذين لم يستطيعوا الانتظار لسرقة المجد من بعض المراهقين.
الخلاصة
تمثل هذه النتائج خطوة مهمة في مجال الذكاء الاصطناعي، حيث تظهر كيف يمكن للنماذج المتطورة أن تتفوق على البشر في مجالات معينة، بينما تظل هناك تساؤلات حول إمكانية الوصول إلى هذه التكنولوجيا المتقدمة.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!