بحث
تكنولوجيا TreeQuest من Sakana AI لتحسين أداء الذكاء الاصطناعي
الذكاء الاصطناعي #TreeQuest #SakanaAI

تكنولوجيا TreeQuest من Sakana AI لتحسين أداء الذكاء الاصطناعي

تاريخ النشر: آخر تحديث: 18 مشاهدة 0 تعليق 6 دقائق قراءة
18 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

قدمت مختبرات الذكاء الاصطناعي اليابانية Sakana AI تقنية جديدة تتيح لعدة نماذج لغوية كبيرة (LLMs) التعاون في مهمة واحدة، مما يخلق فعليًا "فريق أحلام" من وكلاء الذكاء الاصطناعي. تُسمى هذه الطريقة Multi-LLM AB-MCTS، وتمكن النماذج من إجراء تجارب وخطأ ودمج نقاط قوتها الفريدة لحل مشاكل معقدة لا يمكن لأي نموذج فردي التعامل معها.

توفر هذه الطريقة وسيلة للشركات لتطوير أنظمة ذكاء اصطناعي أكثر قوة وكفاءة. بدلاً من الاعتماد على مزود أو نموذج واحد، يمكن للأعمال الاستفادة بشكل ديناميكي من أفضل جوانب نماذج الحدود المختلفة، مخصصة الذكاء الاصطناعي المناسب لكل جزء من المهمة لتحقيق نتائج متفوقة.

قوة الذكاء الجماعي

تتطور نماذج الذكاء الاصطناعي الحدود بسرعة. ومع ذلك، فإن كل نموذج لديه نقاط قوته وضعفه المميزة المستمدة من بيانات تدريبه وبنيته الفريدة. قد يتفوق أحد النماذج في البرمجة، بينما يتفوق آخر في الكتابة الإبداعية. يجادل الباحثون في Sakana AI بأن هذه الاختلافات ليست عيبًا، بل ميزة.

يقول الباحثون في مدونتهم: "نرى هذه التحيزات والقدرات المتنوعة ليست كقيود، بل كموارد ثمينة لإنشاء ذكاء جماعي". يعتقدون أنه تمامًا كما تأتي أعظم إنجازات البشرية من فرق متنوعة، يمكن أيضًا أن تحقق أنظمة الذكاء الاصطناعي المزيد من خلال العمل معًا. "من خلال تجميع ذكائهم، يمكن لأنظمة الذكاء الاصطناعي حل مشاكل لا يمكن لأي نموذج فردي التعامل معها."

التفكير لفترة أطول في وقت الاستدلال

تُعتبر خوارزمية Sakana AI الجديدة تقنية "توسيع وقت الاستدلال" (المعروفة أيضًا باسم "توسيع وقت الاختبار"), وهي مجال بحث أصبح شائعًا جدًا في العام الماضي. بينما كان معظم التركيز في الذكاء الاصطناعي على "توسيع وقت التدريب" (جعل النماذج أكبر وتدريبها على مجموعات بيانات أكبر)، فإن توسيع وقت الاستدلال يحسن الأداء من خلال تخصيص المزيد من الموارد الحاسوبية بعد تدريب النموذج.

تتضمن إحدى الطرق الشائعة استخدام التعلم المعزز لتحفيز النماذج على توليد تسلسلات أطول وأكثر تفصيلًا من التفكير (CoT)، كما هو الحال في النماذج الشهيرة مثل OpenAI o3 وDeepSeek-R1. طريقة أخرى أبسط هي أخذ عينات متكررة، حيث يُعطى النموذج نفس الموجه عدة مرات لتوليد مجموعة متنوعة من الحلول المحتملة، مشابهة لجلسة العصف الذهني. يجمع عمل Sakana AI بين هذه الأفكار ويطورها.

قال Takuya Akiba، عالم أبحاث في Sakana AI ومؤلف مشارك في الورقة، لـ VentureBeat: "إطار عملنا يقدم نسخة أكثر ذكاءً واستراتيجية من Best-of-N (المعروفة أيضًا باسم أخذ العينات المتكررة)". "إنه يكمل تقنيات التفكير مثل CoT الطويلة من خلال التعلم المعزز. من خلال اختيار استراتيجية البحث المناسبة والنموذج اللغوي المناسب، تعظم هذه الطريقة الأداء ضمن عدد محدود من استدعاءات LLM، مما يوفر نتائج أفضل في المهام المعقدة."

كيف يعمل البحث التكيفي المتفرع

جوهر الطريقة الجديدة هو خوارزمية تُسمى البحث الشجري مونت كارلو المتفرع التكيفي (AB-MCTS). تمكن هذه الخوارزمية LLM من إجراء تجارب وخطأ بشكل فعال من خلال موازنة استراتيجيتين بحثيتين مختلفتين: "البحث بعمق" و"البحث على نطاق واسع". يتضمن البحث بعمق أخذ إجابة واعدة وتنقيحها بشكل متكرر، بينما يعني البحث على نطاق واسع توليد حلول جديدة تمامًا من الصفر. يجمع AB-MCTS بين هاتين الطريقتين، مما يسمح للنظام بتحسين فكرة جيدة ولكنه أيضًا يمكنه التغيير وتجربة شيء جديد إذا واجه طريقًا مسدودًا أو اكتشف اتجاهًا واعدًا آخر.

لتحقيق ذلك، يستخدم النظام البحث الشجري مونت كارلو (MCTS)، وهو خوارزمية اتخاذ قرارات مشهورة استخدمها DeepMind في AlphaGo. في كل خطوة، يستخدم AB-MCTS نماذج احتمالية لتحديد ما إذا كان من الأكثر استراتيجية تحسين حل موجود أو توليد حل جديد.

استراتيجيات مختلفة لتوسيع وقت الاختبار المصدر: Sakana AI

تقدم الباحثون خطوة إضافية مع Multi-LLM AB-MCTS، الذي لا يحدد فقط "ماذا" يفعل (تحسين مقابل توليد)، بل أيضًا "أي" LLM يجب أن يقوم بذلك. في بداية المهمة، لا يعرف النظام أي نموذج هو الأنسب للمشكلة. يبدأ بمحاولة مزيج متوازن من LLMs المتاحة، ومع تقدم العملية، يتعلم أي النماذج أكثر فعالية، مخصصًا المزيد من عبء العمل لها مع مرور الوقت.

اختبار "فريق أحلام" الذكاء الاصطناعي

اختبر الباحثون نظامهم Multi-LLM AB-MCTS على معيار ARC-AGI-2. تم تصميم ARC (مجموعة التجريد والتفكير) لاختبار قدرة شبيهة بالبشر على حل مشاكل جديدة في التفكير البصري، مما يجعلها صعبة للغاية بالنسبة للذكاء الاصطناعي.

استخدم الفريق مزيجًا من النماذج الحدودية، بما في ذلك o4-mini وGemini 2.5 Pro وDeepSeek-R1.

تمكن تجمع النماذج من العثور على حلول صحيحة لأكثر من 30% من 120 مشكلة اختبار، وهو معدل يتفوق بشكل ملحوظ على أي من النماذج التي تعمل بمفردها. أظهر النظام القدرة على تخصيص النموذج الأفضل لمشكلة معينة. في المهام التي كانت هناك مسار واضح نحو الحل، حددت الخوارزمية بسرعة أفضل LLM واستخدمته بشكل متكرر.

AB-MCTS مقابل النماذج الفردية المصدر: Sakana AI

بشكل أكثر إثارة للإعجاب، لاحظ الفريق حالات حيث تمكنت النماذج من حل مشاكل كانت مستحيلة سابقًا على أي واحد منها. في إحدى الحالات، كانت الحلول التي أنشأها نموذج o4-mini غير صحيحة. ومع ذلك، قام النظام بتمرير هذه المحاولة المعيبة إلى DeepSeek-R1 وGemini-2.5 Pro، اللذان كانا قادرين على تحليل الخطأ وتصحيحه، وفي النهاية إنتاج الإجابة الصحيحة.

"هذا يوضح أن Multi-LLM AB-MCTS يمكنه دمج النماذج الحدودية بشكل مرن لحل مشاكل كانت غير قابلة للحل سابقًا، مما يدفع حدود ما يمكن تحقيقه من خلال استخدام LLMs كذكاء جماعي"، يكتب الباحثون.

يمكن لـ AB-MTCS اختيار نماذج مختلفة في مراحل مختلفة من حل المشكلة المصدر: Sakana AI

قال Akiba: "بالإضافة إلى المزايا والعيوب الفردية لكل نموذج، يمكن أن تختلف الميل إلى الهلوسة بشكل كبير بينها". "من خلال إنشاء مجموعة مع نموذج أقل احتمالًا للهلاوس، قد يكون من الممكن تحقيق أفضل ما في العالمين: قدرات منطقية قوية وموثوقية قوية. نظرًا لأن الهلوسة هي قضية رئيسية في سياق الأعمال، فإن هذه الطريقة قد تكون قيمة في تقليلها."

من البحث إلى التطبيقات الواقعية

لمساعدة المطورين والشركات في تطبيق هذه التقنية، أصدرت شركة Sakana AI الخوارزمية الأساسية كإطار عمل مفتوح المصدر يُعرف باسم TreeQuest، متاح بموجب ترخيص Apache 2.0 (قابل للاستخدام لأغراض تجارية). يوفر TreeQuest واجهة برمجة تطبيقات مرنة، مما يتيح للمستخدمين تنفيذ Multi-LLM AB-MCTS لمهامهم الخاصة مع تخصيص التقييم والمنطق.

قال أكيبا: "بينما نحن في المراحل الأولى من تطبيق AB-MCTS على مشاكل تجارية محددة، تكشف أبحاثنا عن إمكانيات كبيرة في عدة مجالات".

بعيدًا عن معيار ARC-AGI-2، تمكن الفريق من تطبيق AB-MCTS بنجاح على مهام مثل البرمجة الخوارزمية المعقدة وتحسين دقة نماذج التعلم الآلي.

أضاف أكيبا: "يمكن أن يكون AB-MCTS فعالًا للغاية أيضًا لمشاكل تتطلب التجريب المتكرر، مثل تحسين مقاييس الأداء للبرمجيات الحالية". "على سبيل المثال، يمكن استخدامه للعثور تلقائيًا على طرق لتحسين زمن استجابة خدمة الويب."

يمكن أن يمهد إصدار أداة عملية ومفتوحة المصدر الطريق لفئة جديدة من تطبيقات الذكاء الاصطناعي المؤسسية الأكثر قوة وموثوقية.

في الختام، تقدم تقنية TreeQuest من Sakana AI حلاً مبتكرًا يجمع بين قوة نماذج متعددة لتحقيق أداء يفوق النماذج الفردية. من خلال العمل الجماعي والتعاون بين الفرق المتعددة النماذج، يمكن للمستخدمين الاستفادة من تحسينات كبيرة في الكفاءة والدقة.

إن هذا النهج لا يقتصر فقط على تحسين الأداء، بل يفتح أيضًا آفاقًا جديدة للتطبيقات المختلفة في مجالات متعددة. سواء كانت في معالجة اللغة الطبيعية أو في مجالات أخرى، فإن TreeQuest توفر أدوات قوية تدعم الابتكار والتطور.

لذا، إذا كنت تبحث عن تحسين أداء نماذج الذكاء الاصطناعي الخاصة بك، فإن TreeQuest قد تكون الخيار المثالي لك. استعد لاستكشاف إمكانيات جديدة وتحقيق نتائج مذهلة من خلال هذه التقنية المتطورة.

[IMAGE:N] [VIDEO:N]

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!