دراسة لجوجل: نماذج DeepSeek تعمل بذكاء جماعي (تفاصيل)
يبدو أن نماذج الذكاء الاصطناعي الأكثر ذكاءً لا تقوم مجرد بالحساب، بل تستضيف "نقاشاً داخلياً حاداً" قبل الإجابة. كشفت دراسة جديدة مثيرة للاهتمام شارك في تأليفها باحثون من جوجل عن تحول جذري في كيفية فهمنا للذكاء الاصطناعي، مشيرة إلى أن نماذج الاستدلال المتقدمة - وتحديداً DeepSeek-R1 ونموذج QwQ-32B من علي بابا - تتصرف بشكل مفاجئ يشبه مجموعة من البشر يحاولون حل لغز معاً.
مجتمعات التفكير: نقاش داخلي قبل الإجابة
تشير الورقة البحثية المنشورة على arXiv بعنوان "نماذج الاستدلال تولد مجتمعات فكرية" (Reasoning Models Generate Societies of Thought)، إلى أن هذه النماذج لا تكتفي بمعالجة الأرقام في خط منطقي مستقيم. بدلاً من ذلك، فهي تحاكي ضمنياً تفاعلاً "متعدد الوكلاء".
تخيل غرفة اجتماعات مليئة بالخبراء يطرحون الأفكار، ويتحدون افتراضات بعضهم البعض، وينظرون إلى المشكلة من زوايا مختلفة قبل الاتفاق أخيراً على الإجابة الأفضل. هذا هو جوهر ما يحدث داخل الكود البرمجي لهذه النماذج. وجد الباحثون أن هذه الأنظمة تظهر "تنوعاً في وجهات النظر"، مما يعني أنها تولد وجهات نظر متضاربة وتعمل على حلها داخلياً.
نهاية عصر "الآلة الحاسبة العملاقة"
لسنوات طويلة، كان الافتراض السائد في وادي السيليكون هو أن جعل الذكاء الاصطناعي أكثر ذكاءً يعتمد ببساطة على جعله أضخم، من خلال تغذيته بمزيد من البيانات وتوفير قوة حوسبة أكبر. لكن هذا البحث يقلب هذه المعادلة تماماً، مقترحاً أن هيكلية عملية التفكير تهم بقدر أهمية الحجم.
تعتبر هذه النماذج فعالة لأنها تنظم عملياتها الداخلية للسماح بـ "تحولات في المنظور". الأمر يشبه وجود "محامي شيطان" مدمج يجبر الذكاء الاصطناعي على مراجعة عمله، وطرح أسئلة توضيحية، واستكشاف البدائل قبل إخراج الرد النهائي للمستخدم.
ماذا يعني هذا للمستخدمين؟
بالنسبة للمستخدمين العاديين، يعد هذا التحول هائلاً. لقد اختبرنا جميعاً ذكاءً اصطناعياً يقدم إجابات واثقة ولكنها خاطئة تماماً. النموذج الذي يعمل كـ "مجتمع" أقل عرضة لارتكاب تلك الأخطاء لأنه قام بالفعل باختبار منطقه الخاص. هذا يعني أن الجيل القادم من الأدوات لن يكون أسرع فحسب؛ بل سيكون أكثر دقة، وأفضل في التعامل مع الأسئلة الغامضة.
في النهاية، ينقلنا هذا من فكرة الذكاء الاصطناعي كآلة حاسبة ممجدة نحو مستقبل يتم فيه تصميم الأنظمة بتنوع داخلي منظم. إذا صدقت نتائج جوجل، فإن مستقبل الذكاء الاصطناعي لا يتعلق فقط ببناء عقل أكبر، بل ببناء فريق متعاون وأفضل داخل الآلة.
الأسئلة الشائعة
كشفت الدراسة أن نماذج مثل DeepSeek-R1 تحاكي تفاعلات داخلية متعددة الوكلاء، مما يشبه فريقاً بشرياً يناقش المشكلات قبل حلها.
هو أسلوب يسمح للنموذج بتوليد وجهات نظر متضاربة ومناقشتها داخلياً (مثل محامي الشيطان) للوصول إلى إجابة أكثر دقة.
بدلاً من المعالجة الخطية المباشرة للبيانات، تقوم هذه النماذج بمحاكاة نقاش داخلي واختبار المنطق من عدة زوايا لتقليل الأخطاء.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!