تقنية تكرار المطالبات تعزز دقة نماذج اللغة الكبيرة بنسبة 76%
في عالم تحسين نماذج اللغة الكبيرة (LLMs)، قضى المهندسون السنوات الأخيرة في تطوير طقوس غامضة للحصول على إجابات أفضل. ولكن ورقة جديدة صدرت عن Google Research تشير إلى أننا قد كنا نبالغ في التفكير. الباحثون وجدوا أن تكرار الاستعلام—ببساطة نسخ ولصق الطلب ليظهر مرتين—يحسن الأداء باستمرار عبر نماذج رئيسية مثل Gemini وGPT-4o وClaude.
فهم السبب وراء تكرار الاستعلام
لفهم لماذا يجعل تكرار السؤال الكمبيوتر الفائق أكثر ذكاءً، يجب أن ننظر إلى القيود المعمارية لنموذج Transformer القياسي. معظم نماذج LLM الحديثة تدرب كنماذج لغوية "سببية"، مما يعني أنها تعالج النص من اليسار إلى اليمين فقط. هذا يخلق قيدًا أساسيًا في كيفية فهم النماذج لاستفسارات المستخدمين.
نتائج التجارب
اختبر الباحثون هذا الافتراض عبر مجموعة من سبعة معايير شائعة، ووجدوا أن تكرار الاستعلام يفوز في 47 من 70 اختبارًا ضد القاعدة، مع عدم وجود أي خسائر. هذا يوضح كيف أن تكرار الطلب يمكن أن يحسن الدقة بشكل كبير.
التحسينات في الأداء
تظهر الأبحاث أن تكرار الطلب هو "غداء مجاني" من حيث التأخير. عادةً، إضافة نص إلى الطلب تزيد من التكاليف والوقت، لكن تكرار الطلب لا يزيد من زمن الانتظار.
لماذا هذا مهم
تسلط هذه الأبحاث الضوء على رؤية حاسمة للمطورين الذين يبنون على نماذج LLM: نماذجنا الحالية لا تزال مقيدة بشدة بطبيعتها الأحادية الاتجاه. بينما ننتظر هياكل جديدة قد تحل مشكلة العمى السببي، فإن الحيل البسيطة مثل تكرار الطلب تقدم قيمة فورية.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!