بحث
دراسة جوجل تكشف عن ثقة نماذج اللغة الكبيرة تحت الضغط
جوجل #نماذج_اللغة_الكبيرة #الذكاء_الاصطناعي

دراسة جوجل تكشف عن ثقة نماذج اللغة الكبيرة تحت الضغط

تاريخ النشر: آخر تحديث: 13 مشاهدة 0 تعليق 2 دقائق قراءة
13 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

أظهرت دراسة جديدة أجراها باحثون من Google DeepMind وجامعة لندن أن نماذج اللغة الكبيرة (LLMs) تتشكل وتحافظ على ثقتها في إجاباتها، ولكن يمكن أن تفقدها بسرعة تحت الضغط. تكشف النتائج عن تشابهات مذهلة بين التحيزات المعرفية لدى LLMs والبشر، بينما تسلط الضوء أيضًا على اختلافات واضحة.

Image credit: VentureBeat with ChatGPT
Image credit: VentureBeat with ChatGPT

اختبار الثقة في نماذج اللغة الكبيرة

تعتبر الثقة عنصرًا حاسمًا في نشر LLMs، حيث يجب أن تكون إجاباتها مصحوبة بإحساس موثوق بالثقة. بينما نعلم أن LLMs يمكنها إنتاج هذه الدرجات، فإن مدى استخدامها لها لتوجيه سلوكها التكيفي لا يزال غير موصوف بشكل جيد.

لتقييم ذلك، طور الباحثون تجربة مضبوطة لاختبار كيفية تحديث LLMs لثقتها وتحديد ما إذا كانت ستغير إجاباتها عند تقديم نصيحة خارجية. في التجربة، تم إعطاء LLM سؤالًا ثنائي الاختيار، وبعد اتخاذ اختياره الأولي، تم تقديم نصيحة من LLM خيالي.

التحيزات في الثقة

أظهرت الدراسة أن LLMs يمكن أن تكون مفرطة الثقة في إجاباتها، لكنها أيضًا حساسة جدًا للنقد. عندما كانت الإجابة الأولية مرئية، كانت LLM أقل ميلًا لتغيير إجاباتها مقارنةً عندما كانت مخفية. هذا يشير إلى تحيز معرفي معين.

عندما واجهت LLM نصيحة معارضة، أظهرت ميلًا أكبر لتغيير رأيها، مما يدل على أنها تدمج النصائح الخارجية بشكل مناسب.

تداعيات التطبيقات المؤسسية

تؤكد هذه الدراسة أن أنظمة الذكاء الاصطناعي ليست وكالات منطقية بحتة كما يُعتقد غالبًا. يجب على المطورين فهم هذه الديناميكيات لتطوير تطبيقات أكثر موثوقية.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!