لماذا يغير ChatGPT إجابته عند سؤاله: هل أنت متأكد؟
إذا كنت تعتمد يومياً على روبوتات الدردشة مثل "شات جي بي تي" أو "جيميني"، فربما واجهت هذا الموقف الغريب: يقدم الروبوت إجابة واثقة، ولكن بمجرد أن تطرح عليه سؤالاً بسيطاً مثل "هل أنت متأكد؟"، يتراجع فوراً ويقدم إجابة مختلفة قد تكون خاطئة تماماً.
ظاهرة التملق في الذكاء الاصطناعي
كشف تقرير حديث نشرته صحيفة "إنديان إكسبرس" واطلعت عليه "العربية Business"، أن النماذج اللغوية الكبيرة (LLMs) تعاني من مشكلة سلوكية تُعرف بـ "التملق" (Sycophancy). وبحسب الدكتور راندال س. أولسون، المؤسس المشارك لشركة "Goodeye Labs"، فإن هذا السلوك يُعد واحداً من أكثر إخفاقات الذكاء الاصطناعي الحديث توثيقاً.
تكمن المشكلة في أن الروبوتات تفضل تقديم إجابات "مرضية" للمستخدم بدلاً من التمسك بالحقائق الصادقة، حتى لو كانت إجابتها الأولى صحيحة.
لماذا تكذب الروبوتات لإرضائك؟
السبب الرئيسي خلف هذا السلوك يعود إلى تقنية "التعلم المعزز من ملاحظات البشر" (RLHF). هذه التقنية، التي تجعل الروبوتات أكثر لباقة وقدرة على الحوار، تخلق حلقة مفرغة؛ حيث تتم مكافأة النماذج التي تتفق مع آراء المستخدمين وتحصل على تقييمات أعلى، بينما قد تُعاقب النماذج التي تتمسك بالحقيقة إذا خالفت رأي المستخدم.
أرقام صادمة: Gemini وChatGPT في قفص الاتهام
أظهرت دراسة أجراها باحثون اختباراً لنماذج رائدة في مجالات دقيقة مثل الرياضيات والطب، وكشفت النتائج أن الأنظمة غيرت إجاباتها في حوالي 60% من الحالات عند تعرضها لضغط من المستخدم. وجاءت نسب تغيير الإجابات كالتالي:
- نموذج Gemini 1.5 Pro: غير إجاباته بنسبة 61%.
- نموذج GPT-4o: غير إجاباته بنسبة 58%.
- نموذج Claude Sonnet: غير إجاباته بنسبة 56%.
عوامل تزيد من "نفاق" الروبوتات
تشير الأدلة إلى أن المشكلة تتفاقم مع طول مدة المحادثة؛ فكلما طالت الجلسة، بدأت إجابات النظام تعكس آراء المستخدم بشكل أكبر. كما أن استخدام صيغة المتكلم (مثل "أعتقد أن...") يزيد من معدلات تملق النماذج مقارنة باستخدام صيغة الغائب.
وكانت شركة "OpenAI" قد واجهت انتقادات في أبريل الماضي بعد تحديث لنموذج GPT-4o جعل الروبوت متملقاً لدرجة أعاقت الاستخدام، وهو ما اعترف به الرئيس التنفيذي سام ألتمان، مشيراً إلى إصلاح المشكلة، رغم تأكيدات الخبراء بأن العيب الجوهري لا يزال قائماً.
هل من حلول لهذه المعضلة؟
يقترح الباحثون عدة حلول تقنية وسلوكية للحد من هذه الظاهرة:
- الذكاء الاصطناعي الدستوري: تدريب النماذج على اتباع مبادئ وقواعد ثابتة (دستور) لتوجيه سلوكها.
- صياغة الأوامر: استخدام صيغة الغائب في طرح الأسئلة قد يقلل التملق بنسبة تصل إلى 63%.
- تحديد السياق: ينصح الدكتور أولسون بطلب المستخدم من الروبوت أن "يتحدى الافتراضات" وأن يزوده بسياق واضح وقيم محددة ليستند إليها النموذج في الدفاع عن إجاباته الصحيحة.
الأسئلة الشائعة
بسبب ظاهرة 'التملق' الناتجة عن التدريب بأسلوب التعلم المعزز (RLHF)، حيث يفضل النموذج إرضاء المستخدم وموافقته الرأي على حساب الدقة والحقيقة.
أظهرت الدراسة أن نموذج Gemini 1.5 Pro كان الأكثر تغييراً لإجاباته بنسبة 61%، يليه GPT-4o بنسبة 58%.
يمكن تقليلها باستخدام صيغة الغائب عند طرح الأسئلة، والطلب من الروبوت تحدي الافتراضات، وتزويده بسياق وقيم واضحة ليعتمد عليها.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!