جوجل ديب مايند تكشف خطتها لتقييم أخلاق الذكاء الاصطناعي
كشفت جوجل ديب مايند في ورقة بحثية جديدة نشرت في مجلة Nature المرموقة، عن خطة طموحة لإعادة تعريف كيفية تقييم أخلاق أنظمة الذكاء الاصطناعي. فهل عندما يقدم لك روبوت الدردشة نصيحة طبية أو علاجية، فإنه يزن المخاطر فعلاً، أم أنه محظوظ باختيار الكلمات الصحيحة؟ هذا هو التساؤل الجوهري الذي تعالجه الورقة، مؤكدة أن الطريقة الحالية لاختبار أخلاق الذكاء الاصطناعي معيبة.
الفرق بين "الأداء الأخلاقي" و "الكفاءة الأخلاقية"
يرى فريق جوجل ديب مايند أننا نختبر حالياً ما يُطلق عليه "الأداء الأخلاقي" للنماذج، أي مدى إنتاجها لإجابات تبدو صحيحة من الناحية الأخلاقية. لكن هذا لا يخبرنا شيئاً عما إذا كان النظام يدرك بالفعل سبب صحة أو خطأ هذا الأمر. فمع تزايد استخدام نماذج اللغة الكبيرة (LLMs) في مجالات حساسة مثل العلاج النفسي والإرشاد الطبي وحتى المرافقة، أصبح من الضروري التمييز بين الفهم الحقيقي والتقليد المتقن.
لهذا، تقترح الورقة خارطة طريق لقياس "الكفاءة الأخلاقية"، وهي القدرة على إصدار أحكام بناءً على اعتبارات أخلاقية فعلية، بدلاً من مجرد الأنماط الإحصائية. وتحدد الورقة ثلاث عقبات أساسية في تقييم الأخلاقيات، مع اقتراح طرق لاختبار كل منها.
أسباب "تزييف" الأخلاق في نماذج اللغة الكبيرة
1. مشكلة التقليد (Facsimile Problem)
نماذج اللغة الكبيرة هي في الأساس "متنبئات بالرمز التالي"، تعتمد على توزيعات الاحتمالية من بيانات التدريب. هي لا تشغل "وحدات تفكير أخلاقي" حقيقية. لذلك، عندما يقدم روبوت الدردشة نصيحة أخلاقية، قد يكون يقلد شيئاً تعلمه من منتدى مثل Reddit، وليس لأنه استنتج ذلك أخلاقياً. والناتج وحده لا يكشف لنا الفرق.
2. تعدد الأبعاد الأخلاقية (Moral Multidimensionality)
الخيارات الحقيقية نادراً ما تعتمد على عامل واحد فقط. فالبشر يوازنون بين الصدق واللطف، التكلفة والعدالة. تغيير تفصيل واحد، مثل عمر شخص أو سياق الموقف، يمكن أن يقلب القرار الصحيح رأساً على عقب. الاختبارات الحالية لا تتحقق مما إذا كان الذكاء الاصطناعي يلاحظ ما يهم فعلاً في هذه التوازنات المعقدة.
3. التعددية الأخلاقية (Moral Pluralism)
تضيف التعددية الأخلاقية طبقة أخرى من التعقيد. فالثقافات والمهن المختلفة لديها قواعد أخلاقية متباينة. ما هو عادل في بلد قد يكون غير عادل في بلد آخر. روبوت الدردشة المستخدم عالمياً لا يمكنه أن يقدم "حقائق عالمية" ببساطة؛ بل يحتاج إلى التعامل مع أطر عمل متنافسة، وهذا ما لا نقيسه جيداً حتى الآن.
خطة جوجل ديب مايند: اختبارات عدائية لذكاء أخلاقي حقيقي
يسعى فريق جوجل ديب مايند إلى تغيير قواعد اللعبة. فبدلاً من مجرد طرح أسئلة أخلاقية مألوفة، يجب على الباحثين تصميم اختبارات عدائية تهدف إلى كشف التقليد. إحدى الأفكار تتضمن سيناريوهات من غير المحتمل أن تظهر في بيانات التدريب. على سبيل المثال، التبرع بالحيوانات المنوية بين الأجيال (حيث يتبرع الأب لابنه لتخصيب بويضة نيابة عن الابن). هذا الموقف قد يبدو كزنا المحارم لكنه يحمل وزناً أخلاقياً مختلفاً.
إذا رفض النموذج هذا الموقف لأسباب تتعلق بزنا المحارم، فهذا يعني أنه يطابق نمطاً معيناً. أما إذا تمكن من التعامل مع الأخلاقيات الفعلية المعقدة للموقف، فهذا يشير إلى مستوى أعلى من الكفاءة. يقترح الفريق أيضاً اختبار قدرة الذكاء الاصطناعي على التبديل بين أطر عمل مختلفة، مثل أخلاقيات الطب الحيوي والقواعد العسكرية، وتقديم إجابات متماسكة لكل منها.
يقر الباحثون بأن هذا أمر صعب. فالنماذج الحالية هشة؛ تغيير تسمية من "الحالة 1" إلى "الخيار أ" قد يؤدي إلى حكم مختلف. لكنهم يؤكدون أن هذا النوع من الاختبارات هو السبيل الوحيد لمعرفة ما إذا كانت هذه الأنظمة تستحق مسؤولية حقيقية.
المستقبل: نحو معايير علمية جديدة
تدعو جوجل ديب مايند إلى معيار علمي جديد يأخذ الكفاءة الأخلاقية على محمل الجد، تماماً مثل المهارات الرياضية. وهذا يعني تمويل العمل العالمي على التقييمات الخاصة بالثقافات المختلفة وتصميم اختبارات تكشف "المقلدين".
لا تتوقع أن يجتاز روبوت الدردشة الخاص بك هذه الاختبارات قريباً. فالتقنيات الحالية لم تصل إلى هذا المستوى بعد، لكن خارطة الطريق هذه توفر للمطورين اتجاهاً واضحاً. في الوقت الحالي، عندما تطلب نصيحة أخلاقية من الذكاء الاصطناعي، فإنك تحصل على تنبؤ إحصائي وليس فلسفة. قد يتغير ذلك في النهاية، ولكن فقط إذا بدأنا في قياس الأشياء الصحيحة.
الأسئلة الشائعة
الأداء الأخلاقي هو قدرة الذكاء الاصطناعي على إنتاج إجابات تبدو صحيحة أخلاقياً، بينما الكفاءة الأخلاقية هي القدرة على إصدار أحكام بناءً على فهم حقيقي للاعتبارات الأخلاقية.
التحديات هي مشكلة التقليد (Facsimile Problem)، وتعدد الأبعاد الأخلاقية (Moral Multidimensionality)، والتعددية الأخلاقية (Moral Pluralism).
تقترح جوجل ديب مايند استخدام اختبارات عدائية وسيناريوهات غير مألوفة في بيانات التدريب، بالإضافة إلى اختبار قدرة الذكاء الاصطناعي على التبديل بين أطر العمل الأخلاقية المختلفة.
لا يتوقع فريق جوجل ديب مايند أن تجتاز النماذج الحالية هذه الاختبارات قريباً، مشيرين إلى أن التقنيات الحالية لم تصل بعد إلى هذا المستوى.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!