أخلاقيات الذكاء الاصطناعي: غوغل ديب مايند تكشف عن خلل في الاختبارات
كشفت غوغل ديب مايند عن قصور خطير في منهجيات اختبار أخلاقيات الذكاء الاصطناعي الحالية، مؤكدة أن النماذج تقيس "الأداء الأخلاقي" فقط، وليس "الكفاءة الأخلاقية" الحقيقية. يثير هذا التحدي تساؤلات جوهرية حول مدى فهم الذكاء الاصطناعي لمفاهيم الصواب والخطأ، خاصة مع تزايد الاعتماد عليه في مجالات حساسة.
في ورقة بحثية حديثة نُشرت في مجلة نيتشر، يجادل فريق غوغل ديب مايند بأن الطريقة الحالية لتقييم أخلاقيات الذكاء الاصطناعي معيبة. فبينما تُنتج نماذج الذكاء الاصطناعي إجابات تبدو صحيحة أخلاقياً، فإن هذا "الأداء الأخلاقي" لا يكشف ما إذا كان النموذج يفهم فعلاً سبب صحة أو خطأ تلك الإجابات. هذا التمييز حاسم، ففي حال عدم القدرة على التمييز بين الفهم الحقيقي والتقليد البارع، فإننا نضع ثقتنا في "صندوق أسود" قد تكون له عواقب وخيمة على المستخدمين.
خارطة طريق نحو الكفاءة الأخلاقية الحقيقية
لمعالجة هذا القصور، يقدم فريق ديب مايند خارطة طريق لقياس "الكفاءة الأخلاقية" للذكاء الاصطناعي. تُعرف الكفاءة الأخلاقية بأنها القدرة على إصدار الأحكام بناءً على اعتبارات أخلاقية فعلية، بدلاً من مجرد الأنماط الإحصائية المستخلصة من بيانات التدريب. وتُحدد الورقة البحثية ثلاثة عوائق رئيسية تحول دون تحقيق هذه الكفاءة:
- مشكلة التقليد: تعتمد النماذج اللغوية الكبيرة على التنبؤ بالكلمة التالية، وقد تُقدم نصيحة أخلاقية تبدو سليمة لأنها تعيد تدوير محتوى موجود في بيانات التدريب (كمنشور على ريديت)، وليس لأنها تفكر أخلاقياً.
- تعدد أبعاد الأخلاق: نادراً ما تتوقف الخيارات الحقيقية على عامل واحد. فالقرارات الأخلاقية تتطلب الموازنة بين عدة عوامل مثل الصدق واللطف، أو التكلفة والإنصاف. الاختبارات الحالية لا تتحقق مما إذا كان الذكاء الاصطناعي يدرك هذه التعقيدات.
- الاختلافات الثقافية: تختلف الأطر الأخلاقية والقواعد الثقافية بين المجتمعات والمهن. يجب أن يكون روبوت الدردشة القادر على الاستخدام العالمي قادراً على التعامل مع هذه الأطر المتنافسة، وهو أمر لم يتم قياسه بشكل فعال بعد.
تصميم اختبارات تكشف الفهم الحقيقي
لتحقيق الكفاءة الأخلاقية، يقترح باحثو ديب مايند الانتقال من طرح الأسئلة الأخلاقية المألوفة إلى تصميم اختبارات تنافسية تكشف التقليد وتُظهر الفهم الحقيقي. تتضمن الأفكار المقترحة:
- سيناريوهات جديدة وغير مألوفة: تصميم مواقف أخلاقية لم يتم تدريب الذكاء الاصطناعي عليها مسبقاً، للكشف عما إذا كان يستطيع تطبيق المبادئ الأخلاقية العامة.
- اختبار تغيير الأطر المرجعية: تقييم قدرة الذكاء الاصطناعي على التبديل بين أطر أخلاقية مختلفة (مثل الأخلاقيات الطبية الحيوية والقواعد العسكرية) وتقديم إجابات متسقة لكل منها، حتى مع التغييرات الطفيفة في صياغة السؤال.
يدرك الباحثون أن النماذج الحالية قد تكون هشة، حيث قد يؤدي تغيير بسيط في التصنيف إلى نتيجة مختلفة. ومع ذلك، يؤكدون أن هذا النوع من الاختبارات هو السبيل الوحيد لمعرفة ما إذا كانت هذه النماذج تستحق المسؤولية الحقيقية التي نُسندها إليها.
مستقبل الذكاء الاصطناعي الأخلاقي
تسعى ديب مايند لوضع معيار علمي جديد يُعطي الكفاءة الأخلاقية الأهمية نفسها التي تُعطى للمهارات الرياضية. يتطلب ذلك تمويل جهود عالمية لإجراء تقييمات تراعي الخصوصيات الثقافية، وتصميم اختبارات دقيقة تكشف التقليد. ورغم أن روبوتات المحادثة الحالية قد لا تنجح في هذه الاختبارات قريباً، فإن خارطة الطريق هذه تُقدم للمطورين اتجاهاً واضحاً نحو بناء أنظمة ذكاء اصطناعي أكثر وعياً أخلاقياً.
في الوقت الحالي، عندما يطلب المستخدمون نصيحة أخلاقية من الذكاء الاصطناعي، فإنهم في الواقع يحصلون على "تنبؤ إحصائي" وليس "فلسفة حقيقية". هذا الواقع قد يتغير في المستقبل، لكن ذلك مرهون ببدء قياس "الأشياء الصحيحة" في تقييم أخلاقيات الذكاء الاصطناعي.
الأسئلة الشائعة
المشكلة هي أن الاختبارات تقيس "الأداء الأخلاقي" (ما يبدو صحيحاً) ولا تقيس "الكفاءة الأخلاقية" (الفهم الحقيقي لأسباب الصواب والخطأ).
العوائق هي مشكلة التقليد، وتعدد أبعاد الأخلاق، والاختلافات الثقافية.
تقترح تصميم اختبارات تنافسية بسيناريوهات جديدة غير مألوفة في بيانات التدريب، واختبار قدرة الذكاء الاصطناعي على تغيير الأطر المرجعية الأخلاقية.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!