بحث
مخاوف من فقدان القدرة على فهم الذكاء الاصطناعي
أخرى #الذكاء_الاصطناعي #مراقبة_الذكاء_الاصطناعي

مخاوف من فقدان القدرة على فهم الذكاء الاصطناعي

تاريخ النشر: آخر تحديث: 15 مشاهدة 0 تعليق 7 دقائق قراءة
15 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

تتجاوز التقنية التطبيقات العملية المتعلقة بالكشف عن المخططات. فهي تساعد الباحثين على ملاحظة متى قد تكون تقييمات الذكاء الاصطناعي معيبة بسبب التذكر، أو الأخطاء في بنية الاختبار، أو معرفة النماذج بأنها تخضع للتقييم - وهي جميعها عوامل قد تؤثر على تقييم قدرات الذكاء الاصطناعي وسلامته.

عمالقة التقنية يتعاونون للحفاظ على نافذة الشفافية المتلاشية

يدعو البحث إلى اتخاذ إجراءات منسقة عبر صناعة الذكاء الاصطناعي للحفاظ على وتعزيز قدرات المراقبة. يوصي المؤلفون بأن يقوم مطورو الذكاء الاصطناعي بإنشاء تقييمات موحدة لقياس مدى شفافية نماذجهم، وأن يأخذوا هذه التقييمات في الاعتبار عند اتخاذ قرارات بشأن التدريب والنشر.

قد تحتاج الشركات إلى اختيار إصدارات سابقة من النماذج إذا أصبحت الإصدارات الأحدث أقل شفافية، أو إعادة النظر في التغييرات المعمارية التي تلغي قدرات المراقبة. يقترح الباحثون أن "ينظر المطورون في تدابير القابلية للمراقبة إلى جانب تقييمات القدرة والسلامة الأخرى عند اتخاذ قرار بتدريب أو نشر نموذج معين."

أكد بيكر على الروح التعاونية وراء هذه الجهود. كتب: "أنا ممتن للعمل عن كثب مع [باحثين آخرين] على هذه الورقة، وأنا متحمس للغاية لأن الباحثين من العديد من المؤسسات البارزة في مجال الذكاء الاصطناعي تعاونوا معنا وتوصلوا إلى توافق حول هذا الاتجاه المهم."