بحث
أخلاقيات الذكاء الاصطناعي: أنثروبيك ترفض مطالب البنتاغون
الذكاء الاصطناعي #أخلاقيات_الذكاء_الاصطناعي #أنثروبيك

أخلاقيات الذكاء الاصطناعي: أنثروبيك ترفض مطالب البنتاغون

تاريخ النشر: آخر تحديث: 6 مشاهدة 0 تعليق 3 دقائق قراءة
6 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

في تطور لافت، رفضت شركة [[أنثروبيك]]، المطورة لنموذج [[كلود]] للذكاء الاصطناعي، مطالب [[البنتاغون]] بمنح وصول غير مقيد لتقنياتها. يأتي هذا الرفض بناءً على مبادئ أخلاقية صارمة تتبناها الشركة بشأن استخدام الذكاء الاصطناعي في الأغراض العسكرية، مما أثار جدلاً واسعاً حول مستقبل أخلاقيات هذه التقنية. وتتواصل التوترات بين أنثروبيك ووزارة الدفاع الأمريكية، بينما أكد سام ألتمان، الرئيس التنفيذي لـ [[OpenAI]]، على تبنيه هو الآخر لمبادئ مماثلة.

مبادئ أخلاقية راسخة: خطوط حمراء للذكاء الاصطناعي

قدمت وزارة الدفاع الأمريكية لشركة أنثروبيك إنذاراً: إما السماح للجيش بالوصول غير المقيد إلى نموذج الذكاء الاصطناعي الخاص بها، حتى لو كانت الاستخدامات المحتملة تنتهك ضمانات الشركة، أو مواجهة عقوبات كبيرة. رفضت أنثروبيك ذلك، حيث صرح الرئيس التنفيذي [[داريو أمودي]] بأن الشركة "لا يمكنها بضمير حي أن توافق" على طلبات وزارة الدفاع. وتتمثل الخطوط الحمراء للشركة في عدم استخدام الذكاء الاصطناعي للمراقبة الجماعية أو الأسلحة الفتاكة ذاتية التشغيل، مع التأكيد على ضرورة بقاء العنصر البشري في القرارات عالية المخاطر.

موقف [[OpenAI]] و[[سام ألتمان]]: دعم للمبادئ

وفي مذكرة تم تعميمها على موظفي OpenAI مساء الخميس — والتي سُرّبت للصحافة لإبراز موقف سام ألتمان — أبلغ المؤسس والرئيس التنفيذي [[سام ألتمان]] شركته: "لقد آمنا منذ فترة طويلة بأن الذكاء الاصطناعي يجب ألا يُستخدم للمراقبة الجماعية أو الأسلحة الفتاكة ذاتية التشغيل، وأن العنصر البشري يجب أن يظل جزءاً من القرارات الآلية عالية المخاطر. هذه هي خطوطنا الحمراء الرئيسية." هذه المبادئ هي ذاتها التي تتبناها أنثروبيك، والتي كانت محور الخلاف مع البنتاغون.

لم يكن ألتمان الأول في تبني هذه المبادئ، فقد سبقه أكثر من 100 موظف في [[جوجل]]، الذين وقعوا وأرسلوا رسالة إلى الإدارة يطالبون فيها الشركة بتبني نفس الخطوط الحمراء التي وضعتها أنثروبيك إذا كانت ستستمر في التعامل مع البنتاغون.

تصعيد الضغوط وتهديدات [[البنتاغون]]

كشفت تقارير، بما في ذلك ما نشرته [[واشنطن بوست]]، عن تفاصيل الضغط الذي مارسه البنتاغون على أنثروبيك. تضمن ذلك طرح سيناريوهات افتراضية، مثل إمكانية استخدام كلود لإسقاط صاروخ باليستي عابر للقارات موجه نحو الولايات المتحدة. وعلى الرغم من أن أنثروبيك نفت ذلك، إلا أن دراسة حديثة وجدت أن برامج الدردشة الآلية، بما في ذلك كلود، تطلق أسلحة نووية في 95% من ألعاب الحرب.

لم تتراجع الشركة، حتى بعد تهديدات البنتاغون بإلغاء عقود أنثروبيك الحكومية، أو إعلان أنثروبيك "خطراً على سلسلة التوريد"، أو حتى تفعيل قانون الإنتاج الدفاعي لإجبار الشركة على بناء نموذج لأغراض الجيش. ومع ذلك، يبدو أن هذه التهديدات كانت أقرب إلى الترهيب، خاصة بعد أن أفادت [[بلومبرغ]] بأن البنتاغون لا يزال منفتحاً على التفاوض. كما أن للشركة نفوذاً كبيراً، نظراً لأن شركة [[بالانتير]]، المفضلة لدى وزارة الدفاع، تعتمد على نموذج أنثروبيك لتشغيل بنيتها التحتية السحابية.

من التهديد إلى الإهانات: رد فعل [[البنتاغون]]

مع فشل أساليب الضغط الكبرى في إجبار أنثروبيك على التراجع، لجأت وزارة الدفاع إلى نهج جديد: الإهانات الشخصية. فقد أمضى وكيل وزارة الدفاع إميل مايكل معظم يوم الخميس في مهاجمة أنثروبيك عبر تويتر، واصفاً داريو أمودي بـ "الكاذب" الذي يعاني من "عقدة الإله"، ومدعياً أن الرئيس التنفيذي لأنثروبيك يريد "التحكم شخصياً بالجيش الأمريكي". وزعم أيضاً أن دستور أنثروبيك لـ كلود، وهو وثيقة تحدد كيفية تصرف الروبوت، كان محاولة من الشركة لتجاوز الدستور الأمريكي بقواعدها الخاصة، وهو ما لا يمت للواقع بصلة.

صراع الرأي العام ومستقبل [[الذكاء الاصطناعي]] العسكري

من الصعب تصور أن وزارة الدفاع الأمريكية ستكسب هذا الصراع في محكمة الرأي العام، خاصة وأن موقف أنثروبيك يتمثل في "دعونا نتفق على عدم التجسس على الناس أو السماح للذكاء الاصطناعي بإبادة البشر"، بينما كان رد البنتاغون "لا". يبدو أن الوكالة حريصة على خوض هذا الصراع علناً، لأي سبب كان، مما يثير تساؤلات حول مستقبل أخلاقيات الذكاء الاصطناعي في الاستخدامات العسكرية.

الأسئلة الشائعة

رفضت أنثروبيك منح البنتاغون وصولاً غير مقيد لنموذجها للذكاء الاصطناعي "كلود"، مستندة إلى مبادئها الأخلاقية ضد استخدام الذكاء الاصطناعي في المراقبة الجماعية أو الأسلحة الفتاكة ذاتية التشغيل.

تتمثل الخطوط الحمراء لأنثروبيك في عدم استخدام الذكاء الاصطناعي للمراقبة الجماعية أو الأسلحة الفتاكة ذاتية التشغيل، مع التأكيد على ضرورة بقاء العنصر البشري في القرارات الحساسة.

أعلن سام ألتمان، الرئيس التنفيذي لـ OpenAI، عن تبني شركته لنفس المبادئ الأخلاقية التي تتبناها أنثروبيك، مؤكداً على خطوطهم الحمراء ضد استخدام الذكاء الاصطناعي في المراقبة والأسلحة المستقلة.

هدد البنتاغون بإلغاء العقود الحكومية مع أنثروبيك ووصفها بـ "خطر على سلسلة التوريد"، ولجأ مسؤولون فيه إلى الإهانات العلنية ضد الرئيس التنفيذي لأنثروبيك.

نعم، تمتلك أنثروبيك نفوذاً، حيث تعتمد شركة بالانتير، المفضلة لدى وزارة الدفاع، على بنية تحتية سحابية تعمل بنموذج أنثروبيك.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!