بحث
تحذير: البنتاغون يطلب AI عسكرياً من Anthropic و OpenAI
الذكاء الاصطناعي #الذكاء_الاصطناعي_العسكري #أخلاقيات_الذكاء_الاصطناعي

تحذير: البنتاغون يطلب AI عسكرياً من Anthropic و OpenAI

تاريخ النشر: آخر تحديث: 3 مشاهدة 0 تعليق 3 دقائق قراءة
3 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

يواجه قطاع التكنولوجيا اليوم تحدياً أخلاقياً كبيراً مع اقتراب الموعد النهائي الذي حدده البنتاغون لشركة Anthropic، مطالباً إياها بمنح الجيش الأمريكي وصولاً غير مقيد لتقنياتها المتقدمة، بما في ذلك استخدامها في الأسلحة الفتاكة المستقلة تماماً وأنظمة المراقبة الجماعية.

ضغوط البنتاغون: أسلحة ذاتية ومراقبة جماعية

تتصاعد الضغوط من وزارة الدفاع الأمريكية (البنتاغون) على شركات الذكاء الاصطناعي الرائدة. فقد فرض البنتاغون إنذاراً نهائياً على شركة Anthropic، مهدداً بتصنيفها كـ "مخاطر في سلسلة التوريد" إذا لم توافق على منح الجيش الأمريكي إمكانية الوصول غير المحدود إلى تقنياتها. هذا الوصول يشمل تطبيقات حساسة للغاية، مثل استخدام الذكاء الاصطناعي في الأسلحة القاتلة ذاتية التحكم التي تعمل دون إشراف بشري مباشر، بالإضافة إلى أنظمة المراقبة الجماعية.

قد يكلف هذا التصنيف الشركات مئات المليارات من الدولارات في العقود المحتملة، مما يضع الشركات أمام مفترق طرق بين المبادئ الأخلاقية والمصالح التجارية الضخمة.

موقف الشركات: مقاومة Anthropic وموافقة OpenAI و xAI

بينما تقف Anthropic بثبات في وجه هذه المطالب، وترفض إزالة القيود التي تمنع الجيش الأمريكي من استخدام الذكاء الاصطناعي الخاص بها لاستهداف الأفراد دون رقابة بشرية، تشير التقارير إلى أن شركتي OpenAI وxAI قد وافقتا بالفعل على شروط مماثلة. ومع ذلك، يُقال إن OpenAI تحاول الآن اعتماد "خطوط حمراء" مماثلة لتلك التي تلتزم بها Anthropic في اتفاقياتها.

هذا الوضع أثار شعوراً بالخيانة لدى الموظفين في بعض الشركات التي لديها عقود دفاعية. فقد صرح أحد موظفي Amazon Web Services لموقع The Verge: "عندما انضممت إلى صناعة التكنولوجيا، اعتقدت أن التكنولوجيا تهدف إلى تسهيل حياة الناس، لكن يبدو الآن أنها تهدف إلى تسهيل مراقبة الناس وترحيلهم وقتلهم."

صوت الموظفين: رفض المطالب العسكرية

تعكس هذه المخاوف شعوراً واسع النطاق بين العاملين في قطاع التكنولوجيا. فقد عبر موظفون حاليون وسابقون من OpenAI وxAI وAmazon وMicrosoft وGoogle عن مشاعر مماثلة بشأن التغير في المشهد الأخلاقي لشركاتهم. قامت مجموعات منظمة تمثل حوالي 700 ألف عامل في شركات مثل Amazon وGoogle وMicrosoft بتوقيع رسالة تطالب فيها الشركات برفض مطالب البنتاغون.

ومع ذلك، يرى العديد من هؤلاء الموظفين أن فرص شركاتهم في التشكيك بالحكومة أو رفض مطالبها ضئيلة، سواء كانوا متورطين بشكل مباشر في هذا الصراع أم لا. علق مهندس برمجيات من Microsoft قائلاً: "من منظورهم، يفضلون الاستمرار في جني الأموال وعدم الاضطرار للحديث عن الأمر."

المستقبل الغامض: أخلاقيات الذكاء الاصطناعي على المحك

في خضم هذه التحديات، تبرز Anthropic كمثال على المقاومة الأخلاقية. فبينما تتسارع وتيرة دمج الذكاء الاصطناعي في التطبيقات العسكرية، تظل الأسئلة حول الحدود الأخلاقية والمسؤولية الإنسانية في استخدام هذه التقنيات معلقة. إن الضغط الحالي يكشف عن توتر متزايد بين الابتكار التقني، المصالح العسكرية، والقيم الأخلاقية التي يجب أن تحكم تطور الذكاء الاصطناعي.

إن تحديد هذه الحدود سيشكل مستقبل الذكاء الاصطناعي ومكانته في المجتمع، ويحدد ما إذا كانت هذه التقنيات ستخدم البشرية أم ستصبح أداة لزيادة الصراعات والتهديدات.

الأسئلة الشائعة

يطالب البنتاغون شركات الذكاء الاصطناعي بمنح الجيش الأمريكي وصولاً غير مقيد لتقنياتها، لاستخدامها في الأسلحة الفتاكة المستقلة تماماً وأنظمة المراقبة الجماعية.

قامت Anthropic بمقاومة هذه المطالب، رافضة إزالة القيود التي تمنع استخدام الذكاء الاصطناعي الخاص بها لاستهداف الأفراد دون إشراف بشري.

يشعر العديد من موظفي التكنولوجيا بالقلق والخيانة، وقد وقعت مجموعات منظمة تمثل مئات الآلاف منهم رسائل تطالب الشركات برفض مطالب البنتاغون العسكرية.

إلى جانب Anthropic، تشير التقارير إلى أن OpenAI وxAI قد وافقتا على شروط مماثلة، بينما عبر موظفون من Amazon وMicrosoft وGoogle عن مخاوفهم.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!