بحث
أنثروبيك ترفض: لا أسلحة ذاتية التحكم للبنتاغون
الذكاء الاصطناعي #الذكاء_الاصطناعي_العسكري #أنثروبيك

أنثروبيك ترفض: لا أسلحة ذاتية التحكم للبنتاغون

تاريخ النشر: آخر تحديث: 4 مشاهدة 0 تعليق 2 دقائق قراءة
4 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

تتصدى أنثروبيك لمطالب البنتاغون بالسماح بوصول عسكري غير مقيد لتقنيات الذكاء الاصطناعي، بما في ذلك الأسلحة الفتاكة ذاتية التحكم. تواجه الشركة مهلة وشيكة من البنتاغون، والتي قد تؤدي إلى تصنيفها كـ "خطر في سلسلة التوريد" وخسارة مئات المليارات من الدولارات في العقود إذا لم تمتثل. هذه التطورات دفعت العاملين في قطاع التكنولوجيا عبر الصناعة إلى التساؤل عن مستقبل الذكاء الاصطناعي العسكري الذي يساعدون في بنائه.

ضغوط متزايدة ومطالب البنتاغون

قضى البنتاغون أسابيع في التفاوض مع أنثروبيك لإزالة القيود المفروضة على استخدام الذكاء الاصطناعي، والتي تشمل السماح للجيش الأمريكي باستخدام تقنيات أنثروبيك لاستهداف الأهداف القاتلة دون أي إشراف بشري. هذه المطالب أثارت جدلاً واسعاً حول أخلاقيات الذكاء الاصطناعي في الاستخدامات العسكرية.

تباين المواقف وقلق موظفي التكنولوجيا

على النقيض من موقف أنثروبيك، يُذكر أن شركتي OpenAI وxAI قد وافقتا بالفعل على شروط مماثلة، رغم أن OpenAI تحاول حالياً تبني نفس الخطوط الحمراء التي تضعها أنثروبيك في اتفاقياتها. هذه الحالة تركت موظفي بعض الشركات المتعاقدة مع الدفاع يشعرون بالخيانة.

في حديث مع The Verge، قال موظف في Amazon Web Services: "عندما انضممت إلى قطاع التكنولوجيا، اعتقدت أن التكنولوجيا تدور حول جعل حياة الناس أسهل، لكن يبدو الآن أنها تدور حول تسهيل مراقبة وترحيل وقتل الناس."

دعوات للرفض وتحديات أخلاقية

أعرب موظفون حاليون وسابقون من OpenAI وxAI وأمازون ومايكروسوفت وجوجل عن مشاعر مماثلة بشأن التغير في المشهد الأخلاقي لشركاتهم. وقعت مجموعات منظمة تمثل 700 ألف عامل في أمازون وجوجل ومايكروسوفت وغيرها رسالة تطالب الشركات برفض مطالب البنتاغون.

ومع ذلك، رأى العديد منهم فرصة ضئيلة لأن تتساءل شركاتهم عن الحكومة أو ترفض مطالبها، سواء كانت متورطة بشكل مباشر في هذا الصراع أم لا. علق مهندس برمجيات من مايكروسوفت قائلاً: "من وجهة نظرهم، يفضلون الاستمرار في جني الأموال وعدم الاضطرار للحديث عن ذلك."

أنثروبيك تصمد في وجه الضغوط

حتى الآن، صمدت أنثروبيك في موقفها الرافض لتلك المطالب، مما يجعلها نقطة محورية في النقاش الدائر حول الحدود الأخلاقية لتطبيق الذكاء الاصطناعي في المجالات العسكرية.

الأسئلة الشائعة

يطالب البنتاغون أنثروبيك بالسماح بوصول غير مقيد لتقنيات الذكاء الاصطناعي الخاصة بها، بما في ذلك استخدامها للمراقبة الجماعية وتطوير أسلحة ذاتية التحكم فتاكة دون إشراف بشري.

بينما رفضت أنثروبيك هذه المطالب وصمدت في موقفها، يُقال إن OpenAI وxAI قد وافقتا بالفعل على شروط مماثلة، رغم أن OpenAI تحاول الآن تبني خطوط حمراء مشابهة لتلك التي وضعتها أنثروبيك.

يشعر الموظفون بالخيانة لأنهم يعتقدون أن شركاتهم تعطي الأولوية للربح على الأخلاقيات، وأن مشاركتها في العقود العسكرية قد تؤدي إلى تسهيل المراقبة والترحيل والقتل باستخدام الذكاء الاصطناعي.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!