بحث
Anthropic تتحدى البنتاغون: لا لـ AI في الأسلحة الفتاكة والمراقبة
الذكاء الاصطناعي #Anthropic #البنتاغون

Anthropic تتحدى البنتاغون: لا لـ AI في الأسلحة الفتاكة والمراقبة

تاريخ النشر: 2 مشاهدة 0 تعليق 3 دقائق قراءة
2 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

رفضت شركة [[Anthropic]]، قبيل ساعات من الموعد النهائي، مطالب [[البنتاغون]] بالوصول غير المقيد إلى تقنياتها المتطورة في مجال [[الذكاء الاصطناعي]]، مؤكدةً بذلك موقفها الأخلاقي الصارم تجاه استخدام هذه التقنيات.

يأتي هذا الرفض بعد مفاوضات مكثفة وتبادل للبيانات العامة، حيث أصرت [[Anthropic]] على خطين أحمرين رئيسيين: عدم استخدام تقنياتها للمراقبة الجماعية للمواطنين الأمريكيين، وعدم استخدامها في الأسلحة المستقلة الفتاكة التي تملك صلاحية القتل دون أي إشراف بشري مباشر.

موقف صارم في وجه التهديدات

خلافاً لشركتي [[OpenAI]] و [[xAI]] اللتين ورد أنهما وافقتا على الشروط الجديدة التي وضعها وزير الدفاع بيت هيغسيث، تم استدعاء الرئيس التنفيذي لـ [[Anthropic]]، داريو أمودي، إلى البيت الأبيض لعقد اجتماع مع هيغسيث. وخلال هذا الاجتماع، أفادت التقارير بأن الوزير وجه إنذاراً نهائياً لأمودي بضرورة التراجع عن موقفه قبل نهاية يوم الجمعة أو مواجهة العواقب.

وفي بيان صدر في وقت متأخر من يوم الخميس، كتب أمودي: "أؤمن بشدة بالأهمية الوجودية لاستخدام الذكاء الاصطناعي للدفاع عن الولايات المتحدة والديمقراطيات الأخرى، ولهزيمة خصومنا الاستبداديين. ولذلك عملت Anthropic بشكل استباقي على نشر نماذجنا لدى وزارة الحرب والمجتمع الاستخباراتي."

وأضاف أمودي أن الشركة "لم تثر أبداً اعتراضات على عمليات عسكرية معينة أو حاولت الحد من استخدام تقنياتنا بطريقة عشوائية"، لكنه أشار إلى أنه في "مجموعة ضيقة من الحالات، نعتقد أن الذكاء الاصطناعي يمكن أن يقوض، بدلاً من أن يدعم، القيم الديمقراطية." وقد ذكر تحديداً المراقبة المحلية الجماعية والأسلحة ذاتية التشغيل بالكامل كأمثلة على هذه الحالات.

تمييز أخلاقي: الأسلحة ذاتية التشغيل

أوضح أمودي أن "الأسلحة ذاتية التشغيل الجزئية... حيوية للدفاع عن الديمقراطية"، وأن الأسلحة ذاتية التشغيل بالكامل قد "تثبت أهميتها الحاسمة للدفاع الوطني في المستقبل". ومع ذلك، أكد أن "أنظمة الذكاء الاصطناعي المتطورة اليوم ليست موثوقة بما يكفي لتشغيل أسلحة ذاتية التشغيل بالكامل". لم يستبعد أمودي إمكانية موافقة Anthropic على استخدام الأسلحة ذاتية التشغيل بالكامل في المستقبل، لكنه أكد أنها غير جاهزة الآن.

وفي رد فعل على موقف Anthropic، ذكرت التقارير أن [[البنتاغون]] طلب بالفعل من كبار مقاولي الدفاع تقييم اعتمادهم على نموذج "كلود" الخاص بـ [[Anthropic]]. يمكن تفسير ذلك كخطوة أولى لتصنيف الشركة على أنها "خطر على سلسلة التوريد" – وهو تهديد عام سبق أن أطلقه [[البنتاغون]] (وعادة ما يُخصص هذا التصنيف للتهديدات التي تمس الأمن القومي). كما أفادت التقارير أن [[البنتاغون]] كان يفكر في تفعيل قانون الإنتاج الدفاعي لإجبار [[Anthropic]] على الامتثال.

على الرغم من هذه التهديدات، ختم أمودي بيانه بالقول: "تهديدات [[البنتاغون]] لا تغير موقفنا: لا يمكننا بضمير مرتاح أن نوافق على طلبهم." وأكد أنه "في حال قررت الوزارة إلغاء التعاقد مع Anthropic، فسنعمل على تمكين انتقال سلس إلى مزود آخر، لتجنب أي تعطيل للتخطيط العسكري المستمر، العمليات، أو المهام الحيوية الأخرى. ستظل نماذجنا متاحة بالشروط الواسعة التي اقترحناها طالما كان ذلك مطلوباً."

الأسئلة الشائعة

السبب الرئيسي هو رفض Anthropic استخدام تقنيات الذكاء الاصطناعي الخاصة بها للمراقبة الجماعية للمواطنين الأمريكيين ولتطوير الأسلحة المستقلة الفتاكة.

وفقاً للتقارير، فقد وافقت شركتا OpenAI و xAI على الشروط الجديدة التي وضعها البنتاغون للوصول إلى تقنيات الذكاء الاصطناعي.

أكد الرئيس التنفيذي داريو أمودي إيمانه بأهمية استخدام الذكاء الاصطناعي للدفاع عن الولايات المتحدة، لكنه وضع خطوطاً حمراء أخلاقية لاستخدام هذه التقنيات في مجالات معينة.

واجهت Anthropic تهديدات بتصنيفها كـ 'خطر على سلسلة التوريد' وبتفعيل قانون الإنتاج الدفاعي لإجبارها على الامتثال لمطالب البنتاغون.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!