Anthropic ترفض البنتاغون: قيود Claude خط أحمر أخلاقي
تُظهر شركة Anthropic موقفًا ثابتًا برفضها مطالب البنتاغون بإزالة القيود الأخلاقية من نموذجها للذكاء الاصطناعي Claude. جاء هذا الرفض بعد طلب البنتاغون إزالة هذه القيود التي تمنع المراقبة الجماعية المحلية والأسلحة ذاتية التشغيل بالكامل.
أكد الرئيس التنفيذي لشركة Anthropic، داريو أمودي، في بيان حديث، أن الشركة "لا تستطيع بضمير حي الموافقة على هذا الطلب"، مشيراً إلى مخاوف أخلاقية وقيم ديمقراطية. هذا الموقف يأتي في ظل عقد بقيمة 200 مليون دولار بين Anthropic ووزارة الدفاع الأمريكية، مما يضع الشركة في مواجهة مباشرة مع جهة حكومية قوية.
تهديدات البنتاغون وموقف Anthropic الثابت
في وقت سابق من هذا الأسبوع، حدد وزير الدفاع، بيت هيغسيث، موعدًا نهائيًا لشركة Anthropic للموافقة على إزالة جميع الضمانات من Claude. هدد هيغسيث بإزالة Claude من الأنظمة العسكرية الأمريكية أو تصنيف الشركة على أنها "خطر على سلسلة التوريد"، وهو وصف يستخدم عادة لخصوم الولايات المتحدة ولم يطبق قط على شركة أمريكية من قبل.
كما لوح هيغسيث، الذي يشير إلى وزارة الدفاع بـ "وزارة الحرب"، بإمكانية تفعيل قانون الإنتاج الدفاعي، والذي سيمكن البنتاغون نظريًا من فرض ما يريده على Anthropic. إلا أن أمودي أشار إلى التناقض في رسائل هيغسيث، قائلاً: "هذه التهديدات الأخيرة متناقضة بطبيعتها: أحدهما يصنفنا على أننا خطر أمني؛ والآخر يصنف كلود على أنه ضروري للأمن القومي."
أفادت Anthropic لشبكة CBS News أن "العرض الأخير والأفضل" للبنتاغون، والذي أرسل الأربعاء، بدا وكأنه يحتوي على ثغرات من شأنها أن تسمح للجيش بتجاهل الحماية الموضوعة. وذكرت الشركة أن "اللغة الجديدة التي صيغت على أنها حل وسط، كانت مصحوبة بلغة قانونية تسمح بتجاهل هذه الضمانات حسب الرغبة"، مؤكدة أن هذه الضمانات الضيقة كانت محور المفاوضات لعدة أشهر.
الخطوط الحمراء الأخلاقية لـ Anthropic
في رسالتها الأخيرة، أوضحت Anthropic أنها تتعاون مع المجتمعات العسكرية والاستخباراتية، وأنها "مستعدة لمواصلة العمل لدعم الأمن القومي للولايات المتحدة". ومع ذلك، شددت على أن إسقاط جميع الضمانات هو أمر يتجاوز الخطوط الحمراء.
"تدرك Anthropic أن وزارة الحرب، وليس الشركات الخاصة، هي من تتخذ القرارات العسكرية. لم نعترض أبدًا على عمليات عسكرية معينة ولا حاولنا الحد من استخدام تقنيتنا بطريقة مخصصة."
"ومع ذلك، في مجموعة محدودة من الحالات، نعتقد أن الذكاء الاصطناعي يمكن أن يقوض، بدلاً من أن يدافع عن، القيم الديمقراطية. بعض الاستخدامات هي ببساطة خارج نطاق ما يمكن للتكنولوجيا الحالية القيام به بأمان وموثوقية."
حددت الشركة مجالين رئيسيين حيث تعتقد أن الضمانات ضرورية لحماية المصالح الأمريكية:
- المراقبة الجماعية المحلية: أشارت Anthropic إلى أن الحكومة يمكنها شراء "سجلات مفصلة لتحركات الأمريكيين وتصفحهم للإنترنت وارتباطاتهم من مصادر عامة دون الحصول على أمر قضائي"، وهو ما ينتهك حقوق الأمريكيين.
- الأسلحة ذاتية التشغيل بالكامل: أقرت الشركة بأن الأسلحة المدعومة بالذكاء الاصطناعي تستخدم بالفعل في مناطق النزاع مثل أوكرانيا، لكنها حذرت من أن "أنظمة الذكاء الاصطناعي الرائدة ببساطة ليست موثوقة بما يكفي لتشغيل أسلحة ذاتية التشغيل بالكامل." وقد عرضت Anthropic العمل مع وزارة الحرب لتحسين موثوقية هذه الأنظمة، لكن عرضها لم يقبل.
ماذا بعد؟ مستقبل العلاقة بين Anthropic والبنتاغون
على الرغم من وصف اجتماع داريو أمودي مع بيت هيغسيث بأنه "ودي" من قبل شبكة CNN، إلا أن التوترات لا تزال قائمة. تشير التكهنات إلى أن هيغسيث قد يحاول تصنيف Anthropic كتهديد للأمن القومي وفي نفس الوقت كجزء حيوي من آلة الحرب الأمريكية، مما يدفعه لفرض إرادته على الشركة.
من المتوقع أن تتضح الصورة بشكل أكبر بحلول نهاية يوم الجمعة، حيث يترقب الجميع تطورات هذا الخلاف الذي يضع أخلاقيات الذكاء الاصطناعي في مواجهة المصالح العسكرية.
الأسئلة الشائعة
ترفض Anthropic إزالة قيود أخلاقية من نموذجها Claude، والتي تمنع استخدامه في المراقبة الجماعية المحلية والأسلحة ذاتية التشغيل بالكامل، رغم مطالب البنتاغون.
هدد وزير الدفاع بيتر هيغسيث بتصنيف Anthropic كـ "خطر على سلسلة التوريد" أو إزالتها من الأنظمة العسكرية الأمريكية، وقد يلجأ إلى قانون الإنتاج الدفاعي.
ترى Anthropic أن بعض الاستخدامات للذكاء الاصطناعي يمكن أن تقوض القيم الديمقراطية، وأن أنظمة الذكاء الاصطناعي الحالية غير موثوقة بما يكفي لتشغيل أسلحة ذاتية التشغيل بالكامل.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!