Anthropic تتحدى البنتاغون: خطوط حمراء لأخلاقيات الذكاء الاصطناعي
تخوض شركة Anthropic، الرائدة في مجال الذكاء الاصطناعي، مفاوضات متوترة وحاسمة مع البنتاغون الأمريكي، رافضةً السماح باستخدام نماذجها المتطورة لأغراض المراقبة الجماعية أو الأسلحة الفتاكة ذاتية التشغيل بالكامل. هذا الرفض يأتي في وجه ضغوط وتهديدات بتصنيفها كـ "خطر على سلسلة التوريد"، وهو تصنيف عادة ما يطلق على تهديدات الأمن القومي.
البنتاغون يضغط: مطالب "الاستخدام القانوني"
يسعى البنتاغون إلى فرض شروط تعاقدية جديدة على شركات الذكاء الاصطناعي، تتطلب منها تخفيف القيود على نماذجها للسماح بـ "أي استخدام قانوني". هذا يشمل، وفقاً للتقارير، المراقبة الجماعية للمواطنين الأمريكيين وتطوير أسلحة فتاكة ذاتية التشغيل بالكامل، أي أنظمة قادرة على تحديد الأهداف وقتلها دون أي تدخل بشري في عملية اتخاذ القرار.
وقد قاد كبير مسؤولي التكنولوجيا في البنتاغون، إميل مايكل، حملة الضغط هذه، مهدداً بتصنيف Anthropic كـ "خطر على سلسلة التوريد" إذا لم تمتثل. هذا التصنيف، الذي يُمنح عادة للتهديدات الأمنية الخطيرة مثل التأثير الأجنبي الخبيث أو حروب الفضاء الإلكتروني، يضع الشركة في موقف حرج.
خطوط Anthropic الحمراء: رفض قاطع للمراقبة والأسلحة ذاتية التشغيل
على الرغم من التهديدات المتزايدة، يظل داريو أمودي، الرئيس التنفيذي لشركة Anthropic، ثابتاً على موقف شركته الأخلاقي. أكد أمودي أن "التهديدات لا تغير موقفنا: لا يمكننا بضمير مرتاح الموافقة على طلبهم". تتضمن الخطوط الحمراء لـ Anthropic عدم استخدام تقنياتها للمراقبة الجماعية للأمريكيين وعدم تطوير أسلحة ذاتية التشغيل قاتلة (أسلحة لها صلاحية قتل الأهداف دون أي إشراف بشري).
هذا الموقف الصارم قاد إلى اجتماع بين أمودي ووزير الدفاع الأمريكي بيت هيغسيث في البيت الأبيض، حيث يُزعم أن هيغسيث أصدر إنذاراً نهائياً لـ Anthropic للموافقة على الشروط قبل نهاية يوم عمل الجمعة أو مواجهة العواقب.
موقف المنافسين: OpenAI وxAI ومحاولات التكيف
في المقابل، أفادت التقارير أن شركتي OpenAI و xAI، المنافسين الرئيسيين لـ Anthropic، وافقتا بالفعل على شروط البنتاغون الجديدة. ومع ذلك، هناك مؤشرات تفيد بأن OpenAI تحاول لاحقاً تبني نفس "الخطوط الحمراء" التي تصر عليها Anthropic في اتفاقياتها. أثار هذا الوضع قلقاً واسعاً بين موظفي شركات التكنولوجيا الذين يتعاملون مع عقود دفاعية، حيث عبر أحدهم عن شعوره بالخيانة قائلاً: "عندما انضممت إلى صناعة التكنولوجيا، اعتقدت أنها تتعلق بتسهيل حياة الناس، ولكن يبدو الآن أن الأمر كله يتعلق بتسهيل المراقبة والترحيل والقتل."
تداعيات المواجهة: "خطر على سلسلة التوريد"
إذا تم تصنيف Anthropic كـ "خطر على سلسلة التوريد"، فإنها قد تخسر عقوداً تقدر بمئات المليارات من الدولارات. هذه التداعيات المالية الضخمة تسلط الضوء على حجم الضغط الذي يمارسه البنتاغون على شركات الذكاء الاصطناعي لدمج تقنياتها في القدرات العسكرية دون قيود أخلاقية تحددها الشركات المطورة.
المواجهة، التي استمرت لأسابيع وشملت بيانات عامة ومنشورات على وسائل التواصل الاجتماعي وتسريبات من مسؤولين مجهولين في البنتاغون، تجعل مستقبل شركة Anthropic التي تقدر قيمتها بـ 380 مليار دولار مرهوناً بثلاث كلمات: "أي استخدام قانوني".
الجدل يتصاعد: أخلاقيات الذكاء الاصطناعي العسكري
تُبرز هذه المواجهة الشرسة الجدل المتنامي حول أخلاقيات استخدام الذكاء الاصطناعي في الأغراض العسكرية. فبينما يسعى البنتاغون لدمج أحدث التقنيات لتعزيز قدراته الدفاعية، تصر بعض الشركات على وضع حدود أخلاقية لمنع إساءة استخدام هذه التقنيات في مجالات حساسة مثل المراقبة أو الأسلحة الفتاكة ذاتية التشغيل. هذه القضية لا تخص شركات التكنولوجيا والجيوش فحسب، بل تمتد لتشمل المجتمع العالمي بأسره وتساؤلاته حول مستقبل الذكاء الاصطناعي والتحكم البشري فيه.
الأسئلة الشائعة
ترفض Anthropic تخفيف قيود نماذجها للذكاء الاصطناعي للسماح للبنتاغون باستخدامها في المراقبة الجماعية للأمريكيين أو الأسلحة الفتاكة ذاتية التشغيل بالكامل.
تلتزم Anthropic بعدم استخدام نماذجها للمراقبة الجماعية للأمريكيين وعدم تطوير أسلحة ذاتية التشغيل قاتلة دون إشراف بشري كامل.
يهدد البنتاغون بتصنيف Anthropic كـ "خطر على سلسلة التوريد"، مما قد يؤدي إلى خسارة مئات المليارات من الدولارات في العقود المحتملة.
أفادت التقارير أن شركتي OpenAI وxAI وافقتا بالفعل على الشروط الجديدة، رغم محاولة OpenAI لاحقاً تبني نفس الخطوط الحمراء التي تتبعها Anthropic.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!