بحث
Anthropic تتحدى البنتاغون: رفض قاطع لأسلحة AI القاتلة
الذكاء الاصطناعي #Anthropic #الذكاء_الاصطناعي

Anthropic تتحدى البنتاغون: رفض قاطع لأسلحة AI القاتلة

تاريخ النشر: 3 مشاهدة 0 تعليق 3 دقائق قراءة
3 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

في تطور لافت، رفضت شركة Anthropic، إحدى الشركات الرائدة في مجال الذكاء الاصطناعي، بشكل قاطع شروطاً صارمة فرضها البنتاغون الأمريكي. جاء هذا الرفض قبل أقل من 24 ساعة من الموعد النهائي لإنذار وجهته وزارة الدفاع الأمريكية (البنتاغون) للشركة، مطالباً إياها بالسماح بوصول غير مقيد لتقنياتها، بما في ذلك استخدامها في أنظمة المراقبة الجماعية والأسلحة الفتاكة ذاتية التحكم بالكامل. يبرز هذا الموقف الأخلاقي الثابت لـ Anthropic خلافاً جوهرياً حول مستقبل استخدام الذكاء الاصطناعي في التطبيقات العسكرية، كما يظهر في الصورة المرفقة التي تعبر عن رفض الأسلحة الروبوتية القاتلة.

تفاصيل الخلاف الجوهري

تتمحور مطالب البنتاغون حول حصوله على إمكانية غير محدودة للوصول إلى تقنيات الذكاء الاصطناعي الخاصة بـ Anthropic. وتشمل هذه المطالب استخدام التقنيات لأغراض المراقبة الجماعية وتطوير أسلحة ذاتية التشغيل بالكامل وقادرة على الفتك دون تدخل بشري مباشر. وقد واجهت Anthropic إنذاراً صريحاً من البنتاغون: إما الموافقة على هذه الشروط، أو المخاطرة بتصنيفها كـ "خطر على سلسلة التوريد"، مما قد يكلفها مئات المليارات من الدولارات في العقود المحتملة.

من جانبه، أكد داريو أمودي، الرئيس التنفيذي لشركة Anthropic، التزام شركته بمبادئ أخلاقية صارمة، رافضاً المساومة على قضايا مثل الأسلحة الفتاكة ذاتية التحكم والمراقبة الجماعية. وقد اتخذت Anthropic هذا الموقف الحازم رغم التداعيات المالية الكبيرة المحتملة، كما يتضح من الصورة التي تصف رفض Anthropic لشروط البنتاغون الجديدة، وتأكيدها على موقفها الثابت بشأن الأسلحة الفتاكة ذاتية التحكم والمراقبة الجماعية.

تداعيات الرفض وموقف المنافسين

يضع قرار Anthropic الشركة في موقف حرج، حيث قد تواجه عواقب وخيمة تشمل خسارة عقود حكومية ضخمة. يأتي هذا في الوقت الذي أفادت فيه التقارير بأن شركتي الذكاء الاصطناعي المنافستين، OpenAI وxAI، قد وافقتا على شروط البنتاغون، مما يبرز التباين في النهج الأخلاقي بين عمالقة التكنولوجيا تجاه الاستخدامات العسكرية لتقنياتهم.

صراع أخلاقي على مستقبل الذكاء الاصطناعي

لم يكن هذا الخلاف وليد اللحظة، بل هو تتويج لمعركة استمرت لأسابيع بين Anthropic ووزارة الدفاع. تخللت هذه المعركة منشورات على وسائل التواصل الاجتماعي، وتصريحات علنية شديدة اللهجة، واقتباسات مباشرة من مسؤولين مجهولين في البنتاغون لوسائل الإعلام، مما يعكس مفاوضات Anthropic الوجودية مع البنتاغون، كما توضح الصورة المرفقة.

تسلط هذه المواجهة الضوء على نقاش عالمي أوسع حول أخلاقيات الذكاء الاصطناعي، لا سيما عندما يتعلق الأمر بتطبيقاته العسكرية. ففي يوليو 2025، شوهد وزير الدفاع الأمريكي بيت هيغسيث، برفقة وكيل وزارة الدفاع للبحث والهندسة إميل مايكل، وهما يتفقدان معرضاً لأنظمة ذاتية التحكم متعددة المجالات في البنتاغون، أرلينغتون، فرجينيا. توضح هذه الصورة الأهمية التي يوليها البنتاغون لتطوير هذه الأنظمة، مما يزيد من تعقيد الموقف الأخلاقي لشركات التكنولوجيا.

يؤكد هذا الصراع على الحاجة الملحة لوضع إرشادات واضحة وحدود أخلاقية لاستخدام الذكاء الاصطناعي، لضمان ألا تتحول الابتكارات التكنولوجية إلى تهديد للبشرية.

الأسئلة الشائعة

يتعلق الخلاف بمطالب البنتاغون بالحصول على وصول غير مقيد لتقنيات Anthropic في المراقبة الجماعية وتطوير الأسلحة الفتاكة ذاتية التحكم.

قد تواجه Anthropic تصنيفها كـ "خطر على سلسلة التوريد" وخسارة مئات المليارات من الدولارات في العقود الحكومية المحتملة.

أفادت التقارير بأن شركتي OpenAI وxAI قد وافقتا على شروط البنتاغون، مما يبرز اختلافاً في المواقف الأخلاقية بين الشركات.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!