بحث
OpenAI توقع صفقة AI عسكرية مع البنتاغون بعد حظر Anthropic
الذكاء الاصطناعي #OpenAI #البنتاغون

OpenAI توقع صفقة AI عسكرية مع البنتاغون بعد حظر Anthropic

تاريخ النشر: آخر تحديث: 3 مشاهدة 0 تعليق 4 دقائق قراءة
3 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

أبرمت OpenAI اتفاقية مع البنتاغون لنشر نماذجها للذكاء الاصطناعي في الأنظمة العسكرية السرية، وذلك بعد ساعات من أمر الرئيس دونالد ترامب بحظر تقنية شركة Anthropic المنافسة من الاستخدام الفيدرالي. جاء هذا الإعلان من الرئيس التنفيذي لشركة OpenAI، سام ألتمان، الذي أكد أن الشركة توصلت إلى شروط مع وزارة الدفاع لاستخدام نماذجها ضمن الشبكة السرية للوزارة.

تفاصيل الصفقة وحظر Anthropic

تبع اتفاق OpenAI تصعيداً حاداً بين إدارة ترامب وشركة Anthropic حول كيفية استخدام أنظمة الذكاء الاصطناعي في السياقات العسكرية. ففي وقت سابق من ذلك اليوم، أمر ترامب جميع الوكالات الفيدرالية بـ "التوقف فوراً" عن استخدام منتجات Anthropic. كما صنّف وزير الدفاع بيت هيجسيث الشركة على أنها "خطر على سلسلة التوريد للأمن القومي"، وهو تصنيف يُستخدم عادةً بموجب سلطات المشتريات الفيدرالية لتقييد بعض التقنيات في العقود الدفاعية.

تُطبق قيود مماثلة على شركات الاتصالات الأجنبية مثل هواوي و ZTE بموجب القسم 889 من قانون تفويض الدفاع الوطني لعام 2019. تتطلب هذه الإجراءات من البنتاغون التخلص التدريجي من أنظمة Anthropic، وتُلزم المتعاقدين العسكريين بالتصديق على أن عملهم مع وزارة الدفاع لا يشمل أدوات الذكاء الاصطناعي الخاصة بـ Anthropic. وقد منحت الإدارة فترة انتقالية مدتها ستة أشهر.

خلاف المبادئ: Anthropic ترفض شروط البنتاغون

يتركز الخلاف حول ما إذا كان بإمكان شركات الذكاء الاصطناعي تحديد كيفية استخدام الجيش لأنظمتها. سعت Anthropic للحصول على تأكيدات تعاقدية بأن نموذجها الرائد، كلود (Claude)، لن يُستخدم للمراقبة الجماعية المحلية للأمريكيين أو لتشغيل أسلحة ذاتية القيادة بالكامل. من جانبها، صرحت البنتاغون بأنها لا تنوي استخدام الذكاء الاصطناعي بهذه الطرق، لكنها أصرت على أن النماذج يجب أن تظل متاحة لجميع الأغراض القانونية.

بعد أسابيع من المفاوضات، انهارت المحادثات بين Anthropic ووزارة الدفاع. واتهم المسؤولون الشركة بمحاولة فرض قيود أيديولوجية على العمليات العسكرية. بينما أكدت Anthropic أن اعتراضاتها كانت محددة وتركز على السلامة والحقوق الدستورية.

موقف OpenAI ومبادئها المعلنة

بعد وقت قصير من تحرك الإدارة ضد Anthropic، أعلن ألتمان أن OpenAI قد أنهت اتفاقها الخاص مع البنتاغون. وفي منشور على منصة X، قال ألتمان إن الصفقة تعكس اثنين من "أهم مبادئ السلامة" لدى OpenAI: حظر المراقبة الجماعية المحلية، وضرورة وجود مسؤولية بشرية في استخدام القوة، بما في ذلك أنظمة الأسلحة ذاتية القيادة.

كتب ألتمان: "تتفق وزارة الدفاع مع هذه المبادئ، وتعكسها في القانون والسياسة، وقد أدرجناها في اتفاقنا". ومع ذلك، لا يزال من غير الواضح كيف يختلف اتفاق OpenAI جوهرياً عن الضمانات التي سعت إليها Anthropic. وقد جادل مسؤولو البنتاغون بأن القانون الأمريكي الحالي وسياسة وزارة الدفاع تحظر بالفعل المراقبة الجماعية المحلية والأسلحة ذاتية القيادة بالكامل، وأنه لا توجد حاجة لمعايير قانونية جديدة.

الأبعاد السياسية والقانونية لتحديد "خطر سلسلة التوريد"

أصبح النزاع مع Anthropic سياسياً بشكل متزايد في الأيام الأخيرة. ففي منشور على Truth Social، انتقد ترامب الشركة بعبارات قاسية ووصفت موقفها بأنه محاولة لتجاوز السلطة الدستورية. واتهم هيجسيث شركة Anthropic بمحاولة فرض السيطرة على القرارات العسكرية العملياتية، وقال إن الوزارة يجب أن تحتفظ بوصول غير مقيد إلى نماذج الذكاء الاصطناعي للأغراض القانونية.

دفعت Anthropic بموقفها، مجادلة بأن تصنيف "خطر سلسلة التوريد" يتجاوز السلطة القانونية لوزارة الدفاع. وقالت الشركة إن القانون الفيدرالي يقيد مثل هذه القرارات بعقود محددة متعلقة بالدفاع ولا يمنح السلطة التنفيذية صلاحيات واسعة لحظر جميع الأنشطة التجارية مع شركة محلية. وقد صرحت Anthropic بأنها تعتزم الطعن في هذا التصنيف أمام المحكمة.

عادةً ما ترتبط قرارات تحديد مخاطر سلسلة التوريد بالشركات الأجنبية التي تعتبر تهديداً للأمن القومي. ويشكل تطبيق هذا التصنيف على مطور ذكاء اصطناعي رائد مقره في الولايات المتحدة تحولاً كبيراً في كيفية استخدام سلطات المشتريات في سياق الذكاء الاصطناعي.

مستقبل الذكاء الاصطناعي العسكري: مرحلة جديدة

تؤكد هذه الحادثة مدى سرعة دمج الذكاء الاصطناعي في سياسة الأمن القومي. فقد حصلت شركات مثل OpenAI و Anthropic و جوجل و xAI التابعة لإيلون ماسك على اتفاقيات أو موافقات من وزارة الدفاع لاستخدام نماذجها للذكاء الاصطناعي، بما في ذلك في البيئات السرية. وفي الوقت نفسه، تكثفت المخاوف بشأن المراقبة والأسلحة ذاتية القيادة وموثوقية نماذج اللغة الكبيرة، مما زاد من التدقيق في عمليات نشر الذكاء الاصطناعي العسكرية.

تُقدر قيمة Anthropic، وفقاً لتقارير NPR، بنحو 380 مليار دولار وتستعد لطرح عام أولي، وتواجه الآن حالة من عدم اليقين القانوني والسمعة بعد إجراءات الإدارة. وتبلغ قيمة عقد البنتاغون الذي يقع في صميم النزاع ما يصل إلى 200 مليون دولار، وهو جزء صغير نسبياً من إيرادات الشركة المعلنة، ولكنه ذو دلالة رمزية كبيرة.

بالنسبة لـ OpenAI، يضع هذا الاتفاق الشركة كشريك رئيسي في استراتيجية وزارة الدفاع للذكاء الاصطناعي، مع الحفاظ على مبادئ السلامة المعلنة علناً. وما إذا كانت النتائج المتناقضة تعكس اختلافات جوهرية في شروط العقد أو استراتيجيات تفاوض متباينة لا يزال غير واضح. لكن ما هو واضح هو أن العلاقة بين مطوري الذكاء الاصطناعي والجيش الأمريكي قد دخلت مرحلة أكثر وضوحاً ومشحونة سياسياً.

الأسئلة الشائعة

أبرمت OpenAI اتفاقية لنشر نماذجها للذكاء الاصطناعي في الأنظمة العسكرية السرية التابعة لوزارة الدفاع الأمريكية.

تم حظر Anthropic لرفضها السماح باستخدام نموذجها 'Claude' للمراقبة الجماعية المحلية أو لتشغيل أسلحة ذاتية القيادة بالكامل، مما اعتبرته الإدارة محاولة لفرض قيود على العمليات العسكرية.

تؤكد OpenAI أن اتفاقها مع البنتاغون يعكس مبادئها التي تحظر المراقبة الجماعية المحلية وتشدد على ضرورة المسؤولية البشرية في استخدام القوة، بما في ذلك الأسلحة ذاتية القيادة.

يواجه Anthropic حالة من عدم اليقين القانوني والسمعة، وقد أعلنت الشركة عزمها الطعن في قرار تصنيفها كـ 'خطر على سلسلة التوريد' أمام المحكمة.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!