OpenAI توقع صفقة البنتاغون بعد حظر ترامب لمنافستها
أبرمت [[OpenAI]] صفقة مع [[البنتاغون]] لنشر نماذج الذكاء الاصطناعي في أنظمته العسكرية السرية، وذلك بعد أمر الرئيس دونالد ترامب بحظر شركة [[Anthropic]] المنافسة من العقود الفيدرالية. جاء هذا الإعلان من سام ألتمان، الرئيس التنفيذي لـ OpenAI، الذي أكد التوصل إلى اتفاق مع وزارة الدفاع لاستخدام نماذج الشركة ضمن الشبكة السرية للوزارة.
حظر Anthropic: تفاصيل وخلفيات القرار
قبل ساعات من إعلان OpenAI، أصدر الرئيس ترامب توجيهاً لكل الوكالات الفيدرالية بـ"الوقف الفوري" لاستخدام منتجات Anthropic. كما صنّف وزير الدفاع بيت هيغسيث الشركة بأنها "خطر على سلسلة التوريد للأمن القومي"، وهو تصنيف يُستخدم عادة بموجب سلطات المشتريات الفيدرالية لتقييد تقنيات معينة في العقود الدفاعية.
تُطبق قيود مماثلة على شركات الاتصالات الأجنبية مثل هواوي و ZTE بموجب القسم 889 من قانون تفويض الدفاع الوطني لعام 2019. في حالة Anthropic، يتطلب هذا التصنيف من البنتاغون التخلص التدريجي من أنظمة الشركة ويلزم المقاولين العسكريين بالتصديق على أن عملهم لا يتضمن أدوات الذكاء الاصطناعي الخاصة بـ Anthropic. وقد منحت الإدارة مهلة ستة أشهر للانتقال.
يتمحور النزاع حول ما إذا كان بإمكان شركات الذكاء الاصطناعي فرض قيود على كيفية استخدام الجيش لأنظمتها. سعت Anthropic للحصول على ضمانات تعاقدية بعدم استخدام نموذجها الرائد، كلود (Claude)، للمراقبة الجماعية المحلية للأمريكيين أو لتشغيل أسلحة ذاتية التشغيل بالكامل. أكد البنتاغون أنه لا يعتزم استخدام الذكاء الاصطناعي بهذه الطرق، لكنه أصر على ضرورة أن تظل النماذج متاحة لجميع الأغراض القانونية.
بعد أسابيع من المفاوضات، انهارت المحادثات بين Anthropic ووزارة الدفاع. واتهم المسؤولون الشركة بمحاولة فرض قيود أيديولوجية على العمليات العسكرية. بينما أكدت Anthropic أن اعتراضاتها كانت محددة وتركز على السلامة والحقوق الدستورية.
صفقة OpenAI: مبادئ السلامة وتساؤلات
بعد وقت قصير من تحرك الإدارة ضد Anthropic، أعلن ألتمان أن OpenAI قد أنهت اتفاقها الخاص مع البنتاغون. وفي منشور على منصة X، ذكر ألتمان أن الصفقة تعكس اثنين من "أهم مبادئ السلامة" لـ OpenAI: حظر المراقبة الجماعية المحلية، ومتطلب المسؤولية البشرية في استخدام القوة، بما في ذلك أنظمة الأسلحة الذاتية.
كتب ألتمان: "تتفق وزارة الدفاع مع هذه المبادئ، وتعكسها في القانون والسياسة، وقد أدرجناها في اتفاقنا". يبقى من غير الواضح كيف يختلف اتفاق OpenAI جوهرياً عن الضمانات التي سعت إليها Anthropic. فقد جادل مسؤولو البنتاغون بأن القانون الأمريكي الحالي وسياسة وزارة الدفاع تحظر بالفعل المراقبة الجماعية المحلية والأسلحة الذاتية التشغيل بالكامل، وأنه لا توجد حاجة لمعايير قانونية جديدة.
تداعيات سياسية وأمنية
تصاعد النزاع مع Anthropic ليصبح سياسياً بشكل متزايد في الأيام الأخيرة. في منشور على Truth Social، انتقد ترامب الشركة بعبارات قاسية ووصف موقفها بأنه محاولة لتجاوز السلطة الدستورية. واتهم هيغسيث Anthropic بمحاولة فرض سيطرتها على القرارات العسكرية العملياتية، وقال إن الوزارة يجب أن تحتفظ بوصول غير مقيد إلى نماذج الذكاء الاصطناعي للأغراض القانونية.
دفعت Anthropic بقوة، مجادلة بأن تصنيف "خطر على سلسلة التوريد" يتجاوز السلطة القانونية لوزارة الدفاع. وذكرت الشركة أن القانون الفيدرالي يحد من هذه التحديدات للعقود الدفاعية المحددة ولا يمنح السلطة التنفيذية صلاحية واسعة لحظر جميع الأنشطة التجارية مع شركة محلية. وأعلنت Anthropic عزمها على الطعن في هذا التصنيف أمام المحكمة.
عادة ما ترتبط تحديدات مخاطر سلسلة التوريد بالشركات الأجنبية التي تعتبر تهديدات للأمن القومي. ويشكل تطبيق هذا التصنيف على مطور ذكاء اصطناعي رائد مقره الولايات المتحدة تحولاً كبيراً في كيفية استخدام سلطات المشتريات في سياق الذكاء الاصطناعي.
مستقبل الذكاء الاصطناعي في الأمن القومي
تؤكد هذه الواقعة مدى سرعة اندماج الذكاء الاصطناعي في سياسة الأمن القومي. فقد أبرمت شركات مثل OpenAI و Anthropic و جوجل و xAI التابعة لإيلون ماسك اتفاقيات مع وزارة الدفاع أو حصلت على موافقات لاستخدام نماذج الذكاء الاصطناعي الخاصة بها، بما في ذلك في البيئات السرية. في الوقت نفسه، كثفت المخاوف بشأن المراقبة والأسلحة الذاتية وموثوقية نماذج اللغة الكبيرة من التدقيق في عمليات نشر الذكاء الاصطناعي العسكرية.
تواجه Anthropic، التي تقدر قيمتها بحوالي 380 مليار دولار وتستعد لطرح عام أولي وفقاً لتقارير NPR، حالة من عدم اليقين القانوني والسمعة بعد إجراءات الإدارة. يبلغ عقد البنتاغون الذي هو محور النزاع ما يصل إلى 200 مليون دولار، وهو جزء صغير نسبياً من إيرادات الشركة المبلغ عنها ولكنه ذو دلالة رمزية كبيرة.
بالنسبة لـ OpenAI، فإن الاتفاقية تضع الشركة كشريك رئيسي في استراتيجية الذكاء الاصطناعي لوزارة الدفاع مع الحفاظ على مبادئ السلامة المعلنة علناً. يبقى من غير الواضح ما إذا كانت النتائج المتناقضة تعكس اختلافات جوهرية في شروط العقد أو استراتيجيات تفاوض متباينة. ما هو واضح هو أن العلاقة بين مطوري الذكاء الاصطناعي والجيش الأمريكي قد دخلت مرحلة أكثر وضوحاً ومشحونة سياسياً.
ما رأيك في هذه التطورات؟ شاركنا أفكارك في التعليقات.
الأسئلة الشائعة
أبرمت OpenAI صفقة لنشر نماذج الذكاء الاصطناعي الخاصة بها في أنظمة البنتاغون العسكرية السرية، بعد أن أعلن الرئيس التنفيذي سام ألتمان عن التوصل إلى اتفاق.
حظرت إدارة ترامب شركة Anthropic بسبب إصرارها على قيود تعاقدية تمنع استخدام ذكائها الاصطناعي للمراقبة الجماعية أو الأسلحة الذاتية، وهو ما رفضه البنتاغون وصنفها كـ'خطر على سلسلة التوريد'.
يزعم سام ألتمان أن صفقة OpenAI تتضمن مبادئ سلامة مماثلة، لكن البنتاغون يصر على أن القوانين الحالية تغطي هذه القيود، مما يثير تساؤلات حول الاختلافات الجوهرية بين الاتفاقين.
تسلط هذه الأحداث الضوء على تزايد اندماج الذكاء الاصطناعي في الأمن القومي، وتثير تحديات قانونية وأخلاقية لشركات الذكاء الاصطناعي العاملة مع الجهات الحكومية، خاصة حول قضايا الاستخدام والتحكم.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!