بحث
OpenAI تكشف تفاصيل اتفاقها مع البنتاغون: لماذا أُبرم سريعاً؟
الذكاء الاصطناعي #OpenAI_البنتاغون #الذكاء_الاصطناعي

OpenAI تكشف تفاصيل اتفاقها مع البنتاغون: لماذا أُبرم سريعاً؟

تاريخ النشر: آخر تحديث: 5 مشاهدة 0 تعليق 3 دقائق قراءة
5 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

في تطور لافت، كشفت OpenAI عن تفاصيل إضافية حول اتفاقها الأخير مع وزارة الدفاع الأميركية، وذلك بعد انسحاب شركة أنثروبيك من مفاوضات مماثلة بسبب مخاوف أخلاقية. أقر الرئيس التنفيذي لـ OpenAI، سام ألتمان، بأن الاتفاق تم على عجل، معترفاً بأن "الانطباع العام لا يبدو جيداً"، في إشارة إلى الانتقادات التي طالت الشركة عقب الإعلان المفاجئ.

جدل الانسحاب والاتفاق السريع

بدأت القصة عندما تعثرت مفاوضات "أنثروبيك" مع وزارة الدفاع الأميركية، ما دفع الرئيس الأميركي السابق دونالد ترامب إلى توجيه الوكالات الفيدرالية بوقف استخدام تقنيات الشركة خلال فترة انتقالية. كما أعلن وزير الدفاع تصنيف الشركة كمخاطر محتملة على سلاسل الإمداد، وفق تقرير نشره موقع "تك كرانش".

بينما شددت أنثروبيك على وضع خطوط حمراء تمنع استخدام تقنياتها في الأسلحة ذاتية التشغيل بالكامل أو في أنظمة المراقبة الداخلية واسعة النطاق، سارعت OpenAI إلى الإعلان عن اتفاق لنشر نماذجها في بيئات مصنفة سرّية، ما أثار تساؤلات حول دوافعها وسرعة إبرام الصفقة.

ضوابط OpenAI: خطوط حمراء رغم الانتقادات

في محاولة لاحتواء الجدل، نشرت OpenAI تدوينة توضح فيها الضوابط التي تحكم الاتفاق، مؤكدة أن نماذجها لا يمكن استخدامها في ثلاث حالات رئيسية:

  • المراقبة الداخلية الجماعية.
  • أنظمة الأسلحة الذاتية بالكامل.
  • القرارات الآلية عالية الخطورة (مثل أنظمة الائتمان الاجتماعي).

وأكدت الشركة أنها تعتمد نهجاً متعدد الطبقات لحماية هذه الخطوط الحمراء، مشيرة إلى أنها تحتفظ بالتحكم الكامل في منظومة الأمان الخاصة بها. كما أوضحت أن عمليات النشر تتم عبر واجهات سحابية (Cloud API)، مع إشراك موظفين معتمدين أمنياً، إلى جانب ضمانات تعاقدية قوية. وأضافت أن هذه الضمانات تأتي فوق ما يفرضه القانون الأميركي من قيود تنظيمية.

اتهامات بالمراقبة والتبريرات التقنية

رغم هذه الضمانات، لم تهدأ الانتقادات. فقد اعتبر الكاتب التقني مايك ماسنيك أن الاتفاق قد يسمح فعلياً بالمراقبة الداخلية، مستنداً إلى الإشارة في العقد إلى الامتثال للأمر التنفيذي 12333، وهو إطار قانوني لطالما أثار جدلاً بشأن أنشطة جمع البيانات خارج الولايات المتحدة.

من جانبها، دافعت كاترينا موليجان، المسؤولة عن شراكات الأمن القومي في OpenAI، عن الاتفاق، معتبرة أن النقاش الدائر يختزل القضية في بند تعاقدي واحد. وأوضحت أن حصر استخدام النماذج عبر واجهات سحابية يمنع دمجها مباشرة في أنظمة الأسلحة أو أجهزة الاستشعار أو العتاد العسكري التشغيلي، مما يؤكد على أن الضوابط تقنية وليست مجرد بنود تعاقدية.

دوافع OpenAI: استراتيجية أم تسرع؟

على منصة "إكس"، واجه ألتمان أسئلة مباشرة حول دوافع الشركة، خصوصاً بعد أن تفوق روبوت كلود التابع لأنثروبيك على تشات جي بي تي في تصنيفات متجر تطبيقات Apple App Store لفترة وجيزة، ما عُد مؤشراً على تزايد التعاطف مع المنافس.

برر ألتمان هذه الخطوة بالرغبة في "خفض التصعيد" بين وزارة الدفاع وقطاع الذكاء الاصطناعي، معتبراً أن الاتفاق قد يُنظر إليه لاحقاً على أنه خطوة جريئة لتحمل تبعات سياسية بهدف حماية الصناعة ككل. وأضاف أن الحكم النهائي سيتوقف على النتائج: فإذا ساهم الاتفاق في تهدئة التوتر بين الحكومة وشركات الذكاء الاصطناعي، فستُسجل الخطوة كتحرك استراتيجي ذكي. أما إذا لم يتحقق ذلك، فستبقى الشركة في مرمى الاتهامات بالتسرع وقلة الحذر.

يبدو أن العلاقة بين شركات الذكاء الاصطناعي والمؤسسة العسكرية الأميركية قد دخلت مرحلة جديدة، عنوانها: توازن دقيق بين الأمن القومي والضوابط الأخلاقية التي لا تزال محل جدل ونقاش.

الأسئلة الشائعة

يتعلق الاتفاق بنشر نماذج OpenAI للذكاء الاصطناعي في بيئات مصنفة سرّية لوزارة الدفاع الأميركية، مع وضع ضوابط أخلاقية صارمة لمنع استخدامها في أغراض معينة.

منعت OpenAI استخدام نماذجها في المراقبة الداخلية الجماعية، أنظمة الأسلحة الذاتية بالكامل، والقرارات الآلية عالية الخطورة مثل أنظمة الائتمان الاجتماعي.

انسحبت أنثروبيك بسبب مخاوف أخلاقية تتعلق باستخدام تقنياتها في الأسلحة ذاتية التشغيل أو أنظمة المراقبة واسعة النطاق، ووضعت خطوطاً حمراء واضحة.

برر ألتمان الخطوة بالرغبة في "خفض التصعيد" بين وزارة الدفاع وقطاع الذكاء الاصطناعي، معتبراً أنها خطوة استراتيجية لحماية الصناعة ككل.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!