بحث
OpenAI تدافع عن صفقة البنتاغون: ضمانات أمنية أقوى من أنثروبيك
الذكاء الاصطناعي #OpenAI #البنتاغون

OpenAI تدافع عن صفقة البنتاغون: ضمانات أمنية أقوى من أنثروبيك

تاريخ النشر: آخر تحديث: 4 مشاهدة 0 تعليق 2 دقائق قراءة
4 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

دافعت OpenAI رسمياً عن اتفاقيتها مع البنتاغون، مؤكدة أن صفقتها الجديدة لنشر تقنيات الذكاء الاصطناعي على شبكة وزارة الدفاع السرية تتضمن ضمانات أمان صارمة تفوق الاتفاقيات السابقة. يأتي هذا التوضيح بعد توقيع الشركة على عقد مع البنتاغون، في خطوة لافتة تعكس تزايد اهتمام المؤسسات العسكرية بالذكاء الاصطناعي.

ضمانات أمان OpenAI: معايير أعلى من أنثروبيك

أكدت OpenAI، المدعومة من عمالقة مثل مايكروسوفت وأمازون وسوفت بنك، أن اتفاقيتها مع وزارة الدفاع الأمريكية تتميز بضوابط أمان أكثر صرامة مقارنة بأي اتفاق سابق لنشر الذكاء الاصطناعي في الشبكات السرية. وهذا يشمل الاتفاقيات التي أبرمتها شركات أخرى، مثل أنثروبيك.

يأتي هذا التأكيد في أعقاب قرار الرئيس الأمريكي السابق دونالد ترامب بتوجيه الحكومة لوقف التعامل مع شركة أنثروبيك، وتصنيف البنتاغون لها كمخاطرة لسلسلة التوريد. وقد أعلنت أنثروبيك، التي واجهت خلافات حادة حول ضوابط التكنولوجيا، عزمها الطعن في هذا التصنيف قضائياً.

الخطوط الحمراء الثلاثة: التزامات صارمة

حددت OpenAI بوضوح ثلاثة "خطوط حمراء" أساسية لاستخدام تقنياتها ضمن عقدها مع البنتاغون، وهي التزامات تهدف إلى ضمان الاستخدام الأخلاقي والآمن للذكاء الاصطناعي في السياقات العسكرية:

  • حظر المراقبة الجماعية: لا يمكن استخدام تكنولوجيا OpenAI للمراقبة الداخلية واسعة النطاق.
  • تجنب الأسلحة الذاتية: يُمنع توجيه أنظمة الأسلحة ذاتية التشغيل بالكامل باستخدام تقنيات الشركة.
  • قرارات آلية عالية المخاطر: لا يجوز استخدام الذكاء الاصطناعي لاتخاذ أي قرارات آلية تُصنف على أنها عالية المخاطر.

كما أوضحت الشركة أنها تحتفظ بالتحكم الكامل في نظام الأمان الخاص بها، وتعتمد على نشر التكنولوجيا عبر السحابة، مع مشاركة موظفين مصرح لهم من OpenAI في العملية، وتتمتع بحماية تعاقدية قوية.

البنتاغون وسعيه للتحرر من القيود

على مدار العام الماضي، أبرم البنتاغون اتفاقيات بقيمة تصل إلى 200 مليون دولار لكل منها مع مختبرات الذكاء الاصطناعي الكبرى، بما في ذلك أنثروبيك وOpenAI وغوغل. ويسعى البنتاغون من خلال هذه الشراكات إلى الحفاظ على مرونة كاملة في مجال الدفاع، مع رغبة في عدم التقيد بتحذيرات مطوري التكنولوجيا بشأن استخدام ذكاء اصطناعي غير موثوق فيه في تشغيل الأسلحة.

على الرغم من التزام OpenAI بضماناتها، حذرت الشركة من أن أي خرق لعقدها من قبل الحكومة الأمريكية قد يؤدي إلى إنهاء الاتفاق. ومع ذلك، أعربت OpenAI عن عدم توقعها لحدوث مثل هذا السيناريو.

تُظهر هذه التطورات التوتر المستمر بين الحاجة إلى الابتكار التقني في القطاع العسكري والمخاوف المتزايدة بشأن الاستخدامات الأخلاقية والآمنة للذكاء الاصطناعي. شاركنا رأيك حول هذه الصفقة في التعليقات أدناه.

الأسئلة الشائعة

حددت OpenAI ثلاثة خطوط حمراء: حظر المراقبة الجماعية، استخدام أنظمة الأسلحة ذاتية التشغيل، أو اتخاذ قرارات آلية عالية المخاطر.

تم تصنيف أنثروبيك بعد توجيهات من الرئيس دونالد ترامب وخلافات حادة مع البنتاغون حول ضوابط التكنولوجيا.

تدعي OpenAI أن اتفاقيتها تتضمن ضوابط أمان أكثر صرامة لحماية استخداماتها للذكاء الاصطناعي على الشبكات السرية.

حذرت OpenAI من إمكانية إنهاء الاتفاقية إذا تم خرق "الخطوط الحمراء" المحددة من قبل الحكومة الأمريكية.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!