OpenAI والبنتاغون: اتفاق الذكاء الاصطناعي بضمانات حاسمة
أعلن سام ألتمان، الرئيس التنفيذي لـOpenAI، عن اتفاق يسمح لوزارة الدفاع الأمريكية (البنتاغون) باستخدام نماذج الذكاء الاصطناعي الخاصة بشركته في شبكاتها المصنفة. يمثل هذا التطور خطوة مهمة في دمج تقنيات الذكاء الاصطناعي المتقدمة في العمليات العسكرية، مع التركيز على الضمانات الأخلاقية والتقنية.
ضمانات OpenAI الأخلاقية والتقنية
أكد ألتمان أن الاتفاق الجديد يتضمن حماية ضد المراقبة الجماعية المحلية، ويشدد على المسؤولية البشرية في استخدام القوة، بما في ذلك أنظمة الأسلحة الذاتية. هذه المبادئ هي ذاتها التي أثارت جدلاً سابقاً بين البنتاغون وشركة Anthropic المنافسة، حيث سعت Anthropic إلى وضع خطوط حمراء واضحة حول هذه الاستخدامات.
ووفقاً لألتمان، فإن وزارة الدفاع الأمريكية توافق على هذه المبادئ وتجسدها في قوانينها وسياساتها، وقد تم تضمينها في اتفاقية OpenAI. تخطط OpenAI لبناء ضمانات تقنية لضمان عمل نماذجها على النحو المطلوب، وستقوم بنشر مهندسين مع البنتاغون للمساعدة في مراقبة النماذج وضمان سلامتها.
خلافات سابقة مع Anthropic
سبق هذا الاتفاق خلاف بارز بين البنتاغون وشركة Anthropic، حيث دفعت وزارة الدفاع شركات الذكاء الاصطناعي للسماح باستخدام نماذجها في «جميع الأغراض القانونية». في المقابل، سعت Anthropic إلى تحديد خطوط حمراء بشأن المراقبة الجماعية المحلية والأسلحة الذاتية بالكامل.
وفي بيان مطول، صرح داريو أمودي، الرئيس التنفيذي لـAnthropic، بأن شركته «لم تعترض أبداً على عمليات عسكرية معينة أو حاولت تقييد استخدام تقنيتنا بطريقة مخصصة»، لكنه جادل بأن «في مجموعة ضيقة من الحالات، نعتقد أن الذكاء الاصطناعي يمكن أن يقوض، بدلاً من أن يدافع عن القيم الديمقراطية». وقد وقع أكثر من 60 موظفاً في OpenAI و300 موظف في جوجل على رسالة مفتوحة تدعم موقف Anthropic.
بعد فشل Anthropic والبنتاغون في التوصل إلى اتفاق، انتقد الرئيس الأمريكي السابق دونالد ترامب «المجانين اليساريين في Anthropic» في منشور على وسائل التواصل الاجتماعي، وأصدر توجيهاً للوكالات الفيدرالية بوقف استخدام منتجات الشركة بعد فترة تخلص تدريجية مدتها ستة أشهر. كما زعم وزير الدفاع بيت هيغسيث أن Anthropic كانت تحاول «الاستيلاء على حق النقض على القرارات التشغيلية للجيش الأمريكي»، وصنف Anthropic كـ«خطر على سلسلة التوريد»، مانعاً أي متعاقد أو مورد أو شريك يتعامل مع الجيش الأمريكي من إجراء أي نشاط تجاري معها.
دعوة OpenAI لتطبيق المبادئ على الجميع
في منشور على منصة X، أعرب ألتمان عن رغبته في أن تعرض وزارة الدفاع نفس الشروط لجميع شركات الذكاء الاصطناعي، معتبراً أن «الجميع يجب أن يكونوا مستعدين لقبولها». وأضاف: «لقد عبرنا عن رغبتنا القوية في رؤية الأمور تتصاعد بعيداً عن الإجراءات القانونية والحكومية ونحو اتفاقيات معقولة».
ذكرت شارون غولدمان من Fortune أن ألتمان صرح لموظفي OpenAI في اجتماع داخلي بأن الحكومة ستسمح للشركة ببناء «مكدس أمان» خاص بها لمنع سوء الاستخدام، وأنه «إذا رفض النموذج أداء مهمة ما، فلن تجبر الحكومة OpenAI على تنفيذ تلك المهمة».
جاء منشور ألتمان قبل وقت قصير من انتشار أنباء عن بدء الحكومتين الأمريكية والإسرائيلية قصف إيران، مع دعوة ترامب للإطاحة بالحكومة الإيرانية.
الأسئلة الشائعة
يتيح الاتفاق للبنتاغون استخدام نماذج الذكاء الاصطناعي من OpenAI في شبكاتها المصنفة، مع ضمانات تمنع المراقبة الجماعية المحلية وتؤكد المسؤولية البشرية عن الأسلحة الذاتية.
تشمل الضمانات حظر المراقبة الجماعية المحلية، والمسؤولية البشرية عن استخدام أنظمة الأسلحة الذاتية، بالإضافة إلى بناء OpenAI لضمانات تقنية ونشر مهندسين لضمان سلامة النماذج.
بينما كانت Anthropic ترفض استخدام نماذجها في بعض الأغراض العسكرية، نجحت OpenAI في إبرام اتفاق يتضمن الشروط الأخلاقية التي كانت Anthropic تسعى إليها، مثل حظر المراقبة والمسؤولية البشرية.
تدعو OpenAI وزارة الدفاع إلى تقديم نفس الشروط والضمانات لجميع شركات الذكاء الاصطناعي، بهدف تعزيز الاتفاقيات المعقولة وتجنب الإجراءات القانونية والحكومية.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!