OpenAI توقع اتفاق AI مع البنتاغون بعد انسحاب Anthropic
أبرمت [[OpenAI]] اتفاقاً استراتيجياً مع [[وزارة الدفاع الأمريكية]] (البنتاغون) لتوفير تقنيات الذكاء الاصطناعي المتطورة لشبكاتها العسكرية السرية. يأتي هذا التطور بعد ساعات قليلة من انسحاب شركة [[Anthropic]] المنافسة من شراكة مماثلة، وذلك إثر رفضها التنازل عن مبادئها الأخلاقية المتعلقة باستخدام الذكاء الاصطناعي في المراقبة الجماعية أو الأسلحة ذاتية التشغيل.
OpenAI والبنتاغون: اتفاق بمبادئ أخلاقية صارمة
صرح [[سام ألتمان]]، الرئيس التنفيذي لـ OpenAI، بأن الاتفاق المبرم مع [[البنتاغون]] يتضمن التزاماً واضحاً بعدم استخدام تقنيات الشركة في المراقبة الشاملة للأفراد داخل الولايات المتحدة أو في تطوير أنظمة أسلحة ذاتية التشغيل تفتقر إلى الإشراف البشري الكامل. وأكد ألتمان أن هذه المبادئ، التي تُعد جزءاً من القانون والسياسة الأمريكية، قد دُمجت صراحةً في بنود الاتفاق.
دعا ألتمان جميع الجهات الحكومية إلى تعميم هذه المبادئ الأخلاقية على كافة شركات الذكاء الاصطناعي، مشدداً على أهمية التوصل إلى حلول توافقية بدلاً من التصعيد القانوني. وأوضح أن OpenAI لن تسمح بنشر تقنياتها في أي استخدامات تخالف القوانين، أو تلك التي تهدف إلى المراقبة الشاملة، أو تطوير أسلحة ذاتية التشغيل.
انسحاب Anthropic: تمسك بالمبادئ الأخلاقية
جاء اتفاق OpenAI بعد فترة وجيزة من انسحاب Anthropic من شراكتها مع وزارة الدفاع الأمريكية. ويعود سبب الانسحاب إلى ضغوط أمريكية للسماح باستخدام نظامها "Claude" في أغراض الرقابة أو تطوير الأسلحة المستقلة. رفضت Anthropic علناً تخفيض معايير الأمان أو المشاركة في أي استخدام عسكري يتعارض مع مبادئها، وهو موقف وصفه الرئيس السابق دونالد ترامب بأنه "خطأ فادح".
دعوات من داخل القطاع: حماية الخصوصية والسلامة
على صعيد متصل، شهد القطاع انقساماً في الآراء، حيث وقع أكثر من 500 موظف من [[OpenAI]] و[[جوجل]] خطاباً مشتركاً. شدد الخطاب على ضرورة الثبات أمام الضغوط الحكومية وعدم قبول الإملاءات التي قد تهدد مبادئ السلامة أو الخصوصية في تطوير واستخدام تقنيات الذكاء الاصطناعي.
تأتي هذه التطورات في وقت حرج لشركة OpenAI، حيث تقترب من إغلاق جولة تمويلية ضخمة بقيمة 110 مليار دولار، مما سيرفع قيمتها السوقية إلى حوالي 840 مليار دولار.
أهمية الأخلاقيات في عصر الذكاء الاصطناعي الحكومي
تُسلط هذه الأحداث الضوء على التحديات المتزايدة التي تواجه صناعة الذكاء الاصطناعي مع تزايد تدخل الحكومات في استخدام هذه التقنيات. وتبرز أهمية وضع معايير أخلاقية واضحة، وضمان الشفافية، والحفاظ على حقوق الأفراد كأولويات قصوى في هذا المجال المتطور. شاركنا رأيك حول هذه التطورات في التعليقات أدناه.
الأسئلة الشائعة
أبرمت OpenAI اتفاقاً لتوفير تقنيات الذكاء الاصطناعي المتطورة للشبكات العسكرية السرية التابعة لوزارة الدفاع الأمريكية، مع التزام بمبادئ أخلاقية.
انسحبت Anthropic بسبب رفضها التنازل عن مبادئها الأخلاقية، التي تمنع استخدام تقنياتها في المراقبة الجماعية أو الأسلحة ذاتية التشغيل بدون إشراف بشري.
أكد سام ألتمان على التزام OpenAI بعدم استخدام تقنياتها في المراقبة الشاملة للأفراد أو في أنظمة الأسلحة ذاتية التشغيل التي تفتقر للإشراف البشري.
وقع أكثر من 500 موظف من OpenAI وجوجل خطاباً مشتركاً يدعو إلى الثبات أمام الضغوط الحكومية وحماية مبادئ السلامة والخصوصية في الذكاء الاصطناعي.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!