البنتاغون يطلب وصولاً غير مقيد لنماذج الذكاء الاصطناعي
يسعى البنتاغون حالياً لتوسيع استخدامه لتقنيات الذكاء الاصطناعي عبر كل من الشبكات غير السرية والسرية، لكن المفاوضات مع شركات الذكاء الاصطناعي الكبرى اصطدمت بعقبات تتعلق بقيود الاستخدام والضوابط الأخلاقية.
مطالب عسكرية بوصول مفتوح
يرغب مسؤولو الدفاع الأمريكيون في الوصول إلى النماذج الأكثر تقدماً دون أي قيود استخدام أو حواجز وقائية صارمة. ووفقاً لتقارير إخبارية، يجادل المسؤولون العسكريون بأنه يجب السماح لهم بنشر الذكاء الاصطناعي بالطريقة التي يرونها مناسبة، طالما أن ذلك يتوافق مع القانون الأمريكي.
تأتي هذه التحركات بالتزامن مع إعلان شركة OpenAI يوم الاثنين عن إتاحة نسخة مخصصة من ChatGPT عبر منصة الذكاء الاصطناعي التابعة لوزارة الحرب (GenAI.mil). وتُستخدم هذه المنصة، التي أُطلقت في ديسمبر، من قبل حوالي 3 ملايين موظف مدني وعسكري، وتتضمن بالفعل إصدارات مخصصة من أدوات شركة xAI ونموذج Gemini من جوجل.
دمج الذكاء الاصطناعي في العمليات اليومية
وفي بيان صحفي حول المنصة، صرح وزير الحرب بيت هيغسيث قائلاً: "نحن نضع كل رهاناتنا على الذكاء الاصطناعي كقوة قتالية. تستفيد الوزارة من العبقرية التجارية الأمريكية، ونقوم بدمج الذكاء الاصطناعي التوليدي في إيقاع معركتنا اليومي". وأضاف أن أدوات الذكاء الاصطناعي تقدم فرصاً لا حدود لها لزيادة الكفاءة.
مخاوف من التطبيقات الحساسة
تم تصميم نسخة OpenAI من ChatGPT الموجودة على المنصة للمساعدة في المهام اليومية مثل تلخيص وثائق السياسة، وصياغة التقارير، والمساعدة في البحث. ومع ذلك، تشير التقارير إلى أن مسؤولي البنتاغون يضغطون لنشر أنظمة الذكاء الاصطناعي عبر جميع مستويات التصنيف الأمني، مما قد يفتح الباب لتطبيقات أكثر حساسية مثل تخطيط المهام أو استهداف الأسلحة.
وأشار مسؤول لم يذكر اسمه إلى أن البنتاغون "يتحرك لنشر قدرات الذكاء الاصطناعي الرائدة عبر جميع مستويات التصنيف".
مقاومة من شركات التقنية
في المقابل، تتوفر نماذج شركة Anthropic حالياً في إعدادات سرية محددة من خلال مزودين خارجيين، ولكن مع قيود كبيرة على الاستخدام. وقد أبلغ المسؤولون التنفيذيون في Anthropic المسؤولين العسكريين أنهم لا يريدون استخدام أنظمتهم لاستهداف الأسلحة المستقلة أو المراقبة المحلية.
ووفقاً للتقارير، لم توافق Anthropic حتى الآن على السماح باستخدام نماذجها لـ "جميع الاستخدامات القانونية"، ولا تتوفر أدواتها حالياً على منصة GenAI.mil. هذا الموقف أثار، بحسب المصادر، استياء البنتاغون والبيت الأبيض.
تحديات أخلاقية وتنافسية
تترك هذه المفاوضات شركات الذكاء الاصطناعي في موقف دقيق. فمن ناحية، هناك موظفون يعارضون الاستخدام العسكري لأنظمتهم ويخشون أن يؤدي ذلك إلى صعوبة في توظيف المواهب مستقبلاً. ومن ناحية أخرى، يمثل البنتاغون عميلاً ضخماً وقوة سياسية مؤثرة.
في الوقت نفسه، أعرب بعض موظفي OpenAI عن مخاوفهم من منح المنافسين ميزة في حال تراجع شركتهم عن العمل الدفاعي.
الأسئلة الشائعة
هي منصة ذكاء اصطناعي تابعة لوزارة الدفاع الأمريكية، يستخدمها حوالي 3 ملايين موظف، وتتضمن أدوات مخصصة من شركات مثل OpenAI وجوجل.
ترفض Anthropic استخدام أنظمتها في استهداف الأسلحة المستقلة أو المراقبة المحلية، وتفرض قيوداً صارمة على الاستخدام.
يُستخدم حالياً للمساعدة في المهام اليومية مثل تلخيص الوثائق، صياغة التقارير، والمساعدة في الأبحاث، وليس في العمليات القتالية المباشرة حتى الآن.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!