بحث
OpenAI تتعاون مع البنتاغون.. أخلاقيات الذكاء الاصطناعي في خطر؟
الذكاء الاصطناعي

OpenAI تتعاون مع البنتاغون.. أخلاقيات الذكاء الاصطناعي في خطر؟

تاريخ النشر: 2 مشاهدة 0 تعليق 4 دقائق قراءة
2 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

في خطوة مفاجئة، أعلن [[سام ألتمان]]، الرئيس التنفيذي لـ[[OpenAI]]، عن اتفاق تاريخي لنشر نماذج شركته المتقدمة ضمن الشبكة السرية لوزارة الدفاع الأمريكية (البنتاغون). يأتي هذا التوقيت محملًا بالدلالات، ليضع ألتمان في واجهة الحديث عن الذكاء الاصطناعي في سياق الصراعات العسكرية.

قبل ساعات قليلة من إعلان ألتمان، أُبلغ منافس OpenAI الرئيسي، شركة [[Anthropic]]، بأن منتجاتها قد أُدرجت في قائمة سوداء من قبل البنتاغون، مصنفة إياها كـ"خطر على الأمن القومي من ناحية سلسلة التوريد". كانت Anthropic قد وضعت "خطوطًا حمراء" صارمة بشأن استخدام تقنياتها في المراقبة الجماعية والأسلحة المستقلة، وهو ما اعتبره البنتاغون غير مقبول. وبناءً عليه، تقرر ألا تتعامل أي شركة تتعاون مع البنتاغون تجاريًا مع Anthropic.

تشير تقارير Axios إلى أن الأساس القانوني الذي استند إليه البنتاغون لهذا التصنيف لا يزال غير واضح، حيث يُخصص تصنيف "خطر سلسلة التوريد" عادةً للشركات التي تتخذ من دول معادية للولايات المتحدة مقرًا لها أو تدعمها. تتوافق هذه الخطوة مع النمط المعروف لإدارة ترامب 2.0، الذي يتمثل في معاقبة أي طرف لا يرضي الإدارة بأشد الوسائل المتاحة، وترك أمر صلاحية هذه الوسائل للمحاكم في وقت لاحق.

نظريًا، تُعد خسارة Anthropic مكسبًا لـOpenAI وسام ألتمان. يعود وجود Anthropic في الأساس إلى انشقاقها عن OpenAI، حيث تأسست بهدف الالتزام بمعايير أخلاقية وسلامة لم يرَ فريق داريو أمودي (الرئيس التنفيذي لـAnthropic) أن OpenAI تلتزم بها. هذا التنافس لم يكن وديًا، ويتجلى ذلك في الإعلانات التلفزيونية التي سخرت فيها Anthropic من OpenAI بشكل غير مباشر، وفي رفض ألتمان وأمودي مصافحة بعضهما في مناسبات عامة.

على الرغم من محاولات سام ألتمان الظاهرة لتبني موقف أخلاقي مشابه لموقف أمودي بشأن المراقبة والأسلحة المستقلة، إلا أن هذه الادعاءات قوبلت بالتشكيك. فقد صرح جيريمي لوين، المسؤول السابق في وزارة الخارجية، عبر منصة X بأن مبادئ ألتمان المعلنة لا تتعدى كونها "زغبًا" لإضفاء شعور جيد، وأنها عمليًا لا تمنح OpenAI أي سلطة لمنع البنتاغون من استخدام نماذجها كيفما يشاء. على النقيض من Anthropic، يرى لوين أن OpenAI "توصلت إلى الإجابة الوطنية والصحيحة هنا".

لكن تذمر ألتمان من "الخطوط الحمراء" لـAnthropic يتناقض مع تصريحات سابقة له هذا الشهر، حيث انتقد ألتمان إعلانات Anthropic التلفزيونية، مشيرًا إلى أن "Anthropic تريد التحكم فيما يفعله الناس بالذكاء الاصطناعي". وأضاف أنهم "يمنعون الشركات التي لا يحبونها من استخدام منتجهم البرمجي (بما في ذلك نحن)، ويريدون وضع القواعد بأنفسهم لما يمكن للناس استخدامه في الذكاء الاصطناعي وما لا يمكنهم استخدامه".

بغض النظر عن المصطلحات التي يمكن استخدامها لوصف استراتيجية Anthropic، فقد كانت فعالة للغاية من الناحية التجارية. إذا كان عام 2025 هو عام نجاح [[جوجل]] في الذكاء الاصطناعي، فقد كان عام 2026 حتى الآن عام Anthropic، حيث أحدث منتجها الرائد Claude Code ضجة كبيرة تعادل تأثير [[ChatGPT]] في عام 2022. كما تجاوزت Anthropic شركة OpenAI في إجمالي الأموال التي جمعتها هذا الشهر.

الغريب أن ألتمان اتخذ موقفًا شعبويًا في هجومه على إعلانات Anthropic، مدعيًا أن "Anthropic تقدم منتجًا باهظ الثمن للأثرياء". هذا الادعاء يكاد يكون بلا معنى، حيث تفرض كل من OpenAI وAnthropic رسومًا على الاشتراكات والوصول إلى واجهة برمجة التطبيقات (API). يبدو أن ألتمان يحاول وضع ChatGPT المدعوم بالإعلانات، وربما نسخة مستقبلية مدعومة بالإعلانات من منتجها Codex، كنسخ ديمقراطية وشعبية لهذه المنتجات، مقابل Anthropic المخصصة "للأثرياء".

ينفي البنتاغون أن تكون الأسباب المعلنة لـAnthropic هي جوهر هذه القضية. فقد صرح مسؤول مجهول في البنتاغون لـCBS News بأن "هذا لا علاقة له باستخدام المراقبة الجماعية والأسلحة المستقلة. لقد أصدر البنتاغون أوامر قانونية فقط". علاوة على ذلك، فقد تم تعديل القواعد التي فرضتها Anthropic على نفسها، والتي قيدت قدرتها على التوسع، لتصبح مجرد إرشادات مرنة مؤخرًا.

لذا، لا يوجد سبب للاعتقاد بأن منتج Anthropic يمتلك "روحًا"، أو أن Anthropic هي أكثر من مجرد شركة هادفة للربح، تسعى للتعامل مع القيود التي يفرضها ميثاق تأسيسها غير العادي، والذي يتطلب منها تحقيق أقصى قدر ممكن من الأرباح مع الادعاء بأنها "تطور وتحافظ بمسؤولية على الذكاء الاصطناعي المتقدم لصالح البشرية على المدى الطويل".

على الرغم من إدراجها في القائمة السوداء من قبل البنتاغون، صرح أمودي بأنهم "ما زالوا مهتمين بالعمل معهم طالما كان ذلك متوافقًا مع خطوطنا الحمراء".

تأتي هذه التطورات على خلفية سياسية متوترة. فبعد ساعات من إعلان ألتمان عن صفقة مع البنتاغون، أطلقت وزارة الدفاع عمليات قتالية كبرى ضد إيران بالاشتراك مع إسرائيل، وفقًا لما وصفه الرئيس. تُظهر استطلاعات الرأي الأخيرة أن غالبية الأمريكيين لديهم ثقة قليلة أو معدومة في الرئيس دونالد ترامب عندما يتعلق الأمر بالأمن القومي، وأنهم يفضلون عدم الحرب مع إيران. كما كشف استطلاع حديث لـGallup أن عدد الأمريكيين الذين "يتعاطفون" مع الفلسطينيين يفوق الآن عدد المتعاطفين مع الإسرائيليين.

في خضم هذا المشهد السياسي، أوجد صراع Anthropic مع البنتاغون حول "الخطوط الحمراء" مساحة رمزية تقول بوضوح: "الذكاء الاصطناعي الصديق بلا شك للآلة الحربية الأمريكية". ويبدو أن سام ألتمان وOpenAI يتقدمان طواعية إلى هذه المساحة. سيُمنح المتعاقدون العسكريون الذين يستخدمون منتجات Anthropic مثل Claude Code ستة أشهر للتخلص التدريجي منها، وقد أعلنت Anthropic بالفعل أنها ستطعن في هذا التصنيف قضائيًا.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!