Anthropic تراجع سياسة السلامة بـ 'ثغرة' وسط ضغط البنتاغون
أعلنت شركة [[Anthropic]]، المطوّرة لنموذج [[Claude]] للذكاء الاصطناعي، عن تعديل مثير للجدل في سياستها للمقاييس المسؤولة، والذي يضيف 'ثغرة' تسمح لها بتدريب نماذج قد تكون خطرة.
لطالما كانت 'السلامة أولاً' هي المبدأ الذي ميّز Anthropic عن منافسيها الكبار في مجال الذكاء الاصطناعي. فقد تعهدت الشركة في السابق بالتوقف عن تدريب أي نموذج جديد لا يستوفي معايير السلامة الصارمة، حتى لو تقدم المنافسون. يأتي هذا التغيير في وقت حاسم تواجه فيه Anthropic ضغوطاً من [[البنتاغون]] للحصول على وصول عسكري لنماذجها، وهو ما وافقت عليه شركتا [[OpenAI]] و[[xAI]] بالفعل.
تحولٌ في سياسة السلامة: ثغرة أم تكيف؟
وفقاً لما ذكرته مجلة Time لأول مرة، فإن الإصدار الثالث من سياسة Anthropic للمقاييس المسؤولة (Responsible Scaling Policy) يتراجع عن الوعد السابق للشركة. تسمح السياسة الجديدة لـ Anthropic بمواصلة تدريب نماذج قد تكون خطرة إذا كان منافسوها يعملون عليها بنشاط.
ومع ذلك، تتضمن السياسة الجديدة أيضاً تفويضات لزيادة الشفافية بشأن سلامة الذكاء الاصطناعي، إلى جانب تعهد بـ 'تأخير' تطوير النماذج الخطرة إذا اعتبرت الشركة نفسها متقدمة بشكل مريح على منافسيها.
ضغط البنتاغون وموقف Anthropic
يأتي هذا التعديل في وقت حاسم بالنسبة لـ Anthropic، التي تواجه مهلة نهائية للاستجابة لمطالب البنتاغون بالحصول على وصول واسع النطاق إلى نماذجها للاستخدام العسكري. خلال اجتماع في البنتاغون مع الرئيس التنفيذي لـ Anthropic، داريو أمودي، ورد أن وزير الدفاع بيت هيغسيث هدد باستخدام قانون الإنتاج الدفاعي لإجبار Anthropic على تسليم نماذجها، التي يريد الجيش استخدامها 'لأي غرض قانوني'، وفقاً لصحيفة The New York Times.
تُفيد التقارير أن Anthropic تتمسك بموقفها، وتطالب بتعهد من هيغسيث بأن البنتاغون لن يستخدم نماذجها 'للأسلحة المستقلة' أو للتجسس على الأمريكيين. يرى البعض أن سياسة Anthropic المعدلة هي بمثابة مخرج من المأزق الحالي، مما يسمح للشركة بالرضوخ المحتمل لمطالب البنتاغون مع الحفاظ على التوافق مع سياسات السلامة الخاصة بها. تجدر الإشارة إلى أن شركتي xAI التي يسيطر عليها إيلون ماسك و OpenAI قد توصلتا بالفعل إلى اتفاقيات مع البنتاغون.
دفاع Anthropic وتبرير التغيير
من جانبها، ترفض Anthropic فكرة أن سياستها المعدلة قد أضعفت معايير السلامة لديها. وتجادل الشركة بأن 'الخطوط الحمراء' القديمة أصبحت بالية، خاصة في ظل موقف الحكومة غير المتدخل في قضايا الذكاء الاصطناعي.
وتصرح Anthropic بأنه من خلال منح نفسها حرية الاستمرار في تدريب النماذج غير المستقرة التي يطورها الآخرون بنشاط، ستتمكن الشركة من العمل كقوة استقرار، بدلاً من السماح للشركات الأكثر تهوراً بأن تصبح قادة صناعة الذكاء الاصطناعي.
ختاماً: تساؤلات حول مستقبل السلامة
قد يكون هذا صحيحاً، ونأمل أن تكون Anthropic على حق في رؤيتها. ومع ذلك، يبقى من المقلق رؤية الشركة التي لطالما دافعت عن السلامة في مجال الذكاء الاصطناعي تعيد كتابة قواعدها الخاصة.
الأسئلة الشائعة
يتيح التعديل الجديد لشركة Anthropic مواصلة تدريب نماذج الذكاء الاصطناعي التي قد تكون خطرة، وذلك إذا كان منافسوها يعملون على تطوير نماذج مماثلة.
يأتي التعديل وسط ضغوط من البنتاغون للحصول على وصول عسكري لنماذج Anthropic. وتبرر الشركة ذلك بأنه تكيف مع مشهد الذكاء الاصطناعي المتغير ورغبتها في أن تكون 'قوة استقرار' في الصناعة.
تتمسك Anthropic بموقفها، وتطالب البنتاغون بالتعهد بعدم استخدام نماذجها للأسلحة المستقلة أو التجسس على الأمريكيين، رغم ضغوط استخدام قانون الإنتاج الدفاعي.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!