Anthropic تخفف بروتوكولات الأمان وسط ضغوط البنتاغون
أعلنت شركة Anthropic المتخصصة في الذكاء الاصطناعي عن تحديث مثير للجدل لسياسة "التوسع المسؤول" (Responsible Scaling Policy) الخاصة بها. يأتي هذا التغيير ليخفف من التزامات الشركة السابقة تجاه بروتوكولات الأمان الصارمة، مبررةً ذلك بضرورة مواكبة المنافسين في سباق تطوير الذكاء الاصطناعي المتسارع.
تُعد هذه الخطوة لافتة للنظر بشكل خاص، حيث تتزامن مع مفاوضات جارية بين Anthropic والبنتاغون، الذي يضغط لتليين قيود أمان الذكاء الاصطناعي لاستخدامه في تطبيقات عسكرية محتملة، بما في ذلك أنظمة الدفاع الصاروخي. يثير هذا التوقيت تساؤلات حول ما إذا كانت الشركة تتنازل عن مبادئها المعلنة للحفاظ على السلامة.
تراجع عن الالتزام بالسلامة: دوافع Anthropic
منذ إطلاقها في عام 2023، مثّلت سياسة التوسع المسؤول (RSP) في Anthropic إطاراً يهدف إلى التخفيف من المخاطر الكارثية المرتبطة بأنظمة الذكاء الاصطناعي. كانت الشركة تروّج لهذه السياسة كعامل تمييز رئيسي بينها وبين منافسيها، مؤكدةً أنها تضع السلامة أولاً حتى لو كان ذلك يعني التخلف عن نماذج رائدة أخرى أقل حذراً.
في السابق، نصت سياسة RSP بوضوح: "لن نقوم بتدريب أو نشر نماذج قادرة على إحداث ضرر كارثي ما لم نقم بتطبيق تدابير سلامة وأمن تحافظ على المخاطر دون مستويات مقبولة." لكن الآن، يبدو أن Anthropic لم تعد متأكدة من جدوى هذا الالتزام إذا كان يعني خسارة الأرض أمام المنافسين.
صرح جاريد كابلان، كبير علماء Anthropic، لمجلة TIME قائلاً: "شعرنا أن توقفنا عن تدريب نماذج الذكاء الاصطناعي لن يفيد أحداً. ومع التقدم السريع للذكاء الاصطناعي، لم نرَ أن الالتزامات أحادية الجانب منطقية... إذا كان المنافسون يتقدمون بسرعة."
من معايير صارمة إلى أهداف غير ملزمة
على الرغم من أن Anthropic تُقر بأن سياسة RSP الأصلية حفزتها على تطوير ضمانات أقوى لنماذجها، إلا أنها تشير إلى أن عدم تبني الشركات الأخرى لقيود مماثلة يتطلب منها مرونة أكبر. وصرحت الشركة في تدوينة أن "سياسة التوسع المسؤول كانت دائماً وثيقة حية: سياسة تتمتع بالمرونة للتغيير مع تزايد قدرات نماذج الذكاء الاصطناعي".
ستستمر Anthropic في نشر تقارير المخاطر، لكنها ستعتمد الآن على أهداف أمان "غير ملزمة ولكن معلنة علناً" بدلاً من المعايير الداخلية الصارمة. يمكن قراءة ذلك كتعهد بالمساءلة العامة، أو بتفسير أقل تفاؤلاً، أن الشركة تدرك عدم وجود طريقة للجمهور لفرض هذه المعايير، فلماذا تفرضها على نفسها؟
الضغط العسكري والخطوط الحمراء لـ Anthropic
أفادت Anthropic لصحيفة وول ستريت جورنال أن التغيير في سياسة RSP لا يرتبط بمفاوضاتها الجارية مع البنتاغون. هذا الادعاء يأتي بعد يوم واحد فقط من تهديد البنتاغون للشركة بتليين قيود الأمان الخاصة بها للسماح للجيش باستخدام نماذج الذكاء الاصطناعي حسب رغبته، أو مواجهة عواقب وخيمة.
حافظت Anthropic على "خطين أحمرين" أساسيين فيما يتعلق باستخدام تقنيتها في العمليات العسكرية: عدم السماح باستخدام نماذجها للمراقبة المحلية الجماعية، أو لتطوير أسلحة ذاتية التشغيل بالكامل تعمل دون تدخل بشري. يبدو أن وزير الدفاع بيت هيغسيث غير مستعد لقبول هذه الشروط، وهدد بإلغاء العقود الحكومية مع Anthropic، وإعلانها "خطراً على سلسلة التوريد"، و/أو تفعيل قانون الإنتاج الدفاعي لإجبار الشركة على بناء نموذج للأغراض العسكرية المطلوبة.
"استثناءات" للدفاع الصاروخي
ومع ذلك، يبدو أن الشركة كانت تتفاوض بالفعل على "استثناءات" لا تتجاوز الخطوط الحمراء تماماً. في ديسمبر، أفادت Semafor أن البنتاغون سأل Anthropic عما إذا كانت ستسمح باستخدام نموذجها لإطلاق صواريخ بشكل مستقل لاعتراض صواريخ أخرى. وبحسب التقارير، طلبت Anthropic من البنتاغون التواصل قبل المضي قدماً في مثل هذه الحالة، على الرغم من أن Semafor ذكرت أن Anthropic كانت وما زالت مستعدة لإنشاء استثناء للدفاع الصاروخي في سياساتها.
من المحتمل أن Anthropic كانت ستخفف القيود التي فرضتها على نفسها في جميع الأحوال. ومن المحتمل أيضاً أن هذا التغيير كان سيحدث هذا الأسبوع، بغض النظر عن الجمود مع وزارة الدفاع بشأن ضمانات الذكاء الاصطناعي. لكن بالنظر إلى الموقف الذي تجد Anthropic نفسها فيه، يصبح من الصعب عدم رؤية هذا الوضع كتنازل من الشركة عن مبادئها المعلنة.
الأسئلة الشائعة
خففت Anthropic التزاماتها السابقة في سياسة "التوسع المسؤول" (RSP)، لتنتقل من معايير داخلية صارمة إلى أهداف أمان "غير ملزمة ولكن معلنة علناً".
بررت Anthropic التغيير بضرورة مواكبة المنافسين الذين يتقدمون بسرعة في تطوير نماذج الذكاء الاصطناعي دون قيود مماثلة، خوفاً من التخلف عن الركب.
تتزامن التغييرات مع ضغوط مكثفة من البنتاغون لتليين قيود أمان الذكاء الاصطناعي لاستخدامه في تطبيقات عسكرية، رغم نفي Anthropic وجود صلة مباشرة.
تمثلت الخطوط الحمراء في عدم السماح باستخدام نماذجها للمراقبة المحلية الجماعية أو لتطوير أسلحة ذاتية التشغيل بالكامل دون تدخل بشري.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!