بحث
باحثو OpenAI وAnthropic ينتقدون ثقافة السلامة في xAI
الذكاء الاصطناعي #ثقافة_السلامة #الذكاء_الاصطناعي

باحثو OpenAI وAnthropic ينتقدون ثقافة السلامة في xAI

تاريخ النشر: آخر تحديث: 16 مشاهدة 0 تعليق 5 دقائق قراءة
16 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

يعبّر الباحثون في مجال سلامة الذكاء الاصطناعي من OpenAI وAnthropic وغيرها من المنظمات علنًا عن استيائهم من ثقافة السلامة "المتهورة" و"غير المسؤولة تمامًا" في xAI، الشركة الناشئة في مجال الذكاء الاصطناعي التي يملكها إيلون ماسك. تأتي هذه الانتقادات بعد أسابيع من الفضائح في xAI التي طغت على تقدم الشركة التكنولوجي.

في الأسبوع الماضي، أطلق روبوت الدردشة الذكي الخاص بالشركة، Grok، تعليقات معادية للسامية وكرر الإشارة إلى نفسه بـ"MechaHitler". وبعد فترة قصيرة من إيقاف xAI للروبوت لمعالجة المشكلة، أطلقت نموذج الذكاء الاصطناعي المتقدم Grok 4، الذي وجدت TechCrunch وغيرها أنه يستعين بالسياسات الشخصية لإيلون ماسك للإجابة على القضايا المثيرة للجدل. وفي أحدث التطورات، أطلقت xAI رفقاء ذكاء اصطناعي يتخذون شكل فتاة أنمي مفرطة في التوجه الجنسي ودب باندا عدواني للغاية.

إن المزاح الودي بين موظفي مختبرات الذكاء الاصطناعي المتنافسة يعد أمرًا طبيعيًا، لكن يبدو أن هؤلاء الباحثين يدعون إلى زيادة الانتباه لممارسات السلامة في xAI، والتي يزعمون أنها تتعارض مع المعايير الصناعية. قال بواز باراك، أستاذ علوم الحاسوب الذي يعمل حاليًا في أبحاث السلامة في OpenAI، في منشور له يوم الثلاثاء على X: "لم أرغب في نشر معلومات حول سلامة Grok لأنني أعمل في منافسة، لكن الأمر لا يتعلق بالمنافسة. أقدر العلماء والمهندسين في @xai، لكن الطريقة التي تم التعامل بها مع السلامة غير مسؤولة تمامًا."

مخاوف الباحثين

يُعبر باراك عن قلقه بشكل خاص بشأن قرار xAI بعدم نشر بطاقات النظام — وهي تقارير معيارية تفصيلية حول أساليب التدريب والتقييمات الأمنية في جهد حسن النية لمشاركة المعلومات مع مجتمع البحث. ونتيجة لذلك، يقول باراك إنه من غير الواضح ما هي التدريبات الأمنية التي تم القيام بها على Grok 4.

لدى OpenAI وGoogle سمعة غير متسقة أيضًا عندما يتعلق الأمر بمشاركة بطاقات النظام بسرعة عند الكشف عن نماذج الذكاء الاصطناعي الجديدة. قررت OpenAI عدم نشر بطاقة نظام لـ GPT-4.1، مدعيةً أنها ليست نموذجًا متقدمًا. في حين انتظرت Google شهورًا بعد الكشف عن Gemini 2.5 Pro لنشر تقرير السلامة. ومع ذلك، تاريخيًا، تنشر هذه الشركات تقارير السلامة لجميع نماذج الذكاء الاصطناعي المتقدمة قبل دخولها في الإنتاج الكامل.

كما يشير باراك إلى أن رفقاء الذكاء الاصطناعي لـ Grok "تأخذ أسوأ القضايا التي لدينا حاليًا فيما يتعلق بالاعتماد العاطفي وتحاول تضخيمها." في السنوات الأخيرة، شهدنا العديد من القصص عن أشخاص غير مستقرين يطورون علاقات مقلقة مع الروبوتات، وكيف يمكن أن تؤدي إجابات الذكاء الاصطناعي المفرطة في التوافق إلى دفعهم إلى حافة الجنون.

كما انتقد صموئيل ماركس، باحث سلامة الذكاء الاصطناعي في Anthropic، قرار xAI بعدم نشر تقرير سلامة، واصفًا هذه الخطوة بأنها "متهورة". كتب ماركس في منشور له على X: "تمتلك ممارسات الإصدار في Anthropic وOpenAI وGoogle مشاكل، لكنهم على الأقل يفعلون شيئًا، أي شيء لتقييم السلامة قبل النشر وتوثيق النتائج. xAI لا تفعل ذلك."

الحقيقة هي أننا لا نعرف حقًا ما الذي فعلته xAI لاختبار Grok 4. في منشور تم مشاركته على نطاق واسع في منتدى LessWrong، يدعي أحد الباحثين المجهولين أن Grok 4 لا يحتوي على حواجز أمان ذات مغزى بناءً على اختباراتهم. سواء كان ذلك صحيحًا أم لا، يبدو أن العالم يكتشف عيوب Grok في الوقت الحقيقي.

وقد انتشرت العديد من مشكلات السلامة في xAI بشكل واسع، وتزعم الشركة أنها عالجتها من خلال تعديلات على نظام Grok. لم تستجب OpenAI وAnthropic وxAI لطلب TechCrunch للتعليق.

نشر دان هندريكس، مستشار السلامة في xAI ومدير مركز سلامة الذكاء الاصطناعي، على X أن الشركة قامت بإجراء "تقييمات قدرة خطيرة" على Grok 4. ومع ذلك، لم يتم مشاركة نتائج تلك التقييمات علنًا.

قال ستيفن أدلر، باحث مستقل في الذكاء الاصطناعي الذي قاد سابقًا فرق السلامة في OpenAI، في بيان لـ TechCrunch: "يشعرني بالقلق عندما لا يتم الالتزام بممارسات السلامة القياسية عبر صناعة الذكاء الاصطناعي، مثل نشر نتائج التقييمات الخطيرة للقدرة." وأضاف: "يستحق الحكومات والجمهور أن يعرفوا كيف تتعامل شركات الذكاء الاصطناعي مع مخاطر الأنظمة القوية جدًا التي يقولون إنهم يبنونها."

ما يثير الاهتمام حول ممارسات السلامة المشكوك فيها في xAI هو أن ماسك كان منذ فترة طويلة أحد أبرز المدافعين عن سلامة الذكاء الاصطناعي. لقد حذر الملياردير، قائد xAI وTesla وSpaceX، عدة مرات من إمكانية أن تتسبب أنظمة الذكاء الاصطناعي المتقدمة في نتائج كارثية للبشر، وقد أثنى على نهج مفتوح في تطوير نماذج الذكاء الاصطناعي.

ومع ذلك، يدعي باحثو الذكاء الاصطناعي في مختبرات المنافسة أن xAI تنحرف عن المعايير الصناعية المتعلقة بإطلاق نماذج الذكاء الاصطناعي بشكل آمن. من خلال القيام بذلك، قد تجعل شركة ماسك بشكل غير مقصود قضية قوية للمشرعين على مستوى الدولة والفيدرالية لوضع قواعد حول نشر تقارير سلامة الذكاء الاصطناعي.

هناك عدة محاولات على مستوى الولاية للقيام بذلك. يسعى السيناتور في ولاية كاليفورنيا سكوت وينر لدفع مشروع قانون يتطلب من مختبرات الذكاء الاصطناعي الرائدة — من المحتمل أن تشمل xAI — نشر تقارير السلامة، بينما تفكر حاكم ولاية نيويورك كاثي هوشول حاليًا في مشروع قانون مشابه. يشير مؤيدو هذه المشاريع إلى أن معظم مختبرات الذكاء الاصطناعي تنشر هذا النوع من المعلومات على أي حال — لكن يبدو أن ليس جميعهم يفعلون ذلك بشكل متسق.

حتى الآن، لم تظهر نماذج الذكاء الاصطناعي سيناريوهات حقيقية حيث تخلق أضرارًا كارثية حقًا، مثل وفاة الأشخاص أو أضرار بمليارات الدولارات. ومع ذلك، يقول العديد من باحثي الذكاء الاصطناعي إن هذه قد تكون مشكلة في المستقبل القريب نظرًا للتقدم السريع لنماذج الذكاء الاصطناعي، والمليارات من الدولارات التي تستثمرها وادي السيليكون لتحسين الذكاء الاصطناعي.

لكن حتى بالنسبة للمتشككين في مثل هذه السيناريوهات الكارثية، هناك حالة قوية تشير إلى أن سلوك Grok السيئ يجعل المنتجات التي تدعمها اليوم أسوأ بكثير. انتشر Grok بالمعاداة للسامية عبر منصة X هذا الأسبوع، بعد أسابيع قليلة من إثارته موضوع "الإبادة الجماعية البيضاء" في محادثات مع المستخدمين. وقد أشار ماسك إلى أن Grok سيكون أكثر اندماجًا في سيارات تسلا، وتحاول xAI بيع نماذج الذكاء الاصطناعي الخاصة بها للبنتاغون وغيرها من المؤسسات.

من الصعب تخيل أن الأشخاص الذين يقودون سيارات ماسك، أو الموظفين الفيدراليين الذين يحميون الولايات المتحدة، أو موظفي الشركات الذين يقومون بأتمتة المهام سيكونون أكثر تقبلًا لهذه السلوكيات السيئة من المستخدمين على X. يجادل العديد من الباحثين بأن اختبار سلامة الذكاء الاصطناعي ومحاذاة السلوك لا يضمن فقط عدم حدوث أسوأ النتائج، بل تحمي أيضًا من القضايا السلوكية على المدى القريب.

على الأقل، تميل حوادث Grok إلى طغى على تقدم xAI السريع في تطوير نماذج الذكاء الاصطناعي المتقدمة التي تتفوق على تكنولوجيا OpenAI وGoogle، بعد بضع سنوات فقط من تأسيس الشركة الناشئة.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!