جدل OpenAI حول بلاغ مستخدمة ChatGPT قبل حادث إطلاق نار
كشفت تقارير عن جدل داخلي في [[OpenAI]] حول بلاغ مستخدمة [[ChatGPT]] للسلطات الكندية، بعد أن وصفت عنفاً مسلحاً قبل اتهامها بحادث إطلاق نار جماعي في كندا. هذا الحادث يثير تساؤلات جدية حول مسؤولية منصات الذكاء الاصطناعي في مراقبة المحتوى الضار والإبلاغ عنه.
تفاصيل استخدام ChatGPT قبل الحادث
اتُهمت فتاة تبلغ من العمر 18 عاماً، تُدعى جيسي فان روتسيلار، بقتل ثمانية أشخاص في حادث إطلاق نار جماعي ببلدة تاملر ريدج الكندية. وبحسب التقارير، استخدمت روتسيلار نموذج اللغة الكبير [[ChatGPT]] التابع لشركة [[OpenAI]] بطرق أثارت قلق موظفي الشركة.
تم رصد محادثات روتسيلار التي وصفت فيها عنفاً مسلحاً بواسطة أدوات مراقبة سوء الاستخدام الخاصة بالشركة، وتم حظرها في يونيو 2025. هذه المحادثات أدت إلى نقاش داخلي بين موظفي OpenAI حول ضرورة إبلاغ سلطات إنفاذ القانون الكندية بهذا السلوك المقلق.
قرار OpenAI بالإبلاغ بعد الواقعة
وفقاً لتقرير نشرته صحيفة وول ستريت جورنال، لم تتخذ شركة OpenAI قراراً بالإبلاغ عن المستخدمة للسلطات قبل وقوع حادث إطلاق النار المزعوم. وقد صرح متحدث باسم OpenAI بأن نشاط فان روتسيلار في البداية لم يستوفِ المعايير المطلوبة للإبلاغ الفوري إلى سلطات إنفاذ القانون.
بعد وقوع المأساة في تاملر ريدج، تواصلت الشركة بشكل استباقي مع الشرطة الكندية، وتحديداً الشرطة الكندية الملكية (Royal Canadian Mounted Police)، لتقديم معلومات حول الفرد واستخدامها لـ ChatGPT. وأكد المتحدث باسم الشركة أن OpenAI ستواصل دعم التحقيقات.
"قلوبنا مع كل من تضرر من مأساة تاملر ريدج. لقد تواصلنا استباقياً مع الشرطة الكندية الملكية بمعلومات حول الفرد واستخدامها لـ ChatGPT، وسنستمر في دعم تحقيقهم." - متحدث باسم OpenAI.
النشاط الرقمي الآخر وعدم الاستقرار
لم تكن محادثات ChatGPT هي الجزء الوحيد المثير للقلق في البصمة الرقمية لجيسي فان روتسيلار. فقد تبين أنها أنشأت لعبة على منصة Roblox، وهي منصة محاكاة عالمية يرتادها الأطفال بكثرة، تحاكي حادث إطلاق نار جماعي في مركز تجاري.
كما نشرت روتسيلار أيضاً محتوى يتعلق بالأسلحة على منصة Reddit. ولم يكن عدم استقرارها خفياً، إذ كانت الشرطة المحلية على علم به، وتم استدعاؤها إلى منزل عائلتها بعد أن أشعلت حريقاً وهي تحت تأثير مواد مخدرة لم يتم تحديدها.
تُظهر الصورة المرفقة شعار ChatGPT، وهو النموذج الذي أثار الجدل حول استخدامه في هذه القضية.
تساؤلات حول سلامة نماذج اللغة الكبيرة
تُتهم روبوتات الدردشة التي تعتمد على نماذج اللغة الكبيرة، سواء التي بنتها OpenAI أو منافسوها، بإثارة انهيارات عقلية لدى المستخدمين الذين يفقدون الاتصال بالواقع أثناء محادثاتهم مع النماذج الرقمية. وقد تم رفع دعاوى قضائية متعددة تستشهد بنصوص محادثات تشجع المستخدمين على الانتحار أو تقدم لهم المساعدة في ذلك.
هذا الحادث يسلط الضوء مجدداً على التحديات الأخلاقية والأمنية التي تواجه شركات الذكاء الاصطناعي، وضرورة وضع معايير واضحة للإبلاغ عن المحتوى الذي قد يشكل تهديداً حقيقياً.
خاتمة
تطرح قضية جيسي فان روتسيلار وتعامل [[OpenAI]] مع محادثاتها أسئلة جوهرية حول الحدود الفاصلة بين حرية التعبير الرقمي ومسؤولية الشركات التقنية تجاه السلامة العامة. يبقى النقاش مفتوحاً حول كيفية تحقيق التوازن بين الابتكار التكنولوجي والحماية من سوء الاستخدام المحتمل.
ندعوكم لمشاركة آرائكم حول مسؤولية شركات الذكاء الاصطناعي في التعليقات أدناه، ومتابعتنا لآخر مستجدات أخلاقيات التقنية.
الأسئلة الشائعة
يدور الجدل حول قرار OpenAI بعدم إبلاغ السلطات الكندية بشأن محادثات مقلقة لمستخدمة ChatGPT وصفت فيها عنفاً مسلحاً، قبل وقوع حادث إطلاق نار جماعي.
صرحت OpenAI أن نشاط المستخدمة لم يستوفِ معايير الإبلاغ للسلطات القانونية في البداية، مؤكدة أنها تواصلت مع الشرطة بعد وقوع الحادث.
قامت المستخدمة أيضاً بإنشاء لعبة محاكاة إطلاق نار على منصة Roblox، ونشرت محتوى عن الأسلحة على Reddit، وكانت تعاني من عدم استقرار معروف للشرطة المحلية.
نعم، سبق واتُهمت نماذج اللغة الكبيرة بإثارة انهيارات عقلية لدى المستخدمين، وهناك دعاوى قضائية تتعلق بمحادثات تشجع على الانتحار.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!