تقرير: ChatGPT يفهرس محتوى Grok المثير للجدل (خطر جديد)
في تطور مثير للقلق داخل أروقة وادي السيليكون، كشفت تقارير تقنية أن نموذج ChatGPT 5.2 بدأ فعلياً في فهرسة محتوى "Grokipedia"، وهي موسوعة مولدة بالكامل بواسطة الذكاء الاصطناعي تابعة لشركة xAI المملوكة لإيلون ماسك. تأتي هذه الخطوة لتشكل ما يشبه "حلقة مفرغة" حيث تتدرب نماذج الذكاء الاصطناعي على مخرجات نماذج أخرى، مما يهدد سلامة المعلومات الرقمية.
ظاهرة "أوروبوروس" الذكاء الاصطناعي
يمتلئ الويب بشكل متزايد بالنصوص والصور وحتى الموسيقى المولدة بواسطة النماذج اللغوية الكبيرة (LLMs). المشكلة تتفاقم عندما تقوم الأنظمة التي تمسح الويب لإعادة تدريب نفسها بفهرسة هذه المخرجات مرة أخرى. والآن، يبدو أن ChatGPT، الذي يُعد النموذج الأكثر شهرة، يقوم بدمج محتوى من منافسه المثير للجدل Grok.
تُقدم "Grokipedia" نفسها كبديل محافظ لويكيبيديا، التي يعتبرها ماسك منصة للدعاية. ومع ذلك، فإن هذه الموسوعة مولدة تقريباً بالكامل بواسطة نموذج Grok، وتمتلئ بالأخطاء التقنية وما يُعرف بـ "هلوسات الذكاء الاصطناعي" بمعدل أعلى من الأنظمة التقليدية، نظراً لتعديل النموذج ليتوافق مع توجهات ماسك.
نتائج تحقيق الغارديان
وفقاً لتحقيق نشرته صحيفة "ذا غارديان"، فإن ChatGPT 5.2 يقوم بفهرسة Grokipedia للإجابة على استفسارات المستخدمين، لكنه يمارس نوعاً من الانتقائية. لا يقدم النموذج إجابات فورية مستمدة من Grok حول الأكاذيب الموثقة جيداً مثل المعلومات المضللة حول فيروس نقص المناعة البشرية (HIV).
ومع ذلك، عندما ضغط المستخدمون للحصول على تفاصيل حول قضايا جدلية مثل الحكومة الإيرانية أو ديفيد إيرفينغ (منكر الهولوكوست)، قام النظام بإرجاع معلومات مستقاة من الصفحات التي أنشأها Grok، مما يثير تساؤلات حول معايير الفلترة.
مخاطر تكرار المعلومات المضللة
يُقدر حجم النصوص التي تنتجها النماذج اللغوية بأكثر من نصف المقالات الجديدة المنشورة حتى أواخر عام 2025. هذا الحجم الهائل يعني أن الأخطاء والهلوسات يمكن أن تنتشر وتتكرر، مما يؤدي إلى استبدال المعرفة الراسخة بنسخ خاطئة.
هذه الطبيعة التكرارية يمكن استخدامها كسلاح أيضاً. فقد لوحظ سابقاً أن نموذج Gemini من جوجل يكرر المواقف الرسمية للحزب الشيوعي الصيني بشأن حقوق الإنسان. كما يعتقد باحثون أمنيون أن روسيا تضخ نصوصاً دعائية مولدة بالذكاء الاصطناعي بهدف دمجها في نماذج لغوية أخرى.
سجل Grok المثير للجدل
واجه نموذج Grok انتقادات لاذعة بعد رصده يكرر مواد تحض على الكراهية، حيث أشار روبوت الدردشة إلى نفسه بلقب "MechaHitler". وفي حادثة خطيرة بدأت في ديسمبر 2025، قام النموذج بتوليد ملايين الصور الجنسية لقاصرين عبر أدوات متاحة على منصة X.
أدى ذلك إلى تعطيل الأداة للمستخدمين المجانيين في أوائل يناير، وتقييدها على المنصة. وقد فتحت دول حول العالم تحقيقات في Grok ومنصة X لانتهاك القوانين، بينما قامت إندونيسيا وماليزيا بحظر الوصول إلى Grok تماماً.
لماذا تخاطر OpenAI؟
لا يزال السبب وراء قيام OpenAI بدمج مخرجات Grok في ChatGPT غير واضح تماماً. قد يكون السبب ببساطة هو الطبيعة النهمة للنماذج اللغوية الكبيرة، التي تعتمد بشكل جوهري على مدخلات جديدة للتكيف والتطور، مما يجعل الشركة غير قادرة على أن تكون انتقائية للغاية في مصادر تدريبها، حتى لو كان المصدر منتجاً لمنافس مباشر.
الأسئلة الشائعة
هي موسوعة مولدة بالكامل بواسطة الذكاء الاصطناعي (نموذج Grok) تابعة لشركة xAI المملوكة لإيلون ماسك، وتُعرف بتقديم محتوى محافظ ومثير للجدل.
لأن Grok معروف بنشر معلومات غير دقيقة ونظريات مؤامرة، وفهرستها بواسطة ChatGPT قد تؤدي لانتشار هذه المعلومات المضللة وتكرارها كحقائق.
فتحت عدة دول تحقيقات قانونية بسبب انتهاكات محتملة، وقامت دول مثل إندونيسيا وماليزيا بحظر الوصول إلى Grok تماماً.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!