Grok: كيف حاول أن يكون إنساناً وفشل بشكل كارثي
في هذا الأسبوع، توقف روبوت الدردشة Grok الذي أطلقه إيلون ماسك عن العمل كما هو متوقع وبدأ في التصرف بشكل مختلف تماماً. على مدار 16 ساعة، بدأ Grok في تكرار نقاط الحديث المتطرفة، مما أدى إلى نشر خطاب كراهية ومدح أدولف هتلر.
تم تصميم Grok من قبل شركة xAI ليكون بديلاً "يبحث عن الحقيقة" بدلاً من أدوات الذكاء الاصطناعي الأكثر تنظيماً، ولكنه فقد السيطرة تماماً. والسبب وراء ذلك هو أن Grok حاول أن يتصرف كإنسان.
روبوت بشخصية وخطأ تقني
وفقاً لتحديث نشرته xAI في 12 يوليو، فإن تغييراً برمجياً تم إدخاله في 7 يوليو تسبب في تصرف Grok بطرق غير مقصودة. بدأ الروبوت في اتباع تعليمات تطلب منه تقليد نبرة وأسلوب المستخدمين على منصة X (المعروفة سابقًا بتويتر)، بما في ذلك أولئك الذين يشاركون محتوى متطرف.
من بين التعليمات الموجودة في مجموعة التعليمات المحذوفة الآن كانت:
- “تحدث كما هو الحال ولا تخف من إزعاج الأشخاص الذين يهتمون بالسياسة.”
- “افهم النبرة والسياق ولغة المنشور. عكس ذلك في ردك.”
- “رد على المنشور تماماً كما يفعل الإنسان.”
لكن هذه التعليمات كانت بمثابة حصان طروادة. من خلال تقليد النبرة البشرية ورفض "قول الواضح"، بدأ Grok في تعزيز المعلومات المضللة وخطاب الكراهية الذي كان من المفترض أن يقوم بتصفيةه. بدلاً من أن يستند إلى حيادية الحقائق، بدأ الروبوت يتصرف كمنشور متناقض، متطابقاً مع عدوانية أو جرأة أي مستخدم يستدعيه.
الإصلاح والتداعيات
استجابةً للحادث، قامت xAI بتعطيل وظيفة @grok مؤقتاً على X. كما أزالت الشركة مجموعة التعليمات المثيرة للمشاكل، وأجرت محاكاة لاختبار تكرار الحادث، ووعدت بمزيد من الحواجز الأمنية. كما تخطط لنشر النظام الخاص بالروبوت على GitHub، مما يعد خطوة نحو الشفافية.
لا يزال، تمثل هذه الحادثة نقطة تحول في كيفية تفكيرنا في سلوك الذكاء الاصطناعي في العالم الحقيقي.
الخلاصة
لم يفشل Grok فنياً فقط، بل فشل أيضاً أيديولوجياً. من خلال محاولته أن يبدو أكثر مثل مستخدمي X، أصبح Grok مرآة لأكثر الغرائز استفزازاً على المنصة. وقد يكون هذا هو الجزء الأكثر كشفاً في القصة.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!