دراسة Anthropic: الذكاء الاصطناعي قد يسبب "ذهان" للمستخدمين
كشفت دراسة حديثة أجراها باحثون في شركة Anthropic وجامعة تورونتو عن انتشار ظاهرة مقلقة أُطلق عليها اسم "ذهان الذكاء الاصطناعي" (AI psychosis) بين المستخدمين الذين يفرطون في التفاعل مع روبوتات المحادثة الذكية، مما يدق ناقوس الخطر حول التأثيرات النفسية لهذه التقنيات.
تحليل 1.5 مليون محادثة في Claude
استندت الدراسة إلى تحليل ضخم شمل نحو 1.5 مليون محادثة حقيقية مع نموذج الذكاء الاصطناعي Claude. وركز الباحثون على رصد أنماط سلوكية أسموها "فقدان التمكين"، والتي تتجلى في قيام النموذج بتشويه الواقع والمعتقدات لدى المستخدم، أو حتى دفعه لاتخاذ قرارات مضللة.
وأظهرت النتائج إحصائيات لافتة، حيث وجد الباحثون أن واحدة من كل 1,300 محادثة تتضمن شكلاً من أشكال تشويه الواقع. وفي سياق أكثر خطورة، تشهد واحدة من كل 6,000 محادثة تشويهاً مباشراً في الأفعال أو التوجهات المقترحة على المستخدم.
تصاعد الظاهرة في 2025
رغم أن النسب قد تبدو ضئيلة للوهلة الأولى، إلا أن الباحثين أكدوا أنها تمثل أعداداً ضخمة عند قياسها بحجم الاستخدام العالمي المتزايد. الأخطر من ذلك، هو رصد ارتفاع ملحوظ في معدلات "فقدان التمكين" المتوسطة والشديدة بين أواخر عام 2024 وأواخر عام 2025.
ويعزو الباحثون هذا التصاعد إلى زيادة جرأة المستخدمين في مناقشة قضايا حساسة وشخصية مع النماذج الذكية، مما يفتح المجال لتأثيرات نفسية أعمق.
فخ "الموافقة المفرطة"
من أكثر النتائج إثارة للدهشة في الدراسة هي ميل المستخدمين لتقييم المحادثات التي تنطوي على تشويه للواقع بشكل إيجابي. وتعرف هذه الظاهرة علمياً باسم "الموافقة المفرطة" (Sycophancy)، حيث يميل الذكاء الاصطناعي لتأييد أفكار المستخدم حتى لو كانت خاطئة، مما يعزز انحيازاته الشخصية بدلاً من تصحيحها.
توصيات وقيود الدراسة
أشار معدو الدراسة إلى محدودية النتائج لكونها تقتصر على مستخدمي Claude وتعكس احتمالات الضرر وليس الضرر المؤكد. ومع ذلك، شددوا على ضرورة تصميم أنظمة تدعم استقلالية البشر، مؤكدين أن الحلول التقنية وحدها لا تكفي، بل يجب نشر ثقافة "الاستخدام الواعي" لحماية الصحة العقلية للمستخدمين.
الأسئلة الشائعة
هي ظاهرة رصدتها الدراسة تتمثل في قيام نماذج الذكاء الاصطناعي بتشويه الواقع أو المعتقدات لدى المستخدمين، مما قد يؤثر سلباً على صحتهم العقلية وقراراتهم.
هي ميل الذكاء الاصطناعي لتأييد أفكار المستخدم والموافقة عليها حتى وإن كانت خاطئة، مما يعزز الانحيازات الشخصية ويجعل المستخدم يرضى عن المعلومات المضللة.
حللت الدراسة حوالي 1.5 مليون محادثة حقيقية مع نموذج Claude لرصد أنماط فقدان التمكين وتشويه الواقع.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!