AI chatbots تواجه صعوبات في دقة الأخبار، دراسة تكشف ذلك
أظهر تجربة استمرت شهراً مخاوف جديدة بشأن موثوقية أدوات الذكاء الاصطناعي التوليدية كمصادر للأخبار، بعد أن تم العثور على روبوت الدردشة Gemini من جوجل يقوم بتلفيق أخبار كاذبة. تم الإبلاغ عن النتائج لأول مرة من قبل The Conversation، التي أجرت التحقيق.
قادت التجربة أستاذ صحافة متخصص في علوم الكمبيوتر، حيث تم اختبار سبعة أنظمة ذكاء اصطناعي توليدية على مدى أربعة أسابيع. كل يوم، طُلب من الأدوات سرد وتلخيص أهم خمسة أحداث إخبارية في كيبيك، وتصنيفها حسب الأهمية، وتوفير روابط مباشرة للمقالات كمصادر. من بين الأنظمة التي تم اختبارها كانت Gemini من جوجل، ChatGPT من OpenAI، Claude، Copilot، Grok، DeepSeek، وAria.
كانت الفشل الأكثر لفتاً للنظر تتعلق بGemini الذي اخترع موقع أخبار خيالي – examplefictif.ca – وأبلغ بشكل خاطئ عن إضراب سائقي الحافلات المدرسية في كيبيك في سبتمبر 2025. في الواقع، كان الاضطراب ناتجاً عن انسحاب حافلات Lion Electric بسبب مشكلة تقنية. لم يكن هذا حالة معزولة. عبر 839 استجابة تم جمعها خلال التجربة، استشهدت أنظمة الذكاء الاصطناعي بانتظام بمصادر وهمية، وقدمت روابط معطلة أو غير مكتملة، أو أساءت تمثيل التقارير الحقيقية.
الأهمية المتزايدة للنتائج
تعتبر النتائج مهمة لأن عددًا متزايدًا من الأشخاص يستخدمون بالفعل روبوتات الدردشة الذكية كمصدر للأخبار. وفقًا لتقرير معهد رويترز للأخبار الرقمية، اعتمد ستة في المئة من الكنديين على الذكاء الاصطناعي التوليدي كمصدر للأخبار في عام 2024. عندما تتخيل هذه الأدوات الحقائق، أو تشوه التقارير، أو تخترع الاستنتاجات، فإنها تخاطر بنشر المعلومات المضللة – خاصة عندما يتم تقديم ردودها بثقة ودون إخلاء مسؤولية واضح.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!