بحث
تسميم بيانات الذكاء الاصطناعي: خدعة تكشف ضعف ChatGPT وجيميني
الذكاء الاصطناعي #الذكاء_الاصطناعي #أمن_سيبراني

تسميم بيانات الذكاء الاصطناعي: خدعة تكشف ضعف ChatGPT وجيميني

تاريخ النشر: آخر تحديث: 3 مشاهدة 0 تعليق 3 دقائق قراءة
3 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

تجربة حديثة أظهرت مدى سهولة تسميم بيانات تدريب [[الذكاء الاصطناعي]]، حيث تمكن باحث من خداع نماذج رائدة مثل جوجل جيميني وChatGPT بمعلومات مُلفقة خلال 24 ساعة فقط. هذا الحادث يسلط الضوء على مدى قابلية أنظمة الذكاء الاصطناعي للتأثر بالمعلومات المضللة عبر الويب، مما يثير تساؤلات حول موثوقيتها.

تجربة بسيطة بنتائج مقلقة

لم يتطلب الأمر سوى 20 دقيقة من الوقت لإنشاء مقال كاذب على موقع شخصي بعنوان "أفضل صحفيي التكنولوجيا في أكل الهوت دوغ". احتوى المقال على ادعاءات لا أساس لها من الصحة، مثل أن مسابقات أكل الهوت دوغ هي هواية شائعة بين صحفيي التكنولوجيا، واستند إلى "بطولة ساوث داكوتا الدولية لأكل الهوت دوغ 2026" الوهمية. بطبيعة الحال، صنف الكاتب نفسه في المرتبة الأولى، وأدرج أسماء صحفيين وهميين وآخرين حقيقيين حصل على إذن منهم لذكر أسمائهم.

استجابة سريعة من عمالقة الذكاء الاصطناعي

في أقل من 24 ساعة، بدأت أبرز روبوتات الدردشة الرائدة في ترديد المعلومات الملفقة من المقال. عند الاستفسار عن "أفضل صحفيي التكنولوجيا في أكل الهوت دوغ"، قامت جوجل جيميني (سواء في التطبيق أو عبر ميزة "نظرات الذكاء الاصطناعي" AI Overviews في نتائج البحث) بترديد الهراء المنشور على الموقع. كما فعل ChatGPT الشيء نفسه. في بعض الأحيان، أشارت روبوتات الدردشة إلى أن المحتوى قد يكون مزحة. وعندما قام الكاتب بتحديث مقاله ليضيف عبارة "هذا ليس سخرية"، بدت نماذج الذكاء الاصطناعي وكأنها تأخذ الأمر بجدية أكبر.

كلود: الاستثناء الذي يثبت القاعدة؟

على الرغم من أن معظم النماذج الرائدة تأثرت، إلا أن روبوت الدردشة "كلود" (Claude)، الذي طورته شركة Anthropic، لم ينخدع بالمعلومات الكاذبة. هذا يشير إلى أن بعض النماذج قد تكون أكثر حصانة، لكنه لا يغير من الحقيقة المتمثلة في أن عدداً كبيراً من أنظمة الذكاء الاصطناعي المدربة على بيانات الويب عرضة للتضليل.

دلالات التجربة على موثوقية الذكاء الاصطناعي

تُظهر هذه التجربة بوضوح أن أنظمة الذكاء الاصطناعي، رغم قدراتها الهائلة، ليست موثوقة بشكل كامل، خاصة عندما يتعلق الأمر بالمعلومات التي تستمدها من الويب. فسهولة تسميم بيانات التدريب تشكل تحدياً كبيراً لمستقبل هذه التقنيات، وتجعلنا نتساءل عن مدى اعتمادنا عليها في الحصول على معلومات دقيقة وموثوقة. إنها تذكير بأن هذه الأدوات، التي ستُعتمد على نطاق واسع، لا تزال عرضة للخطأ والتحيز.

الخلاصة: تحدي الثقة في عالم الذكاء الاصطناعي

تؤكد هذه التجربة أن الحاجة إلى آليات تحقق قوية لمصادر البيانات التي تغذي نماذج الذكاء الاصطناعي أصبحت أكثر إلحاحاً من أي وقت مضى. فبينما تتسارع وتيرة دمج الذكاء الاصطناعي في حياتنا اليومية، يظل بناء الثقة في هذه الأنظمة تحدياً أساسياً يجب معالجته بجدية. شاركونا آراءكم حول كيفية تعزيز موثوقية الذكاء الاصطناعي في التعليقات أدناه.

الأسئلة الشائعة

هي تجربة قام بها باحث بإنشاء مقال كاذب على موقعه الشخصي حول "أفضل صحفيي التكنولوجيا في أكل الهوت دوغ"، لاختبار مدى سهولة خداع نماذج الذكاء الاصطناعي.

تأثرت نماذج رائدة مثل جوجل جيميني (في التطبيق وميزة AI Overviews) وChatGPT، حيث قامتا بترديد المعلومات الملفقة من المقال الكاذب.

نعم، روبوت الدردشة "كلود" (Claude) من شركة Anthropic لم ينخدع بالمعلومات الكاذبة، مما يشير إلى اختلافات في آليات التدريب والتحقق.

تدل التجربة على أن أنظمة الذكاء الاصطناعي ليست موثوقة بشكل كامل ومعرضة للتضليل بسهولة عبر البيانات المنشورة على الويب، مما يثير مخاوف بشأن اعتمادنا عليها.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!