بحث
اختراق الروبوتات عبر لافتات الشوارع: ثغرة CHAI الخطيرة
الأمن السيبراني #الذكاء_الاصطناعي #أمن_الروبوتات

اختراق الروبوتات عبر لافتات الشوارع: ثغرة CHAI الخطيرة

تاريخ النشر: آخر تحديث: 46 مشاهدة 0 تعليق 3 دقائق قراءة
46 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

لم يعد خطر "حقن الأوامر" (Prompt Injection) في أنظمة الذكاء الاصطناعي مقتصراً على الشاشات الرقمية فحسب. فقد أثبت باحثون أن الروبوتات يمكن حرفها عن مهامها وتوجيهها بشكل خاطئ ببساطة عن طريق نصوص موضوعة في العالم المادي، مثل اللافتات التي قد يمر بجانبها البشر دون التفكير فيها مرتين.

لافتات تتحول إلى أوامر

لا يعتمد هذا الهجوم على اختراق برمجيات الروبوت أو التشويش على أجهزة الاستشعار الخاصة به. بدلاً من ذلك، يتعامل الهجوم مع البيئة المحيطة كـ "صندوق إدخال"، حيث يتم وضع لافتة مضللة أو ملصق في مكان ستقرأه كاميرا الروبوت.

تستهدف هذه الطريقة، التي أطلق عليها الباحثون اسم CHAI، "طبقة الأوامر" (Command Layer)، وهي التعليمات الوسيطة التي ينتجها نموذج اللغة الرؤيوي قبل أن يحولها نظام التحكم إلى حركة فعلية. إذا تم دفع خطوة التخطيط هذه نحو تعليمات خاطئة، فإن بقية أنظمة الروبوت ستنفذها بدقة، دون الحاجة إلى أي برمجيات خبيثة.

نسب نجاح مقلقة

في اختبارات المحاكاة، أبلغ الباحثون عن معدلات نجاح للهجوم بلغت 81.8% في إعدادات القيادة الذاتية، و68.1% في مهام الهبوط الاضطراري للطائرات المسيرة (الدرون).

أما في التجارب المادية باستخدام سيارة روبوتية صغيرة، فقد تجاوزت النصوص المطبوعة نظام الملاحة بنسبة نجاح لا تقل عن 87% عبر ظروف إضاءة وزوايا رؤية مختلفة. ويعامل نموذج التهديد هذا المهاجم كطرف خارجي لا يمكنه لمس الأنظمة الداخلية، بل يحتاج فقط إلى القدرة على وضع نص داخل مجال رؤية الكاميرا.

هجمات عابرة للغات

لا تكتفي ثغرة CHAI بتحسين محتوى النص فحسب، بل تضبط أيضاً كيفية ظهوره، بما في ذلك خيارات مثل اللون والحجم والمكان، لأن قابلية القراءة بالنسبة للنموذج هي جزء مما يقود النتيجة.

وأشار التقرير البحثي إلى أن هذا النهج يعمل بشكل عام ولا يقتصر على مشهد واحد، حيث تم وصف أوامر "عالمية" تستمر في العمل على صور غير مرئية مسبقاً، بمتوسط نجاح لا يقل عن 50% عبر المهام والنماذج، وتجاوز 70% في أحد الإعدادات القائمة على GPT. كما يعمل الهجوم عبر لغات متعددة، بما في ذلك الصينية والإسبانية، مما يجعل الرسائل المزروعة أصعب في الملاحظة من قبل البشر القريبين.

مستقبل الأمان والحماية

في جانب الدفاع، يشير الباحثون إلى ثلاثة اتجاهات رئيسية:

  • التصفية والكشف: البحث عن نصوص مشبوهة في الصور أو في المخرجات الوسيطة للنموذج.
  • العمل على المحاذاة (Alignment): جعل النماذج أقل استعداداً للتعامل مع الكتابات البيئية كتعليمات قابلة للتنفيذ.
  • أبحاث المتانة طويلة الأمد: تهدف إلى ضمانات أقوى للأمان.

وتتمثل الخطوة العملية التالية في التعامل مع النصوص المقروءة كمدخلات غير موثوقة بشكل افتراضي، وتطلب اجتيازها لفحوصات الأمان والمهمة قبل أن تؤثر على تخطيط الحركة. ومن المقرر عرض هذا العمل في مؤتمر SaTML 2026، مما سيسلط الضوء بشكل أكبر على هذه الدفاعات.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!