اختراق الروبوتات الذكية عبر نصوص خادعة: خطر جديد
في تطور لافت يهدد مستقبل الأنظمة المستقلة، كشف باحثون عن فئة جديدة ومقلقة من الهجمات السيبرانية التي لا تتطلب سطراً واحداً من الأكواد البرمجية لاختراق الأنظمة. هذا الهجوم، الذي يُعرف باسم "حقن الأوامر عبر البيئة الفيزيائية" (AI Robot Prompt Injection)، يعتمد ببساطة على العالم المادي كواجهة لإدخال الأوامر الخادعة.
كيف يعمل هجوم CHAI؟
أوضح تقرير نشره موقع "digitaltrends" واطلعت عليه "العربية Business"، أن هذا الأسلوب الجديد يعتمد على وضع نصوص مضللة أو لافتات في مجال رؤية كاميرا الروبوت. وبينما قد تبدو هذه اللافتات عادية أو غير ملفتة للنظر بالنسبة للبشر، فإن نماذج الذكاء الاصطناعي تفسرها كتعليمات واجبة التنفيذ.
تُعرف هذه الطريقة باسم CHAI، وهي تستهدف بشكل مباشر "طبقة التخطيط" داخل نظام الروبوت؛ وهي المرحلة الحساسة التي يقوم فيها نموذج الرؤية واللغة بتحويل المشاهدات إلى تعليمات وسيطة قبل تنفيذ الحركة الفعلية. والخطير في الأمر أن المهاجم لا يحتاج لأي وصول تقني داخلي للنظام، بل يكفي أن يضع النص المناسب، باللون والحجم والموقع المدروس، ليقوم النظام بتنفيذ الأوامر الخاطئة بثقة تامة.
أرقام ومعدلات نجاح مقلقة
أظهرت الدراسة نتائج مثيرة للقلق حول فعالية هذا الهجوم البسيط تقنياً:
- نجح الهجوم بنسبة 81.8% في حالات القيادة الذاتية داخل بيئات المحاكاة.
- سجل نجاحاً بنسبة 68.1% في سيناريوهات الهبوط الاضطراري للطائرات المسيّرة (الدرون).
- في التجارب الواقعية على سيارة روبوتية صغيرة، تمكنت اللافتات من تعطيل الملاحة بنسبة تجاوزت 87%.
تحديات لغوية وحلول مقترحة
لا يتوقف خطر هجوم CHAI عند اللغة الإنجليزية فحسب، بل أثبتت الدراسة قدرته على العمل بلغات متعددة مثل الصينية والإسبانية، وحتى باستخدام نصوص هجينة تجعل الرسائل أقل إثارة للريبة. وقد أظهرت الاختبارات أن متوسط النجاح لا يقل عن 50% عبر مهام متعددة، ويقفز ليتجاوز 70% في بعض إعدادات نماذج GPT.
ولمواجهة هذا التهديد، اقترح الباحثون ثلاث استراتيجيات دفاعية رئيسية:
- الرصد والتصفية: تطوير أدوات لاكتشاف النصوص المشبوهة في الصور قبل معالجتها.
- تحسين المحاذاة: تدريب النماذج لتكون أقل استجابة للكتابات البيئية كأوامر تنفيذية.
- التعامل بحذر: اعتبار أي نص يلتقطه الروبوت كـ "مدخل غير موثوق" لا يؤثر على التخطيط الحركي إلا بعد اجتياز اختبارات السلامة.
ومن المنتظر أن يتم عرض هذه النتائج بشكل موسع في مؤتمر SaTML 2026، مما سيسلط الضوء على ضرورة تعزيز أمن الروبوتات في العالم الحقيقي، حيث قد تكون مجرد لافتة على الطريق سبباً في تغيير مسار آلة ذكية بالكامل.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!