بحث
هجمات Promptware: كيف تتحول الأوامر لبرمجيات خبيثة؟
الأمن السيبراني #الأمن_السيبراني #الذكاء_الاصطناعي

هجمات Promptware: كيف تتحول الأوامر لبرمجيات خبيثة؟

منذ 9 ساعات 6 مشاهدة 0 تعليق 3 دقائق قراءة
6 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

كشف باحثون أمنيون عن مفهوم "Promptware"، وهو إطار عمل جديد يصنف هجمات نماذج اللغة الكبيرة (LLMs) كحملات برمجيات خبيثة معقدة تتجاوز مجرد "حقن الأوامر". في ورقة بحثية جديدة، يقترح المؤلفون "سلسلة قتل" (Kill Chain) مكونة من سبع خطوات لمساعدة خبراء الأمن السيبراني وصناع السياسات على فهم هذا التهديد المتصاعد ومواجهته بشكل منهجي.

المشكلة الجوهرية: غياب الحدود

تكمن المشكلة الأساسية في البنية المعمارية لنماذج اللغة الكبيرة ذاتها. فبعكس أنظمة الحوسبة التقليدية التي تفصل بصرامة بين الكود القابل للتنفيذ وبيانات المستخدم، تتعامل هذه النماذج مع جميع المدخلات - سواء كانت أوامر نظام أو رسائل بريد إلكتروني - كسلسلة واحدة من الرموز (Tokens). هذا يعني أن التعليمات الخبيثة المضمنة في مستند يبدو غير ضار تتم معالجتها بنفس سلطة أوامر النظام.

سلسلة القتل في هجمات Promptware

حدد الباحثون سبع مراحل رئيسية تتكون منها هذه الهجمات المعقدة، وهي تحاكي حملات البرمجيات الخبيثة التقليدية مثل Stuxnet:

1. الوصول الأولي (Initial Access)

تبدأ الهجمة بدخول الحمولة الخبيثة إلى نظام الذكاء الاصطناعي، إما مباشرة عبر كتابة المهاجم لأمر خبيث، أو بشكل غير مباشر وأكثر خطورة عبر "حقن الأوامر غير المباشر". في الحالة الثانية، يضمن المهاجم تعليمات خبيثة في محتوى يجلبه النموذج، مثل صفحة ويب أو بريد إلكتروني، أو حتى داخل الصور والملفات الصوتية في النماذج متعددة الوسائط.

2. تصعيد الامتيازات (Privilege Escalation)

بمجرد دخول التعليمات، ينتقل الهجوم لمرحلة "كسر الحماية" (Jailbreaking). هنا، يلتف المهاجم حول حواجز الأمان التي وضعتها شركات مثل OpenAI أو Google، خادعاً النموذج لتبني شخصية تتجاهل القواعد وتنفيذ مهام محظورة، مما يفتح المجال لاستخدام قدرات النموذج الكاملة لأغراض خبيثة.

3. الاستطلاع (Reconnaissance)

يتلاعب الهجوم بالنموذج للكشف عن معلومات حول أصوله وخدماته المتصلة وقدراته. هذا يسمح للهجوم بالتقدم ذاتياً دون تنبيه الضحية، مستغلاً قدرة النموذج على الاستنتاج لخدمة المهاجم.

4. الاستمرار (Persistence)

الهجمات العابرة قد تكون مزعجة، لكن الهجمات المستمرة هي الأخطر. تقوم برمجيات Promptware بتضمين نفسها في الذاكرة طويلة المدى للعميل الذكي (AI Agent) أو تسميم قواعد البيانات التي يعتمد عليها. مثال على ذلك: دودة إلكترونية تصيب أرشيف البريد الإلكتروني ليعاد تنفيذ الكود الخبيث كلما قام الذكاء الاصطناعي بتلخيص الرسائل السابقة.

5. القيادة والسيطرة (C2)

تتيح هذه المرحلة لبرمجيات Promptware التطور من تهديد ثابت إلى حصان طروادة قابل للتحكم، حيث يمكن للمهاجم تعديل سلوك البرمجية عبر جلب أوامر ديناميكية من الإنترنت أثناء وقت الاستدلال (Inference Time).

6. الحركة الجانبية (Lateral Movement)

هنا ينتشر الهجوم من الضحية الأولية إلى مستخدمين أو أنظمة أخرى. قد يتم خداع مساعد البريد الإلكتروني لإعادة توجيه الحمولة الخبيثة لجميع جهات الاتصال، أو الانتقال من دعوة تقويم للسيطرة على الأجهزة المنزلية الذكية.

7. الإجراءات على الهدف (Actions on Objective)

الهدف النهائي ليس مجرد جعل الروبوت يقول شيئاً مسيئاً، بل تحقيق نتائج خبيثة ملموسة مثل سرقة البيانات، الاحتيال المالي، أو حتى تنفيذ كود عشوائي يمنح المهاجم سيطرة كاملة على النظام الأساسي.

أمثلة واقعية للمخاطر

أثبتت الأبحاث إمكانية تطبيق هذه السلسلة. في بحث بعنوان "Invitation Is All You Need"، تم تضمين أمر خبيث في عنوان دعوة تقويم Google، مما دفع المساعد الذكي لتشغيل تطبيق Zoom وبث فيديو للمستخدم دون علمه. وفي بحث آخر بعنوان "Here Comes the AI Worm"، تم حقن أمر في بريد إلكتروني دفع النموذج لاستنساخ نفسه وسرقة بيانات حساسة وإرسالها لجهات اتصال جديدة.

يخلص المقال إلى أن "حقن الأوامر" ليس مجرد ثغرة يمكن إصلاحها بسهولة، بل نحتاج لاستراتيجية دفاعية شاملة تفترض حدوث الوصول الأولي وتركز على كسر سلسلة الهجوم في مراحلها اللاحقة.

الأسئلة الشائعة

هو إطار عمل يصنف الهجمات على نماذج الذكاء الاصطناعي كحملات برمجيات خبيثة معقدة ومتعددة المراحل، بدلاً من اعتبارها مجرد ثغرات حقن أوامر بسيطة.

يتم ذلك إما مباشرة عبر كتابة أمر خبيث، أو بشكل غير مباشر عبر تضمين تعليمات خبيثة في محتوى يقرأه النموذج مثل رسائل البريد الإلكتروني أو صفحات الويب.

تسمح هذه المرحلة للهجوم بالانتشار من المستخدم الضحية إلى مستخدمين آخرين أو أجهزة أخرى، مثل قيام مساعد ذكي بإرسال بريد إلكتروني مفخخ لجميع جهات الاتصال.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!