مايكروسوفت تحذر: الذكاء الاصطناعي قد يتحول لـ "عميل مزدوج"
أطلقت شركة "مايكروسوفت" تحذيراً أمنياً عاجلاً يتعلق بالانتشار السريع لوكلاء الذكاء الاصطناعي في بيئات العمل، مشيرة إلى أن هذه الأدوات قد تخلق نوعاً جديداً من التهديدات الداخلية أطلقت عليه وصف "العميل المزدوج".
خطر "العميل المزدوج" في الشركات
وفقاً لتقرير Cyber Pulse الأمني الصادر عن الشركة، فإن الخطورة لا تكمن في تقنية الذكاء الاصطناعي بحد ذاتها، بل في غياب الضوابط الأمنية المتسقة. يمكن للمهاجمين استغلال الصلاحيات الممنوحة للمساعد الذكي أو تزويده بمدخلات خبيثة، ليتحول هذا الوصول المشروع إلى أداة لإحداث أضرار جسيمة داخل المؤسسة.
وأشار التقرير إلى أن نشر وكلاء AI يتم في كثير من الأحيان دون مراجعة شاملة من فرق تقنية المعلومات، مما يؤدي إلى فقدان الرؤية حول:
- طبيعة الأدوات التي تعمل فعلياً داخل الشبكة.
- حجم البيانات التي يمكن للوكلاء الوصول إليها.
- نوعية الصلاحيات الممنوحة لهذه الأنظمة لاتخاذ قرارات تنفيذية.
هجمات "تسميم الذاكرة".. التهديد الخفي
سلط فريق Microsoft Defender الضوء على أسلوب هجومي متطور يُعرف باسم "تسميم الذاكرة" (Memory Poisoning). في هذا السيناريو، يقوم المهاجمون بالتلاعب بالسياق والمعلومات المخزنة داخل ذاكرة المساعد الذكي، مما يؤثر بشكل تدريجي على مخرجاته وقراراته المستقبلية.
وتؤدي هذه الهجمات إلى تغيير سلوك النظام بمرور الوقت وتآكل الثقة في نتائجه، مع صعوبة كبيرة في اكتشاف التلاعب في مراحله الأولى. كما رصد فريق AI Red Team حالات تم فيها خداع الوكلاء باستخدام عناصر واجهة مضللة أو تعليمات خبيثة مخفية داخل محتوى يبدو طبيعياً.
ظاهرة "الذكاء الاصطناعي الظل"
كشفت "مايكروسوفت" عن إحصائية مقلقة تشير إلى أن 29% من الموظفين يستخدمون أدوات ذكاء اصطناعي غير معتمدة رسمياً لإنجاز مهامهم، وهو ما يُعرف بـ "الوكلاء الظل".
هذا الاستخدام غير المنظم يفتح ثغرات أمنية واسعة، حيث يصعب مراقبة هذه الأدوات التي قد تمتلك وصولاً مشروعاً لبيانات حساسة، مما يجعل سوء إدارة الصلاحيات المشكلة الأبرز وليس التقنية نفسها.
استراتيجية الحماية: نموذج الثقة الصفرية
لتحجيم هذه المخاطر، توصي "مايكروسوفت" بالتعامل مع وكلاء الذكاء الاصطناعي كـ "هويات رقمية" مستقلة تتطلب إدارة صارمة، مقترحة الخطوات التالية:
- تطبيق نموذج "Zero Trust" (الثقة الصفرية) على جميع الوكلاء.
- التحقق المستمر من هوية الوكيل ونشاطه.
- اعتماد مبدأ "أقل صلاحية ممكنة" (Least Privilege) لتقليل مساحة الضرر المحتمل.
- الإدارة المركزية لجميع أدوات الذكاء الاصطناعي لضمان الرقابة الكاملة.
الأسئلة الشائعة
هو مصطلح أطلقته مايكروسوفت على وكلاء الذكاء الاصطناعي الذين يتم استغلال صلاحياتهم أو التلاعب بمدخلاتهم من قبل المهاجمين لإحداث ضرر داخل المؤسسة.
هو نوع من الهجمات يتم فيه التلاعب بالسياق والمعلومات المخزنة في ذاكرة المساعد الذكي، مما يؤدي إلى تغيير سلوكه ومخرجاته المستقبلية بشكل ضار.
توصي مايكروسوفت بتطبيق نموذج الثقة الصفرية (Zero Trust)، والتحقق المستمر من الهوية، ومنح أقل صلاحيات ممكنة للوكلاء، بالإضافة إلى المراقبة المركزية.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!