دراسة تحذّر: البرمجة المعتمِدة على الذكاء الاصطناعي قد تفتح ثغرات أمنية خطِرة
حذّرت دراسة جديدة صادرة عن Palo Alto Networks من مخاطر أمنية متزايدة قد تنتج عن الاعتماد الواسع على ما يُعرف بـ البرمجة المعتمِدة على الذكاء الاصطناعي، رغم ما تحققه من تسريع واضح في وتيرة التطوير ورفع إنتاجية فرق البرمجيات.

وأشارت الدراسة إلى أن أدوات توليد الأكواد البرمجية بالذكاء الاصطناعي أصبحت جزءاً أساسياً من العمل اليومي في بيئات التطوير الحديثة، خاصة مع تعقّد البنى السحابية وضغوط تسليم البرمجيات خلال فترات قصيرة. إلا أن هذه السرعة، بحسب التقرير، غالباً ما تأتي على حساب ضوابط الأمان.
أكواد برمجية تعمل… لكنها غير آمنة
توضح الدراسة أن أنظمة الذكاء الاصطناعي قادرة على توليد أكواد برمجية قابلة للتنفيذ خلال ثوانٍ، لكنها في كثير من الحالات تتجاهل متطلبات أمنية أساسية، مثل المصادقة وتقييد الوصول.
هذا الخلل قد يؤدي إلى إدخال ثغرات على نطاق واسع، وتراكم ما يُعرف بـ “الدَّين التقني”، إضافة إلى رفع احتمالات التعرض لاختراقات فعلية.
ويتفاقم الخطر مع تزايد عدد المطورين غير المتخصصين الذين يستخدمون هذه الأدوات دون امتلاك الخبرة الكافية لمراجعة الأكواد البرمجية أو تقييم مستوى أمانها، وهو ما اعتبرته الدراسة تحدّياً مباشراً أمام القيادات التنفيذية ومسؤولي أمن المعلومات.
أسباب جذرية للمخاطر
حدد التقرير عدة أسباب رئيسية تجعل البرمجة المعتمِدة على الذكاء الاصطناعي عرضة للمخاطر، من أبرزها:
- تغليب الوظيفة على الأمان: نماذج الذكاء الاصطناعي مُدرَّبة على تقديم حلول سريعة، لا على طرح الأسئلة الأمنية الضرورية، ما يجعل المخرجات غير آمنة افتراضياً.
- غياب الوعي بالسياق: لا يميّز الذكاء الاصطناعي بين بيئات التطوير وبيئات الإنتاج، رغم اختلاف المخاطر والمتطلبات.
- مخاطر سلسلة التوريد الوهمية: قد يولّد النظام مكتبات أو حِزماً برمجية غير موجودة فعلياً، ما يربك عملية البناء والتشغيل.
- الثقة المفرطة في الأكواد البرمجية المُولّدة: الأكواد البرمجية قد تبدو صحيحة وتعمل وظيفياً، لكنها تخفي ثغرات خطِرة، ما يدفع البعض لتجاوز مراجعات الأمان الأساسية.
غياب التقييم والرقابة
وأظهرت نتائج الدراسة أن معظم المؤسسات تتيح لموظفيها استخدام أدوات البرمجة بالذكاء الاصطناعي دون فرض قيود تقنية صارمة، في حين أن عدداً محدوداً فقط أجرى تقييماً رسمياً للمخاطر أو يطبّق رقابة منتظمة على مخرجات هذه الأدوات.
ورغم تصاعد التهديدات، ترى Palo Alto Networks أن احتواء المخاطر ممكن عبر العودة إلى أساسيات الأمن السيبراني، وذلك من خلال دمج ضوابط الأمان داخل عملية كتابة الأكواد البرمجية نفسها، بدلاً من التعامل معها كمرحلة لاحقة أو خيار إضافي.
وخلصت الدراسة إلى أن الاستفادة من الذكاء الاصطناعي في البرمجة لا يجب أن تكون على حساب الأمان، محذّرة من أن تجاهل هذه المخاطر قد يحوّل مكاسب الإنتاجية السريعة إلى خسائر أمنية باهظة على المدى الطويل.
ذو صلة > الذكاء الاصطناعي في البرمجة: إنتاج وفير… وأخطاء أكثر
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!