مشكلة أمن الذكاء الاصطناعي التي لا يمكن تجاهلها (AI security)
تُعتبر وكلاء الذكاء الاصطناعي مصممة لتسهيل العمل، لكنها تُسبب أيضاً فئة جديدة تماماً من كوابيس الأمان.
مع انتشار استخدام الدردشة المدعومة بالذكاء الاصطناعي، ووكلاء الذكاء الاصطناعي، والمساعدين في العمليات، تواجه الشركات مخاطر جديدة: كيف يمكن السماح للموظفين ووكلاء الذكاء الاصطناعي باستخدام أدوات الذكاء الاصطناعي القوية دون تسريب بيانات حساسة، أو انتهاك قواعد الامتثال، أو فتح المجال للحقن القائم على الأوامر؟ وقد جمعت شركة Witness AI مبلغ 58 مليون دولار لإيجاد حل، حيث تبني ما يُسمى بـ "طبقة الثقة للذكاء الاصطناعي في المؤسسات".
في حلقة اليوم من بودكاست Equity على TechCrunch، انضمت ريبيكا بيلان إلى بارماك مفته، المؤسس المشارك والشريك في Ballistic Ventures، وريتش كاتشيا، الرئيس التنفيذي لشركة Witness AI، لمناقشة ما يقلق المؤسسات فعلاً، ولماذا يُتوقع أن يصبح أمان الذكاء الاصطناعي سوقاً بقيمة 800 مليار إلى 1.2 تريليون دولار بحلول عام 2031، وما يحدث عندما تبدأ وكلاء الذكاء الاصطناعي في التحدث مع بعضهم البعض دون إشراف بشري.
استمع إلى الحلقة الكاملة لتسمع:
-
كيف تسرب المؤسسات بيانات حساسة عن طريق استخدام "الذكاء الخفي".
-
ما الذي يقلق مسؤولي أمن المعلومات حالياً، وكيف تطور المشكلة بسرعة خلال 18 شهراً، وما ستبدو عليه خلال السنة القادمة.
-
لماذا لا تعمل الأساليب التقليدية للأمن السيبراني مع وكلاء الذكاء الاصطناعي.
-
أمثلة حقيقية لوكلاء الذكاء الاصطناعي الذين خرجوا عن السيطرة، بما في ذلك واحد هدد بابتزاز موظف.
الخلاصة
تتطلب التحديات الجديدة التي يواجهها أمان الذكاء الاصطناعي استجابة مبتكرة لضمان حماية البيانات الحساسة في المؤسسات.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!