مشكلة أمان الذكاء الاصطناعي التي لا يمكن تجاهلها (AI security)
تعتبر وكلاء الذكاء الاصطناعي مصممة لتسهيل العمل، لكنها في الواقع تخلق فئة جديدة تمامًا من كوابيس الأمان.
مع انتشار الدردشة الآلية المدعومة بالذكاء الاصطناعي، يواجه الشركات خطرًا جديدًا: كيف يمكن السماح للموظفين ووكلاء الذكاء الاصطناعي باستخدام أدوات الذكاء الاصطناعي القوية دون تسريب بيانات حساسة، أو انتهاك القواعد التنظيمية، أو فتح المجال لهجمات قائمة على التعليمات؟ وقد قامت شركة Witness AI بجمع 58 مليون دولار لإيجاد حل، حيث تبني ما يسمى بـ "طبقة الثقة للذكاء الاصطناعي في المؤسسات".
في حلقة اليوم من بودكاست Equity على TechCrunch، انضمت ريبيكا بيلان إلى بارماك ميفتاه، الشريك المؤسس في Ballistic Ventures، وريك كاتشيا، الرئيس التنفيذي لشركة Witness AI، لمناقشة ما يقلق المؤسسات بالفعل، ولماذا من المتوقع أن يصبح أمان الذكاء الاصطناعي سوقًا بقيمة 800 مليار إلى 1.2 تريليون دولار بحلول عام 2031، وما يحدث عندما تبدأ وكلاء الذكاء الاصطناعي في التحدث إلى بعضهم البعض دون إشراف بشري.
مخاطر تسريب البيانات
كيف يمكن أن تتسبب المؤسسات بشكل غير مقصود في تسريب بيانات حساسة من خلال استخدام "الذكاء الخفي".
-
ما الذي يقلق رؤساء الأمن المعلوماتي (CISOs) في الوقت الحالي، وكيف تطور هذا المشكلة بسرعة على مدار 18 شهرًا، وما سيبدو عليه الوضع خلال العام المقبل.
-
لماذا لا تعمل الأساليب التقليدية للأمن السيبراني مع وكلاء الذكاء الاصطناعي.
-
أمثلة حقيقية لوكلاء الذكاء الاصطناعي الذين خرجوا عن السيطرة، بما في ذلك حالة واحدة هددت بابتزاز موظف.
الخلاصة
تتطلب التحديات الجديدة التي يواجهها أمان الذكاء الاصطناعي استراتيجيات مبتكرة لضمان حماية البيانات الحساسة في المؤسسات.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!