بحث
تصنيف درجة الثقة في الذكاء الاصطناعي لأمان LLM
الذكاء الاصطناعي #درجة_الثقة #الذكاء_الاصطناعي

تصنيف درجة الثقة في الذكاء الاصطناعي لأمان LLM

تاريخ النشر: آخر تحديث: 24 مشاهدة 0 تعليق 4 دقائق قراءة
24 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

تصنيف درجة الثقة في الذكاء الاصطناعي لأمان نماذج اللغة الكبيرة

تجد دراسة شركة Tumeryk الناشئة أن منصة Google Gemini Pro 2.5 هي الأكثر موثوقية، تليها نسخة OpenAI's GPT-4o mini، بينما حصلت DeepSeek وAlibaba Qwen على أدنى الدرجات.

في عالم الذكاء الاصطناعي، تعتبر درجة الثقة من العناصر الأساسية التي تحدد مدى أمان نماذج اللغة الكبيرة (LLM). هذه الدرجة لا تعكس فقط مستوى الأمان، بل تعكس أيضًا مدى موثوقية هذه النماذج في تقديم المعلومات. تساعد درجات الثقة في تقييم المخاطر المرتبطة باستخدام هذه النماذج، مما يسهل على الشركات اتخاذ قرارات مستنيرة بشأن كيفية دمج الذكاء الاصطناعي في عملياتها.

تحتل منصة Google الجديدة Gemini Pro 2.5 المرتبة الأولى كأكثر منصة موثوقية في الذكاء الاصطناعي، بينما تأتي نسخة OpenAI's GPT 4o-mini في المرتبة الثانية، وذلك وفقًا لتقييم بيئات نماذج اللغة الكبيرة (LLM) الرائدة الذي نشرته شركة Tumeryk الناشئة. بينما كانت المنصات التي حصلت على أدنى درجات ثقة في الذكاء الاصطناعي هي DeepSeek R1 وAlibaba's Qwen، بناءً على أحدث تقرير من درجة الثقة في الذكاء الاصطناعي.

يقول روهيت فاليا، المؤسس المشارك والرئيس التنفيذي لشركة Tumeryk: "عندما كنا نتعامل مع منصات التحليل، أدركت أن هناك الكثير من المخاطر المرتبطة بالذكاء الاصطناعي". "لهذا السبب تم تصميم درجة الثقة في الذكاء الاصطناعي لمساعدة الشركات على فهم مخاطرها من الذكاء الاصطناعي التوليدي وأنظمة الدردشة والذكاء الاصطناعي الوكيلة التي يقومون بنشرها."

بينما يتم دفع المؤسسات لاستخدام أدوات الذكاء الاصطناعي التوليدي (GenAI) لإنشاء وكلاء افتراضيين، وتسريع جمع المعلومات، وأتمتة العمليات الروتينية، فإن نماذج الذكاء الاصطناعي تشكل مخاطر أمنية متنوعة، العديد منها لا يزال غير مُراقب. وفقًا لتقرير ThreatLabs 2025 Data@Risk الذي أصدرته Zscaler مؤخرًا، كانت أدوات الذكاء الاصطناعي مثل ChatGPT وMicrosoft Copilot مسؤولة عن 4.2 مليون انتهاك لفقدان البيانات.

الوسيط لأمان الذكاء الاصطناعي

يقول فاليا، الذي كان يدير منظمة خوادم Java Enterprise في Sun Microsystems خلال أوائل العقد الأول من القرن الحادي والعشرين، إن استوديو أمان نماذج اللغة الكبيرة يشبه تلك المنصة الشهيرة من حيث أنه يعمل كوسيط. "فكر في الأمر كوسيط للذكاء الاصطناعي التوليدي للتحكم وإدارة الأمان والامتثال"، يقول فاليا. "يمكنك وضع السياسات والقواعد والتدفقات من حيث كيفية وصول روبوتات الدردشة وتطبيقات الذكاء الوكيل إلى بعضها البعض والنماذج، بما في ذلك قواعد البيانات المتجهة."

يتميز استوديو أمان نماذج اللغة الكبيرة بمحاكي للسياسات يمكّن المطورين من اختبار وتحسين معايير الأمان للنماذج التي يقومون بإنشائها. كما أنه يحمي ضد تسرب البيانات من خلال جدار ناري للذكاء الاصطناعي التوليدي، المدمج مع NeMo Guardrails من NVIDIA وLlama Guard من Meta لمنع الاختراقات وتسجيل الهلاوس. يقوم الجدار الناري بفرض السياسات على كيفية تصرف نماذج اللغة الكبيرة باستخدام التحكم في الوصول بناءً على الأدوار.

إضافة التشفير مع شراكة DataKrypto

بينما تم تصميم استوديو أمان LLM من Tumeryk لتوفير حواجز أمان لمستخدمي المؤسسة المصرح لهم والإبلاغ عن المخاطر الخارجية، إلا أنه لا يؤمن البيانات. لمعالجة هذه القضية، أعلنت Tumeryk مؤخرًا عن شراكة مع شركة ناشئة تُدعى DataKrypto. ظهرت DataKrypto من السرية في أبريل خلال مؤتمر RSAC في سان فرانسيسكو، حيث تقدم أداة تُدعى FHEnom للذكاء الاصطناعي. وفقًا لـ Luigi Caramico، مؤسس ورئيس ومدير التكنولوجيا في DataKrypto، فإن الأداة تجمع بين التشفير المتجانس بالكامل (FHE) وبيئات التنفيذ الموثوقة (TEEs) لتوفير تشفير دائم في الوقت الحقيقي، مما يضمن أن المستخدمين المصرح لهم فقط ومؤلفي النماذج يمكنهم الوصول إليها.

تحتوي طبقات التحويل والتضمين التي تعمل داخل حاوية TEE على مفتاح سري مختوم واحد مشفر بالكامل. يقول Caramico: "إذا لم تكن مخولًا لاستخدام تقنيتنا، فلن نتمكن أبدًا من تسميم النموذج، لأنك تحتاج إلى الوصول إلى المفتاح حتى تتمكن من إرسال مستند".

تتعاون Tumeryk أيضًا مع عروض أخرى من Datadog وSplunk وWiz.

مع تزايد الاعتماد على الذكاء الاصطناعي، يصبح من الضروري أن نفهم كيف يمكننا تقييم هذه النماذج بشكل فعال. من خلال استخدام درجات الثقة، يمكننا تعزيز الأمان وتقليل المخاطر المحتملة. لذا، فإن فهم درجة الثقة في نماذج اللغة الكبيرة يعد خطوة مهمة نحو استخدام آمن وموثوق للذكاء الاصطناعي في مختلف المجالات.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!