بحث
تحذير: كلمات مرور الذكاء الاصطناعي ضعيفة ومعرضة للاختراق
الأمن السيبراني #كلمات_مرور_AI #الأمن_السيبراني

تحذير: كلمات مرور الذكاء الاصطناعي ضعيفة ومعرضة للاختراق

تاريخ النشر: آخر تحديث: 4 مشاهدة 0 تعليق 3 دقائق قراءة
4 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

حذّر خبراء الأمن السيبراني مؤخراً من خطورة الاعتماد على كلمات المرور التي تُنشئها نماذج الذكاء الاصطناعي مثل ChatGPT و Gemini، مؤكدين أنها ضعيفة ومعرضة للاختراق بسهولة. فبينما يتجه البعض نحو أدوات الذكاء الاصطناعي لإنشاء كلمات مرور قوية، كشفت الاختبارات عن عيوب جوهرية تجعلها غير آمنة على الإطلاق.

العيب القاتل في كلمات مرور الذكاء الاصطناعي

يكمن السبب الرئيسي وراء ضعف كلمات المرور التي يولدها الذكاء الاصطناعي في طبيعة عمل نماذج اللغة الكبيرة (LLM). فمثلما تُنشئ هذه النماذج النصوص والصور بناءً على الاحتمالات، فإنها تُنشئ كلمات المرور أيضاً بطريقة احتمالية. هذا يعني أنها تعتمد على بيانات كلمات المرور المعروفة سابقاً لإنشاء كلمات مرور تبدو "آمنة على الأرجح"، بدلاً من أن تكون عشوائية حقاً.

لاحظ الخبراء أن كلمات المرور التي يولدها الذكاء الاصطناعي تفتقر إلى العشوائية الحقيقية. إذ تميل النماذج إلى وضع أحرف وسلاسل معينة في مواضع متوقعة، وتبدأ العديد من كلمات المرور بأحرف وسلاسل متشابهة، وتظهر تبايناً ضئيلاً في اختيار الأرقام أو الأحرف. هذا النقص في التنوع يجعلها عرضة لهجمات التخمين والقوة الغاشمة.

من الأمثلة التي كشف عنها التقرير:

  • جميع كلمات المرور التي تم إنشاؤها بدأت بحرف، عادةً ما يكون كبيراً، مع تكرار خاص للحرف G.
  • ظهرت الأحرف L، 9، m، 2، $، و # في جميع كلمات المرور التي تم إنشاؤها، بينما لم يتم استخدام بعض الأحرف على الإطلاق.
  • لم تحتوي أي من كلمات المرور على أحرف مكررة، وهو أمر كان يجب أن يحدث في الاختيار العشوائي الحقيقي.
  • تكررت بعض كلمات المرور، حيث كان 30 فقط من أصل 50 كلمة مرور تم إنشاؤها جديدة بالكامل.
  • كانت كلمة المرور الأكثر شيوعاً هي G7$kL9#mQ2&xP4!w، وقد تم إنشاؤها 18 مرة.

الخلاصة واضحة: نماذج الذكاء الاصطناعي غير قادرة على توليد كلمات مرور عشوائية، وكلمات المرور التي تنتجها ضعيفة للغاية لدرجة أنها لا تستطيع مقاومة حتى هجوم بسيط بالقوة الغاشمة. وقد لوحظت هذه المشكلات في جميع نماذج الذكاء الاصطناعي التي تم فحصها، بما في ذلك ChatGPT و Gemini و Claude.

المخاطر والعواقب حقيقية

وفقاً لخبراء الأمن، فإن فكرة إنشاء كلمات مرور باستخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي لها عواقب حقيقية بالفعل. فقد تمكنوا من اكتشاف بعض الأنماط التي رُصدت في كلمات مرور الذكاء الاصطناعي ضمن الشيفرات المصدرية المفتوحة على منصات المطورين مثل GitHub.

تشكل هذه الأنماط سهلة التعرف عليها خطراً أمنياً جسيماً. يمكن للمتسللين استغلالها لشن هجمات مستهدفة على التطبيقات. لكن الخطر لا يقتصر على المطورين فحسب، بل يمتد ليشمل المستخدمين العاديين الذين يختارون إنشاء كلمات مرورهم باستخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي.

ينصح الخبراء بشدة بعدم القيام بذلك، محذرين من مخاطر الثقة المفرطة في الذكاء الاصطناعي. حتى أن بعض روبوتات الدردشة (مثل Gemini) تعرض الآن تحذيرات بعدم استخدام كلمات المرور التي تم إنشاؤها بمساعدة الذكاء الاصطناعي، ويرجع ذلك جزئياً إلى معالجتها عبر الخوادم.

الخلاصة: لإنشاء كلمات مرور آمنة حقاً، يجب الاعتماد على مولدات كلمات المرور العشوائية الأصلية. غالباً ما تكون هذه المولدات مدمجة في برامج إدارة كلمات المرور. ابدأ باستخدام أحد أفضل برامج إدارة كلمات المرور لضمان حماية بياناتك بشكل فعال.

الأسئلة الشائعة

تكمن المشكلة في أن كلمات مرور الذكاء الاصطناعي ليست عشوائية حقاً، بل تعتمد على أنماط احتمالية متوقعة، مما يجعلها ضعيفة وعرضة لهجمات القوة الغاشمة.

نماذج الذكاء الاصطناعي تُنشئ كلمات المرور بناءً على بيانات سابقة وأنماط متوقعة، وليس عشوائية حقيقية. تظهر هذه الكلمات تكراراً لأحرف معينة وبدايات متشابهة.

لإنشاء كلمة مرور آمنة حقاً، ينصح الخبراء باستخدام مولدات كلمات المرور العشوائية المدمجة في برامج إدارة كلمات المرور الموثوقة.

نعم، أظهرت الاختبارات أن هذه المشكلة تؤثر على جميع نماذج الذكاء الاصطناعي التي تم فحصها، بما في ذلك ChatGPT و Gemini و Claude.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!