Anthropic تتهم DeepSeek باستغلال Claude AI: تهديد أمني خطير
في اتهام خطير يثير قلقاً واسعاً، أعلنت [[Anthropic]] أن شركات صينية، أبرزها [[DeepSeek]]، استغلت نموذجها للذكاء الاصطناعي [[Claude]] بطرق غير مشروعة لتعزيز قدراتها. تأتي هذه المزاعم في سياق حملة صناعية واسعة النطاق، تتضمن إنشاء آلاف الحسابات الاحتيالية وملايين التبادلات مع النموذج، مما يطرح تساؤلات جدية حول أخلاقيات استخدام الذكاء الاصطناعي وأمنه.
حملة استغلال واسعة النطاق لنموذج Claude AI
ذكرت Anthropic في إعلانها يوم الاثنين أن "الحملات الصناعية واسعة النطاق" تضمنت إنشاء حوالي 24,000 حساب احتيالي وأكثر من 16 مليون تبادل مع نموذج Claude. وقد كشفت تقارير سابقة لصحيفة The Wall Street Journal عن هذه التفاصيل التي هزت مجتمع الذكاء الاصطناعي. الشركات الثلاث المتهمة هي DeepSeek و MiniMax و Moonshot، وجميعها شركات ذكاء اصطناعي صينية.
ما هو "تقطير" نماذج الذكاء الاصطناعي؟
تتهم Anthropic هذه الشركات بـ "تقطير" نموذج Claude، وهي عملية تدريب نموذج ذكاء اصطناعي أصغر حجماً بالاعتماد على نموذج أكثر تقدماً. وعلى الرغم من أن Anthropic تقر بأن التقطير هو "أسلوب تدريب مشروع"، إلا أنها تؤكد أنه "يمكن استخدامه أيضاً لأغراض غير مشروعة". وتهدف هذه العملية إلى "اكتساب قدرات قوية من مختبرات أخرى في جزء صغير من الوقت والتكلفة" التي يتطلبها تطويرها بشكل مستقل.
مخاطر أمنية وسياسية: بدائل آمنة للرقابة وعمليات سيبرانية
تحذر Anthropic من أن النماذج التي يتم تقطيرها بشكل غير قانوني "من غير المرجح" أن تحمل الضمانات الأمنية الموجودة في النموذج الأصلي. وهذا يفتح الباب أمام مخاطر أمنية وسياسية جمة. فوفقاً لـ Anthropic، يمكن لـ "المختبرات الأجنبية التي تقوم بتقطير النماذج الأمريكية" أن "تغذي هذه القدرات غير المحمية في الأنظمة العسكرية والاستخباراتية وأنظمة المراقبة".
وتضيف Anthropic أن هذا قد "يمكن الحكومات الاستبدادية من نشر الذكاء الاصطناعي المتطور في عمليات سيبرانية هجومية، وحملات تضليل، والمراقبة الجماعية". مما يعني أن الاستغلال غير المشروع لتقنيات الذكاء الاصطناعي يمكن أن يكون له تداعيات خطيرة على الأمن القومي والسيادة الرقمية.
DeepSeek تستهدف قدرات Claude الاستدلالية
وفقاً لـ Anthropic، أجرت DeepSeek أكثر من 150 ألف تبادل مع Claude، واستهدفت بشكل خاص "قدراته الاستدلالية". وقد أثارت DeepSeek ضجة في صناعة الذكاء الاصطناعي بنماذجها القوية والفعالة. كما اتُهمت DeepSeek باستخدام Claude لإنشاء "بدائل آمنة للرقابة للأسئلة الحساسة سياسياً حول المعارضين، قادة الأحزاب، أو الاستبداد".
اتهامات مماثلة من OpenAI
لم تكن Anthropic الوحيدة التي وجهت اتهامات لـ DeepSeek. ففي رسالة وجهتها إلى المشرعين الأسبوع الماضي، اتهمت OpenAI أيضاً DeepSeek بـ "الجهود المستمرة للاستفادة من القدرات التي طورتها OpenAI وغيرها من الشركات الأمريكية". يشير هذا إلى وجود نمط محتمل من الاستغلال غير المشروع لتقنيات الذكاء الاصطناعي الرائدة.
تُعد هذه الاتهامات بمثابة جرس إنذار لمجتمع الذكاء الاصطناعي بأسره، وتؤكد على الحاجة الملحة لوضع ضوابط صارمة وأطر قانونية لحماية الملكية الفكرية وضمان الاستخدام الأخلاقي والآمن لهذه التقنيات المتطورة. يبقى السؤال الأهم: كيف سيتم التعامل مع هذه الانتهاكات وما هي تداعياتها المستقبلية على مستقبل الذكاء الاصطناعي؟
الأسئلة الشائعة
تتهم Anthropic شركات صينية، أبرزها DeepSeek، باستغلال نموذجها للذكاء الاصطناعي Claude AI من خلال حملة واسعة النطاق لـ "تقطير" النموذج وتحسين منتجاتها الخاصة بطرق غير مشروعة.
تقطير نموذج الذكاء الاصطناعي هو عملية تدريب نموذج أصغر حجماً بالاعتماد على نموذج أكثر تقدماً. بينما يمكن أن يكون أسلوباً مشروعاً، إلا أنه يمكن استغلاله لاكتساب قدرات متقدمة بسرعة وبتكلفة أقل.
حذرت Anthropic من أن النماذج المقطرة قد تفتقر إلى الضمانات الأمنية، مما قد يمكن الحكومات الاستبدادية من استخدام الذكاء الاصطناعي في عمليات سيبرانية هجومية، حملات تضليل، والمراقبة الجماعية.
نعم، وجهت OpenAI أيضاً اتهامات لـ DeepSeek بـ "الجهود المستمرة للاستفادة من القدرات التي طورتها OpenAI وغيرها من الشركات الأمريكية".
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!