بحث
جدل إلغاء اشتراكات ChatGPT: شراكة OpenAI والبنتاغون تثير غضباً
الذكاء الاصطناعي #جدل_ChatGPT #OpenAI

جدل إلغاء اشتراكات ChatGPT: شراكة OpenAI والبنتاغون تثير غضباً

تاريخ النشر: آخر تحديث: 4 مشاهدة 0 تعليق 2 دقائق قراءة
4 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

شهدت منصات التواصل الاجتماعي مؤخراً حملة واسعة تدعو إلى إلغاء اشتراكات [[ChatGPT]]، وذلك في أعقاب شراكة مثيرة للجدل بين [[OpenAI]] ووزارة الدفاع الأمريكية (البنتاغون). تسمح هذه الشراكة بنشر نماذج [[OpenAI]] داخل الشبكات الحكومية السرية، وهي خطوة أثارت ردود فعل غاضبة عبر وسائل التواصل الاجتماعي والمجتمعات التقنية.

تصاعد الجدل بشكل كبير عندما رفضت شركة Anthropic، وهي شركة ذكاء اصطناعي منافسة، قبول شروط مماثلة من البنتاغون. استشهدت Anthropic بمخاوف بشأن المراقبة الجماعية والأسلحة المستقلة، مخاطرةً بخسارة عقد حكومي كبير بدلاً من تخفيف ضماناتها الأخلاقية، وهو ما نال استحسان منتقدي الذكاء الاصطناعي العسكري.

هذا التباين في المواقف سرعان ما غذى حملة "إلغاء اشتراكات ChatGPT". يقول بعض المستخدمين إنهم يلغون اشتراكاتهم احتجاجاً، متهمين [[OpenAI]] بالتنازل عن المبادئ الأخلاقية من خلال العمل مع الجيش.

الجدل الحقيقي: الذكاء الاصطناعي العسكري لا شركة واحدة

لا يقتصر رد الفعل هذا على عقد واحد فقط، بل يعكس توتراً أوسع ومتزايداً حول كيفية استخدام الذكاء الاصطناعي في مجالات الدفاع والاستخبارات والمراقبة. تؤكد [[OpenAI]] أن اتفاقها مع البنتاغون يتضمن ضمانات تحظر المراقبة الجماعية المحلية، والأسلحة المستقلة، والقرارات الآلية عالية المخاطر. ويجادل سام ألتمان، الرئيس التنفيذي لـ[[OpenAI]]، بأن العمل مع الحكومات يساعد في تشكيل استخدام مسؤول للذكاء الاصطناعي.

ومع ذلك، لا يزال النقاد حذرين، مشيرين إلى أن قوانين مثل قانون باتريوت (Patriot Act) قد تسمح لبرامج المراقبة بالتوسع بمرور الوقت. امتد هذا النقاش أيضاً داخل صناعة التكنولوجيا نفسها. فوفقاً لما ذكرته صحيفة Axios، وقّع أكثر من 200 موظف من [[جوجل]] و[[OpenAI]] رسالة مفتوحة تحث على فرض قيود أقوى على استخدام الذكاء الاصطناعي العسكري، مما يظهر مدى الانقسام حتى بين العاملين في مجال الذكاء الاصطناعي حول هذه القضية.

بالنسبة للمستخدمين العاديين، تمثل هذه اللحظة نقطة تحول في كيفية رؤية شركات الذكاء الاصطناعي، حيث تتحول المخاوف الأخلاقية من نقاشات مجردة إلى شراكات حكومية واقعية ومسائل أمن قومي. وسواء استمرت حركة "إلغاء اشتراكات ChatGPT" أو تلاشت، فمن الواضح أن المحادثة حول الذكاء الاصطناعي تتغير من التركيز على ما يمكن لهذه الأدوات فعله إلى تحديد حدودها الأخلاقية.

الأسئلة الشائعة

اندلعت الحملة بسبب شراكة بين OpenAI ووزارة الدفاع الأمريكية (البنتاغون) تسمح بنشر نماذج الذكاء الاصطناعي الخاصة بـOpenAI داخل الشبكات الحكومية السرية، مما أثار مخاوف أخلاقية.

أثارت الشراكة الجدل بسبب مخاوف من استخدام الذكاء الاصطناعي في المراقبة الجماعية والأسلحة المستقلة، وتعتبر تجاوزاً للخطوط الأخلاقية في نظر البعض.

رفضت شركة Anthropic، وهي منافسة لـOpenAI، قبول شروط مماثلة من البنتاغون، مستشهدة بمخاوف أخلاقية، مما سلط الضوء على التناقض في المواقف تجاه الذكاء الاصطناعي العسكري.

ذكرت OpenAI أن اتفاقها يتضمن ضمانات تحظر المراقبة الجماعية المحلية، والأسلحة المستقلة، والقرارات الآلية عالية المخاطر، ويجادل الرئيس التنفيذي سام ألتمان بأن الشراكة تساعد في تشكيل استخدام مسؤول للذكاء الاصطناعي.

نعم، وقّع أكثر من 200 موظف من جوجل وOpenAI رسالة مفتوحة تدعو إلى فرض قيود أقوى على استخدام الذكاء الاصطناعي العسكري، مما يدل على الانقسام داخل القطاع.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!