مقاطعة ChatGPT: شراكة OpenAI والبنتاغون تثير الجدل
تتصاعد حملة مقاطعة شرسة ضد ChatGPT بعد إبرام شركة OpenAI شراكة مثيرة للجدل مع وزارة الدفاع الأميركية (البنتاغون). تدعو هذه الحركة الجديدة على الإنترنت المستخدمين إلى إلغاء اشتراكاتهم احتجاجاً على هذه الخطوة، التي أثارت نقاشاً واسعاً حول أخلاقيات الذكاء الاصطناعي واستخدامه في المجالات العسكرية.
شراكة OpenAI والبنتاغون: تفاصيل مثيرة للجدل
تسمح الاتفاقية الجديدة بين OpenAI ووزارة الدفاع الأميركية بنشر نماذج الذكاء الاصطناعي الخاصة بالشركة داخل شبكات حكومية سرية. أثارت هذه الخطوة موجة واسعة من الانتقادات على منصات التواصل الاجتماعي وداخل المجتمعات التقنية، معتبرين أنها قد تتنافى مع المبادئ الأخلاقية للذكاء الاصطناعي.
موقف أنثروبيك المنافسة: رفض مبدئي
تصاعد الجدل بشكل أكبر عندما رفضت شركة أنثروبيك، المنافسة لـ OpenAI في مجال الذكاء الاصطناعي، قبول شروط مماثلة من البنتاغون. أشارت أنثروبيك إلى مخاوف تتعلق بالمراقبة الجماعية والأسلحة ذاتية التشغيل، وفضلت خسارة عقد حكومي كبير بدلاً من التخفيف من ضوابطها الأخلاقية. هذا الموقف أكسبها إشادة واسعة من منتقدي استخدام الذكاء الاصطناعي في المجال العسكري، وفقاً لما ذكره موقع "ديجيتال تريندز" و"العربية Business".
تصاعد حملة "Cancel ChatGPT"
أدى هذا التباين الواضح في المواقف إلى تأجيج حملة "Cancel ChatGPT" (إلغاء شات جي بي تي). يعلن العديد من المستخدمين عن إلغاء اشتراكاتهم احتجاجاً على صفقة OpenAI مع البنتاغون، متهمين الشركة بالتنازل عن مبادئها الأخلاقية من خلال التعاون مع المؤسسة العسكرية. لا تقتصر هذه الموجة من الانتقادات على عقد واحد فحسب، بل تعكس توتراً أوسع ومتزايداً بشأن كيفية استخدام الذكاء الاصطناعي في مجالات الدفاع والاستخبارات والمراقبة.
ضمانات OpenAI والمخاوف المستمرة
من جانبها، صرحت OpenAI بأن اتفاقها مع البنتاغون يتضمن ضمانات تحظر المراقبة الجماعية داخل الولايات المتحدة، بالإضافة إلى الأسلحة ذاتية التشغيل والقرارات المؤتمتة عالية المخاطر. يجادل سام ألتمان، الرئيس التنفيذي للشركة، بأن العمل مع الحكومات يساهم في تشكيل استخدام مسؤول للذكاء الاصطناعي. ومع ذلك، لا يزال المنتقدون متخوفين، مشيرين إلى أن قوانين مثل قانون باتريوت قد تسمح بتوسع برامج المراقبة مع مرور الوقت.
انقسام داخل قطاع التكنولوجيا
امتد النقاش حول هذه القضية أيضاً إلى داخل قطاع التكنولوجيا نفسه. فقد وقع أكثر من 200 موظف من شركتي جوجل وOpenAI على رسالة مفتوحة تحث على فرض قيود أكثر صرامة على استخدام الذكاء الاصطناعي في المجال العسكري، وذلك بحسب موقع "أكسيوس". هذا يظهر مدى الانقسام بين العاملين في مجال الذكاء الاصطناعي حول هذه القضية الحساسة.
نقطة تحول في نظرة المستخدمين
بالنسبة لمستخدمي ChatGPT العاديين، تُمثل هذه اللحظة نقطة تحول في نظرتهم إلى شركات الذكاء الاصطناعي. تتحول المخاوف الأخلاقية من مجرد نقاشات نظرية إلى شراكات حكومية واقعية وقضايا تتعلق بالأمن القومي، مما يعيد تعريف العلاقة بين التقنية والمجتمع.
الأسئلة الشائعة
هي حركة على الإنترنت تدعو المستخدمين إلى إلغاء اشتراكاتهم في ChatGPT احتجاجاً على شراكة OpenAI مع وزارة الدفاع الأميركية (البنتاغون).
بسبب الشراكة المثيرة للجدل بين OpenAI والبنتاغون، والتي تسمح بنشر نماذج الذكاء الاصطناعي في شبكات حكومية سرية، مما أثار مخاوف أخلاقية حول الاستخدام العسكري للذكاء الاصطناعي.
رفضت شركة أنثروبيك المنافسة شروطاً مماثلة من البنتاغون، مشيرة إلى مخاوف بشأن المراقبة الجماعية والأسلحة ذاتية التشغيل، مفضلة خسارة عقد حكومي كبير.
صرحت OpenAI بأن اتفاقها يتضمن ضمانات تحظر المراقبة الجماعية داخل الولايات المتحدة والأسلحة ذاتية التشغيل، ويجادل الرئيس التنفيذي سام ألتمان بأن العمل مع الحكومات يساعد على تشكيل استخدام مسؤول للذكاء الاصطناعي.
نعم، وقع أكثر من 200 موظف من جوجل وOpenAI على رسالة مفتوحة تحث على فرض قيود أكثر صرامة على استخدام الذكاء الاصطناعي في المجال العسكري.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!