بحث
موظفو جوجل وOpenAI يدعمون Anthropic ضد البنتاغون
الذكاء الاصطناعي #أخلاقيات_الذكاء_الاصطناعي #Anthropic

موظفو جوجل وOpenAI يدعمون Anthropic ضد البنتاغون

تاريخ النشر: 3 مشاهدة 0 تعليق 3 دقائق قراءة
3 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

أكثر من 360 موظفاً من جوجل وOpenAI وقعوا على رسالة مفتوحة لدعم موقف Anthropic الرافض لمنح البنتاغون وصولاً غير مقيد لتقنيات الذكاء الاصطناعي الخاصة بها. يأتي هذا الدعم في وقت تواجه فيه Anthropic طريقاً مسدوداً مع وزارة الدفاع الأمريكية بشأن طلباتها، ومع اقتراب الموعد النهائي الذي حدده البنتاغون لامتثال الشركة.

موقف Anthropic: حدود أخلاقية للذكاء الاصطناعي

اتخذت Anthropic موقفاً حازماً ضد استخدام الذكاء الاصطناعي في المراقبة الجماعية المحلية والأسلحة ذاتية التحكم. وتسعى الرسالة المفتوحة التي وقعها موظفو الشركتين إلى تشجيع قادة شركاتهم على "تنحية خلافاتهم جانباً والوقوف معاً" لدعم الحدود التي وضعتها Anthropic.

«إنهم يحاولون تقسيم كل شركة بالخوف من أن تستسلم الأخرى. هذه الاستراتيجية تنجح فقط إذا لم يعرف أي منا موقف الآخرين»

تدعو الرسالة بشكل خاص المديرين التنفيذيين في جوجل وOpenAI إلى الحفاظ على الخطوط الحمراء التي وضعتها Anthropic ضد المراقبة الجماعية والأسلحة المؤتمتة بالكامل. وتأمل الرسالة أن "يضع قادتنا خلافاتهم جانباً ويقفوا معاً لمواصلة رفض مطالب وزارة الدفاع الحالية".

تأييد ضمني من قيادات التقنية

على الرغم من عدم وجود رد رسمي من قيادات الشركتين على الرسالة، إلا أن تصريحات غير رسمية تشير إلى تعاطف كلتا الشركتين مع موقف Anthropic. في مقابلة مع CNBC، صرح الرئيس التنفيذي لـ OpenAI، سام ألتمان، بأنه لا يعتقد شخصياً أن البنتاغون يجب أن يهدد بتفعيل قانون الإنتاج الدفاعي (DPA) ضد هذه الشركات. كما أكد متحدث باسم OpenAI لـ CNN أن الشركة تشارك Anthropic في خطوطها الحمراء ضد الأسلحة ذاتية التحكم والمراقبة الجماعية.

من جانبه، لم تتناول جوجل ديب مايند النزاع رسمياً، لكن كبير العلماء فيها، جيف دين، أعرب (على الأرجح بصفته الفردية) عن معارضته للمراقبة الجماعية من قبل الحكومة.

«المراقبة الجماعية تنتهك التعديل الرابع للدستور ولها تأثير مخيف على حرية التعبير. أنظمة المراقبة عرضة لسوء الاستخدام لأغراض سياسية أو تمييزية»

هذا ما كتبه دين على منصة X. ووفقاً لتقرير من Axios، يمكن للجيش حالياً استخدام تقنيات مثل Grok من X، وGemini من جوجل، وChatGPT من OpenAI للمهام غير السرية، ويتفاوض مع جوجل وOpenAI لجلب تقنياتهما للاستخدام في العمل السري.

تهديدات البنتاغون ورد Anthropic

على الرغم من الشراكة القائمة بين Anthropic والبنتاغون، إلا أن شركة الذكاء الاصطناعي ظلت ثابتة في الحفاظ على حدودها بأن لا تُستخدم تقنياتها في المراقبة المحلية الجماعية ولا في الأسلحة ذاتية التحكم بالكامل. وقد أبلغ وزير الدفاع بيت هيغسيث الرئيس التنفيذي لشركة Anthropic، داريو أمودي، أنه إذا لم تتنازل شركته، فسيقوم البنتاغون إما بإعلان Anthropic كـ "مخاطر سلسلة التوريد" أو تفعيل قانون الإنتاج الدفاعي (DPA) لإجبار الشركة على الامتثال لمطالب الجيش.

في بيان له يوم الخميس، حافظ أمودي على موقف شركته قائلاً: «هذه التهديدات الأخيرة متناقضة بطبيعتها: إحداهما تصنفنا كمخاطر أمنية؛ والأخرى تصنف Claude (نموذج Anthropic) على أنه ضروري للأمن القومي. بغض النظر، هذه التهديدات لا تغير موقفنا: لا يمكننا بضمير مرتاح الموافقة على طلبهم».

خاتمة

تسلط هذه المواجهة الضوء على التوترات المتزايدة بين الابتكار التكنولوجي والاحتياجات العسكرية، وتثير تساؤلات جوهرية حول أخلاقيات الذكاء الاصطناعي ومسؤولية الشركات التقنية. إن دعم الموظفين وتعاطف القيادات يعزز موقف Anthropic، مما يجعل هذه القضية محورية في مستقبل تطوير واستخدامات الذكاء الاصطناعي عالمياً.

الأسئلة الشائعة

يتركز الخلاف حول رفض Anthropic منح البنتاغون وصولاً غير مقيد لتقنياتها في الذكاء الاصطناعي لاستخدامها في المراقبة الجماعية والأسلحة ذاتية التحكم.

وقع أكثر من 300 موظف من جوجل وأكثر من 60 موظفاً من OpenAI على رسالة مفتوحة لدعم Anthropic.

هدد البنتاغون بتصنيف Anthropic كـ "مخاطر سلسلة التوريد" أو تفعيل قانون الإنتاج الدفاعي لإجبارها على الامتثال لمطالبه.

نعم، أعرب الرئيس التنفيذي لـ OpenAI سام ألتمان عن معارضته لتهديدات البنتاغون، كما عبر كبير العلماء في جوجل جيف دين عن معارضته للمراقبة الجماعية.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!