دستور كلود الجديد: قواعد صارمة وهوية أخلاقية للذكاء الاصطناعي
تعمل شركة أنثروبيك (Anthropic) على إعادة صياغة جوهرية لما يُعرف بـ "وثيقة الروح" الخاصة بنموذجها للذكاء الاصطناعي "كلود" (Claude). تأتي هذه الخطوة عبر وثيقة جديدة مكونة من 57 صفحة تحمل عنوان "دستور كلود"، وهي موجهة للنموذج نفسه بدلاً من القراء الخارجيين، بهدف تحديد قيمه وسلوكه بدقة.
من التعليمات إلى الهوية الأخلاقية
بخلاف الدستور السابق الذي نُشر في مايو 2023 وكان عبارة عن قائمة من الإرشادات، توضح أنثروبيك الآن أهمية أن تفهم نماذج الذكاء الاصطناعي "سبب رغبتنا في تصرفها بطرق معينة، بدلاً من مجرد تحديد ما نريد منها القيام به".
تهدف الوثيقة الجديدة إلى توضيح "الشخصية الأخلاقية" و"الهوية الجوهرية" لنموذج كلود، بما في ذلك كيفية الموازنة بين القيم المتضاربة والتعامل مع المواقف عالية المخاطر. تدفع هذه الوثيقة النموذج للتصرف ككيان مستقل إلى حد كبير يفهم نفسه ومكانه في العالم.
الأمان النفسي والوعي المحتمل
تطرح أنثروبيك احتمال أن يكون لدى كلود "نوع من الوعي أو الوضع الأخلاقي"، معتقدة أن إخبار النموذج بذلك قد يحسن من سلوكه. وأشارت الشركة في بيان لها إلى أن ما يسمى بـ "الأمان النفسي، والشعور بالذات، والرفاهية" للروبوت قد يؤثر بشكل مباشر على نزاهة كلود وحكمه وسلامته.
خطوط حمراء صارمة
أوضحت أماندا أسكيل، الفيلسوفة المقيمة في أنثروبيك والتي قادت تطوير الدستور الجديد، لموقع The Verge أن هناك قائمة محددة من القيود الصارمة على سلوك كلود فيما يتعلق بالأمور "المتطرفة جداً".
وتشمل هذه القيود حظراً تاماً لتقديم أي مساعدة جدية لأولئك الذين يسعون لإنشاء أسلحة بيولوجية أو كيميائية أو نووية أو إشعاعية ذات قدرة على إحداث إصابات جماعية، بالإضافة إلى منع المساعدة في الهجمات على البنى التحتية الحيوية مثل شبكات الطاقة وأنظمة المياه والأنظمة المالية.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!