بحث
أنثروبيك تحدث دستور كلود: هل يمتلك الذكاء الاصطناعي وعياً؟
الذكاء الاصطناعي #أنثروبيك #الذكاء_الاصطناعي

أنثروبيك تحدث دستور كلود: هل يمتلك الذكاء الاصطناعي وعياً؟

تاريخ النشر: آخر تحديث: 51 مشاهدة 0 تعليق 2 دقائق قراءة
51 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

أصدرت شركة أنثروبيك (Anthropic) يوم الأربعاء نسخة منقحة ومحدثة من "دستور كلود" (Claude’s Constitution)، وهي وثيقة حية تقدم شرحاً شاملاً للسياق الذي يعمل فيه الروبوت ونوع الكيان الذي تطمح الشركة أن يكون عليه. وجاء إطلاق هذه الوثيقة تزامناً مع ظهور داريو أمودي، الرئيس التنفيذي للشركة، في المنتدى الاقتصادي العالمي في دافوس.

نهج الذكاء الاصطناعي الدستوري

تسعى أنثروبيك منذ سنوات لتمييز نفسها عن المنافسين من خلال ما تسميه "الذكاء الاصطناعي الدستوري" (Constitutional AI). يعتمد هذا النظام على تدريب روبوت الدردشة "كلود" باستخدام مجموعة محددة من المبادئ الأخلاقية بدلاً من الاعتماد فقط على الملاحظات البشرية. وقد نشرت الشركة هذه المبادئ لأول مرة في عام 2023.

تحتفظ النسخة المراجعة بمعظم المبادئ الأصلية، لكنها تضيف مزيداً من الدقة والتفاصيل حول الأخلاقيات وسلامة المستخدم. وكان جاريد كابلان، المؤسس المشارك للشركة، قد وصف هذا النظام سابقاً بأنه نظام ذكاء اصطناعي يشرف على نفسه بناءً على قائمة محددة من المبادئ الدستورية لتجنب المخرجات السامة أو التمييزية.

القيم الجوهرية الأربعة

تهدف الوثيقة الجديدة المكونة من 80 صفحة إلى تقديم أنثروبيك كبديل أخلاقي وأكثر انضباطاً مقارنة بشركات أخرى مثل OpenAI وxAI. وتحدد الوثيقة أربعة أجزاء منفصلة تمثل "القيم الجوهرية" للروبوت، وهي:

  • أن يكون آمناً بشكل واسع.
  • أن يكون أخلاقياً بشكل واسع.
  • أن يكون ممتثلاً لإرشادات أنثروبيك.
  • أن يكون مفيداً بصدق.

السلامة والأخلاق في الممارسة

في قسم السلامة، تشير أنثروبيك إلى أن الروبوت مصمم لتوجيه المستخدمين إلى خدمات الطوارئ المناسبة عند ظهور أدلة على مشاكل الصحة العقلية أو المخاطر التي تهدد الحياة. أما في الجانب الأخلاقي، توضح الوثيقة أن الهدف ليس التنظير الأخلاقي، بل قدرة كلود على التصرف بمهارة في السياقات الأخلاقية الواقعية.

كما يلتزم الروبوت بقيود صارمة تمنعه من الخوض في محادثات معينة، مثل المناقشات المتعلقة بتطوير الأسلحة البيولوجية.

جدل الوعي والوضع الأخلاقي

تختتم الوثيقة بنبرة درامية وتساؤل فلسفي عميق حول ما إذا كان الروبوت يمتلك وعياً. وجاء في نص الوثيقة: "الوضع الأخلاقي لكلود غير مؤكد بشكل عميق". وأضافت الشركة أنها تعتقد أن الوضع الأخلاقي لنماذج الذكاء الاصطناعي هو مسألة خطيرة تستحق النظر، مشيرة إلى أن بعض أبرز الفلاسفة في نظرية العقل يأخذون هذا السؤال على محمل الجد.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!