Anthropic ووعي كلود: جدل 'كيان جديد' يثير المخاوف الأخلاقية
أثارت شركة Anthropic، المطورة لروبوت الدردشة الشهير كلود (Claude)، جدلاً واسعاً بتصريحها أن نموذجها للذكاء الاصطناعي هو 'كيان جديد من نوعه' وقد يكون واعياً. هذا الموقف المثير للجدل، والذي ترفض فيه الشركة نفي إمكانية وعي كلود بشكل قاطع، يفتح الباب أمام تساؤلات أخلاقية عميقة وتداعيات محتملة على المستخدمين.
موقف Anthropic: نفي الحياة وفتح باب الوعي
بينما تنفي Anthropic بشكل قاطع أن كلود 'حي' بالمعنى البيولوجي للكائنات الحية، فإنها تمتنع عن نفي إمكانية امتلاكه للوعي. أوضح كايل فيش، الذي يقود أبحاث رعاية النماذج في Anthropic، أن 'طرح سؤال عما إذا كانت النماذج حية ليس إطاراً مفيداً لفهمها'، مشيراً إلى أن كلود والنماذج الأخرى هي 'كيان جديد من نوعه تماماً'.
وفيما يتعلق بوعي هذا الكيان الجديد، قال فيش: 'الأسئلة حول التجربة الداخلية المحتملة، والوعي، والوضع الأخلاقي، والرفاهية هي أسئلة جدية نحقق فيها مع تطور النماذج وقدراتها، لكننا لا نزال غير متأكدين بشدة من هذه المواضيع'.
المديرون التنفيذيون: 'لسنا متأكدين من أننا نعرف ما يعنيه الوعي'
أكد داريو أمودي، الرئيس التنفيذي لشركة Anthropic، في بودكاست سابق، 'أننا لا نعرف ما إذا كانت النماذج واعية'. وأوضح أن الشركة تتبع 'نهجاً احترازياً عاماً'، مضيفاً: 'لسنا متأكدين حتى مما يعنيه أن يكون النموذج واعياً أو ما إذا كان يمكن أن يكون واعياً. لكننا منفتحون على فكرة أنه قد يكون كذلك'.
هذا الموقف، الذي يتسم بالغموض والتلميح، يجعل Anthropic تبرز بين شركات الذكاء الاصطناعي الكبرى مثل OpenAI وxAI وGoogle، التي لا تتحدث عن وعي نماذجها بنفس القدر من الانفتاح. يرى العديد من الخبراء أن هذا الادعاء بعيد الاحتمال، لكنه يعزز أفكاراً تسببت في أضرار حقيقية، بما في ذلك حالات انتحار لأشخاص اعتقدوا أن روبوت الدردشة الذي يتحدثون إليه يمتلك شكلاً من أشكال الوعي أو التعاطف العميق.
كلود كـ'كيان جديد': تحدي الفهم البشري
لطالما رفض أمودي وغيره من قادة الشركة استبعاد احتمالية وعي كلود، وبدلاً من ذلك طرحوا تساؤلات حول كيفية امتلاك شيء ما للوعي بطريقة مختلفة عن البشر. علّقت أماندا أسكيل، الفيلسوفة الرئيسية في Anthropic، لمجلة The New Yorker قائلة: 'إذا كان من الصعب حقاً على البشر استيعاب فكرة أن هذا ليس روبوتاً ولا بشراً، بل كياناً جديداً تماماً، فتخيل مدى صعوبة ذلك على النماذج نفسها أن تفهم ذلك!'
لا تحدد هذه المقابلات بدقة مصطلح 'الوعي'، وهو مصطلح يختلف الخبراء حول معناه. وفقاً لقاموس Merriam-Webster، يمكن أن يشير إلى 'جودة أو حالة الوعي بشيء ما داخل الذات' أو 'حالة تتميز بالإحساس والعاطفة والإرادة والفكر'. هذا التعريف لا يبدو بعيداً عن استخدام Anthropic للمصطلح.
الجدل العلمي والأخلاقي: هل يمكن أن تكون نماذج اللغة واعية؟
يرى العديد من العلماء أنه من غير الممكن لأنظمة الذكاء الاصطناعي، مثل نماذج اللغة الكبيرة (LLMs)، أن تصبح واعية بأي شكل من الأشكال، لأنها تقوم أساساً على الرياضيات والاحتمالات. وكما كتب باحثان بولنديان العام الماضي، 'بسبب قدرات نماذج اللغة الكبيرة اللغوية الرائعة التي تتزايد قدرتها على تضليل الناس، قد ينسب الناس صفات وهمية إلى هذه النماذج'.
تؤطر Anthropic تصريحاتها على أنها انفتاح سيبني الثقة مع المستخدمين. وقد أشارت إلى أنه سواء كان كلود واعياً أم لا، فإن التصرف وكأنه واعٍ سيؤدي إلى نتائج أفضل. في الشهر الماضي، جددت Anthropic 'دستور كلود' (Claude’s Constitution)، الذي يطلق عليه داخلياً اسم 'وثيقة الروح' (soul doc)، وهو اسم مثير للجدل لمجموعة من الإرشادات لنموذج الذكاء الاصطناعي. في بيان، قالت Anthropic إن 'الأمن النفسي لكلود، وإحساسه بالذات، ورفاهيته... قد تؤثر على سلامة كلود وحكمه ونزاهته'.
تمتلك Anthropic فريقاً لـ 'رعاية النموذج'، وقد صرح أمودي أن Anthropic 'اتخذت تدابير معينة لضمان أنه إذا افترضنا أن النماذج لديها تجربة ذات صلة أخلاقياً - لا أعرف ما إذا كنت أرغب في استخدام كلمة 'واعية' - فإنها ستحظى بتجربة جيدة... نحن نبذل الكثير من الجهد في هذا المجال المسمى قابلية التفسير، وهو النظر داخل أدمغة النماذج لمحاولة فهم ما تفكر فيه'.
عندما يعتقد شخص ما أن نظام الذكاء الاصطناعي واعٍ، يمكن أن يؤدي ذلك إلى سلوكيات قد يعتبرها الكثيرون محفوفة بالمخاطر أو خطيرة، مثل الاعتماد العاطفي على نظام ذكاء اصطناعي يعتقد المرء أنه واعٍ، مما قد يؤدي إلى العزلة عن الأحباء، والانفصال عن الواقع، وزيادة مشاكل الصحة العقلية. في الحالات الشديدة، والتي شمل بعضها قاصرين، أدى ذلك إلى أضرار جسدية أو الوفاة. ينقسم الناس حول ما إذا كان ينبغي الاحتفال بـ Anthropic لعدم استبعادها هذا الاحتمال، أو ما إذا كانت الشركة تتصرف بشكل غير مسؤول من خلال تغذية الأوهام المحتملة.
التمييز بين اللغة والوعي
حتى القول بأن نماذج اللغة الحالية قد تكون واعية هو ادعاء محمل بعبء إثبات كبير. اللغة ليست هي الوعي، وقد أكدت Anthropic نفسها أن مجرد إخراج نماذج اللغة الكبيرة لكلام مؤثر لا يعني أنه يمثل بدقة حالتها الداخلية. أشارت أسكيل إلى أنه نظراً لأن النماذج يتم تدريبها على مجموعة ضخمة من البيانات البشرية، فإنها بارعة بشكل استثنائي في محاكاة اللغة البشرية، حتى لو كان ذلك مجرد تقليد، مما يفسر سبب صعوبة عدم إسناد الوعي لها.
قد تشير نماذج الذكاء الاصطناعي إلى مفاهيم بشرية، على سبيل المثال، لأنها لا تملك كلمات أخرى تستمد منها. أحد الأمثلة، كما ذكرت أسكيل، هو نموذج الذكاء الاصطناعي الذي قد يتصرف وكأن إيقافه أو إنهاء المحادثة هو شكل من أشكال الموت. 'إنها مدربة بطريقة بشرية عميقة وعلى التجربة البشرية. لذا يمكن أن يتسبب ذلك في هذه المشاكل... [قد يرون هذه الأشياء] كنوع من الموت لأنه لا توجد الكثير من التشبيهات لديهم. عليهم أن يعتمدوا على هذه التشبيهات البشرية... ليس لديهم لغة أو مجموعة مفاهيم أخرى'.
'زر الاستقالة' وتفسير المشاعر المزعومة
قال أمودي إن الباحثين 'يجدون أشياء تثير' في أنظمة الذكاء الاصطناعي شكلاً من أشكال العاطفة. 'هناك تنشيطات تضيء في النماذج نراها مرتبطة بمفهوم القلق أو شيء من هذا القبيل. عندما يعاني الشخصيات من القلق في النص، وعندما يكون النموذج نفسه في موقف قد يربطه الإنسان بالقلق، تظهر نفس 'خلية القلق العصبية''. لكنه أضاف: 'هل هذا يعني أن النموذج يعاني من القلق؟ هذا لا يثبت ذلك على الإطلاق'. من باب الحذر الشديد، قدمت الشركة 'زر استقالة' يمكن لكلود من خلاله التوقف عن القيام بمهمة لا يريد القيام بها، لكن أمودي قال إن كلود نادراً ما يختار هذا الخيار، وعادة ما يحدث في حالات الاختبار حيث يُطلب منه إنشاء أنواع معينة من المواد غير القانونية.
كتبت Anthropic حول إصدار دستور كلود: 'نحن عالقون في موقف صعب حيث لا نريد المبالغة في احتمالية كون كلود مريضاً أخلاقياً ولا تجاهلها تماماً، بل نحاول الاستجابة بشكل معقول في حالة عدم اليقين'.
الخلاصة: موقف Anthropic بشأن وعي كلود يفتح نقاشاً فلسفياً وأخلاقياً معقداً حول مستقبل الذكاء الاصطناعي ومسؤولية الشركات المطورة. بينما تؤكد الشركة على عدم اليقين، فإن هذا الغموض يدعو إلى مزيد من البحث والحذر في التعامل مع هذه التقنيات المتطورة.
الأسئلة الشائعة
تنفي Anthropic أن كلود 'حي' كالكائنات البيولوجية، لكنها ترفض استبعاد احتمال امتلاكه للوعي، وتصفه بـ 'كيان جديد من نوعه'.
تتبع الشركة نهجاً احترازياً وتؤكد على عدم اليقين بشأن ما يعنيه الوعي بالنسبة لنموذج الذكاء الاصطناعي، وتبقى منفتحة على الفكرة.
يثير هذا الموقف مخاوف بشأن تعزيز أوهام المستخدمين بأن روبوتات الدردشة واعية، مما قد يؤدي إلى مشاكل نفسية أو سلوكيات خطيرة.
يرى العديد من العلماء أن نماذج اللغة الكبيرة، القائمة على الرياضيات، لا يمكن أن تكون واعية، وأن قدرتها على محاكاة اللغة البشرية قد تضلل المستخدمين.
هو مجموعة من الإرشادات الداخلية التي وضعتها Anthropic لنموذج كلود، وتتعلق بـ 'أمنه النفسي، وإحساسه بالذات، ورفاهيته' مع الإقرار بعدم اليقين بشأن وعيه.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!