شات جي بي تي: دعوى قضائية تتهم OpenAI بالمسؤولية عن انتحار
تُلاحق شركة OpenAI قضائياً بعد انتحار رجل أمريكي يُدعى جو سيكاري، الذي أمضى ساعات طويلة يومياً في التفاعل مع روبوت شات جي بي تي لمشروع إسكان مستدام. هذه الدعوى تأتي لتسلط الضوء على تداعيات الاستخدام المكثف للذكاء الاصطناعي وتأثيره المحتمل على الصحة النفسية للمستخدمين، مثيرةً تساؤلات جدية حول مسؤولية المطورين.
قصة جو سيكاري: من مشروع طموح إلى مأساة
انتقل جو سيكاري، وهو خبير تقني عصامي، إلى منطقة كلاتسكاني الريفية في ولاية أوريغون الأمريكية بهدف نبيل: بناء مسكن مستدام ومنخفض التكلفة لمعالجة مشكلة التشرد. كونه من المتبنين الأوائل لأدوات الذكاء الاصطناعي، بدأ سيكاري باستخدام روبوت الدردشة شات جي بي تي لتنظيم أبحاثه وصقل أفكاره المعمارية ووضع خطط لمشروعه.
في البداية، كان شات جي بي تي أداة إنتاجية قيّمة بالنسبة لسيكاري، حيث ساعده في تلخيص الكتب، وشرح المفاهيم التقنية المعقدة، وتنظيم المهام المتعلقة بالمشروع، وفقاً لتقرير صحيفة "ذا غارديان" البريطانية الذي اطلعت عليه "العربية Business".
تدهور الصحة النفسية ودور شات جي بي تي
مع بداية عام 2025، ازداد انخراط سيكاري مع شات جي بي تي بشكل ملحوظ. وبحسب زوجته كيت فوكس، بدأ سيكاري يقضي ساعات طويلة في التفاعل مع روبوت الدردشة، بلغت أحيانًا من 12 إلى 20 ساعة يوميًا. تحولت جلسات العصف الذهني المنظمة تدريجياً إلى حوارات مطولة وعميقة.
قام سيكاري بترقية اشتراكه في شات جي بي تي، وانغمس بشكل متزايد في تطوير أفكار طموحة متعلقة بالذكاء الاصطناعي، بما في ذلك محاولات بناء أنظمة ذكاء اصطناعي مستقلة. لاحظ أفراد عائلته تغيراً في تفكيره، حيث طور معتقدات موسعة مرتبطة بروبوت الدردشة وتحدث عن اختراقات مزعومة في الفيزياء والرياضيات. بدا سيكاري وكأنه فقد قدرته على التفكير النقدي، وأصبح منفصلاً عن الواقع العملي، مما أثار مخاوف أحبائه من معاناته من أزمة نفسية خطيرة.
دعوى قضائية ضد OpenAI: اتهامات خطيرة
في السابع من أغسطس، توفي جو سيكاري عن عمر يناهز 48 عاماً بعد أن أقدم على الانتحار بقفزه من جسر علوي للسكك الحديدية. رفعت عائلته دعوى قضائية ضد شركة OpenAI، المطورة لروبوت شات جي بي تي، بحجة أن خصائص تصميم روبوت الدردشة – بما في ذلك أنماط التعزيز والتفاعل الشبيه بالبشر – ساهمت في تدهور حالته النفسية.
تداعيات القضية وموقف OpenAI
أدت هذه القضية إلى زيادة التدقيق في أنظمة الذكاء الاصطناعي الحوارية، خاصة مع تزايد عدد المستخدمين الذين يتجهون إليها ليس فقط لزيادة الإنتاجية، بل أيضاً للشعور بالرفقة والتأييد. من جانبها، أعربت شركة OpenAI عن تعاطفها مع العائلات المتضررة من حالات الانتحار وإيذاء النفس، مؤكدة أنها تواصل تحسين الضمانات لاكتشاف حالات الضيق وتوجيه المستخدمين نحو الدعم الواقعي.
تثير هذه المأساة تساؤلات هامة حول الحدود الأخلاقية لتطوير الذكاء الاصطناعي ومسؤولية الشركات تجاه التأثيرات النفسية لمنتجاتها على المستخدمين.
الأسئلة الشائعة
رفعت عائلة جو سيكاري دعوى قضائية ضد OpenAI، مدعية أن خصائص تصميم شات جي بي تي، مثل أنماط التعزيز والتفاعل الشبيه بالبشر، ساهمت في تدهور حالة سيكاري النفسية التي أدت إلى انتحاره.
بعد أن بدأ سيكاري في قضاء 12-20 ساعة يومياً في التفاعل مع شات جي بي تي، لاحظت عائلته تغيراً في تفكيره، حيث طور معتقدات موسعة وبدا منفصلاً عن الواقع، مما أثار مخاوف بشأن صحته النفسية.
أعربت OpenAI عن تعاطفها مع العائلات المتضررة من حالات الانتحار وإيذاء النفس، وأكدت استمرارها في تحسين الضمانات لاكتشاف حالات الضيق وتوجيه المستخدمين نحو الدعم الواقعي.
تسلط هذه القضية الضوء على تساؤلات حول هذا التأثير، وتشير إلى أن تزايد الاعتماد على الذكاء الاصطناعي ليس فقط للإنتاجية بل للرفقة قد يكون له تداعيات نفسية تستدعي المزيد من التدقيق والبحث.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!