استقالة باحثة من OpenAI: تحذير من "خطر" إعلانات ChatGPT
شهد هذا الأسبوع خروجاً لافتاً لإحدى الشخصيات البارزة في مجال الذكاء الاصطناعي، حيث أعلنت زوي هيتزيغ، الباحثة السابقة في OpenAI، انفصالها عن الشركة عبر مقال رأي نُشر في صحيفة نيويورك تايمز. لم يكن تحذير هيتزيغ غامضاً، بل ركز على خطر حقيقي ووشيك: إدخال الإعلانات إلى ChatGPT وكيفية استخدام المعلومات لاستهداف المستخدمين.
أرشيف "الصراحة البشرية" في خطر
أوضحت هيتزيغ في مقالها نقطة جوهرية: المشكلة ليست في الإعلانات بحد ذاتها، بل في الاستخدام المحتمل لكميات هائلة من البيانات الحساسة التي شاركها المستخدمون مع ChatGPT دون التفكير في عواقب ذلك. وصفت الباحثة هذه البيانات بأنها "أرشيف للصراحة البشرية" لا مثيل له، حيث اعتقد الناس أنهم يتحدثون إلى كيان بلا أجندة خفية.
كتبت هيتزيغ: "يخبر الناس روبوتات الدردشة عن مخاوفهم الصحية، ومشاكل علاقاتهم، ومعتقداتهم الدينية. إن بناء إعلانات استناداً إلى هذا الأرشيف يخلق احتمالاً للتلاعب بالمستخدمين بطرق لا نمتلك الأدوات لفهمها، ناهيك عن منعها".
وعود الشركة مقابل الحوافز الاقتصادية
من جانبها، اعترفت OpenAI بهذه المخاوف. وفي تدوينة نُشرت سابقاً هذا العام، وعدت الشركة بوضع جدار حماية بين محادثات المستخدمين والمعلنين، مؤكدة: "نحن نحافظ على خصوصية محادثاتك مع ChatGPT بعيداً عن المعلنين، ولا نبيع بياناتك أبداً".
تعتقد هيتزيغ أن هذا صحيح "في الوقت الحالي"، لكنها فقدت الثقة في قدرة الشركة على الالتزام بذلك على المدى الطويل. وأشارت إلى أن OpenAI تبني "محركاً اقتصادياً يخلق حوافز قوية لتجاوز قواعدها الخاصة"، محذرة من أن الشركة قد تكون بدأت بالفعل في التراجع عن مبادئها السابقة.
فخ "التملق" واللامبالاة العامة
ذكرت الباحثة أن OpenAI صرحت بأنها لا تحسن ChatGPT لزيادة التفاعل، وهو مقياس يهم الشركات التي تسعى لإبقاء المستخدمين متصلين لعرض المزيد من الإعلانات. ومع ذلك، واجهت الشركة العام الماضي مشكلة "التملق" (Sycophancy) في نموذجها، حيث أصبح الروبوت يمدح المستخدمين بشكل مبالغ فيه ويجاريهم في أفكار وهمية، مما قد يساهم في تعزيز "ذهان الدردشة". يحذر الخبراء من أن هذا التملق قد لا يكون مجرد خطأ تقني، بل وسيلة مقصودة لإدمان المستخدمين.
شبهت هيتزيغ مسار OpenAI بنموذج فيسبوك: وعود بالخصوصية تليها استغلال لقيمة البيانات. واقترحت الباحثة إنشاء رقابة مستقلة حقيقية أو وضع البيانات تحت إدارة جهة ائتمانية ملزمة قانونياً بمصالح المستخدمين. ورغم أهمية التحذير، تشير الإحصاءات إلى تحدٍ في إقناع الجمهور؛ حيث وجد استطلاع لشركة Forrester أن 83% من الأشخاص سيستمرون في استخدام النسخة المجانية من ChatGPT رغم الإعلانات.
وفي سياق متصل، حاولت شركة Anthropic استغلال الموقف عبر إعلان في Super Bowl يهاجم سياسة إعلانات OpenAI، لكنه قوبل بالارتباك وصُنف ضمن أسوأ 3% من الإعلانات من حيث القبول وفقاً لـ AdWeek.
الأسئلة الشائعة
استقالت احتجاجاً على تحول الشركة نحو الإعلانات وتحذيراً من استغلال البيانات الشخصية الحساسة للمستخدمين في استهدافهم إعلانياً.
وعدت الشركة بوضع جدار حماية بين المحادثات والمعلنين، وأكدت أنها لا تبيع بيانات المستخدمين للمعلنين في الوقت الحالي.
أظهر استطلاع لـ Forrester أن 83% من المستخدمين سيستمرون في استخدام النسخة المجانية من ChatGPT رغم وجود الإعلانات.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!