دراسة من آبل تكشف: ماذا يريد المستخدمون من وكلاء الذكاء الاصطناعي؟
سعى فريق من باحثي شركة آبل إلى فهم ما يتوقعه المستخدمون الحقيقيون من وكلاء الذكاء الاصطناعي (AI Agents)، وكيف يفضلون التفاعل معهم في المستقبل، وذلك من خلال دراسة بحثية جديدة ركزت على تجربة المستخدم.
البحث عن تجربة المستخدم المثالية في عصر الذكاء الاصطناعي
في دراسة بعنوان "رسم مساحة التصميم لتجربة المستخدم لوكلاء استخدام الحاسوب"، أشار فريق مكون من أربعة باحثين في آبل إلى أنه على الرغم من الاستثمار الضخم في تطوير الذكاء الاصطناعي، إلا أن بعض جوانب تجربة المستخدم قد تم التغاضي عنها؛ وتحديداً كيف يريد المستخدمون التفاعل مع هذه الأنظمة، وكيف يجب أن تبدو هذه الواجهات.
لاستكشاف ذلك، قسم الباحثون الدراسة إلى مرحلتين: أولاً، حددوا أنماط تجربة المستخدم الرئيسية التي تبنيها مختبرات الذكاء الاصطناعي حالياً. ثانياً، قاموا باختبار وتنقيح هذه الأفكار من خلال دراسات عملية مع المستخدمين باستخدام طريقة مثيرة للاهتمام تسمى "ساحر أوز" (Wizard of Oz).
فحص الباحثون تسعة وكلاء ذكاء اصطناعي يعملون على سطح المكتب والهواتف والويب، بما في ذلك أدوات معروفة مثل Claude Computer Use Tool وOpenAI Operator وAutoGLM وغيرها.
مرحلة "ساحر أوز": محاكاة الذكاء البشري
في المرحلة الثانية، جند الباحثون 20 مستخدماً لديهم خبرة سابقة مع وكلاء الذكاء الاصطناعي، وطلبوا منهم التفاعل مع واجهة دردشة لأداء مهام مثل حجز إيجار لقضاء العطلة أو التسوق عبر الإنترنت.
ما لم يعرفه المستخدمون هو أن "وكيل الذكاء الاصطناعي" كان في الواقع باحثاً يجلس في الغرفة المجاورة، يقرأ التعليمات النصية وينفذ المهام يدوياً باستخدام الفأرة لوحة المفاتيح لمحاكاة أفعال الوكيل. سمحت هذه المنهجية بمراقبة ردود فعل المستخدمين تجاه الأخطاء المتعمدة أو النجاحات التي يقوم بها النظام.
النتائج الرئيسية: الشفافية والتحكم
خلصت الدراسة إلى نتائج جوهرية حول سلوك المستخدمين:
- الرغبة في الرؤية لا الإدارة الدقيقة: يريد المستخدمون رؤية ما يفعله الوكيل، لكنهم لا يريدون إدارة كل خطوة صغيرة، وإلا لكانوا قاموا بالمهمة بأنفسهم.
- السياق يحدد التوقعات: تتغير توقعات المستخدمين بناءً على ما إذا كانوا يستكشفون خيارات أو ينفذون مهمة مألوفة. كلما كانت الواجهة غير مألوفة، زاد طلبهم للشفافية والتفسيرات.
- التحكم في المخاطر العالية: يطالب الناس بمزيد من التحكم عندما تحمل الإجراءات عواقب حقيقية (مثل عمليات الشراء أو تغيير تفاصيل الحساب)، وتنهار الثقة بسرعة عندما يقوم الوكلاء بافتراضات صامتة أو يرتكبون أخطاء دون تنبيه.
أظهر المشاركون عدم ارتياح عندما لم يكن الوكيل شفافاً بشأن اتخاذ خيار معين، خاصة إذا كان هذا الخيار قد يؤدي إلى تحديد منتج خاطئ. وفضلوا أن يطلب النظام التوضيح بدلاً من التخمين العشوائي.
الأسئلة الشائعة
هي طريقة بحثية قام فيها باحث بشري بمحاكاة دور وكيل الذكاء الاصطناعي والتحكم في الاستجابات دون علم المستخدم، لدراسة ردود الفعل الطبيعية وتوقعات المستخدمين.
أظهرت الدراسة أن المستخدمين يفضلون التحكم العالي والشفافية التامة في المهام ذات العواقب الحقيقية مثل الشراء والدفع، ولا يثقون بالقرارات الآلية الصامتة في هذه الحالات.
يفضل المستخدمون أن يطلب الوكيل التوضيح عند مواجهة خيارات غامضة بدلاً من القيام بافتراضات أو تخمينات قد تؤدي إلى نتائج خاطئة.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!