تقرير: ChatGPT يقدم نصائح طبية خاطئة عبر Apple Health
كشف تقرير جديد من صحيفة واشنطن بوست عن فشل ذريع لميزة ChatGPT Health في تحليل بيانات Apple Health، حيث قدم الروبوت تقييمات طبية خاطئة ومتقلبة لمحرر تقني، مما يثير تساؤلات جدية حول دقة الذكاء الاصطناعي في المجال الصحي.
تجربة عملية تكشف الخلل
قام المراسل التقني جيفري فاولر باختبار ميزة التكامل الجديدة في ChatGPT، حيث زود الروبوت ببيانات 10 سنوات من ساعته الذكية Apple Watch، تضمنت 29 مليون خطوة و6 ملايين قياس لنبضات القلب. النتيجة كانت صادمة؛ حيث منح الروبوت صحة قلب فاولر درجة "F" (راسب).
عندما عرض فاولر هذه النتيجة على طبيبه الخاص، رفض التقييم تماماً، مؤكداً أن فاولر يتمتع بصحة جيدة ومخاطر منخفضة جداً للإصابة بأمراض القلب، لدرجة أن شركة التأمين لن تغطي تكاليف فحوصات إضافية لدحض مزاعم الروبوت.
رأي الخبراء: "تحليل لا أساس له"
انتقد الدكتور إريك توبول، طبيب القلب في معهد سكريبس للأبحاث، قدرات النماذج اللغوية الكبيرة في هذا المجال. وصف توبول تحليل ChatGPT بأنه "لا أساس له"، ناصحاً المستخدمين بتجاهل نصائحه الطبية لأنها ببساطة "غير جاهزة للاستخدام الفعلي".
تخبط النتائج ونسيان البيانات
لم تقتصر المشكلة على التشخيص الخاطئ، بل امتدت لتشمل عدم الاتساق. عندما كرر فاولر نفس السؤال عدة مرات، تأرجحت تقييمات ChatGPT بشكل عشوائي بين درجة "F" و "B". كما نسي الروبوت معلومات أساسية عن المستخدم مثل عمره وجنسه، رغم امتلاكه حق الوصول الكامل للسجلات.
من جانبه، لم يكن روبوت Claude من شركة Anthropic أفضل حالاً بكثير، حيث منح فاولر درجة "C"، وفشل هو الآخر في مراعاة قيود بيانات ساعة آبل بشكل صحيح.
موقف الشركات والجهات التنظيمية
رغم هذه الأخطاء، تؤكد الشركات المطورة أن أدواتها ليست بديلاً للأطباء وتقدم "معلومات" فقط وليست "ادعاءات طبية". ومن المثير للاهتمام أن إدارة الغذاء والدواء الأمريكية (FDA) صرحت بأنها تفضل "الابتعاد كمنظم" لتعزيز الابتكار، مع وضع خط أحمر فقط عند تقديم ادعاءات طبية صريحة دون مراجعة.
وفي ردها على التقرير، صرحت آشلي ألكسندر، نائبة الرئيس في OpenAI، بأن إطلاق ChatGPT Health عبر قائمة انتظار يسمح للشركة بالتعلم وتحسين التجربة قبل إتاحتها للجميع، مؤكدة العمل على تحسين اتساق الردود.
الأسئلة الشائعة
هي قسم مخصص في ChatGPT يتيح للمستخدمين طرح أسئلة صحية وربط بياناتهم من تطبيقات مثل Apple Health للحصول على إجابات مخصصة.
وفقاً للتقرير، أظهر ChatGPT عدم دقة وتناقضاً كبيراً في تقييم البيانات الصحية، وقدم تشخيصات خاطئة نفاها الأطباء.
أوضحت OpenAI أن الميزة لا تزال في مرحلة تجريبية لمجموعة محدودة، وأن الهدف هو التعلم وتحسين التجربة قبل الطرح العام.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!