بحث
إثبات رياضي يكشف حدود قدرات الذكاء الاصطناعي اللغوية
الذكاء الاصطناعي #الذكاء_الاصطناعي #تقنية

إثبات رياضي يكشف حدود قدرات الذكاء الاصطناعي اللغوية

تاريخ النشر: آخر تحديث: 38 مشاهدة 0 تعليق 3 دقائق قراءة
38 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

تراهن معظم شركات التكنولوجيا الكبرى اليوم على نماذج اللغة الكبيرة (LLMs) كحجر أساس لمستقبل الذكاء الاصطناعي، معتقدة أن تغذية هذه النماذج بمزيد من البيانات سيمنحها استقلالية كاملة وقدرة على التفكير تشبه البشر. ولكن، يبدو أن الرهان على "النمو اللانهائي" لهذه التقنية قد يواجه عقبة كبرى، حيث تشير دراسة حديثة إلى وجود جدار رياضي صلب قد يمنع هذه النماذج من التطور المتوقع.

الرياضيات تتحدى الأحلام التقنية

قدمت ورقة بحثية نشرها الباحثان فيشال سيكا وفارين سيكا (أب وابنه)، والتي سُلط الضوء عليها مؤخراً عبر موقع Wired، إثباتاً رياضياً يشير بوضوح إلى أن نماذج اللغة الكبيرة غير قادرة على تنفيذ مهام حسابية أو توكيلية (Agentic) تتجاوز مستوى معيناً من التعقيد.

على الرغم من تعقيد المعادلات الرياضية المستخدمة في الدراسة، إلا أن استنتاجها بسيط ومباشر: بعض الأوامر أو المهام التي تُعطى للنماذج اللغوية تتطلب عمليات حسابية تفوق قدرة النموذج على المعالجة. وعند الوصول إلى هذه النقطة، فإن النموذج إما سيفشل تماماً في إكمال الإجراء المطلوب، أو سينفذه بشكل خاطئ.

نهاية حلم "الذكاء الاصطناعي العام"؟

تصب نتائج هذا البحث "الماء البارد" على فكرة الذكاء الاصطناعي الوكيل (Agentic AI) - وهي النماذج القادرة على إتمام مهام متعددة الخطوات بشكل مستقل تماماً دون تدخل بشري. وتعتبر هذه النماذج الوكيلة هي المركبة التي تأمل الشركات أن توصلنا إلى الذكاء الاصطناعي العام (AGI).

لا يعني هذا أن التكنولوجيا الحالية بلا فائدة أو أنها لن تتحسن، ولكن الدراسة تضع "سقفاً" لما هو ممكن، وهو سقف أكثر انخفاضاً بكثير مما تروج له شركات الذكاء الاصطناعي التي تبيع فكرة أن "السماء هي الحدود".

شكوك متزايدة من آبل وخبراء الصناعة

لم يكن الباحثان سيكا أول من أشار إلى أن نماذج اللغة الكبيرة قد لا تكون بالقدرة التي يتم الترويج لها، لكن بحثهما وضع أساساً رياضياً حقيقياً لشكوك عبر عنها العديد من المتشائمين في مجال الذكاء الاصطناعي:

  • دراسة آبل: نشر باحثون في شركة آبل العام الماضي ورقة خلصت إلى أن نماذج LLMs غير قادرة على "الاستنتاج" أو التفكير الفعلي، رغم قدرتها على خلق مظهر يوحي بذلك.
  • رأي الخبراء: كتب بنيامين رايلي، مؤسس شركة Cognitive Resonance، العام الماضي أن طريقة عمل نماذج اللغة تعني أنها لن تحقق أبداً ما نعتبره "ذكاءً" حقيقياً.
  • الإبداع المحدود: اختبرت دراسات أخرى حدود النماذج المدعومة بـ LLM لمعرفة قدرتها على إنتاج مخرجات إبداعية جديدة، وكانت النتائج غير مبهرة.

الخلاصة

إذا لم تكن الآراء السابقة مقنعة للبعض، فإن المعادلات الرياضية المعقدة من دراسة عائلة سيكا قد تكون الدليل القاطع. وتُضاف هذه الدراسة إلى مجموعة متزايدة من الأدلة التي تشير إلى أنه مهما كانت قدرات الذكاء الاصطناعي في شكله الحالي، فإنه من شبه المؤكد لن يكون التكنولوجيا التي تتفوق على الذكاء البشري بحلول نهاية هذا العام، كما ادعى إيلون ماسك مؤخراً.

الأسئلة الشائعة

أثبتت الدراسة رياضياً أن نماذج اللغة الكبيرة (LLMs) لها حدود جوهرية في معالجة المهام المعقدة، وأنها ستفشل حتماً عند تجاوز مستوى معين من التعقيد.

وفقاً لدراسة سابقة من باحثي آبل وآراء خبراء مثل بنيامين رايلي، فإن هذه النماذج لا تفكر أو تستنتج فعلياً، بل تخلق مظهراً يوحي بذلك فقط.

تشير الدراسة إلى أن الاعتماد فقط على توسيع نماذج اللغة الكبيرة لن يؤدي إلى تحقيق الذكاء الاصطناعي العام، حيث توجد قيود رياضية تمنعها من العمل باستقلالية كاملة في المهام المعقدة.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!