الذكاء الاصطناعي: 3 تغييرات ثقافية تضمن نجاحه بالمؤسسات
أثارت التقارير المتزايدة حول معدلات فشل مشاريع الذكاء الاصطناعي تساؤلات مقلقة للمؤسسات التي تستثمر بكثافة في هذا المجال. وبينما يركز النقاش غالبًا على العوامل التقنية مثل دقة النماذج وجودة البيانات، إلا أن الملاحظات تشير إلى أن الفرص الأكبر للتحسين تكمن في الجوانب الثقافية والتنظيمية، وليس التقنية وحدها.
غالبًا ما تشترك المشاريع الداخلية المتعثرة في قضايا مشتركة؛ على سبيل المثال، تبني فرق الهندسة نماذج لا يعرف مديرو المنتجات كيفية استخدامها. ويقوم علماء البيانات بإنشاء نماذج أولية تجد فرق العمليات صعوبة في صيانتها. وتبقى تطبيقات الذكاء الاصطناعي غير مستخدمة لأن المستفيدين منها لم يشاركوا في تحديد ما يعنيه "المفيد" حقًا.
على النقيض من ذلك، فإن المؤسسات التي تحقق قيمة ملموسة من الذكاء الاصطناعي قد أدركت كيفية إرساء تعاون فعال بين الأقسام، ووضعت مسؤولية مشتركة عن النتائج. فالتكنولوجيا ذات أهمية، لكن الجاهزية التنظيمية لا تقل عنها أهمية.
فيما يلي ثلاث ممارسات لوحظت لمعالجة الحواجز الثقافية والتنظيمية التي قد تعيق نجاح الذكاء الاصطناعي:
1. توسيع الوعي بالذكاء الاصطناعي خارج الهندسة
عندما يقتصر فهم كيفية عمل نظام الذكاء الاصطناعي وقدراته على المهندسين فقط، ينهار التعاون. فمديرو المنتجات لا يمكنهم تقييم المفاضلات التي لا يفهمونها. والمصممون لا يمكنهم إنشاء واجهات لقدرات لا يستطيعون التعبير عنها. والمحللون لا يمكنهم التحقق من المخرجات التي لا يمكنهم تفسيرها. كما تظهر الصورة المرفقة مثالًا على فشل الذكاء الاصطناعي.
الحل ليس في جعل الجميع علماء بيانات، بل في مساعدة كل دور على فهم كيفية تطبيق الذكاء الاصطناعي على عمله المحدد. يحتاج مديرو المنتجات إلى استيعاب أنواع المحتوى المتولد أو التنبؤات أو التوصيات الواقعية بناءً على البيانات المتاحة. ويحتاج المصممون إلى فهم ما يمكن للذكاء الاصطناعي فعله حقًا لتصميم ميزات يجدها المستخدمون مفيدة. ويحتاج المحللون إلى معرفة أي مخرجات الذكاء الاصطناعي تتطلب التحقق البشري وأيها يمكن الوثوق بها.
عندما تشترك الفرق في هذا الفهم العملي، يتوقف الذكاء الاصطناعي عن كونه شيئًا يحدث في قسم الهندسة ويصبح أداة يمكن للمؤسسة بأكملها استخدامها بفعالية.
2. وضع قواعد واضحة لاستقلالية الذكاء الاصطناعي
يتعلق التحدي الثاني بمعرفة متى يمكن للذكاء الاصطناعي التصرف بمفرده ومتى يتطلب موافقة بشرية. تميل العديد من المؤسسات إلى الإفراط، إما بتعطيل كل قرار للذكاء الاصطناعي من خلال المراجعة البشرية، أو بترك أنظمة الذكاء الاصطناعي تعمل دون ضوابط.
المطلوب هو إطار عمل واضح يحدد أين وكيف يمكن للذكاء الاصطناعي أن يتصرف بشكل مستقل. وهذا يعني وضع قواعد مسبقة: هل يمكن للذكاء الاصطناعي الموافقة على تغييرات التكوين الروتينية؟ هل يمكنه التوصية بتحديثات المخطط ولكن لا ينفذها؟ هل يمكنه نشر التعليمات البرمجية في بيئات الاختبار ولكن ليس في الإنتاج؟
يجب أن تتضمن هذه القواعد ثلاثة عناصر: قابلية التدقيق (هل يمكنك تتبع كيفية وصول الذكاء الاصطناعي إلى قراره؟)، قابلية إعادة الإنتاج (هل يمكنك إعادة إنشاء مسار القرار؟)، وقابلية الملاحظة (هل يمكن للفرق مراقبة سلوك الذكاء الاصطناعي أثناء حدوثه؟). بدون هذا الإطار، إما أن تتباطأ لدرجة أن الذكاء الاصطناعي لا يوفر أي ميزة، أو أن تنشئ أنظمة تتخذ قرارات لا يمكن لأحد تفسيرها أو التحكم فيها.
3. إنشاء أدلة إرشادية متعددة الوظائف
الخطوة الثالثة هي تدوين كيفية عمل الفرق المختلفة فعليًا مع أنظمة الذكاء الاصطناعي. عندما يطور كل قسم نهجه الخاص، تحصل على نتائج غير متسقة وجهود متكررة.
تعمل الأدلة الإرشادية متعددة الوظائف بشكل أفضل عندما تطورها الفرق معًا بدلاً من فرضها من الأعلى. تجيب هذه الأدلة على أسئلة ملموسة مثل: كيف نختبر توصيات الذكاء الاصطناعي قبل وضعها في الإنتاج؟ ما هو إجراء العودة إلى الخلف لدينا عندما يفشل النشر التلقائي - هل يسلم إلى المشغلين البشريين أم يحاول نهجًا مختلفًا أولاً؟ من يجب أن يشارك عندما نتجاوز قرار الذكاء الاصطناعي؟ كيف ندمج الملاحظات لتحسين النظام؟
الهدف ليس إضافة بيروقراطية، بل ضمان فهم الجميع لكيفية تكامل الذكاء الاصطناعي في عملهم الحالي، وماذا يفعلون عندما لا تتطابق النتائج مع التوقعات.
المضي قدمًا
يظل التميز التقني في الذكاء الاصطناعي مهمًا، لكن المؤسسات التي تركز بشكل مفرط على أداء النموذج مع تجاهل العوامل التنظيمية تعرض نفسها لتحديات يمكن تجنبها. إن عمليات نشر الذكاء الاصطناعي الناجحة التي لوحظت تتعامل مع التحول الثقافي وسير العمل بجدية لا تقل عن التنفيذ التقني.
السؤال ليس ما إذا كانت تقنية الذكاء الاصطناعي لديك متطورة بما يكفي، بل ما إذا كانت مؤسستك مستعدة للعمل معها. ندعوكم لمشاركتنا آرائكم وخبراتكم في تعليقاتكم حول كيفية دمج الذكاء الاصطناعي بنجاح في بيئات العمل.
الأسئلة الشائعة
غالبًا ما تفشل مشاريع الذكاء الاصطناعي لأسباب ثقافية وتنظيمية، مثل عدم فهم الفرق غير الهندسية لكيفية استخدام النماذج، وصعوبة صيانة النماذج الأولية، وعدم إشراك المستخدمين في تحديد فائدة التطبيقات.
يجب مساعدة كل دور وظيفي على فهم كيفية تطبيق الذكاء الاصطناعي على عمله المحدد، وتزويدهم بالمعرفة اللازمة لتقييم المخرجات وتصميم الميزات، دون الحاجة لجعلهم علماء بيانات.
تساعد القواعد الواضحة في تحديد متى يمكن للذكاء الاصطناعي التصرف بمفرده ومتى يتطلب موافقة بشرية، مما يضمن قابلية التدقيق وإعادة الإنتاج والمراقبة، ويمنع التعطيل أو العمل دون ضوابط.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!