بحث
صراع العمالقة: هل تفشل الشركات الكبرى بمواجهة محتوى AI المضلل؟
الذكاء الاصطناعي #الذكاء_الاصطناعي #C2PA

صراع العمالقة: هل تفشل الشركات الكبرى بمواجهة محتوى AI المضلل؟

تاريخ النشر: 3 مشاهدة 0 تعليق 7 دقائق قراءة
3 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

في خضم الجدل المتصاعد حول المحتوى الذي يولده [[الذكاء الاصطناعي]]، يبرز تساؤل مهم حول مدى جدية [[الشركات الكبرى]] في مكافحة التزييف العميق. مع اقتراب نهاية عام 2025، عبّر آدم موسيري، رئيس [[إنستغرام]]، عن قلقه بشأن "أصالة المحتوى التي أصبحت قابلة للاستنساخ بلا حدود". وأشار إلى أن كل ما جعل المبدعين متميزين، من القدرة على أن يكونوا حقيقيين وذوي صوت لا يمكن تزييفه، أصبح الآن متاحاً للجميع باستخدام الأدوات المناسبة.

موسيري شدد على رغبة المستخدمين في "محتوى حقيقي"، واقترح حلاً يتمثل في توقيع مصنعي الكاميرات على الصور رقمياً عند الالتقاط، لخلق سلسلة موثوقة للتحقق من الأصالة. لكن هذا الحل، المعروف بمعيار C2PA، موجود بالفعل، و[[إنستغرام]] تستخدمه، ومع ذلك، يبدو أنه لا يحقق التأثير المرجو، خاصة مع تسارع [[إنستغرام]] في تطوير أدوات الذكاء الاصطناعي التوليدية.

تضارب المصالح: ترويج لأدوات الذكاء الاصطناعي ومكافحة لنتائجها

بات [[الذكاء الاصطناعي]] بارعاً للغاية في محاكاة الواقع، مما يهدد الثقافة ونماذج الأعمال التي بنتها العديد من منصات التواصل الاجتماعي حول مبدعي المحتوى. يمكن للذكاء الاصطناعي نسخ اتجاهات الرقص وجلسات التصوير، وإنشاء فنانين ومؤثرين غير موجودين، ومحاكاة أي محتوى متشابه يغرق وسائل التواصل الاجتماعي. ورغم أن المبدعين يحاولون مواجهة ذلك بالتركيز على الجماليات الخام وغير الكاملة، فإن [[الذكاء الاصطناعي]] يجيد ذلك أيضاً.

الأخطر من ذلك هو استخدامه لنشر معلومات مضللة بسرعة حول أحداث مهمة، مثل احتجاجات ICE في مينيسوتا أو مقتل رينيه نيكول جود وأليكس بريتي. خلال السنوات الماضية، تبنت بعض أكبر شركات التقنية نظاماً يُعرف بـ "بيانات اعتماد المحتوى" أو C2PA.

معيار C2PA: الحل الذي لم يُحدث الفارق

C2PA، اختصاراً لـ Coalition for Content Provenance and Authenticity، هو معيار يعتمد على إثبات المصدر، تأسس عام 2021 بواسطة [[أدوبي]]، [[إنتل]]، [[مايكروسوفت]]، ARM، Truepic، و[[بي بي سي]]. وكما اقترح موسيري، لا يتعامل C2PA مع التزييف العميق عن طريق تصنيف المواد المزيفة مباشرة، بل من خلال المصادقة على الوسائط غير المولدة بواسطة [[الذكاء الاصطناعي]]. يتم ذلك عن طريق إرفاق بيانات وصفية غير مرئية بالصور ومقاطع الفيديو والصوت عند نقطة الإنشاء أو التعديل، مما يسمح بالتحقق من هوية المنشئ، وكيف ومتى تم إنشاء المحتوى، وما إذا كان [[الذكاء الاصطناعي]] قد استخدم في هذه العملية. انضمت [[ميتا]] إلى اللجنة التوجيهية لـ C2PA في سبتمبر 2024 لدعم المعيار.

حدود تطبيق C2PA

على الرغم من دعم شركات عملاقة مثل [[مايكروسوفت]]، [[ميتا]]، [[جوجل]]، [[OpenAI]]، [[تيك توك]]، و[[كوالكوم]] لمعيار C2PA، إلا أنه نظام واحد ضمن عدة أنظمة تحاول التمييز بين الحقيقي والمزيف. ورغم أهميته، فمن الواضح أنه لا يُطبق بطريقة تحمي المستخدمين بشكل فعال من "ضجيج" الذكاء الاصطناعي أو التزييف العميق المضلل. حتى مع تضمين المزيد من المحتوى الاصطناعي بمعلومات C2PA، يظل المستخدمون العاديون مطالبين بالبحث يدوياً عنها، بينما الكثير منهم لا يدركون حتى وجود C2PA. يبدو أن شركات الذكاء الاصطناعي تستخدم C2PA لتجنب المسؤولية، بينما تواصل العمل على أدواتها التوليدية.

تعتمد الحلول القائمة على إثبات المصدر، مثل C2PA ونظام SynthID للعلامات المائية من [[جوجل]]، على مشاركة الجميع في كل مرحلة من مراحل إنشاء واستضافة الوسائط، وهو أمر يكاد يكون مستحيلاً. فمثلاً، تبنت شركات الكاميرات مثل [[كانون]]، [[نيكون]]، [[سوني]]، [[فوجي فيلم]]، و[[لايكا]] معيار C2PA تدريجياً وببطء، وغالباً ما يقتصر الدعم على الإصدارات الجديدة من الكاميرات.

صرح ناثان كيلم-باثي، المتحدث باسم Leica Camera USA، لـ The Verge بأن "الكاميرات القديمة التي لا تدعم C2PA ستستمر في إنتاج صور مهمة وصحيحة". وأضاف: "بالنسبة لهذه الصور، سيعتمد الثقة على السياق والسمعة والمسؤولية التحريرية".

البيانات الوصفية الهشة وتطبيقات المنصات

البيانات الوصفية لإثبات المصدر هشة للغاية، لدرجة أن [[OpenAI]]، وهي عضو في اللجنة التوجيهية لـ C2PA، تشير إلى أنه يمكن "إزالتها بسهولة عن طريق الخطأ أو عن قصد". لا تزال منصات مثل [[لينكدإن]] و[[تيك توك]] تفشل في وسم المحتوى الذي يفترض أن يحمل بيانات C2PA الوصفية بشكل موثوق. تستخدم [[يوتيوب]] C2PA وSynthID وأنظمة أخرى لوضع علامات استباقية على محتوى الذكاء الاصطناعي، لكن هذه العلامات غير متسقة ويصعب اكتشافها. وقد واجهت [[ميتا]] صعوبة في تحديد ما يعتبر حقيقياً أو مزيفاً، حيث وضعت عن طريق الخطأ علامات "صنع بواسطة الذكاء الاصطناعي" على صور حقيقية في [[إنستغرام]]، مما أثار غضب المصورين.

غيرت [[ميتا]] هذه العلامات لاحقاً إلى "معلومات الذكاء الاصطناعي" وجعلتها أصعب بكثير في الرصد. يجب أن تظهر هذه العلامة بنص صغير أسفل اسم الحساب عند عرض محتوى مولد أو معدل بالذكاء الاصطناعي في تطبيق [[إنستغرام]]، ولكنها قد تُستبدل بشكل متقطع بأسماء الأغاني أو معلومات أخرى حول المنشور. وحتى إذا رأيتها، ستحتاج إلى فتح قائمة النقاط الثلاث على الصور ومقاطع الفيديو لقراءة تفاصيل علامة "معلومات الذكاء الاصطناعي". قد لا تظهر هذه العلامات على الإطلاق على موقع [[إنستغرام]] المكتبي، حتى على المنشورات التي تحمل العلامة على تطبيقات الهاتف المحمول. وإذا لم تكن هناك علامات أو مؤشرات مرئية لـ C2PA على الإطلاق، يُتوقع منك فحص المحتوى المشبوه باستخدام إضافة لمتصفح كروم أو بتحميله يدوياً إلى أحد مواقع C2PAchecker الرسمية.

غياب X وتداعياته

يُظهر غياب [[إكس]] (تويتر سابقاً) عن C2PA بوضوح لماذا لن يحل المعيار المشكلات الحالية المتعلقة بالذكاء الاصطناعي والأصالة. على الرغم من أن تويتر كان أحد مؤسسي C2PA، إلا أنه انسحب من المبادرة بعد استحواذ إيلون ماسك عليه وتغيير اسمه إلى [[إكس]]. أكد آندي بارسونز، المدير الأول لأصالة المحتوى في [[أدوبي]]، أن [[إكس]] غير منخرط حالياً في C2PA. وبوجود منصة ضخمة مثل [[إكس]]، تنتشر الأخبار بسرعة، لكنها تفتقر إلى ضمانة بأن ما يراه المستخدمون حقيقي، خاصة مع الجدل المستمر حول Grok وتضليل [[إيلون ماسك]] بالتزييف العميق.

يشير بن كولمان، الرئيس التنفيذي لشركة Reality Defender، إلى أن المحتوى الاصطناعي والتزييف العميق لن ينتشرا بلا هوادة إذا كان C2PA وحده حلاً قابلاً للتطبيق. ويضيف أن الاعتماد الكلي على حلول الوسم أو العلامات المائية يفترض أن المحتوى الخبيث للذكاء الاصطناعي لا يتم إنشاؤه إلا بأدوات قليلة ومحددة، وهو "افتراض خاطئ تماماً".

هل تُمثل الأعمال التجارية عائقاً أمام الأصالة؟

حتى نظام وسم فعال قد لا يحل المشكلة. وجدت دراسة حديثة أن تحذيرات الشفافية تبدو غير كافية لمنع الضرر من التزييف العميق الذي يولده [[الذكاء الاصطناعي]]، وأشارت إلى "أدلة تجريبية قليلة تدعم فعالية شفافية الذكاء الاصطناعي".

على الرغم من ذلك، لا يزال الجميع يرددون نفس الرسالة التي نسمعها منذ سنوات: أن معايير مثل C2PA هي خطوة مهمة في تطوير أنظمة الكشف عن الأصالة والتزييف العميق، وأنها "قيد العمل". قال بارسونز إنه يتفهم "الإحباط المحتمل من أنه يمكن أن يكون هناك المزيد وبشكل أسرع" وأن القدرة على رؤية دليل C2PA عبر المنصات على الإنترنت "قادمة"، حتى لو كانت "أبطأ مما نرغب جميعاً".

إذا كانت شركات الذكاء الاصطناعي مثل [[ميتا]] و[[جوجل]] ملتزمة حقاً بحماية الناس من الخداع أو التضليل، لكانت توقفت عن إنتاج الأدوات التي تساهم بشكل كبير في هذه المشكلات حتى يتم إيجاد حل. لكن مخاوف موسيري بشأن أهمية الحفاظ على الواقع تبدو باهتة بينما تروج [[ميتا]] بنشاط لبديل [[إنستغرام]] يعتمد كلياً على "ضجيج" الذكاء الاصطناعي. كما أطلقت [[OpenAI]] نسخة مقلدة من [[تيك توك]] تتكون من مقاطع فيديو مولدة بالذكاء الاصطناعي انتهكت حقوق الطبع والنشر وقلدت أشخاصاً حقيقيين دون إذن. وتعهدت [[يوتيوب]] بمكافحة المستويات المتزايدة من المحتوى غير المرغوب فيه على المنصة، بينما تشجع المبدعين على استخدام نماذج [[جوجل]] للذكاء الاصطناعي في إنتاج الفيديو.

كل هذا يظهر أن مزودي الذكاء الاصطناعي الذين يقودون C2PA يحاولون الجمع بين المتناقضات، متخلين ظاهرياً عن مسؤولية التحكم في آلات المعلومات المضللة بينما تجني هذه الآلات لهم الأرباح. تجني [[OpenAI]] معظم إيراداتها من رسوم الاشتراكات لـ [[ChatGPT]] وSora لفتح حدود أعلى لإنشاء الصور والفيديو. "ضجيج" الذكاء الاصطناعي منتشر على [[يوتيوب]] لدرجة أنه شكل 10 بالمائة من أسرع القنوات نمواً في يوليو 2024، على الرغم من تطبيق سياسات للحد من "المحتوى غير الأصيل". تستعد [[ميتا]] لحظر بعض قدرات الذكاء الاصطناعي وراء الاشتراكات المميزة لـ [[إنستغرام]] و[[فيسبوك]] و[[واتساب]]، ويروج الرئيس التنفيذي [[مارك زوكربيرج]] للذكاء الاصطناعي باعتباره مستقبل وسائل التواصل الاجتماعي الحتمي.

قال كولمان: "لقد تبنت المنصات التزييف العميق و'ضجيج' الذكاء الاصطناعي بشكل كامل، متجاهلة ما يسمى بـ 'الإجراءات الوقائية'، لأنه مثل المحتوى التحريضي أو الضار الآخر الذي يهدف إلى إثارة الغضب والجدل، وبالتالي إثارة التفاعل، فهو نوع آخر من المحتوى لإبقاء المستخدمين على المنصة لفترة أطول ودفع المزيد من الإعلانات".

خاتمة: هل ينتصر الذكاء الاصطناعي على الواقع؟

تبدو جهود إثبات أصالة المحتوى الذي نراه عبر الإنترنت محكوم عليها بالفشل. نعم، هناك تقدم وتوسعات مطردة، لكن C2PA هو نظام شرف ممجد لم يكن من المرجح أن "ينجح" كحل نهائي للتزييف العميق على أي حال. تستكشف بعض المنصات الآن أنظمة تحليل المبدعين أنفسهم، وليس فقط المحتوى الذي ينشرونه. يقول موسيري إن [[إنستغرام]] ستحتاج إلى تحويل تركيزها "إلى من يقول شيئاً، بدلاً من ما يقال".

في النهاية، أي شيء يضمن عدم الخلط بين المواد الاصطناعية والمواد التي صنعها الإنسان يتعارض مع المصالح التجارية لكل شركة تستثمر في [[الذكاء الاصطناعي]]. ما رأيك في تضارب المصالح هذا؟ شاركنا أفكارك في التعليقات وتابعنا للمزيد من التحليلات التقنية.

الأسئلة الشائعة

C2PA هو معيار لأصالة المحتوى يهدف إلى التحقق من مصداقية الوسائط الرقمية عبر تضمين بيانات وصفية غير مرئية عند الإنشاء أو التعديل، مما يسمح بتحديد مصدرها وما إذا تم استخدام الذكاء الاصطناعي في إنتاجها.

تُعتبر جهود C2PA غير كافية لأنها تتطلب تبنيًا واسعًا من جميع الأطراف المعنية، وقد أظهرت الاختبارات أن بياناتها الوصفية يمكن إزالتها بسهولة. كما أن المستخدمين لا يدركون وجودها غالبًا، وتطبيقاتها غير متسقة على المنصات الكبرى.

تكمن المشكلة في أن الشركات الكبرى، بينما تدعي محاربة المعلومات المضللة والتزييف العميق، تروج في الوقت نفسه لأدوات الذكاء الاصطناعي التوليدية التي تساهم في إنتاج هذا المحتوى. هذا يثير تساؤلات حول مدى التزامها بحماية المستخدمين عندما تتعارض المصالح التجارية مع الأصالة.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!