بحث
سامسونج ومستقبل AI Deepfakes: هل تتجاهل الخطر؟
الذكاء الاصطناعي #سامسونج_AI #التزييف_العميق

سامسونج ومستقبل AI Deepfakes: هل تتجاهل الخطر؟

تاريخ النشر: آخر تحديث: 3 مشاهدة 0 تعليق 3 دقائق قراءة
3 مشاهدة
0 إعجاب
0 تعليق
موثوق 95%

تثير استجابة [[سامسونج]] الباهتة تجاه خطر [[AI]] قلقاً متزايداً بشأن مستقبل أدلة التصوير الفوتوغرافي ومصداقية المحتوى الرقمي. ففي ظل تسارع وتيرة تطور تقنيات التزييف العميق، يبدو أن الشركة، التي كانت سابقاً أكبر مصنع للهواتف الذكية في العالم، لا تظهر حماسة كبيرة لمواجهة هذا التحدي المتنامي.

خلال جلسة أسئلة وأجوبة مع أربعة من كبار المديرين التنفيذيين للهواتف الذكية في سامسونج، تم توجيه سؤال مباشر حول كيفية منع صور الذكاء الاصطناعي من تدمير مفهوم الدليل الفوتوغرافي. ورغم أن سامسونج كانت وما زالت لاعباً رئيسياً في سوق الكاميرات بالهواتف الذكية، إلا أن المديرين التنفيذيين لم يقدموا أي أفكار جديدة أو مختلفة لمواجهة هذه المشكلة الجوهرية.

موقف سامسونج: توازن بين الإبداع والمسؤولية

أقر ون-جون تشوي، رئيس العمليات ورئيس قسم البحث والتطوير في قسم الهواتف المحمولة، بأن تآكل الواقع يمثل مشكلة وأن الشركة ترغب في معالجتها. ومع ذلك، أشار هو وغيره من المديرين التنفيذيين إلى أن سامسونج بحاجة إلى الموازنة بين الحاجة إلى الواقع الفوتوغرافي ورغبة مستخدمي الهواتف الذكية في أن يكونوا “أكثر إبداعاً”.

ولقد ألقوا بالمسؤولية على نطاق واسع، واصفين المشكلة بأنها “صناعية” تتطلب “محادثة أوسع”. كما اقترحوا أن سامسونج قد حلت جزءاً من المشكلة بالفعل من خلال إضافة علامة مائية للصور المولدة بالذكاء الاصطناعي، وهي علامة يمكن إزالتها بسهولة بالغة.

العلامات المائية: حل غير كافٍ؟

في وقت لاحق، ألمح أحد المسؤولين التنفيذيين إلى أن مشاعرنا تجاه المحتوى المولّد بالذكاء الاصطناعي قد تصبح أكثر إيجابية في المستقبل. وقد صرح تشوي قائلاً: “نحن ندرك المشكلة، لأن الكثير من المحتوى يتم إنشاؤه بواسطة الذكاء الاصطناعي… من ناحية، يرغب الناس في أن يكونوا أكثر إبداعاً، لذلك نعتقد أن علينا توفير حل لتمكينهم من ذلك”.

وأضاف: “من ناحية أخرى، أصبح من الصعب جداً اليوم التمييز بين الصور ومقاطع الفيديو الحقيقية وتلك المزيفة. أعتقد أن هذه مشكلة، ونحن ندركها، وأعتقد أنها مشكلة يجب أن نحلها على مستوى الصناعة.”

وعلى الرغم من وجود أدوات مثل [[C2PA]] التي تهدف إلى توفير آلية للتحقق من أصالة الصور، إلا أن التقرير يشير إلى أنها فشلت في وقف انتشار التزييف العميق. ديف داس، المدير التنفيذي لشركة سامسونج أمريكا، أشار أيضاً إلى أن الشركة لا تزال تتعلم كيفية استخدام الذكاء الاصطناعي في إعلاناتها الخاصة، معترفاً بأن “الملاحظات كانت واضحة جداً”.

أكد داس أن الأمر يتعلق بإيجاد “التوازن الصحيح” بين المصالح التجارية ومنح “الخيار للمبدع”، وليس بالضرورة مسؤولية اجتماعية مباشرة. وعندما سُئل نائب الرئيس الأول لإدارة منتجات الأجهزة المحمولة في سامسونج أمريكا، درو بلاكارد، من قبل الصحفي التقني ريتش ديمورو، عما إذا كانت سامسونج قد تسهل إزالة العلامات المائية للذكاء الاصطناعي، أشار بلاكارد إلى أن الشركة ستفعل ذلك إذا كان المستهلكون يرغبون في ذلك، مع الحفاظ على الأصالة.

رؤية مستقبلية أم تجاهل للخطر؟

كما ألمح بلاكارد إلى أننا قد ننظر يوماً ما إلى الوراء وندرك أن المحتوى المولّد بالذكاء الاصطناعي ليس مشكلة كبيرة، وأن تصوراتنا قد تتغير بمرور الوقت، تماماً كما تغيرت التصورات تجاه المحتوى الذي ينشئه المستخدمون في البداية.

ومع ذلك، يتساءل التقرير عما إذا كانت سامسونج وشركات صناعة الهواتف الذكية الأخرى قد فكرت في السيناريو المعاكس: أن تصبح التصورات عن الصور المولدة بالذكاء الاصطناعي أقل إيجابية بعد أن يفقد الناس وظائفهم بسبب المحتوى الرخيص الذي ينتجه الذكاء الاصطناعي، وبعد أن يصبح الكذب والاحتيال والسرقة أسهل بكثير في غياب الأدلة المسجلة الموثوقة.

هل فكروا في حل هذه المشكلة “على مستوى الصناعة” قبل أن تنهار السدود، وهل قد ينقلب الرأي العام ضد سامسونج لمساعدتها في خلق الطوفان الذي سيأتي لاحقاً؟

الأسئلة الشائعة

لا ترى سامسونج ضرورة ملحة لمواجهة التزييف العميق، بل تركز على إتاحة الإبداع للمستخدمين وتعتبره مشكلة صناعية تتطلب حلاً أوسع.

لم يقدم المسؤولون التنفيذيون في سامسونج أي أفكار جديدة أو مختلفة لحل مشكلة التزييف العميق خلال جلسة الأسئلة والأجوبة.

C2PA هي أداة للبيانات الوصفية (metadata) تهدف إلى التحقق من أصالة المحتوى، لكن المقال يشير إلى أنها فشلت في الحد من انتشار التزييف العميق.

نعم، العلامات المائية التي تضيفها سامسونج للصور المولدة بالذكاء الاصطناعي يمكن إزالتها بسهولة، مما يثير تساؤلات حول فعاليتها.

التعليقات 0

سجل دخولك لإضافة تعليق

لا توجد تعليقات بعد. كن أول من يعلق!