يُظهر أحد الإعلانات رئيس الوزراء البريطاني ريشي سوناك وهو يؤيد تطبيقا من المفترض أنه تم تطويره من قبل رجل الأعمال إيلون ماسك، حيث يمكن للمشاهدين تحقيق "مدخرات" منتظمة من خلاله.
الفيديو مزيف. تم إنشاؤه بمساعدة الذكاء الاصطناعي، وهو مجرد واحد من 143 إعلانا من هذا النوع تم فهرستها بواسطة شركة "Fenimore Harper Communications"، وهي شركة بريطانية، التي نشرتها في كانون الأول/ ديسمبر وكانون الثاني/ يناير.ليس فقط الشخصيات المشهورة هم الذين يمكن استخدام صورهم لأغراض مشكوك فيها.
ففي حزيران/ يونيو 2023، حذر مكتب التحقيقات الفيدرالي في أمريكا الجمهور من "الجهات الخبيثة" التي تستخدم الذكاء الاصطناعي لإنشاء مقاطع فيديو وصور مزيفة ذات مواضيع جنسية لأشخاص عاديين، من أجل ابتزاز الأموال، وفق تقرير لمجلة "ايكونوميست".
تعد كيفية اكتشاف مثل هذا الخداع موضوعا حيا بين باحثي الذكاء الاصطناعي، الذين حضر العديد منهم مؤتمر "نيوريبس"، وهو أحد أكبر المؤتمرات في هذا المجال، والذي عقد في نيو أورليانز في كانون الأول/ ديسمبر الماضي.يقدم عدد كبير من الشركات، بدءا من الشركات الناشئة إلى عمالقة التكنولوجيا الراسخين مثل "Intel" و"Microsoft"، برامج تهدف إلى اكتشاف الوسائط التي يتم إنشاؤها بواسطة الآلة.
وفي الوقت نفسه، يبحث صانعو نماذج الذكاء الاصطناعي الكبيرة عن طرق وضع علامة مائية على إنتاجهم، بحيث يمكن تمييز الصور أو مقاطع الفيديو أو النصوص الحقيقية بسهولة عن تلك التي يتم إنشاؤها بواسطة الآلة.لكن، وفق تقرير المجلة، فمثل هذه التقنيات لم تثبت حتى الآن جدارتها. يبدو أن الخبراء متشائمون بشأن آفاقهم.
أجرت "الإيكونوميست" استطلاعا غير علمي للمندوبين في "نيوريبس". من بين 23 شخصا تم سؤالهم، اعتقد 17 منهم أن الوسائط التي يتم إنشاؤها بواسطة الذكاء الاصطناعي ستصبح في النهاية غير قابلة للاكتشاف. واحد فقط يعتقد أن الكشف الموثوق سيكون ممكنا. (اعترض الخمسة الآخرون، مفضلين الانتظار ورؤية ما سيحصل).
تعتمد برامج الكشف على فكرة أن نماذج الذكاء الاصطناعي ستترك أثرا.
إما أنها ستفشل في إعادة إنتاج بعض جوانب الصور ومقاطع الفيديو الحقيقية، أو النصوص التي أنشأها الإنسان، أو ستضيف شيئا غير ضروري، وستفعل ذلك كثيرا بما يكفي للسماح للبرامج الأخرى باكتشاف الخطأ. لفترة من الوقت، يمكن للبشر القيام بهذه المهمة. حتى منتصف عام 2023 تقريبا، على سبيل المثال، غالبا ما تنتج خوارزميات توليد الصور أشخاصا بأيدٍ مشوهة، أو تخطئ في أرقام أشياء مثل وجوه الساعة.
في هذه الأيام، لم يعد الأفضل من بين تلك الخوارزميات يفعل ذلك.لكن مثل هذه القصص لا تزال موجودة في كثير من الأحيان، حتى لو أصبح من الصعب على البشر اكتشافها. وكما يمكن تدريب الآلات على التعرف بشكل موثوق على القطط، أو الأورام السرطانية من خلال عمليات المسح الطبي، فمن الممكن أيضا تدريبها على التمييز بين الصور الحقيقية والصور المولدة بالذكاء الاصطناعي.ومع ذلك، يبدو أنها لا تستطيع القيام بذلك بشكل جيد.
تكون برامج الكشف عرضة لكل من الإيجابيات الكاذبة (وصف محتوى من إنتاج البشر على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي) والسلبيات الكاذبة (السماح للأشياء التي تم إنشاؤها بواسطة الآلة بالمرور دون أن يتم اكتشافها).
وجدت ورقة لم تنشر بعد من إنتاج زيو لو، عالم الكمبيوتر في جامعة شنغهاي جياو تونغ، في أيلول/ سبتمبر، أن البرنامج الأفضل أداء فشل في اكتشاف الصور التي تم إنشاؤها بواسطة الكمبيوتر بشكل صحيح بنسبة 13 بالمئة من الوقت (على الرغم من أن ذلك كان أفضل من البشر الذين أخطأوا في 39 بالمئة من الحالات).
الأمور أفضل قليلا عندما يتعلق الأمر بالنص. وقارن أحد التحليلات، الذي نُشر في كانون الأول/ ديسمبر في المجلة الدولية للنزاهة التعليمية، بين 14 أداة، ووجد أن أيا منها لم يحقق دقة تزيد عن 80 بالمئة.إذا كانت محاولة اكتشاف الوسائط التي تم إنشاؤها بواسطة الكمبيوتر بعد وقوعها أمرا صعبا للغاية، فهناك خيار آخر يتمثل في تصنيفها مسبقا باستخدام علامة مائية رقمية.
كما هو الحال مع نوع الورق، تتمثل الفكرة في إضافة ميزة مميزة تكون دقيقة بدرجة كافية بحيث لا تؤثر على جودة النص أو الصورة، ولكنها تكون واضحة لأي شخص يبحث عنها.تم اقتراح إحدى التقنيات لوضع علامات على النص من قبل فريق من جامعة ميريلاند في حزيران/ يوليو 2023، وأضافها فريق من جامعة كاليفورنيا، سانتا باربرا، الذي قدم تعديلاته في "نيوريبس".
والفكرة هي التلاعب بتفضيلات الكلمات الخاصة بنموذج اللغة.
أولا، يقوم النموذج بتعيين مجموعة من الكلمات التي يعرفها بشكل عشوائي لمجموعة "خضراء"، ويضع جميع الكلمات الأخرى في مجموعة "حمراء". بعد ذلك، عند إنشاء كتلة نصية معينة، تقوم الخوارزمية بتحميل النرد، مما يزيد من احتمالية اختيار كلمة خضراء بدلا من أحد مرادفاتها الحمراء.
يتضمن التحقق من وجود علامة مائية مقارنة نسبة الكلمات الخضراء إلى الحمراء، على الرغم من أن التقنية إحصائية، فهي أكثر موثوقية بالنسبة للأجزاء الأطول من الكتابة.
وفي الوقت نفسه، تتضمن العديد من طرق وضع العلامات المائية على الصور تعديل وحدات البكسل بطرق خفية، مثل تغيير ألوانها. إن التعديلات دقيقة جدا بحيث لا يمكن للمراقبين البشريين ملاحظتها، ولكن يمكن التقاطها بواسطة أجهزة الكمبيوتر. لكن قص الصورة أو تدويرها أو حتى تعتيمها ثم إعادة ضبطها يمكن أن يزيل مثل هذه العلامات.قدمت مجموعة أخرى من الباحثين في "نيوريبس" مخططا يسمى العلامة المائية "Tree-Ring" والذي تم تصميمه ليكون أكثر قوة.
تبدأ نماذج الانتشار، وهي النوع الأكثر تقدما من برامج توليد الصور، بملء مساحة الرسم الرقمي بضوضاء عشوائية، والتي تظهر منها الصورة المطلوبة ببطء. تقوم طريقة حلقة الشجرة بتضمين العلامة المائية ليس في الصورة النهائية، ولكن في الضجيج في البداية.
إذا تم تشغيل البرنامج الذي أنشأ الصورة في الاتجاه المعاكس، فسوف يقوم بإعادة إنتاج العلامة المائية مع الضوضاء.
والأهم من ذلك، أن هذه التقنية أقل سهولة في الإحباط من خلال التلاعب بالصورة النهائية.ولكن ربما ليس مستحيلا. العلامات المائية في سباق تسلح مع باحثين آخرين يهدفون إلى التغلب على تقنياتهم. قدم فريق آخر بقيادة هانلين تشانغ، وبنجامين إيدلمان، وبواز باراك، وجميعهم من جامعة هارفارد، طريقة (لم تتم مراجعتها بعد من قبل النظراء) يمكنها، كما يقولون، محو العلامات المائية.
وهو يعمل عن طريق إضافة مجموعة من التشويش الجديد، ثم استخدام نموذج ذكاء اصطناعي آخر مختلف لإزالة هذا التشويش، مما يؤدي إلى إزالة العلامة المائية الأصلية في العملية. يزعمون أنهم قادرون على إحباط ثلاثة مخططات جديدة لوضع العلامات المائية على النصوص مقترحة في عام 2023.
وفي أيلول/ سبتمبر، نشر علماء في جامعة ميريلاند بحثا (لم تتم مراجعته بعد من قبل النظراء) يزعمون أنه لا توجد أي من الطرق الحالية لوضع العلامات المائية على الصور -بما في ذلك حلقات الشجرة- مضمون.ومع ذلك، أعلنت الحكومة الأمريكية في تموز/ يوليو2023 عن "التزامات طوعية" مع العديد من شركات الذكاء الاصطناعي، بما في ذلك "Openai" و"Google"، لتعزيز الاستثمار في أبحاث العلامات المائية.
من المؤكد أن وجود ضمانات منقوصة أفضل من عدم وجود أي ضمانات (على الرغم من أن مراقبة النماذج مفتوحة المصدر، التي يتمتع المستخدمون بحرية تعديلها، ستكون أكثر صعوبة). ولكن في المعركة بين المزيفين والمحققين، يبدو أن المزيفين لهم اليد العليا.