قد يختفي الخط الفاصل الواضح بين الفيديوهات الحقيقية والتي تم إنشاؤها بواسطة الذكاء الصناعي في عام 2025

Photo by ActionVance on Unsplash

قد يختفي الخط الفاصل الواضح بين الفيديوهات الحقيقية والتي تم إنشاؤها بواسطة الذكاء الصناعي في عام 2025

وقت القراءة: 6 دقائق

المحتوى المُنشَأ بواسطة الذكاء الصناعي جاء ليبقى. إنه يتحسن ويتطور بشكل متزايد ولقد شهدنا تحسناً كبيراً في تكنولوجيا الذكاء الصناعي في عام 2024. هل سنكون قادرين على التفريق بين ما هو حقيقي وما ليس كذلك في عام 2025؟

وجدت نفسي مؤخرًا أتساءل، “هل هذه امرأة حقيقية؟” – وأنا أحدق بشكل طفيف – بعد رؤية منشور على إنستجرام. “لا، يجب أن تكون قد تم إنشاؤها بواسطة الذكاء الصناعي،” هكذا خلصت بعد لحظة. ثم تساءلت على الفور: هل سنظل قادرين على التفريق خلال ثوانٍ في العام المقبل؟ جميع الإشارات توحي بالنفي، خاصةً على وسائل التواصل الاجتماعي، كما تقترح الأحداث الرئيسية الأخيرة في تكنولوجيا الذكاء الصناعي.

قبل أيام قليلة، شارك رئيس إنستغرام، آدم موسيري، رسالة تتناول هذه المشكلة على Threads. كتب موسيري “إن الذكاء الصناعي التوليدي ينتج بالفعل محتوىً صعب التمييز عن التسجيلات الحقيقية، ويتحسن بسرعة.” اعترف موسيري علناً بأنهم يواجهون صعوبة في وضع علامات على المحتوى الذي أنشأته الذكاء الصناعي في Meta، والتحكم والرصد للكميات الهائلة من الوسائط التي يتم مشاركتها كل ثانية على منصاتهم للتواصل الاجتماعي.

غسل موسيري يديه من المسؤولية في Meta وحذر المستخدمين بأنه يعود إليهم تمييز ما إذا كانت المنشورة حقيقية أم لا. أضاف “سيصبح من الضروري بشكل متزايد أن يتوخى المشاهد، أو القارئ، العقل النقدي عندما يتناولون محتوى يدعي أنه حساب أو تسجيل للواقع.”

بعد بضعة أيام فقط، أطلقت OpenAI Sora Turbo، مولد الفيديو الذي يعتمد على الذكاء الصناعي القوي، والذي يتيح للمستخدمين من فئة البرو والبلس إنشاء مقاطع فيديو واقعية من النصوص الموجهة. في غضون دقائق قليلة فقط، بدأ المستخدمون في إنشاء مقاطع فيديو واقعية مدهشة وبدأوا في مشاركتها على وسائل التواصل الاجتماعي.

وعندما بدا أن كل شيء يصل إلى مستوى جديد من إنتاج الفيديو، أعلنت Google عن أحدث أداة فيديو تعتمد على الذكاء الصناعي، وهي Veo 2، والتي تتميز بدقة أعلى ومقاطع فيديو أطول من Sora. بالطبع، كانت النتائج التي شاركها الأشخاص الذين حصلوا على حق الوصول إلى التكنولوجيا المتقدمة أكثر إثارة للإعجاب.

“لا أحد يستطيع القول الآن أن هذا هو الذكاء الصناعي”، كتب أحد المستخدمين.

الأمر قد بدأ بالفعل

خلال العام 2024، شهدنا كيف أثر المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على السكان، والانتخابات، ومستخدمي وسائل التواصل الاجتماعي.

في يناير، تلقى سكان نيوهامبشاير مكالمة “من جو بايدن” تخبرهم بعدم التصويت في الانتخابات الأولية. كان المستشار السياسي ستيف كرامر وراء هذا الاحتيال وتم تغريمه بـ 6 مليون دولار بسبب مكالمات الروبوت الخادعة التي تستخدم الذكاء الصناعي. لقد بدأت الحكومات في فهم التأثير الذي يمكن أن يحدثه الذكاء الصناعي، وقد بدأت دول مثل سنغافورة في تطوير القوانين والاستراتيجيات لمساعدة السكان على التعرف على محتوى الفيديوهات الخادعة.

في فنزويلا، تم نشر فيديوهات تم إنشاؤها بواسطة الذكاء الصناعي تنشر معلومات خاطئة – ولكنها أيضا تساعد الصحفيين على نقل المعلومات من خلال الأفاتارات الذكية لتجاوز الرقابة.

يواجه الناس صعوبة في التمييز بين الحقيقي والوهمي، وليست هذه مشكلتهم: فمحتوى الذكاء الاصطناعي المولد يتحسن ويتحسن.

محتوى الذكاء الاصطناعي المولد عالي الجودة هو عمل متنام في جميع أشكاله؛ النص، الصوت، والفيديو. العديد من منشئي OnlyFans يعتمدون حاليًا على الدردشة الآلية للتفاعل في المحادثات مع المعجبين، وهي وظيفة كانت مخصصة سابقًا للعمال الحركيين في البلدان ذات الدخل المنخفض. حتى أن النماذج الجديدة من الذكاء الاصطناعي المتخصصة في تقنيات التغازل تمكنت من إنشاء 1000 دولار من الإكراميات من المتابعين.

في أبريل، أطلقت شركة Synthesia المدعومة من Nvidia صورًا رمزية باستخدام الذكاء الاصطناعي تستطيع التعبير عن المشاعر البشرية والتحدث بـ 130 لغة. يتيح TikTok للشركات إنشاء إعلانات تم توليدها بواسطة الذكاء الاصطناعي باستخدام محتوى Getty Images، والآن يمكن لمبدعي YouTube استخدام ميزة الدبلجة التلقائية الجديدة بالذكاء الاصطناعي لترجمة محتواهم إلى 9 لغات وسيقوم التحديثات المستقبلية بتكرار الصوت الأصلي.

Zoom تعمل على إنشاء صور رمزية باستخدام الذكاء الاصطناعي تبدو تمامًا مثل المستخدمين لمساعدتهم على تسجيل الرسائل وحتى المشاركة في الاجتماعات. ستتم إتاحة هذه الأداة في العام المقبل، لكن الناس بالفعل قد اختبروا أدوات متعددة والشركات بالفعل يمكنها إنشاء نسخ ذكاء اصطناعي واقعية تمامًا من الصور.

هل أنت متأكدة من أنك تحدثت إلى شخص حقيقي خلال آخر مكالمة عبر Zoom لديك؟

كيف تعرفين إذا كانت مُنشأة من قبل الذكاء الاصطناعي؟ للآن

نحن نعيش في أوقات مُربكة في هذا العصر الرقمي. يمكن للفلاتر أن تجعل أي شخص يبدو كعارضة أزياء ببشرة خالية من العيوب، وتصحيحات تستحق الفوتوشوب على بُعد نقرة واحدة على إنستجرام أو سناب شات – فكم من الأشخاص يودون مشاركة صورهم الـ”طبيعية”، بكل عيوبها، عندما يمكن تحسينها في ثوان؟ نحن نرى المزيد والمزيد من الإعلانات التي تتميز بصور واقعية تم إنشاؤها بواسطة الذكاء الاصطناعي، تقنع أعيننا تدريجياً بألفتها و”طبيعيتها”. وكل يوم، تجعلنا الأحداث المدهشة حول العالم نتساءل: ما هو حقيقي، وما لم يعد كذلك؟

لقد كانت الشركات الكبيرة في مجال الذكاء الصناعي تعمل على إنشاء علامات مائية لتمييز المحتوى الذي تولده الذكاء الصناعي والتعرف عليه بسهولة. أطلقت Google DeepMind نظامها المفتوح المصدر للعلامات المائية في أكتوبر لوضع علامات على مقاطع الفيديو والنصوص والصوتيات التي يولدها الذكاء الصناعي، وقامت Meta أيضًا بتضمين واحدة في أداة الفيديو الخاصة بالذكاء الصناعي.

لكن فعاليتها موضع شك، بدءًا من Meta التي اعترفت فقط بأنها لا تستطيع وضع علامات على كل المحتوى الذي يولده الذكاء الصناعي. لا يزال بإمكان الجهات الخبيثة العثور على طرق لإزالة العلامات المائية ومن الضروري وجود المزيد من القوانين والشراكات والاتفاقات بين شركات وسائل التواصل الاجتماعي والحكومات لتحقيق نظام أكثر نجاحًا.

للآن، بجانب الثقة في حدسنا، يمكننا أن نطرح على أنفسنا بعض الأسئلة قبل المشاركة على وسائل التواصل الاجتماعي أو الإيمان بما نراه:

  • تمامًا كما أوصى موسيري، فكري فيما يلي: من هو الشخص الذي يشارك هذه المعلومات؟ هل هذا مصدر موثوق؟
  • هل تبدو تعابير الشخص أو حركاته آلية أو روبوتية؟ بالرغم من أن الصور الرمزية التي تم إنشاؤها بواسطة الذكاء الاصطناعي قد تكون واقعية للغاية، لا يزال من الممكن أن نلاحظ بعض الجمود الغريب أو عدم الانفعال – مع الأخذ بعين الاعتبار أن بعض الشركات مثل Synthesia بالفعل تقوم بتحسين هذا الجانب.
  • هل تم تصميم المحتوى لإثارة رد فعل عاطفي قوي؟ يعرف الجهات الخبيثة كم من السهولة أن نشارك الأخبار السلبية ونتفاعل مع المواد المشحونة عاطفياً على وسائل التواصل الاجتماعي، وتؤكد الأبحاث هذا. قبل مشاركة ذلك المحتوى الذي جعل دمك يغلي لكي تثير غضب الآخرين مثلك، فكر في ما إذا كان تم تصميمه لإثارة الجدل أو إذا كان في الواقع خبرًا حقيقيًا أو حدثًا حقيقيًا.
  • هل يمكنك التحقق من صحة المحتوى من خلال مصادر أخرى؟ إعادة التحقق من المصادر الموثوقة لا تضر أبدًا.

وأخيرًا، هل سألت نفسك – أو الدردشة الآلية المفضلة لديك – كيف يمكن تحسين التفكير النقدي لديك؟ بلا شك، يجب أن يكون تطوير العقل النقدي من ضمن قائمة القرارات الجديدة للعام الجديد لدى الجميع.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…