أدوبي تطلق تطبيق “صحة المحتوى” لحماية المبدعين من استخدام الذكاء الاصطناعي غير المصرح به

Image by Asfand Effandi, from Unsplash

أدوبي تطلق تطبيق “صحة المحتوى” لحماية المبدعين من استخدام الذكاء الاصطناعي غير المصرح به

وقت القراءة: 3 دقائق

  • كيارا فابري

    كتبه: كيارا فابري صحفية وسائط متعددة

  • فريق الترجمة والتوطين

    ترجمة فريق الترجمة والتوطين خدمات الترجمة والتوطين

في عجلة من أمرك؟ إليك الحقائق السريعة!

  • أطلقت Adobe تطبيق ويب مجاني لمساعدة المبدعين على حماية أعمالهم الرقمية.
  • يطبق التطبيق بيانات الاعتماد للمحتوى، ويعمل كما لو كان “ملصق غذائي” للمحتوى الرقمي.
  • يسمح التطبيق للمبدعين بإرسال إشارة للإستثناء من استخدام التدريب على الذكاء الاصطناعي التوليدي.

أعلنت Adobe يوم الثلاثاء عن إطلاق تطبيق ويب جديد صمم لمساعدة المبدعين على حماية أعمالهم الرقمية بواسطة Content Credentials. يقدم تطبيق Adobe Content Authenticity حلاً مجانياً لتطبيق هذه الأوراق التفويضية، التي تعمل كـ “ملصق غذائي” للمحتوى الرقمي، مما يضمن النسبة الصحيحة والشفافية.

يعتمد التطبيق على مبادرة Adobe Content Authenticity الأوسع نطاقًا (CAI)، التي بدأت في عام 2019، وتتعامل مع القلق المتزايد بشأن سوء استخدام المحتوى، والمعلومات المضللة، والتدريب غير المصرح به للذكاء الصناعي.

تقدم “Content Credentials”، التي تتوفر بالفعل في تطبيقات Adobe Creative Cloud المشهورة مثل Photoshop وLightroom وFirefly، بيانات وصفية آمنة يمكن للمبدعين من خلالها تضمين معلومات عن أنفسهم وأعمالهم.

مع التطبيق الجديد على الويب، يمكن للمبدعين تطبيق هذه الشهادات على الصور والفيديوهات وملفات الصوت بكميات كبيرة، مما يمنحهم السيطرة على كيفية استخدام أعمالهم وضمان الاعتراف السليم بها. إحدى الميزات الرئيسية للتطبيق تتيح للمبدعين تطبيق Content Credentials بكميات كبيرة على أعمالهم الرقمية، مثل الصور وملفات الصوت والفيديو.

يمكن للمبدعين التحكم في المعلومات التي يتم تضمينها، مثل اسمهم، وموقعهم الإلكتروني، وحساباتهم على وسائل التواصل الاجتماعي، مع خطط لتوفير خيارات تخصيص إضافية. هذا يساعد على التأكد من أنهم يحصلون على النسبة المناسبة والحماية من الاستخدام غير المصرح به أو النسبة الخاطئة.

كما توفر التطبيق للمبدعين الخيار للإشارة إلى ما إذا كانوا يريدون استبعاد محتواهم من التدريب على الذكاء الصناعي التوليدي. بينما يستخدم Adobe’s Firefly فقط المحتوى المرخص للتدريب، قد لا تتبع نماذج الذكاء الصناعي الأخرى هذه الممارسة.

مع تطبيق الويب، يمكن للمبدعين تحديد التفضيلات لمنع استخدام محتواهم من قبل نماذج الذكاء الاصطناعي الأخرى. هذه الميزة تضمن أيضًا أن المحتوى الذي لم يتم تفويضه للتدريب على الذكاء الاصطناعي لن يكون مؤهلاً لـ Adobe Stock.

بالإضافة إلى ذلك، قدمت Adobe أدوات لعرض واستعادة بيانات الاعتماد للمحتوى، حتى عندما لا تعرض بعض المنصات معلومات المصدر.

تسمح امتداد صحة المحتوى لـ Google Chrome وأداة التفتيش داخل التطبيق للمستخدمين باستعادة البيانات الاعتمادية المرتبطة وتعديل السجل.

تم تصميم بيانات الاعتماد للمحتوى لتظل مرتبطة بشكل آمن بالعمل الرقمي طوال دورة حياته، باستخدام مزيج من البصمات الرقمية، والعلامات المائية غير الظاهرة، والبيانات الوصفية التشفيرية لضمان متانتها وقابليتها للتحقق.

ومع ذلك، تعترف الشركة بأن الأداة ليست خالية من العيوب. “أي شخص يقول لك أن العلامة المائية الخاصة به محمية 100٪ فهو يكذب”، كما قال إلي غرينفيلد، الرئيس التنفيذي للتكنولوجيا في أدوبي للوسائط الرقمية، كما ذكرت MIT Review .

“هذا يدافع عن الحالات العرضية أو غير المقصودة لإزالة العلامة المائية، على عكس التصرفات الخبيثة”، أضافت.

تؤكد Adobe أنها لا تستخدم (و لن تستخدم) محتوى المستخدمين لتدريب الذكاء الاصطناعي الخاص بها، كما أشارت MIT.

ومع ذلك، يجادل العديد من الفنانين، بما في ذلك نيل توركويتز، ناشط حقوق الفنانين والنائب التنفيذي السابق لجمعية صناعة التسجيلات الأمريكية، أن الشركة لم تتمكن من تأمين الموافقة أو امتلاك الحقوق بشكل صحيح لصور المساهمين الفرديين، كما أفادت MIT.

“لن يتطلب الأمر تغييراً كبيراً لكي تصبح Adobe بالفعل جهة فاعلة أخلاقية حقيقية في هذا المجال وأن تظهر القيادة ،” يقول. “لكن من الرائع أن الشركات تتعامل مع مصدر النشأة وتحسين الأدوات للبيانات الوصفية، والتي كلها جزء من الحل النهائي لمعالجة هذه المشكلات،” أضاف Nail، كما أفادته معهد ماساتشوستس للتكنولوجيا.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

عرض المزيد…