أعلن باحثون في جامعة كيل عن “كاشف أخبار مزيفة” بدقة تصل إلى 99%

Image by memyselfaneye, from Pixabay

أعلن باحثون في جامعة كيل عن “كاشف أخبار مزيفة” بدقة تصل إلى 99%

وقت القراءة: 3 دقائق

قام الباحثون في جامعة كيل بتطوير أداة مصممة لاكتشاف الأخبار الكاذبة بدقة تصل إلى 99٪، وتقدم موردًا محتملاً لمعالجة المشكلة المتزايدة للمعلومات المضللة على الإنترنت. تم الإعلان عن النموذج الجديد بواسطة الجامعة يوم أمس.

في عجلة من أمرك؟ إليك الحقائق السريعة!

  • قام باحثون من جامعة كيل بتطوير أداة للكشف عن الأخبار الكاذبة بدقة تصل إلى 99%.
  • تستخدم الأداة نظام “التصويت الجماعي” الذي يجمع بين نماذج التعلم الآلي المتعددة.
  • تقوم الأداة بتقييم محتوى الأخبار لتحديد مصداقية المصدر.

الفريق، الذي يتكون من الدكتور أوتشينا أني، الدكتورة سانجيتا سانجيتا، والدكتورة باتريشيا أسوو-أيوبود من كلية علوم الحاسوب والرياضيات، استخدمت مجموعة متنوعة من تقنيات التعلم الآلي لإنشاء نموذج قادر على تحليل محتوى الأخبار لتقييم مدى موثوقيته.

تستخدم الأداة نهج “التصويت الجماعي”، الذي يجمع التوقعات من عدة نماذج تعلم آلي لإنتاج حكم عام على ما إذا كانت مصدر الأخبار موثوقًا به. أظهرت الاختبارات الأولية أن الأسلوب تجاوز التوقعات، حيث تم التعرف على الأخبار الكاذبة في 99٪ من الحالات.

أبرز الدكتور أني، المحاضر في أمن المعلومات في جامعة كيل، التحديات التي تطرحها المعلومات المضللة. لاحظ أن الانتشار الواسع للمعلومات الكاذبة يقوض الحوار العام ويمكن أن يؤثر على المواقف والسلوكيات، مما يشكل مخاطر على الأمن المحلي والوطني.

الاختبار الأولييأمل الباحثون في تحسين النموذج بشكل أكبر مع تقدم تكنولوجيا الذكاء الصناعي والتعلم الآلي، بهدف تحقيق دقة أكبر في تحديد المحتوى غير الموثوق. أكدت الدكتورة أني على الحاجة الملحة لتطوير حلول للحفاظ على مصداقية المنصات الإلكترونية، وخاصة وسائل التواصل الاجتماعي، حيث يكثر الخطأ المعلوماتي.

أشارت أبحاث مبكرة قامت بها منظمة تقرير الديمقراطية الدولية (DRI)، وهي منظمة مقرها برلين تعزز الديمقراطية، إلى أن أنظمة الذكاء الصناعي، وخاصة النماذج اللغوية الكبيرة المفتوحة المصدر (LLMs)، تشكل مخاطر كبيرة في نشر المعلومات المضللة.

تقول DRI أن هذه المخاطر تنشأ لأن هذه النماذج، مثل دولي، زيفير، وفالكون، غالبًا ما تُطلق بدون ضمانات قوية، مما يتركها عرضة للإساءة الاستخدام.

تتطلب إمكانية الوصول إليها مهارات تقنية بسيطة، مما يمكّن الجهات الخبيثة من التلاعب بها لإنشاء سرد كاذب أو خطاب الكراهية. يعزز هذا الحاجز المنخفض للدخول خطر انتشار المعلومات المضللة.

بالإضافة إلى ذلك، تقول DRI أن النماذج المفتوحة المصدر مثل Zephyr تظهر قدرات مقلقة، مثل توليد محتوى ضار مقنع ومنظم ردا على التلميحات المباشرة أو الاقتراحية.

تكون هذه المخرجات غالبًا متسقة ومناسبة بالنسبة للسياق، مما يجعلها خطيرة بشكل خاص في تشكيل الروايات الكاذبة. علاوة على ذلك، يزيد التحيز المدمج في هذه النماذج، والذي يعكس غالبًا التحيزات المجتمعية، من خطر نشر النماذج النمطية الضارة.

بينما لا يزال في مرحلة التطوير، يمثل الأداة التي تم تطويرها في جامعة كيل خطوة نحو التصدي للتحدي الأكبر وهو التضليل في الاتصال الرقمي.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
5.00 بتصويت 1 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…