صراعات ChatGPT مع الاقتباسات الدقيقة، مما يثير قلق الناشرين
أخطاء الاستشهاد المتكررة لـ ChatGPT، حتى مع المحتوى المرخص، تقوض ثقة الناشرين وتسلط الضوء على مخاطر أدوات الذكاء الاصطناعي التوليدية في تحريف الصحافة.
مستعجلة؟ ها هي الحقائق السريعة!
- غالبًا ما يقوم ChatGPT بتزوير أو تحريف الاقتباسات، مما يثير القلق لدى الناشرين.
- وجد الباحثون أن 153 من أصل 200 كانت اقتباسات غير صحيحة، مما يقوض الثقة في ChatGPT.
- أحيانًا يقتبس ChatGPT من المصادر المنسوخة، مما يعزز المحتوى غير المرخص على حساب الصحافة الأصلية.
ألقت دراسة حديثة من مدرسة كولومبيا للصحافة المركزية للصحافة الرقمية الضوء على ممارسات الاستشهاد في ChatGPT، مكشفة عن تحديات كبيرة تواجه الناشرين الذين يعتمدون على أداة الذكاء الصناعي التوليدية من OpenAI.
تشير النتائج إلى أن الناشرين يواجهون مخاطر سمعية وتجارية محتملة بسبب التقصير الغير مستقر وغالبًا غير الدقيق لـ ChatGPT، حتى عندما تكون هناك صفقات ترخيص.
أجرت الدراسة اختبار قدرة ChatGPT على نسب الاقتباسات من 200 مقالة عبر 20 ناشرًا، بما في ذلك الناشرين الذين لديهم صفقات ترخيص وأولئك الذين يخوضون دعاوى قضائية ضد OpenAI، كما ذكرت هذا الأسبوع من قبل مراجعة الصحافة بجامعة كولومبيا (CJR).
رغم مزاعم OpenAI بتوفير الاستشهادات الدقيقة، أعاد الدردشة الآلية الردود الغير صحيحة أو الجزئياً غير صحيحة في 153 مرة. فقط في سبع مرات اعترفت بعجزها عن تحديد المصدر الصحيح، وغالباً ما تختار أن تختلق الاستشهادات بدلاً من ذلك.
تشمل الأمثلة ChatGPT التي تنسب بطريقة خاطئة اقتباس من Orlando Sentinel إلى Time والإشارة إلى النسخ المقلدة من محتوى New York Times من مصادر غير مصرح بها.
حتى عندما سمح الناشرون لزاحفي OpenAI بالوصول، غالبًا ما تم نسب الاقتباسات بطريقة خاطئة، مثل ربط النسخ المشتقة بدلاً من المقالات الأصلية.
أعرب مات هونان، رئيس تحرير MIT Tech Review، عن شكوكه حول شفافية ChatGPT، مشيرًا إلى أن ردوده قد تضلل المستخدمين غير المعتادين على قيود الذكاء الاصطناعي.
“من وجهة نظري، أنا على دراية جيدة بميل الشاتبوتات إلى الهلوسة وابتكار الأمور […] لكني أعلم أيضًا أن معظم الناس ربما لا يعرفون ذلك. […] أعتقد أن التنويهات الصغيرة التي تظهر في هذه الشاتبوتات ليست كافية”، قال ذلك في CJR.
تلاحظ CJR أن OpenAI تدافع عن جهودها، مشددة على الأدوات المتاحة للناشرين لإدارة ظهور المحتوى وتعهدها بتحسين دقة الاستشهاد.
ومع ذلك، وجد مركز Tow أن تمكين الزاحفين أو ترخيص المحتوى لا يضمن التمثيل الدقيق، مع تناقضات تمتد بين الناشرين المشاركين وغير المشاركين.
يمكن أن تؤدي عدم دقة ChatGPT في الإشارة إلى محتوى الناشر إلى تآكل الثقة في الصحافة وإلحاق الضرر بسمعة الناشرين. عندما يسيء النسب أو التمثيل للمقالات، قد يجد الجمهور صعوبة في تحديد المصادر الأصلية، مما يضعف التعرف على العلامة التجارية.
حتى الناشرين الذين يسمحون لزاحفي OpenAI أو الذين يحملون اتفاقيات الترخيص ليسوا محصنين من هذه الأخطاء، مما يسلط الضوء على العيوب النظامية. تميل ChatGPT إلى تقديم إجابات تبدو واثقة بشكل مضلل، بدلاً من الاعتراف بالفجوات في معرفتها، مما يضلل المستخدمين ويقوض الشفافية.
قد تبعد هذه الممارسات الجمهور عن مصادر الأخبار الموثوقة، وتحفز السرقة الأدبية، وتضعف وضوح الصحافة عالية الجودة. هذه العواقب تعرض للخطر نزاهة تبادل المعلومات والثقة في منصات الوسائط الرقمية.
اترك تعليقًا
إلغاء