رأي: وباء الهلوسة بالذكاء الصناعي، أزمة نحن غير مستعدين لها

Image generated with DALL·E through ChatGPT

رأي: وباء الهلوسة بالذكاء الصناعي، أزمة نحن غير مستعدين لها

وقت القراءة: 7 دقائق

رغم الوعود المستمرة بتقليل الهلوسات الذكاء الصناعي، ما زالت الأدوات الكبرى للذكاء الصناعي – من ChatGPT إلى Perplexity إلى Gemini، و Apple Intelligence – تستمر في توليد معلومات غير صحيحة، غالبًا مع عواقب مقلقة. حتى الخبراء، بما في ذلك الذين يحذرون من مخاطر الذكاء الصناعي، وقعوا في فخ المحتوى الملفق، وحتى الأدوات المتقدمة مثل Deep Research تقوم بتكوين تقارير. يبدو أن الحقيقة لا تزال في أيدي البشر

كانت الدردشة الآلية تتحسن على مر السنين – وتحسنت كثيرًا. ولكن، هناك مشكلة واحدة لم تحل بعد وهي معروفة باسم “الهلوسات”.

تقدم لنا الدردشة المحبوبة لدينا إجابات رائعة على استفساراتنا بالعزيمة والسلطة التي يتميز بها يودا في الخيال العلمي، حتى وإن كانت تخطئ بشكل فظيع. ونحن نؤمن بها. أحيانًا بشكل أعمى.

لقد حذر عدد من العلماء والخبراء وحتى مطوري الدردشة من الهلوسات لسنوات. ومع ذلك، بينما كانت الاعتماد تنتشر بسرعة – أفادت OpenAI بأن لديها 400 مليون مستخدم نشط أسبوعياً فقط قبل أيام قليلة – لم يتماشى معدل الإلمام بالذكاء الصناعي مع هذا الانتشار.

تواصل الدراسات الحديثة والقضايا القضائية والأحداث الدرامية أن تظهر أن التضليل أخطر مما ندرك.

الأمر أسوأ مما نعتقد

في البداية، كان اكتشاف الأخطاء الكبيرة التي تم إنشاؤها بواسطة الذكاء الصناعي أمرًا مضحكًا بالفعل – مثل تلك الأخطاء المحرجة التي أنشأتها Gemini التي تقترح على المستخدمين إضافة “صمغ غير سام إلى الصلصة” لوصفة البيتزا أو توصية بتناول “صخرة صغيرة واحدة في اليوم” العام الماضي. ولكن، كما نستعيد ثقتنا في الذكاء الصناعي، تصعد الوضع، وأصبح الأمر مثيرًا للقلق بشكل متزايد.

في ديسمبر، رأينا أداة الذكاء الصناعي لـ Apple تنشئ عناوين “تلخيص” للأخبار وتوليد معلومات زائفة ومضللة، مثل الادعاء الكاذب بأن الـ BBC أعلنت أن لويجي مانجيوني أطلق النار على نفسه. بعد هذه الحادثة، قدمت المنشورة شكوى ضد Apple وبدأت في بحث دقة الذكاء الصناعي التوليدي أثناء تحليل المحتوى الإخباري.

نتائج الـ BBC التي تم نشرها قبل بضعة أيام، كشفت عن إحصائيات مقلقة: 51% من الإجابات التي قدمتها الدردشات الذكية الشائعة تحتوي على مشكلات كبيرة، 13% من الاقتباسات التي قدمتها النماذج كانت مكذوبة تماما، و19% من البيانات كانت غير صحيحة.

تعد المراهقين من بين الفئات الأكثر تأثرا، حيث يواجهون صعوبة كبيرة في تمييز الأخبار الكاذبة عن الأخبار الحقيقية، ويمكن أن يتأثروا بسهولة بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. أظهرت دراسة نُشرت في يناير أن 35% من المراهقين تمت خداعهم بواسطة المحتوى الكاذب الذي تم إنشاؤه بواسطة نماذج الذكاء الاصطناعي، وأن 22% قاموا بمشاركة المعلومات الكاذبة.

ولكن الأمر ليس مقتصرًا فقط على المراهقين والأشخاص الذين يسهون. وليس الأمر مقتصرًا فقط على Gemini أو Apple Intelligence.

لا يُوفَرُ الذكاء الاصطناعي أي نموذج، ولا تكون أي صناعة آمنة

تؤكد الأبحاث التي أجرتها البي بي سي مشكلة أخرى: كل نماذج الذكاء الاصطناعي تتوهم. وقد نظر الخبراء في النماذج الأكثر شعبية، مثل ChatGPT، وGemini، وPerplexity، وCopilot. وليس هناك نموذج ذكاء اصطناعي خالٍ من الأخطاء. لدى Anthropic صفحة تتعامل مع هذه المشكلة، وتقترح أفكارًا حول كيفية تقليل التوهم.

“حتى النماذج اللغوية الأكثر تقدمًا، مثل Claude، يمكن أن تولد أحيانًا نصًا غير صحيح حقيقيًا أو متناقضًا مع السياق المعطى،” كما يفيد الوثيقة. لقد شاركت شركات الذكاء الاصطناعي الأخرى صفحات مماثلة مع نصائح وحيل لتجنب المحتوى المزيف، ولكن الأمر ليس بهذه السهولة ولقد كانت مشكلة غير محلولة منذ فترة طويلة.

في عام 2023، أعلنت OpenAI أنها تعمل على طرق مبتكرة جديدة للتخلص من الهلوسة. تحذير من الحرق: ما زالت المشكلة ضخمة حتى اليوم.

في يناير 2024 – قبل أكثر من عام – قال الرئيس التنفيذي الأرافيند سرينيفاس إن الهلوسة التي يعاني منها Perplexity تحدث بشكل أساسي في الحسابات غير المدفوعة. “معظم الشكاوى تأتي من النسخة المجانية للمنتج،” كما أوضح سرينيفاس، مضيفًا أنهم بدأوا بالفعل في إحضار المزيد من وحدات معالجة الرسومات لحل المشكلة. ومع ذلك، بحلول أكتوبر، كانت صحيفة نيويورك بوست وداو جونز قد رفعتا دعوى قضائية ضد Perplexity – حيث كان نموذجهم يرجع الأخبار الكاذبة إلى منشوراتهم – ، وتم اختبار الأداة الذكاء الاصطناعي التي طورتها الشركة الناشئة للانتخابات الأمريكية بواسطة خبراء أظهروا التناقضات، والملخصات غير الدقيقة، والهلوسة.

مرض الهلوسة يصل إلى مستويات علمية وأكاديمية

أحد أكبر القلق الآن هو أن حتى الخبراء – بما في ذلك أولئك الذين يحذرون من المخاطر والأخطار المرتبطة بالذكاء الصناعي – قد وقعوا في فخ هذه الأدوات المعرضة للأوهام.

في ديسمبر، تم اتهام البروفسور في جامعة ستانفورد والخبير في التكنولوجيا والمعلومات المضللة جيف هانكوك بإستخدام الذكاء الصناعي لصياغة بيان للمحكمة . قدم هانكوك إقراراً مكوناً من 12 صفحة يدافع فيه عن قانون الدولة لعام 2023 الذي يجرم استخدام الوهم العميق (deepfakes)، بما في ذلك 15 استشهادا. ومع ذلك، لم يتم العثور على اثنين من هذه الاستشهادات في أي مكان – لأن ChatGPT، الأداة المفضلة للذكاء الصناعي لدى الخبير في المعلومات المضللة، كانت ببساطة قد اختلقتهما.

هانكوك – الذي كان مقررًا له تدريس “الحقيقة والثقة والتكنولوجيا” هذا العام – شرح أنه استخدم الدردشة الذكية لـ OpenAI لتنظيم اقتباساته، مما أدى إلى الهلوسات. اعتذر الباحث – وأصر على النقاط الجوهرية لإعلانه – وعلمنا جميعًا الدرس القيم الذي يدل على أن حتى الخبراء وأولئك الذين يعرفون أكثر عن مخاطر الذكاء الصناعي عرضة له.

البروفيسور هانكوك لم يكن الوحيد الذي قدم وثائق تحتوي على تزييفات تم إنشاؤها بواسطة الذكاء الصناعي في المحكمة، بالطبع. حالة أخرى تتضمن دعوى قضائية ضد وولمارت ذهبت مؤخراً إلى الفيروسات لأن المحامين استخدموا حالات وهمية تم إنشاؤها بواسطة الذكاء الصناعي لبناء حجتهم. في الواقع، أصبحت المشكلة متكررة جدًا في المحاكم الأمريكية بحيث بعثت مكتب المحاماة مورغان ومورغان مؤخراً بريدًا إلكترونيًا إلى أكثر من 1000 محامٍ لهم، محذرةً إياهم من مخاطر استخدام الاقتباسات التي تم إنشاؤها بواسطة الذكاء الصناعي، وذكرت الجمعية الأمريكية للمحامين 400,000 عضو لديها بقواعد أخلاقيات المحاماة – بما في ذلك المعلومات التي تم إنشاؤها بواسطة الذكاء الصناعي.

البحث العميق أيضًا

أحد أكثر أدوات الذكاء الصناعي شعبية في الوقت الحالي هو “البحث العميق”، الذي تم تصميمه للخبراء والعلماء الذين يسعون للحصول على نتائج أكثر تعقيدا في أبحاثهم. والهلوسات ليست غائبة عن هذه الأداة أيضا، على الرغم من أن نسخة OpenAI المبدئية كانت تتطلب اشتراكاً بروفيشنال بقيمة 200 دولار للوصول إليها.

أثار المستخدمون على Reddit قلقهم حول هذه المشكلة، حيث أفادوا أن جميع النماذج الشائعة التي تتضمن أدوات البحث العميق – مثل الحيرة، وChatGPT، وDeepSeek- قد تعرضت للهلوسة. كما شارك الباحثون وخبراء الذكاء الصناعي نتائج مقلقة على منصات التواصل الاجتماعي الأخرى مثل X.

“أنتجت الأداة تقريرًا مكتوبًا بشكل جميل ومنظم”، كتب أحد المستخدمين الذين استخدموا أداة البحث العميق من OpenAI لدراسة الرياضيات التي يقوم بها الشباب. “المشكلة الوحيدة هي أن كل شيء مبتكر فقط.”

“ابتكرت البحث العميق مجموعة من الإحصائيات والتحليلات، مع الادعاء بتجميع مجموعة بيانات تضم الآلاف من المقالات، وجمع معلومات سنة الولادة لكل مؤلف من مصادر ذات سمعة جيدة”، شارك آخر. “لا شيء من هذا صحيح.”

الحقيقة ما زالت في أيدي البشر

هل ستتوقف الدردشات الآلية يومًا عن الهلوسة؟ لطالما كان النقطة الضعيفة في الذكاء الصناعي واضحة لسنوات – رأيناها في البودكاست مثل “Planet Money” عندما اختبروا الحلقات التي تم إنشاؤها بواسطة الذكاء الصناعي في عام 2023، وما زلنا نراها في النماذج الأكثر تقدمًا، حتى تلك التي صُممت للاستخدام الحصري من قبل المجتمعات الخبراء والملمين بالتكنولوجيا.

ربما حان الوقت لقبول أن هذه المشكلة ستبقى قائمة، وأن نفهم أن علينا تحمل المسؤولية عن ما نخلقه ونشاركه باستخدام أدوات الذكاء الاصطناعي.

الحقيقة أنه على الرغم من أنه يبدو كمشكلة معروفة، إلا أن خبراء مخاطر الذكاء الاصطناعي بأنفسهم يقعون ضحية للكتابة الإقناعية والمقنعة التي يقدمها الذكاء الاصطناعي بالتأكيد مقلقة. تصبح الأمور أكثر تعقيدًا بمرور الوقت حيث يستمر الاعتماد على الذكاء الاصطناعي في التسارع بسرعة كاملة، ويتجاوز الثقافة الرقمية، بينما تتضاعف التناقضات والاقتباسات الملفقة.

تميل الحالات التي تم فيها كشف هموم الذكاء الاصطناعي إلى أن تكون تلك التي يكون فيها التحقق من الحقائق أمراً بالغ الأهمية – شيء ينبغي تذكير زوكربرج به الآن بعد أن ألغى قسم التحقق من الحقائق الخاص به. هذا واضح بشكل خاص في المحاكم، حيث يعمل المحامون والقضاة على التحقق من الحقائق والقضايا، وفي وسائل الإعلام الإخبارية، حيث تهم الدقة والتحقق من المصدر.

ولكن ماذا عن الحالات التي لا يتأمل أحد في هذه التفاصيل؟ ماذا يحدث في السياقات اليومية، الأكثر شخصية؟ الآن، الملايين من الطلاب يحفظون الإجابات التي أنشأها الذكاء الاصطناعي لدراستهم، والمستخدمين يتبعون التعليمات التي يقدمها الذكاء الاصطناعي لعلاج الأمراض، والآخرون يتعلمون عن مواضيع جديدة، معتمدين تماما على التكنولوجيا.

العواقب الناتجة عن هذه الواقعية الجديدة التي نواجهها لا يمكن قياسها ولا التنبؤ بها، والحقيقة – للآن – في يد الأشخاص الذين يأخذون الوقت للتساؤل والتحقق.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…