تتزايد الهلوسات الذكاء الاصطناعي كلما زادت تعقيد الأدوات

Image by Kelly Sikkema, from Unsplash

تتزايد الهلوسات الذكاء الاصطناعي كلما زادت تعقيد الأدوات

وقت القراءة: 3 دقائق

أنظمة الذكاء الصناعي الجديدة من شركات مثل OpenAI أكثر تقدماً من أي وقت مضى، ولكنها تنشر بشكل متزايد معلومات غير صحيحة – ولا أحد يعرف السبب.

في عجلة من أمرك؟ إليك الحقائق السريعة:

  • تقدر النماذج الجديدة للتفكير بتخمين الإجابات، وغالبًا ما تخترع حقائق بدون توضيح.
  • أظهرت OpenAI’s o4-mini تخيلات للإجابات في حوالي 80% من حالات الاختبار.
  • يعترف الخبراء بأنهم لا يزالون لا يفهمون بشكل كامل عمليات اتخاذ القرارات للذكاء الاصطناعي.

أصبحت أنظمة الذكاء الصناعي أكثر قوة، لكنها أيضًا ترتكب المزيد من الأخطاء، ولا أحد يعرف السبب بشكل كامل، كما أفادت لأول مرة صحيفة نيويورك تايمز.

في الشهر الماضي فقط، كان على “كورسور”، أداة الترميز، أن تهدئ العملاء الغاضبين بعد أن أخبرهم الروبوت المساعد التابع للذكاء الصناعي بشكل خاطئ أنهم لم يعد بإمكانهم استخدام المنتج على أجهزة متعددة.

“ليس لدينا مثل هذه السياسة. أنت بالطبع حر في استخدام كورسور على أجهزة متعددة”، أوضح الرئيس التنفيذي مايكل ترويل على رديت، ملقيا اللوم على الروبوت على الرسالة الخاطئة، كما ذكرت صحيفة The Times.

تواجه أنظمة الذكاء الاصطناعي المتقدمة من OpenAI وجوجل وDeepSeek في الصين زيادة في حالات “الهلوسة”، والتي تعتبر أخطاء في عملياتها. تستخدم هذه الأدوات قدراتها “المنطقية” لحل المشكلات ولكنها غالبًا ما تنتج تخمينات غير صحيحة ومعلومات ملفقة.

أفادت صحيفة الـ Times بأن نتائج اختبارات النماذج الجديدة كشفت أن هذه الأنظمة أنتجت إجابات ملفقة في 79% من ردودها.

“بالرغم من أفضل ما نبذله من جهود، سيظلون يتوهمون دائماً”، هكذا قال عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا والمدير التنفيذي السابق في جوجل، كما أفادت صحيفة الـ Times. الروبوتات تعمل دون قواعد محددة لأنها تنتج الردود بناءً على الاحتمالات والتي يمكن أن تؤدي إلى معلومات ملفقة.

هذه مشكلة كبيرة بالنسبة للمستخدمين الذين يتعاملون مع البيانات القانونية أو الطبية أو التجارية. “عدم التعامل مع هذه الأخطاء بشكل صحيح يقضي بشكل أساسي على قيمة أنظمة الذكاء الصناعي”، قال براتيك فيرما، الرئيس التنفيذي لشركة أوكاهو.

في أحد الأمثلة، تتسبب الأخطاء التي تولدها الذكاء الاصطناعي في مشكلات حقيقية في العالم الواقع، خاصة في المجالات الحساسة مثل العمل القانوني. وقد واجه المحامون عقوبات لاستخدام المعلومات المزيفة المستمدة من نماذج الذكاء الاصطناعي في الوثائق القضائية.

كشف تقرير أن اثنين من المحامين في وايومنج قد ضمنوا قضايا وهمية أنشأها الذكاء الاصطناعي في دعوى قضائية ضد وولمارت، مما أدى إلى تهديد القاضي الفيدرالي بفرض عقوبات. وقد أطلق هذا التحذيرات في المجال القانوني حول مخاطر الاعتماد على الذكاء الاصطناعي للمهام التي تتطلب معلومات موثقة.

أظهرت نتائج الاختبارات لنموذج o3 من OpenAI أنه أنتج أوهامًا بنسبة 33%، وهو معدل ضعف ما أظهره النموذج o1. وبين النموذج o4-mini أعلى معدل للأوهام بنسبة 48%. قالت المتحدثة باسم OpenAI، جابي رايلا، كما ذكرت صحيفة The Times: “نحن نعمل بنشاط للحد من معدلات الأوهام العالية”.

تُعقد هذه المشكلات بسبب القلق حول تأثير الذكاء الصناعي على الصحافة. وجدت دراسة أجرتها الـBBC أن الدردشة الذكاء الصناعي الشائعة تكافح من أجل دقة محتوى الأخبار، حيث تحتوي 51% من الردود على أخطاء كبيرة، بما في ذلك اقتباسات مُلفقة وأخطاء في الحقائق.

يقول الباحثون أن جزءًا من المشكلة يتعلق بكيفية تدريب هذه الروبوتات. قالت هنانة هاجي شيرزي من جامعة واشنطن: “ما زلنا لا نعرف بالضبط كيف تعمل هذه النماذج”، وفقًا لما ذكرته صحيفة The Times.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
5.00 بتصويت 1 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…