الدراسة لم تجد أي دليل على وجود قدرات طارئة خطيرة في النماذج اللغوية الكبيرة

Image by rawpixel.com, from Freepik

الدراسة لم تجد أي دليل على وجود قدرات طارئة خطيرة في النماذج اللغوية الكبيرة

وقت القراءة: 2 دقائق

أعلنت دراسة أجرتها جامعة باث أمس أن نماذج اللغة الكبيرة (LLMs) لا تشكل تهديداً وجودياً للبشرية. تزعم الدراسة أن هذه النماذج لا تستطيع التعلم أو اكتساب مهارات جديدة بشكل مستقل، مما يجعلها قابلة للتحكم وآمنة.

أجرى فريق البحث، بقيادة البروفيسور إيرينا غوريفيتش، أكثر من 1000 تجربة لاختبار قدرة LLMs على القدرات الناشئة – المهام والمعرفة التي لم يتم برمجتها صراحةً. تظهر نتائجهم أن ما يُنظر إليه بوصفه قدرات ناشئة ينتج في الواقع عن استخدام LLMs للتعلم في السياق، بدلاً من أي شكل من أشكال التعلم المستقل أو الاستدلال.

البحثتشير الدراسة إلى أنه بينما يتمتع نماذج التعلم اللغوي الكبيرة بالكفاءة في معالجة اللغة واتباع التعليمات، فإنها تفتقر إلى القدرة على إتقان المهارات الجديدة دون إرشاد صريح. هذا القصور الأساسي يعني أن هذه النماذج تظل قابلة للتحكم، والتوقع، وآمنة بطبيعتها. على الرغم من تزايد تعقيدها، يجادل الباحثون أنه من غير المحتمل أن تطور هذه النماذج قدرات التفكير المعقد أو تقوم بأفعال غير متوقعة.

الدكتور هاريش تايار مادابوشي، أحد مؤلفي الدراسة، ذكر في إعلان جامعة باث أن “الرواية السائدة التي تتحدث عن أن هذا النوع من الذكاء الصناعي يشكل تهديدا للبشرية تعيق الاعتماد الواسع النطاق وتطوير هذه التقنيات، وتوجه الانتباه أيضا عن المشكلات الحقيقية التي تتطلب تركيزنا”

توصي الدكتورة تيار مادابوشي بالتركيز على المخاطر الفعلية، مثل الاستخدام الخاطئ المحتمل لـ LLMs لإنتاج الأخبار الكاذبة أو ارتكاب الاحتيال. وتحذر من سن التشريعات التي تستند إلى التهديدات العبثية، وتحث المستخدمين على تحديد المهام بوضوح لـ LLMs وتقديم أمثلة تفصيلية لضمان النتائج الفعّالة.

أشارت الأستاذة جوريفيتش في الإعلان قائلة: “نتائجنا لا تعني أن الذكاء الصناعي ليس تهديدًا على الإطلاق. بل نظهر أن الظهور المزعوم للمهارات التفكير المعقدة المرتبطة بالتهديدات الخاصة ليس مدعومًا بالأدلة، وأننا يمكن أن نتحكم في عملية التعلم لـ LLMs جيدًا في النهاية. لذا يجب أن تركز الأبحاث المستقبلية على المخاطر الأخرى التي تشكلها النماذج، مثل إمكانية استخدامها لإنتاج الأخبار الكاذبة.”

تقر الباحثات بوجود العديد من القيود في دراستهن. قمن بتجربة العديد من النماذج، بما في ذلك T5 ، GPT ، Falcon ، و LLaMA، ولكنن لم يتمكن من تطابق عدد المعلمات تمامًا بسبب الاختلافات في أحجام النماذج عند الإصدار. كما نظرن في مخاطر تسرب البيانات، حيث يمكن أن تؤثر المعلومات من بيانات التدريب بطريقة غير مقصودة على النتائج. بينما يفترضن أن هذه المشكلة لم تتجاوز ما تم الإبلاغ عنه لنماذج معينة، يمكن أن يؤثر تسرب البيانات لا زال يمكن أن يؤثر على الأداء.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!
5.00 بتصويت 1 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

عرض المزيد…