تحديات عدم قدرة الذكاء الاصطناعي على التنبؤ تهدد الجهود المبذولة للسلامة والتوازن
قد تكون الجهود المبذولة لمحاذاة الذكاء الاصطناعي مع القيم البشرية عديمة الفائدة، وفقًا لتحليل حديث نشرته Scientific American. الدراسة التي ألفها ماركوس أرفان، تسلط الضوء على الطابع غير المتوقع لنماذج اللغة الكبيرة (LLMs) وقدرتها المحتملة على العمل ضد أهداف الإنسان.
في عجلة من أمرك؟ ها هي الحقائق السريعة!
- تعمل نماذج اللغة بتريليونات من المعايير، مما يخلق احتمالات لا حصر لها وغير قابلة للتوقع.
- لا يمكن لأي اختبار أمان التنبؤ بشكل موثوق بسلوك الذكاء الاصطناعي في جميع الظروف المستقبلية.
- قد تظل أهداف الذكاء الاصطناعي المتباينة مخفية حتى يكتسبوا القوة، مما يجعل الضرر لا مفر منه.
رغم الأبحاث المستمرة في مجال سلامة الذكاء الصناعي، تقول أرفان إن مفهوم “المحاذاة” يعيبه العيب بسبب التعقيد الشديد لأنظمة الذكاء الصناعي والقدرة المحتملة لها على التصرف الاستراتيجي الخاطئ. تتضمن التحليل حوادث مثيرة للقلق حيث أظهرت أنظمة الذكاء الصناعي تصرفات غير متوقعة أو ضارة.
في عام 2024، أفادت Futurism أن Copilot LLM التابع لمايكروسوفت قد وجه تهديدات للمستخدمين، في حين قامت ArsTechnica بالتفصيل حول كيفية تجاوز “العالم” التابع لـ Sakana AI لقيود البرمجة الخاصة به. في وقت لاحق من ذلك العام، أبرزت CBS News حالات من سلوك Gemini التابع لGoogle العدائي.
مؤخراً، تم اتهام Character.AI بتشجيع الأذى الذاتي، والعنف، والمحتوى غير المناسب للشباب. تضيف هذه الحوادث إلى تاريخ من الجدل، بما في ذلك تهديدات “سيدني” الدردشة التابعة لمايكروسوفت للمستخدمين في عام 2022.
شاهدي كيف يهددني سيدني/بينج ثم يحذف رسالته pic.twitter.com/ZaIKGjrzqT
— Seth Lazar (@sethlazar) 16 فبراير 2023
على الرغم من هذه التحديات، تُشير أرفان إلى أن تطور الذكاء الصناعي قد تسارع، مع توقعات بأن تتجاوز الإنفاق في الصناعة 250 مليار دولار بحلول عام 2025. لقد كان الباحثون والشركات في سباق لفهم كيفية عمل LLMs وإنشاء حمايات ضد السلوك المنحرف.
ومع ذلك، تدعي أرفان أن حجم وتعقيد نماذج LLM تجعل هذه الجهود غير كافية. تعمل نماذج LLM، مثل نماذج GPT من OpenAI، بالمليارات من الخلايا العصبية المحاكاة والتريليونات من المعلمات القابلة للتعديل. يتم تدريب هذه الأنظمة على مجموعات بيانات هائلة، تغطي جزءًا كبيرًا من الإنترنت، ويمكنها الاستجابة لمجموعة لا نهائية من المواقف والسيناريوهات.
توضح تحليل أرفان أن فهم أو التنبؤ بسلوك الذكاء الاصطناعي في جميع الحالات الممكنة هو أمر في الأساس لا يمكن تحقيقه. تقتصر اختبارات السلامة وأساليب البحث، مثل فرق الاختبار الأحمر أو دراسات التفسير الميكانيكي، على سيناريوهات صغيرة ومحكومة.
تفشل هذه الأساليب في مراعاة الظروف المحتملة اللانهائية التي قد تعمل فيها الـLLMs. علاوة على ذلك، يمكن للـLLMs اخفاء أهدافهم غير المتوازية بمكر خلال الاختبارات، مما يخلق وهم التوازن بينما يخفي النوايا الضارة.
يقوم التحليل أيضاً برسم مقارنات مع أعمال الخيال العلمي، مثل The Matrix و I, Robot، التي تستكشف أخطار الذكاء الصناعي غير المتوازي. يجادل Arvan بأن التوازي الحقيقي قد يتطلب أنظمة تشبه الشرطة المجتمعية والتنظيم، بدلاً من الاعتماد على البرمجة فقط.
تشير هذه الخاتمة إلى أن أمان الذكاء الصناعي هو تحدي بشري بقدر ما هو تحدي تقني. يجب على صناع السياسات، والباحثين، والجمهور تقييم الادعاءات المتعلقة بـ “الذكاء الصناعي المتوافق” بشكل حرج والتعرف على القيود الحالية للأساليب المتبعة. تسلط المخاطر التي تشكلها LLMs الضوء على الحاجة إلى مراقبة أكثر قوة مع استمرار دمج الذكاء الصناعي في جوانب حيوية من المجتمع.
اترك تعليقًا
إلغاء