
Image generated with OpenAI
رأي: نماذج الذكاء الصناعي هي “كائنات” غامضة، حتى أن خالقيها لا يفهمونها بشكل كامل
تعد دراسة Anthropic الأخيرة حول كيفية عمل نموذج Claude 3.5 Haiku واعدة بإظهار العديد من الكشوف الرائدة والبصيرة حول فهم كيفية عمل تقنيات الذكاء الاصطناعي المتقدمة. ولكن، ماذا يقصدون عندما يقولون أن النماذج اللغوية الكبيرة (LLMs) هي “كائنات حية” تـ “تفكر”؟
منذ بضعة أيام، أصدرت Anthropic ورقتين علميتين تتضمن بحثاً رائداً حول كيفية عمل النماذج اللغوية الكبيرة (LLMs). وفي حين كانت التطورات التقنية مثيرة للاهتمام وذات صلة، فإن ما أثار اهتمامي بشكل كبير كان المفردات التي استخدمها خبراء الذكاء الاصطناعي.
في الدراسة حول بيولوجيا نموذج اللغة الكبير، قام الباحثون بمقارنة أنفسهم بعلماء الأحياء الذين يدرسون “الكائنات الحية” المعقدة التي تطورت على مر البلايين من السنين.
“بالمثل، بينما تتم إنشاء نماذج اللغة بواسطة خوارزميات تدريب بسيطة مصممة بواسطة البشر، يبدو أن الآليات التي وُلدت من هذه الخوارزميات معقدة للغاية”، كتب العلماء.
في السنوات القليلة الماضية، تطورت نماذج الذكاء الاصطناعي بشكل ملحوظ. وقد شهدنا هذا التطور السريع خلال الأشهر القليلة الماضية. رأينا كيف تحول ChatGPT من نموذج نصي فقط إلى رفيق محادثة، والآن إلى وكيل متعدد الأبعاد يمكنه أيضاً إنتاج صور رائعة بأسلوب ستوديو جيبلي.
ولكن، ماذا لو وصلت النماذج الحالية للذكاء الاصطناعي إلى مستوى الخيال العلمي من خلال تطويرها لمستوى متقدم من التفكير لدرجة أن خالقيها لا يستطيعون فهم عملياتها وأنظمتها؟ هناك العديد من الألغاز المحيطة بتكنولوجيا الذكاء الاصطناعي التي قد يكون من المهم إعادة النظر فيها—أو الغوص فيها—في عام 2025.
مفارقة صندوق الأسود المخيف في نماذج الذكاء الاصطناعي
هناك العديد من المناقشات حول تبني الذكاء الاصطناعي ومعرفة الذكاء الاصطناعي، وكيف أن الأشخاص الذين يفهمون كيف تعمل نماذج الذكاء الاصطناعي المولدة أقل احتمالًا للنظر إلى الدردشة الآلية بوصفها “أصدقاء” أو تطبيقات “سحرية”. ومع ذلك، هناك نقاش آخر – بين الخبراء والأشخاص الأكثر إلمامًا بالتكنولوجيا – حول ما إذا كان يجب المقارنة أو النظر في LLMs كخلقات مستقلة. بالنسبة للأخير، هناك مكون خاص، لغز يعرف بـ “مفارقة صندوق الذكاء الاصطناعي الأسود”، الذي يلعب دورًا حاسمًا في المناقشة.
يتم تدريب أنظمة التعلم العميق لتمييز العناصر والاتجاهات بطرق مماثلة لما يفعله البشر. تماماً مثلما نعلم الأطفال التعرف على الأنماط وتكليف كلمات معينة لأشياء مختلفة، تم تدريب LLMs لإجراء اتصالات فريدة وبناء شبكات تزداد تعقيدًا مع “نموها”.
سمير رواشدة ، أستاذ مشارك في هندسة الكهرباء والحاسوب، متخصص في الذكاء الصناعي ويشرح أنه، كما يحدث عندما ندرس الذكاء البشري، من الصعب تقريبًا رؤية كيفية اتخاذ أنظمة التعلم العميق للقرارات والوصول إلى الاستنتاجات. هذا ما يطلق عليه الخبراء اسم “مشكلة الصندوق الأسود”.
تحدي أنماط الذكاء الصناعي للفهم البشري
ألقت الدراسة الأخيرة لشركة Anthropic الضوء على موقف الصندوق الأسود للذكاء الصناعي من خلال شرح كيفية “التفكير” لنموذجها في سيناريوهات معينة كانت غامضة أو خاطئة تمامًا في السابق. حتى إذا كانت الدراسة مبنية على نموذج كلود 3.5 هايكو، فإنها تسمح للخبراء بتطوير الأدوات وتحليل خصائص مماثلة في نماذج الذكاء الصناعي الأخرى.
“فهم طبيعة هذه الذكاء يعتبر تحديًا علميًا عميقًا، والذي لديه القدرة على إعادة تشكيل تصورنا لما يعني ‘التفكير'”، هذا ما ذكرته الورقة البحثية التي شاركها باحثو Anthropic.
ومع ذلك، فإن استخدام مصطلح “التفكير”، المرتبط بتقنيات الذكاء الصناعي، يثير استياء بعض الخبراء في الصناعة وهو جزء من انتقادات البحث. قام مستخدم Reddit بشرح السبب وراء ازعاج مجموعة من الناس: “هناك الكثير من التجسيم للإنسان في المقالة بأكملها، مما يحجب العمل. على سبيل المثال، يستمر في استخدام كلمة ‘التفكير’ عندما يجب أن يقول ‘حساب’. نحن نتحدث عن برنامج الكمبيوتر، وليس عقل بيولوجي”.
بينما تساعد الألفاظ “المُبشَرة” الأشخاص غير الفنيين على فهم نماذج الذكاء الصناعي بشكل أفضل وتثير النقاش في المجتمع، الحقيقة هي أنه، سواء قلنا “حساب” أو “تفكير”، يظل التحدي نفسه قائمًا: ليس لدينا فهم كامل أو شفافية تامة حول كيفية عمل LLMs.
ما الذي يمكن توقعه من نماذج الذكاء الصناعي المتقدمة في المستقبل القريب
هل يمكنك تصور تجاهل وجود تقنيات الذكاء الصناعي المتقدمة مثل ChatGPT، DeepSeek, Perplexity, أو Claude – الآن أو في المستقبل القريب؟ تشير كل الدلائل إلى أنه لا يوجد مجال للرجوع. لقد غير الذكاء الصناعي التوليد والاستدلال حياتنا اليومية بالفعل، وسيستمر فقط في التطور.
تقريبًا كل يوم في WizCase، نقوم بتقديم تقرير عن تطور جديد في الصناعة – نموذج ذكاء اصطناعي جديد، أداة ذكاء اصطناعي جديدة، شركة ذكاء اصطناعي جديدة – التي لديها القدرة على إحداث تأثير كبير في مجتمعنا. الفكرة التي تتعلق بأخذ استراحة أولاً للحصول على فهم أفضل لهذه النماذج المتقدمة وكيفية عملها – أو حتى البطء قليلاً – تبدو مستحيلة، بالنظر إلى الوتيرة السريعة لـسباق الذكاء الاصطناعي ومشاركة الحكومات وأقوى الشركات في العالم.
“النماذج الذكاء الاصطناعي تتسبب في زيادة التأثير على كيفية حياتنا وعملنا، يجب علينا أن نفهمها جيدًا بما يكفي لضمان أن تأثيرها إيجابي،” كما يذكر ورقة أنثروبك. حتى لو بدت هذه الفكرة غير واقعية بعض الشيء، يظل الباحثون إيجابيين: “نعتقد أن نتائجنا هنا، والمسار التقدمي الذي تم بناؤه عليه، هي دليل مثير للإعجاب أننا يمكن أن نرتقي لمواجهة هذا التحدي.”
لكن إلى أي مدى يمكن أن تتقدم هذه الاكتشافات بسرعة؟ تُشير الورقة أيضًا إلى أن النتائج تغطي مجرد بعض المجالات والحالات المحددة، وأنه من غير الممكن بناء استنتاجات أكثر عمومية. لذا، ربما ليست بالسرعة الكافية.
في حين أن الجهات التنظيمية تقدم تدابير مثل قانون الذكاء الاصطناعي الأوروبي، للمطالبة بمزيد من الشفافية، مما يثير اتهامات وشكاوى من الشركات التكنولوجية الكبرى بالتسبب في إبطاء التقدم، تستمر النماذج القوية للذكاء الاصطناعي في التقدم.
كمجتمع، يجب أن نسعى لإيجاد توازن بين تعميق فهمنا لكيفية عمل هذه التقنيات وتبنيها بطرق تجلب فوائد وتقدم معنويين لمجتمعاتنا. هل هذا ممكن؟ الفكرة القائلة بأننا نصلّي أو نأمل فقط أن تظل هذه ال”كائنات” “أخلاقية” و”جيدة” لا تبدو بعيدة المنال في الوقت الحالي.
اترك تعليقًا
إلغاء