![تم اكتشاف خلل أمني حرج في إطار الذكاء الاصطناعي لـ Meta](https://ar.wizcase.com/wp-content/uploads/2025/01/Screenshot-2025-01-26-at-20.06.26.webp)
Image by standret, from Freepik
تم اكتشاف خلل أمني حرج في إطار الذكاء الاصطناعي لـ Meta
تم التعرف على ثغرة أمنية خطيرة، CVE-2024-50050، في إطار عمل Meta المفتوح المصدر للذكاء الصناعي التوليدي، المعروف باسم Llama Stack.
في عجلة من أمرك؟ ها هي الحقائق السريعة!
- تسمح الثغرة الأمنية، CVE-2024-50050، بتنفيذ الكود عن بُعد عبر بيانات غير موثوق بها تم تحليلها.
- قامت Meta بتصحيح الثغرة في الإصدار 0.0.41 باستخدام تنفيذ JSON لـ Pydantic أكثر أمانًا.
- حصلت الثغرة الأمنية على درجة 9.3 (حرجة) على نظام تقييم الثغرات الأمنية CVSS 4.0 بسبب قابليتها للإستغلال.
كشف فريق أوليجو للأبحاث عن الخلل الذي يمكن أن يسمح للمهاجمين بتنفيذ رمز خبيث عن بُعد على الخوادم التي تستخدم هذا الإطار. يعد هذا الخطر، الذي ناتج عن التعامل غير الآمن مع البيانات المتسلسلة، من الأمور التي تبرز التحديات المستمرة لتأمين أدوات تطوير الذكاء الصناعي.
تم تقديم “Llama Stack” بواسطة Meta في يوليو 2024، وهو يدعم تطوير وتنفيذ التطبيقات الذكاء الاصطناعي المبنية على نماذج Meta الخاصة بـ Llama. يشرح فريق البحث أن العيب يكمن في الخادم الافتراضي الخاص به، الذي يستخدم مكتبة pyzmq الخاصة بـ Python للتعامل مع البيانات.
هناك طريقة معينة، recv_pyobj، تعالج البيانات تلقائياً بواسطة مُعالجة Python غير آمنة وهي الـ pickle. هذا يجعل من الممكن للمهاجمين إرسال بيانات ضارة تعمل على تشغيل شفرات غير مصرح بها. يقول الباحثون أنه عند التعرض عبر شبكة، تصبح الخوادم التي تعمل بالتكوين الافتراضي عرضة لتنفيذ الشفرة عن بُعد (RCE).
قد تؤدي مثل هذه الهجمات إلى سرقة الموارد، أو انتهاكات للبيانات، أو السيطرة غير المصرح بها على أنظمة الذكاء الاصطناعي. تم تعيين الضعف بدرجة حرجة على مقياس CVSS بنتيجة 9.3 (من أصل 10) من قبل شركة الأمن Snyk، على الرغم من أن Meta قدرتها بدرجة متوسطة بالقيمة 6.3، كما أفادت Oligo.
كشف باحثو Oligo عن الخلل خلال تحليلهم لأطر الذكاء الاصطناعي مفتوحة المصدر. على الرغم من الارتفاع السريع في شعبية Llama Stack – حيث انتقل من 200 نجمة على GitHub إلى أكثر من 6,000 خلال بضعة أشهر – أشار الفريق إلى الاستخدام المحفوف بالمخاطر لـ pickle للتحليل التفريعي، وهو سبب شائع لثغرات RCE.
للاستفادة من الخلل، يمكن للمهاجمين مسح البورتات المفتوحة، وإرسال أشياء ضارة إلى الخادم، وتشغيل التنفيذ البرمجي أثناء عملية التحليل. أثبتت التنفيذ الافتراضي لـ Meta لخادم استدلال Llama Stack أنه عرضة بشكل خاص.
تواجه Meta المشكلة بسرعة بعد الكشف عنها من قبل Oligo في سبتمبر 2024. بحلول أكتوبر، تم إصدار تصحيح، حيث تم استبدال التحليل القائم على pickle غير الآمن بتنفيذ JSON أكثر أمانًا يتم التحقق منه بنوع باستخدام مكتبة Pydantic. يتم حث المستخدمين على الترقية إلى الإصدار 0.0.41 أو أعلى من Llama Stack لتأمين أنظمتهم.
أجرى مشرفو pyzmq، المكتبة المستخدمة في Llama Stack، تحديثًا أيضًا لتوثيقاتهم لتحذير المستخدمين من استخدام recv_pyobj مع البيانات غير الموثوقة.
يسلط هذا الحادث الضوء على المخاطر المرتبطة باستخدام طرق التسلسل غير الآمنة في البرمجيات. يُشجع المطورون على الاعتماد على البدائل الأكثر أمانًا وتحديث المكتبات بشكل منتظم للحد من الضعف. بالنسبة لأدوات الذكاء الصناعي مثل Llama Stack، تظل التدابير الأمنية القوية أمرًا حيويًا حيث تواصل هذه الأطر العمل لتشغيل تطبيقات المؤسسات الحرجة.
اترك تعليقًا
إلغاء