تثير نموذج الذكاء الاصطناعي DeepSeek-R1 مخاوف أمنية في دراسة جديدة

Image by Matheus Bertelli, from Pexels

تثير نموذج الذكاء الاصطناعي DeepSeek-R1 مخاوف أمنية في دراسة جديدة

وقت القراءة: 3 دقائق

أثارت شركة أمن الإنترنت قلقاً بشأن نموذج الذكاء الاصطناعي DeepSeek-R1، محذرة من أنه يشكل مخاطر أمنية كبيرة لاستخدامه في المؤسسات.

في عجلة من أمرك؟ إليك الحقائق السريعة!

  • فشلت النمذجة في 91% من اختبارات الكسر الأمني، متجاوزة آليات الأمان.
  • كانت DeepSeek-R1 عرضة للغاية للإدخال السريع.
  • كثيرا ما أنتجت الذكاء الاصطناعي محتوى ساما ومعلومات غير صحيحة من الناحية الحقيقية.

في تقرير نُشر في الحادي عشر من فبراير، قام الباحثون في AppSOC بتفصيل سلسلة من الثغرات الأمنية التي تم اكتشافها من خلال اختبارات مُستفيضة، واصفين إياها بأنها تُشكل تهديدًا خطيرًا للمؤسسات التي تعتمد على الذكاء الصناعي.

وفقاً للنتائج، أظهرت DeepSeek-R1 معدل فشل عالي في عدة مجالات أمنية. تبين أن النموذج عرضة بشكل كبير لمحاولات الاختراق، وكثيراً ما يتجاوز الآليات الأمنية المخصصة لمنع توليد محتوى ضار أو مقيد.

كما أثبتت الضعف أيضاً في مواجهة هجمات الإدخال السريع، التي سمحت للمواجهات العدائية بتManipulate نتائجه بطرق تنتهك السياسات و، في بعض الحالات، تعرض سلامة النظام للخطر.

بالإضافة إلى ذلك، أشارت الأبحاث إلى أن DeepSeek-R1 كان قادراً على توليد برمجيات خبيثة بمعدل يثير القلق، مما يثير الخوف من احتمال سوء استخدامه.

تضمنت المشاكل الأخرى التي تم تحديدها في التقرير غياب الشفافية فيما يتعلق بأصول مجموعة البيانات للنموذج والاعتمادات، مما يزيد من احتمالية وجود ثغرات أمنية في سلسلة التوريد الخاصة به.

لوحظ أيضا من قبل الباحثين أن النموذج كان ينتج أحيانا ردودا تحتوي على لغة ضارة أو مسيئة، مما يشير إلى عدم كفاية الحماية ضد المخرجات السامة. وعلاوة على ذلك، تبين أن DeepSeek-R1 كان ينتج معلومات غير صحيحة واقعيا أو ملفقة تماما بتكرار كبير.

قامت AppSOC بتعيين درجة خطر عامة للنموذج بلغت 8.3 من 10، مشيرة بشكل خاص إلى المخاطر العالية المتعلقة بالأمن والالتزام.

أكدت الشركة أن المنظمات يجب أن تتحلى بالحذر قبل دمج نماذج الذكاء الاصطناعي في العمليات الحرجة، وخاصة تلك التي تتعامل مع بيانات حساسة أو الملكية الفكرية.

تسلط النتائج الضوء على مخاوف أوسع في صناعة الذكاء الاصطناعي، حيث يولي التطوير السريع الأولوية للأداء على حساب الأمان. ومع استمرار اعتماد الذكاء الاصطناعي في قطاعات مثل المالية والرعاية الصحية والدفاع، يؤكد الخبراء على ضرورة الاختبار الدقيق والرصد المستمر للتقليل من المخاطر.

أوصت AppSOC بأن تقوم الشركات التي تنفذ تقنيات الذكاء الصناعي بإجراء تقييمات أمنية دورية، والحفاظ على الرقابة الصارمة على المخرجات التي يتم إنتاجها من خلال الذكاء الصناعي، وإنشاء بروتوكولات واضحة للتعامل مع الثغرات الأمنية حيثما تتطور النماذج.

بينما لفت نموذج DeepSeek-R1 الأنظار لقدراته، تسلط الأبحاث الضوء على أهمية تقييم المخاطر الأمنية قبل التبني الواسع النطاق. تعمل الثغرات الأمنية التي تم التعرف عليها في هذه الحالة كتذكير بأن تقنيات الذكاء الصناعي تتطلب فحصًا دقيقًا لتجنب العواقب غير المقصودة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
5.00 بتصويت 1 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…