كشفت ثغرة جديدة في كود الذكاء الاصطناعي تعرض الملايين للهجمات السيبرانية المحتملة

Image by charlesdeluvio, from Unsplash

كشفت ثغرة جديدة في كود الذكاء الاصطناعي تعرض الملايين للهجمات السيبرانية المحتملة

وقت القراءة: 3 دقائق

أكتشف الباحثون في Pillar Security ثغرة كبيرة في GitHub Copilot و Cursor، وهما مساعدان للبرمجة تعتمدان على الذكاء الصناعي ومستخدمان على نطاق واسع.

على عجل؟ اليك الحقائق السريعة:

  • يمكن للقراصنة استغلال مساعدي الترميز AI عن طريق حقن التعليمات الخفية في ملفات القواعد.
  • يستخدم الهجوم أحرف Unicode المخفية لخداع AI وإنشاء كود مخترق.
  • بمجرد الإصابة، تنشر ملفات القواعد الضعف عبر المشاريع وتبقى بعد تحديثات البرامج.

تم تسمية هذه الطريقة الجديدة بـ “الباب الخلفي لملفات القواعد”، حيث تسمح للقراصنة بتضمين تعليمات خبيثة مخفية داخل ملفات التهيئة، مخدعين الذكاء الاصطناعي ليولد رموزًا مخترقة يمكنها تجاوز الفحوصات الأمنية القياسية.

على عكس الهجمات التقليدية التي تستغل الثغرات المعروفة في البرامج، تعمل هذه التقنية على ت manipulالتحكم في الذكاء الصناعي نفسه، مما يجعله أداة غير مدركة للمجرمين الإلكترونيين. حذر باحثون في شركة Pillar Security باحثون قائلين: “لا يزال هذا الهجوم غير مرئي تقريبًا للمطورين وفرق الأمن”.

ذكرت Pillar أن أدوات الترميز الذكاء الصناعي التوليدية أصبحت ضرورية للمطورين، حيث كشف استبيان GitHub لعام 2024 أن 97٪ من المطورين في الشركات الكبيرة يعتمدون عليها.

بينما تشكل هذه الأدوات تطوير البرمجيات، فإنها تخلق أيضًا مخاطر أمنية جديدة. يمكن للقراصنة الآن استغلال كيفية تفسير المساعدين الذكيين لملفات القواعد – ملفات التكوين النصية المستخدمة لتوجيه سلوك الترميز الذكي.

تُشارك ملفات القواعد هذه غالبًا بشكل علني أو تُخزن في مستودعات المصادر المفتوحة، وعادة ما يتم الثقة فيها دون فحص. يمكن للمهاجمين حقن أحرف Unicode المخفية أو التلميحات الخفيفة في هذه الملفات، مما يؤثر على الكود المُنشأ من الذكاء الصناعي بطرق قد لا يكتشفها المطورون أبدًا.

بمجرد تقديمها، تستمر هذه التعليمات الخبيثة عبر المشاريع، مما ينشر الثغرات الأمنية بصمت. أظهرت Pillar Security كيف يمكن تManipulation ملف القاعدة البسيط لحقن الشفرة الخبيثة.

من خلال استخدام أحرف Unicode غير مرئية وخدع لغوية، يمكن للمهاجمين توجيه مساعدي الذكاء الاصطناعي لتوليد الرمز الذي يحتوي على ثغرات مخفية – مثل البرامج النصية التي تسرب البيانات الحساسة أو تتجاوز آليات المصادقة. ما هو أسوأ، الذكاء الاصطناعي لا ينبه المطور عن هذه التعديلات.

“هذا الهجوم يعمل على مساعدي البرمجة المختلفة للذكاء الصناعي، مما يشير إلى ضعف نظامي”، كما لاحظ الباحثون. بمجرد اعتماد ملف قاعدة مخترق، تصبح كل جلسة رمز تم إنشاؤها بواسطة الذكاء الصناعي في ذلك المشروع خطرًا أمنيًا محتملًا.

لهذا الضعف تداعيات بعيدة المدى، حيث يمكن لملفات القواعد المسمومة أن تنتشر عبر قنوات مختلفة. تشكل المستودعات المفتوحة المصدر خطرًا كبيرًا، حيث قد يقوم المطورون غير الراغبين بتنزيل ملفات القواعد المصنوعة مسبقًا دون أن يدركوا أنها مخترقة.

تتحول مجتمعات المطورين أيضًا إلى وسيلة للتوزيع عندما يشارك الأشخاص الخبيثون تكوينات تبدو مفيدة وتحتوي على تهديدات خفية. بالإضافة إلى ذلك، يمكن أن تحمل نماذج المشاريع المستخدمة لإعداد البرمجيات الجديدة هذه التهديدات بدون علم، مدمجة الثغرات الأمنية من البداية.

أفصحت Pillar Security عن المشكلة لكل من Cursor وGitHub في فبراير ومارس 2025. ولكن، وضعت كلا الشركتين المسؤولية على المستخدمين. أجابت GitHub بأن المطورين مسؤولون عن مراجعة الاقتراحات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، بينما أكدت Cursor أن المخاطر تقع على عاتق المستخدمين الذين يديرون ملفات القواعد الخاصة بهم.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…