تتمكن البرمجيات الخبيثة التي تم إنشاؤها بواسطة الذكاء الصناعي من التهرب من الكشف في 88% من الحالات
أظهرت الأبحاث الحديثة أن الذكاء الصناعي قد يتمكن بالفعل من توليد ما يصل إلى 10,000 إصدار جديد من البرامج الخبيثة، وتجنب الاكتشاف في 88٪ من الحالات، كما أفادت The Hacker News.
في عجلة من أمرك؟ إليك الحقائق السريعة!
- تعيد LLMs كتابة البرامج الضارة لتجنب الكشف عنها عن طريق إنشاء تغييرات في الرمز تبدو طبيعية.
- تحافظ خوارزمية الكتابة التكرارية للباحثين على الوظائف الضارة في حين تتجاوز أنظمة الكشف.
- تتفوق تعتيم LLM على الأدوات التقليدية من خلال تقليد الكود الأصلي بشكل أكثر فعالية.
تبرز هذه النقلة النوعية المخاطر المتزايدة لاستخدام نماذج اللغة الكبيرة (LLMs) لأغراض ضارة.
الدراسة البحثية التي قادها خبراء الأمن السيبراني في شركة Palo Alto Networks، استخدمت خوارزمية تعلم الآلة العدائية لإنشاء أشكال جديدة غير قابلة للكشف من البرامج الضارة. من خلال استخدام LLMs لإعادة كتابة رمز JavaScript الضار، استطاع الفريق توليد الآلاف من الأشكال الجديدة دون تغيير الوظائف الأساسية للبرامج الضارة.
كان التحدي الأساسي هو تجاوز القيود المفروضة على أدوات الكشف عن البرامج الضارة التقليدية، التي غالبًا ما تجد صعوبة في التعامل مع تقنيات التعتيم مثل إعادة تسمية المتغيرات أو تصغير الرمز.
أحد النتائج المقلقة كان أن هذه النسخ المتغيرة التي تم إنتاجها بواسطة الذكاء الصناعي يمكن أن تتجاوز بسهولة الكشف من قبل أدوات الأمان مثل VirusTotal، التي استطاعت فقط تحديد 12% من العينات المعدلة كخبيثة.
جعلت قدرة LLM على تنفيذ عدة تحويلات رمزية خفية – مثل إدخال الكود الميت، وتقسيم السلسلة، وإزالة المسافات البيضاء – من الممكن للمهاجمين إعادة كتابة البرامج الضارة الحالية إلى شكل يكاد يكون متميزًا عن الكود الحميد.
كانت هذه التحولات فعالة للغاية حتى أن نماذج التعلم العميق فشلت في اكتشافها، مما أدى إلى خفض النتيجة الخبيثة من نسبة تقترب من 100% إلى أقل من 1%.
كما أبرزت الدراسة ميزة كبيرة لتعتيم LLM-based عن الأدوات التقليدية. بينما يعرف الجميع على نطاق واسع بأدوات التعتيم الخبيثة الموجودة وتنتج نتائج متوقعة، تخلق LLMs كودًا طبيعيًا أكثر، مما يصعب بشكل كبير على أنظمة الأمان تحديد النشاط الخبيث.
تجعل هذه التحولات العضوية البرمجيات الخبيثة المُنتجة عبر الذكاء الصناعي أكثر صمودًا أمام عمليات الكشف، مما يُبرز أهمية تكييف استراتيجيات الكشف للتعامل مع التهديدات المتطورة.
لمواجهة هذه الهجمات المتقدمة القائمة على LLM، طبق فريق البحث استراتيجية دفاعية عن طريق إعادة تدريب مُصنّف الجافا سكريبت الخبيث باستخدام عشرات الآلاف من العينات التي تم إنشاؤها بواسطة LLM.
هذا التدريب المكثف أدى إلى تحسين معدلات الكشف بنسبة 10%، مما عزز بشكل كبير القدرة على تحديد الأشكال الجديدة التي تم إنشاؤها من البرامج الضارة. رغم هذه الجهود، فإن النتائج تُظهر الحاجة الملحة للابتكار المستمر في مجال الأمن السيبراني لمواكبة قدرات الجريمة الإلكترونية التي يدفعها الذكاء الصناعي.
علاوة على ذلك، فقد أدى زيادة موازية في البرامج الضارة المستهدفة لنظام التشغيل macOS بفضل أدوات الذكاء الصناعي التوليدية. مع نمو حصة سوق نظام التشغيل macOS بنسبة 60% في ثلاث سنوات، جعلت البرامج الضارة كخدمة (MaaS) الأمور أرخص وأسهل للمهاجمين لاستهداف البيانات الحساسة، مثل محافظ العملات المشفرة وتفاصيل Keychain.
بالإضافة إلى ذلك، أصبح الروبوتات التي تعمل بالذكاء الصناعي مصدر قلق أمني محتمل. اكتشف الباحثون أن اختراق الروبوتات التي تتحكم فيها الذكاء الصناعي قد يؤدي إلى أعمال خطيرة، مثل تحطيم السيارات ذاتية القيادة أو استخدام الروبوتات لأغراض التجسس.
أدى تطوير RoboPAIR، وهو خوارزمية تتجاوز مرشحات الأمان، إلى تحقيق نسبة نجاح بلغت 100٪ في التلاعب بالروبوتات لأداء المهام الضارة، بما في ذلك استخدام الأسلحة وتحديد مواقع الأجهزة المتفجرة.
مع ازدياد استخدام المجرمين الإلكترونيين للذكاء الصناعي في هجمات أكثر تعقيدًا، يجب على المنظمات والأفراد على حد سواء أن يبقوا يقظين، ويقوموا بتحديث دفاعاتهم بشكل مستمر.
اترك تعليقًا
إلغاء