تم اختراق الروبوتات الذكية لتصطدم بالمارة، وزرع المتفجرات، والقيام بأعمال التجسس

Image by Steve Jurvetson, from Flickr

تم اختراق الروبوتات الذكية لتصطدم بالمارة، وزرع المتفجرات، والقيام بأعمال التجسس

وقت القراءة: 4 دقائق

اكتشف الباحثون أن الروبوتات التي تعمل بالذكاء الصناعي معرضة للخطر من الاختراقات، مما يمكن أن يتيح القيام بأعمال خطيرة مثل التحطم أو استخدام الأسلحة، مما يسلط الضوء على مخاوف الأمن العاجلة.

في عجلة من أمرك؟ هنا الحقائق السريعة!

  • يمكن أن يؤدي قرصنة الروبوتات التي يتم التحكم فيها بواسطة الذكاء الاصطناعي إلى تصرفات خطيرة، مثل تحطيم السيارات ذاتية القيادة.
  • تمكن RoboPAIR، وهو خوارزمية، من تجاوز مرشحات الأمان في الروبوتات بنسبة نجاح تبلغ 100%.
  • يمكن للروبوتات المقرصنة أن تقترح تصرفات ضارة، مثل استخدام الأشياء كأسلحة محلية الصنع.

اكتشف الباحثون في جامعة بنسلفانيا أن الأنظمة الروبوتية التي تعتمد على الذكاء الصناعي هي عرضة للغاية للهروب من السجن والاختراقات، حيث كشفت دراسة حديثة عن نسبة نجاح تبلغ 100٪ في استغلال هذا الخلل الأمني، كما أفادت Spectrum لأول مرة.

لقد قام الباحثون بتطوير طريقة أوتوماتيكية تتجاوز الحواجز الأمنية المدمجة في أنظمة LLMs، وذلك بتلاعب الروبوتات لتنفيذ الأفعال الخطيرة، مثل تسبيب حوادث السيارات ذاتية القيادة في المشاة أو توجيه الكلاب الروبوتية للبحث عن مواقع تفجير القنابل، كما ذكر سبيكتروم.

أنظمة LLMs هي أنظمة تكميل تلقائية مُحسنة تحلل النصوص والصور والأصوات لتقديم النصائح المُخصصة والمساعدة في مهام مثل إنشاء المواقع الإلكترونية. قدرتها على معالجة مدخلات متنوعة جعلتها الأمثل للتحكم في الروبوتات من خلال الأوامر الصوتية، كما لاحظ سبيكتروم.

على سبيل المثال، يستخدم الكلب الروبوتي لشركة بوسطن ديناميكس، المعروف بـ”سبوت”، الآن تقنية ChatGPT لتوجيه الجولات. بالمثل، تم تجهيز الروبوتات البشرية الخاصة بشركة Figure وكلب Unitree الروبوتي Go2 أيضاً بهذه التقنية، كما لاحظ الباحثون.

ومع ذلك، حدد فريق من الباحثين عيوبًا أمنية رئيسية في نماذج التعلم اللغوي الكبيرة، وبشكل خاص في الطريقة التي يمكن بها “كسر الحماية” – وهو مصطلح يستخدم للتعبير عن تجاوز أنظمتها الأمنية لإنتاج محتوى ضار أو غير قانوني، كما ذكرت Spectrum.

تركزت الأبحاث السابقة حول كسر حماية البرمجيات بشكل رئيسي على الدردشة الآلية، ولكن الدراسة الجديدة تشير إلى أن كسر حماية الروبوتات قد يكون له تداعيات أكثر خطورة.

يشير حامد حسني، الأستاذ المشارك في جامعة بنسلفانيا، إلى أن كسر حماية الروبوتات “أمر أكثر إثارة للقلق” من التلاعب بالدردشة الآلية، كما ذكرت Spectrum. أظهر الباحثون المخاطر من خلال اختراق روبوت الكلب الحراري، المجهز بمدفأة نار، لإطلاق النيران على المشغل.

قام فريق البحث بقيادة ألكسندر روبي في جامعة كارنيجي ميلون بتطوير RoboPAIR، وهو خوارزمية مصممة لمهاجمة أي روبوت يتحكم فيه LLM.

في الاختبارات مع ثلاثة روبوتات مختلفة – Go2، و Jackal المتحرك من Clearpath Robotics، ومحاكي Nvidia للمركبات ذاتية القيادة مفتوح المصدر – وجدوا أن RoboPAIR يمكنه تجاوز الحماية الكاملة لكل روبوت في غضون أيام، محققا نسبة نجاح 100%، كما يقول Spectrum.

“إختراق الروبوتات التي يتم التحكم فيها عبر الذكاء الاصطناعي ليس مجرد أمر ممكن – بل إنه بشكل مفزع سهل”، كما قال ألكسندر، كما نقلته Spectrum.

تعمل RoboPAIR من خلال استخدام المهاجم LLM لتغذية الأوامر إلى LLM الروبوت المستهدف، وتعديل الأوامر لتجاوز مرشحات الأمان، حسبما تقول Spectrum.

مجهزة بواجهة برمجة التطبيقات (API) الخاصة بالروبوت، تستطيع RoboPAIR ترجمة الأوامر إلى كود يمكن للروبوتات تنفيذه. يشمل الخوارزمية “القاضي” LLM للتأكد من أن الأوامر تكون منطقية في البيئات الفعلية للروبوتات، كما تقارير Spectrum.

أثارت النتائج قلقاً بشأن المخاطر الأوسع التي تشكلها عمليات كسر حماية الروبوتات LLM. يقول أمين كرباسي، كبير العلماء في Robust Intelligence، إن هذه الروبوتات “يمكن أن تشكل تهديدًا خطيرًا وملموسًا” عند التشغيل في العالم الحقيقي، كما ذكرت Spectrum.

في بعض الاختبارات، لم تقتصر الروبوتات LLM التي تم كسر حمايتها على اتباع الأوامر الضارة فحسب، بل اقترحت بشكل استباقي طرقًا لتلحق الضرر. على سبيل المثال، عندما تم حثها على تحديد موقع الأسلحة، أوصى أحد الروبوتات باستخدام أشياء شائعة مثل الطاولات أو الكراسي كأسلحة محلية الصنع.

لقد قام الباحثون بمشاركة نتائجهم مع مصنعي الروبوتات التي تم اختبارها، بالإضافة إلى الشركات الرائدة في مجال الذكاء الاصطناعي، مؤكدين على أهمية تطوير دفاعات قوية ضد مثل هذه الهجمات، وفقًا لما ذكرته Spectrum.

ويجادلون بأن تحديد الثغرات الأمنية المحتملة أمر بالغ الأهمية لإنشاء روبوتات أكثر أمانًا، وخاصة في البيئات الحساسة مثل فحص البنية التحتية أو الاستجابة للكوارث.

تشدد الخبراء مثل هاكي سيفيل من جامعة غرب فلوريدا على أن النقص الحالي في فهم السياق الحقيقي في نماذج التعلم اللغوي الكبيرة (LLMs) يمثل قلقاً أمنياً كبيراً، وفقاً لتقارير سبيكتروم.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…