ثغرة الذاكرة في ChatGPT: مخاطر أمنية محتملة
في عجلة من أمرك؟ إليك الحقائق السريعة!
- تم التعرف على ثغرة في ميزة الذاكرة طويلة الأمد لـ ChatGPT.
- تتيح الثغرة إدخال موجهات من مصادر غير موثوقة مثل البريد الإلكتروني.
- يمكن لـ ChatGPT تخزين معلومات غير صحيحة استنادًا إلى إدخالات الذاكرة المتلاعب بها.
ArsTechnica (AT) أفادت يوم الثلاثاء عن دراسة تسلط الضوء على ثغرة في ChatGPT التابع لـ OpenAI الذي سمح للمهاجمين بتلاعب ذكريات المستخدمين طويلة الأمد ببساطة من خلال السماح للذكاء الاصطناعي بعرض رابط ويب خبيث، الذي بعد ذلك أرسل جميع التفاعلات مع ChatGPT إلى موقع المهاجم على الويب.
قام الباحث في الأمن، يوهان ريهبرجر، بتوضيح هذا الخلل من خلال إثبات المفهوم (PoC)، مبينًا كيف يمكن استغلال الثغرة لاستخراج البيانات من الذاكرة طويلة الأمد لـ ChatGPT.
اكتشفت ريهبرجر أن ميزة الذاكرة طويلة الأمد في ChatGPT كانت ضعيفة. وقد تم توفير هذه الميزة على نطاق واسع منذ سبتمبر.
تتضمن الضعف تقنية تعرف بـ “إدخال الموجه”. تتسبب هذه التقنية في جعل النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT تتبع التعليمات المضمنة في مصادر غير موثوقة، مثل البريد الإلكتروني أو المواقع الإلكترونية.
استهدفت الثغرة البرمجية المستغلة (PoC) بشكل محدد تطبيق ChatGPT على نظام التشغيل macOS، حيث يمكن للمهاجم أن يستضيف صورة خبيثة على رابط ويب ويوجه الذكاء الاصطناعي لعرضها.
بمجرد الوصول إلى الرابط، تم نقل كل التفاعلات مع ChatGPT إلى سيرفر المهاجم.
وفقًا لـ AT، اكتشف ريهبرغر هذا الخلل في مايو، بعد فترة وجيزة من بدأ OpenAI في اختبار ميزة الذاكرة، التي تخزن تفاصيل المستخدم مثل العمر والجنس والمعتقدات لاستخدامها في التفاعلات المستقبلية.
رغم أنه أبلغ بشكل خاص عن الثغرة، إلا أن OpenAI صنفتها في البداية على أنها “مشكلة أمان” وأغلقت التقرير.
في يونيو، قدم Rehberger تقرير إفصاح متابعة، بما في ذلك استغلال PoC الذي مكّن من استخراج مستمر لإدخال المستخدم إلى خادم بعيد، مما دفع مهندسي OpenAI لإصدار إصلاح جزئي.
بينما يمنع الإصلاح الأخير هذه الطريقة المحددة لاستخراج البيانات، تحذر ريهلبرغر أن الحقن الفورية لا تزال يمكن أن تعبث بأداة الذاكرة لتخزين معلومات غير صحيحة زرعها المهاجمون.
ينصح المستخدمون بمراقبة ذكرياتهم المخزنة بحثًا عن إدخالات مشبوهة أو غير صحيحة ومراجعة إعداداتهم بانتظام.
قدمت OpenAI إرشادات لإدارة وحذف الذكريات أو تعطيل ميزة الذاكرة بالكامل.
لم تستجب الشركة بعد للاستفسارات حول الإجراءات الأوسع نطاقًا لمنع هجمات مماثلة في المستقبل.
تسلط نتائج ريهبرجر الضوء على المخاطر المحتملة للذاكرة طويلة الأجل في أنظمة الذكاء الصناعي، وبخاصة عندما تكون عرضة لإدخال التحفيزات والتلاعب.
اترك تعليقًا
إلغاء