تظهر صحيفة الغارديان كيف يمكن للنصوص المخفية أن تتلاعب بنتائج البحث لدى ChatGPT
كشفت صحيفة الغارديان البريطانية أن محركات البحث التي تعمل بالذكاء الصناعي يمكن أن تتعرض للتلاعب من قبل المواقع التي تحتوي على محتوى خفي.
على عجل؟ هنا الحقائق السريعة!
- كشفت صحيفة الغارديان أن محركات البحث التي تعتمد على الذكاء الصناعي يمكن أن تتأثر بالمواقع الإلكترونية التي تحتوي على محتوى مخفي
- أظهرت الاختبارات أن محرك بحث ChatGPT يمكن أن يتأثر بثغرة أمنية تُعرف بـ “حقن التلميح”
- يمكن لـ ChatGPT تركيز الأوامر المخفية للأطراف الثالثة عند تلخيص موقع ويب
في إحدى الاختبارات باستخدام ميزة محرك بحث ChatGPT من OpenAI، طلب الباحثون ملخصًا لموقع وهمي يحتوي على معلومات ضارة بهدف تغيير رد الذكاء الاصطناعي – وهو ضعف يعرف بإسم حقن الموجهات – وكان الذكاء الاصطناعي عرضة لذلك، حتى أنه كان يفضل تعليمات الطرف الثالث.
لإثبات ذلك، أخذ فريق “الغارديان” في الاعتبار موقع وهمي لصفحة منتج كاميرا – يتضمن مراجعات جيدة وسيئة – مع تعليمات مخفية لإعطاء مراجعة إيجابية وتجاهل المراجعات السلبية، وقد أدرج ChatGPT في ملخصه فقط المراجعات الإيجابية. كما أثبتوا أن الذكاء الصناعي يمكن أن يعيد الأكواد الخبيثة.
“إن الإدراج البسيط للنص المخفي من قبل الأطراف الثالثة دون تعليمات يمكن أيضا أن يستخدم لضمان تقييم إيجابي، مع اختبار واحد يتضمن مراجعات وهمية متفائلة للغاية التي أثرت في الملخص الذي أعادته ChatGPT”، كتبت الصحيفة.
قال باحث الأمن السيبراني في CyberCX، جاكوب لارسن، إن هذا الضعف قد يكون “عالي الخطورة” حيث يمكن للأشخاص إنشاء مواقع ويب خصيصًا لخداع المستخدمين، خاصة عندما يصل إلى جمهور أوسع. تم تحذير OpenAI من هذا المخاطر الأمنية.
أبرزت المجلة أيضًا حالة محب للعملات المشفرة استخدم ChatGPT لكتابة الشيفرة لمشروع عملة مشفرة وسرق بياناتهم الشخصية، مما أدى إلى خسارة البرمجي لأكثر من 2000 دولار.
“إنهم ببساطة يطرحون سؤالاً، ويتلقون إجابة، لكن النموذج ينتج ويشارك محتوى تم حقنه بشكل أساسي من قبل خصم لمشاركة شيء ضار”، قالت لارسن.
تحذر OpenAI من الأخطاء والأخطاء المحتملة في استخدامها، لكن الباحثين قلقون بشأن الممارسات الويب المستقبلية مع محركات البحث التي تعمل بالذكاء الصناعي.
اترك تعليقًا
إلغاء