
Image by Freepik
يهدد الذكاء الاصطناعي المظلي أمن المؤسسات
بينما تتطور تكنولوجيا الذكاء الاصطناعي بسرعة، تواجه المنظمات تهديد أمني ناشئ: تطبيقات الذكاء الاصطناعي الظلية. تلك التطبيقات غير المصرح بها، التي يطورها الموظفون دون الاشراف على تكنولوجيا المعلومات أو الأمن، تنتشر في الشركات وغالبا ما تمر دون الانتباه، كما أبرزته مقالة حديثة في VentureBeat.
في عجلة من أمرك؟ هنا الحقائق السريعة!
- تم إنشاء تطبيقات الذكاء الاصطناعي المظلي من قبل الموظفين بدون موافقة من قسم تكنولوجيا المعلومات أو الأمن.
- ينشئ الموظفون الذكاء الاصطناعي المظلي لزيادة الإنتاجية، غالبًا بدون نية ضارة.
- يمكن أن تكشف النماذج العامة عن البيانات الحساسة، مما يخلق مخاطر امتثال للمنظمات.
تشرح VentureBeat أنه بينما لا تكون العديد من هذه التطبيقات ضارة بشكل مقصود، إلا أنها تشكل مخاطر كبيرة للشبكات الشركات، تتراوح بين انتهاكات البيانات إلى انتهاكات الالتزام.
تتم بناء تطبيقات الذكاء الاصطناعي الظل غالبًا من قبل الموظفين الذين يسعون لتبسيط العمليات أو تلقائية المهام الروتينية، باستخدام نماذج الذكاء الاصطناعي المدربة على بيانات الشركة الخاصة.
هذه التطبيقات، التي تعتمد بشكل متكرر على أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT الخاص بـ OpenAI أو Gemini من Google، تفتقر إلى الضمانات الأساسية، مما يجعلها عرضة بشدة للتهديدات الأمنية.
وفقًا لإيتامار جولان، الرئيس التنفيذي لشركة Prompt Security، “حوالي 40٪ من هذه الأنظمة تقوم بالتدريب على أي بيانات تقدمها لها، مما يعني أن الملكية الفكرية الخاصة بك قد تصبح جزءًا من نماذجها”، وفقًا لما ذكرته VentureBeat.
إن الجاذبية الكبيرة للذكاء الاصطناعي الخفي واضحة. العاملون، الذين يتعرضون لضغوط متزايدة للوفاء بالمواعيد النهائية الضيقة والتعامل مع الأعباء العملية المعقدة، يلجأون إلى هذه الأدوات لزيادة الإنتاجية.
تلاحظ Vineet Arora، المدير التقني في WinWire، لـ VentureBeats، “تعتمد الأقسام على حلول الذكاء الصناعي غير المصرح بها لأن الفوائد الفورية جذابة جدًا للتجاهل.” ومع ذلك، فإن المخاطر التي تتسبب بها هذه الأدوات عميقة.
يقارن Golan الذكاء الصناعي المظلي بالمنشطات في الرياضة، قائلاً، “إنه مثل المنشطات في سباق Tour de France. الناس يريدون الحصول على ميزة دون أن يدركوا العواقب الطويلة الأجل”، كما أفادت VentureBeats.
على الرغم من مزاياها، تعرض تطبيقات الذكاء الاصطناعي الظلية المنظمات لمجموعة من الثغرات، بما في ذلك تسريبات البيانات العرضية وهجمات الحقن السريعة التي لا يمكن للتدابير الأمنية التقليدية اكتشافها.
مقياس المشكلة مدهش. يكشف غولان لـ VentureBeats أن شركته تضيف 50 تطبيقًا جديدًا للذكاء الاصطناعي يوميًا، مع وجود أكثر من 12000 تطبيق قيد الاستخدام حاليًا. “لا يمكنك إيقاف تسونامي، لكن يمكنك بناء قارب”، ينصح غولان، مشيرًا إلى حقيقة أن العديد من المنظمات تتفاجأ بنطاق استخدام الذكاء الاصطناعي الظلي داخل شبكاتها.
اكتشفت شركة مالية، على سبيل المثال، 65 أداة AI غير مصرح بها خلال فحص دام 10 أيام، وهو عدد أكبر بكثير من الأدوات العشرة أو أقل التي كان يتوقعها فريق الأمن الخاص بهم، كما ذكرت VentureBeats.
تكمن خطورة الذكاء الاصطناعي المظلل بشكل خاص للقطاعات المنظمة. بمجرد إدخال البيانات الحصرية في نموذج AI عام، يصبح من الصعب التحكم فيه، مما يؤدي إلى مشكلات محتملة في الالتزام.
تحذر غولان قائلة: “قد يتجاوز القانون القادم للذكاء الاصطناعي في الاتحاد الأوروبي حتى الغرامات المنصوص عليها في اللائحة العامة لحماية البيانات،” في حين يشدد أروا على خطر تسرب البيانات والعقوبات التي قد تواجه المنظمات عند فشلها في حماية المعلومات الحساسة، كما أفادت VentureBeats.
لمعالجة المشكلة المتزايدة للذكاء الاصطناعي الخفي، يوصي الخبراء باتباع نهج متعدد الجوانب. يقترح أروا أن تقوم المنظمات بإنشاء هياكل حكومية مركزية للذكاء الاصطناعي، وإجراء تدقيقات منتظمة، ونشر ضوابط أمنية مدركة للذكاء الاصطناعي قادرة على اكتشاف الاستغلالات التي يقودها الذكاء الاصطناعي.
بالإضافة إلى ذلك، يجب على الشركات تقديم أدوات الذكاء الصناعي المعتمدة مسبقًا للموظفين وسياسات استخدام واضحة للحد من الإغراء لاستخدام حلول غير معتمدة.
اترك تعليقًا
إلغاء