
Image by Freepik
قد تسمح الثغرات في حظر الاتحاد الأوروبي على الذكاء الصناعي للشرطة بإستخدام التكنولوجيا المثيرة للجدل
تهدف قانون الذكاء الصناعي الجديد في الاتحاد الأوروبي إلى تنظيم الذكاء الصناعي ولكنه يواجه انتقادات بسبب الثغرات والاستثناءات والتأثير الشركات.
في عجلة من أمرك؟ إليك الحقائق السريعة!
- تقول الناقدات إن القانون يحتوي على ثغرات، خاصة بالنسبة لأجهزة إنفاذ القانون وسلطات الهجرة.
- تسمح الاستثناءات بممارسات الذكاء الصناعي مثل التعرف على الوجه في الوقت الفعلي والكشف عن العواطف في بعض الحالات.
- تحذر مجموعات حقوق الرقمية أن استثناءات القانون تضعف الحماية ضد الاستخدام السيء.
يمثل قانون الذكاء الصناعي الجديد للاتحاد الأوروبي خطوة هامة في تنظيم الذكاء الصناعي. يحظر التشريع الأول من نوعه في العالم بعض الاستخدامات “غير المقبولة” لتكنولوجيا الذكاء الصناعي، بهدف حماية المواطنين والحفاظ على القيم الديمقراطية.
من بين التحظيرات التي تم تطبيقها توجد الشرطة التنبؤية، والتقاط الصور الوجهية من الإنترنت للتعرف عليها، واستخدام الذكاء الاصطناعي للكشف عن المشاعر من البيانات البيومترية. ومع ذلك، يجادل النقاد أن القانون يحتوي على ثغرات كبيرة، خاصة عندما يتعلق الأمر بالشرطة وسلطات الهجرة.
بينما يحظر قانون الذكاء الاصطناعي بعض الاستخدامات في مبدأه، فإنه يتضمن استثناءات قد تسمح للشرطة الأوروبية وسلطات الهجرة بمواصلة استخدام الممارسات المثيرة للجدل للذكاء الاصطناعي، كما أفادت لأول مرة Politico.
على سبيل المثال، يمكن السماح بالتعرف على الوجه في الوقت الحقيقي في الأماكن العامة، على الرغم من أنه تم حظره في الغالب، في حالات استثنائية، مثل التحقيقات الجنائية الخطيرة.
بنفس الطريقة، يمنع اكتشاف العواطف في الإعدادات العامة، ولكن يمكن أن تكون هناك استثناءات لأغراض إنفاذ القانون والهجرة، مما يثير القلق حول الاستخدام المحتمل للذكاء الاصطناعي لتحديد الخداع على الحدود.
أثارت الإعفاءات الواسعة للقانون القلق بين المجموعات الحقوقية الرقمية. حذرت تحالف من 22 منظمة من أن قانون الذكاء الصناعي لا يعالج بشكل كافي القلق بشأن استخدام قوات الأمن للتكنولوجيا.
“الثغرة الأكثر وضوحا هي حقيقة أن الحظر لا ينطبق على قوات الأمن والسلطات الهجرة”، قالت كاترينا روديلي، محللة سياسات الاتحاد الأوروبي في Access Now، كما ذكرته Politico.
تحظر “قانون الذكاء الاصطناعي” في الاتحاد الأوروبي أيضًا استخدام الذكاء الاصطناعي للتحكم الاجتماعي، وهو تدبير تم تقديمه لمنع استخدام الذكاء الاصطناعي في تقويض الحريات الفردية أو الديمقراطية.
براندو بينيفاي، وهو مشرع إيطالي شارك في صياغة التشريع، أوضح أن الهدف هو تجنب استغلال تقنيات الذكاء الاصطناعي لـ “التحكم الاجتماعي” أو “ضغط حرياتنا”، كما أفادت Politico.
وفقًا لما ذكرته Politico، كانت تأثيرات الحوادث ذات الشهرة العالية مثل استخدام السلطات الضريبية الهولندية بشكل مثير للجدل للذكاء الصناعي لتحديد الاحتيال في عام 2019، والذي اتهم خطأ حوالي 26،000 شخص بالاحتيال، لها الأثر في هذا الموقف.
في هذه الحالة، استخدمت السلطات خوارزمية لرصد احتمال ارتكاب احتيال في مجال مزايا رعاية الأطفال، ولكن الخوارزمية الخاطئة أدت إلى تعرض العديد من الأشخاص للتحديد الخاطئ وتسببت في أضرار لحياة المواطنين الأبرياء.
لعبت الجدلية التي تحيط بهذا الحدث دوراً رئيسياً في تشكيل قيود القانون على التنبؤات الشرطية وغيرها من أشكال سوء استخدام الذكاء الصناعي.
في الوقت نفسه، يثير تقرير أصدرته منظمة Corporate Europe Observatory (CEO) القلق حول تأثير شركات التكنولوجيا الكبيرة على تطوير معايير الذكاء الصناعي في الاتحاد الأوروبي. يكشف التقرير أن أكثر من نصف أعضاء اللجنة الفنية المشتركة حول الذكاء الصناعي (JTC21)، المسؤولة عن وضع معايير الذكاء الصناعي، يمثلون أهداف الشركات أو الاستشارات.
تدعو شركات كبرى مثل أوراكل ومايكروسوفت وأمازون وجوجل إلى تخفيف القوانين التي تعطي الأولوية لمصالحها التجارية، بدلاً من حماية الحقوق الأساسية أو رفاهية المجتمع.
قد أثار هذا التأثير الشركاتي المخاوف من أن قد يتم تقويض قانون الاتحاد الأوروبي للذكاء الصناعي بفعل المصالح الصناعية المركزة على الربحية أكثر من الاعتبارات الأخلاقية. بالإضافة إلى ذلك، يواجه ممثلو المجتمع المدني والأوساط الأكاديمية تحديات مالية ولوجستية في المشاركة في عملية وضع المعايير.
تسلط التقرير الضوء على نقص الشفافية والمساءلة الديمقراطية داخل المنظمات المعنية بتحديد المعايير مثل CEN و CENELEC، مما يثير المخاوف بشأن العدالة والشمولية لعملية تطوير المعايير.
بينما يضع قانون الذكاء الصناعي الاتحاد الأوروبي في طليعة التنظيم العالمي للذكاء الصناعي، يشير الجدل المستمر حول الثغرات القانونية إلى أن تحقيق التوازن بين الابتكار وحماية حقوق الإنسان سيكون مهمة دقيقة في المستقبل.
اترك تعليقًا
إلغاء