تثير التحيز في الذكاء الاصطناعي المستخدم للكشف عن الغش في الرفاه الاجتماعي في المملكة المتحدة قلقًا حول العدالة
تم الكشف عن أن نظام الذكاء الاصطناعي الذي يستخدمه الحكومة البريطانية للكشف عن الاحتيال في الرعاية الاجتماعية يظهر تحيزًا على أساس العمر، والإعاقة، والحالة الاجتماعية، والجنسية، وفقاً للتقييمات الداخلية، كما أفادت صحيفة الجارديان اليوم.
في عجلة من أمرك؟ هنا الحقائق السريعة!
- تظهر الذكاء الاصطناعي المستخدم في الكشف عن تزوير الرعاية الاجتماعية في المملكة المتحدة تحيزًا ضد مجموعات سكانية معينة، بما في ذلك الأشخاص ذوي الإعاقة.
- كشفت التحليلات الداخلية عن “اختلافات ذات دلالة إحصائية” في كيفية تمييز الطلبات المشبوهة بالتزوير.
- تدعي وزارة العمل والمعاشات أن الموظفين البشريين لا يزالون هم من يتخذون القرارات النهائية على الرغم من استخدامهم لأداة الذكاء الاصطناعي.
أشارت صحيفة The Guardian إلى أن النظام الذي يُستخدم لتقييم المطالبات بالمعونة العامة في جميع أنحاء إنجلترا، يُبرز بشكل غير متناسب بعض المجموعات للتحقيق، مما يثير مخاوف من التمييز المنهجي.
تم الكشف عن التحيز، الذي وصف بأنه “تباين كبير في النتائج إحصائياً”، في تحليل العدالة الذي أجراه وزارة العمل والمعاشات (DWP) في فبراير.
وجد التحليل أن برنامج التعلم الآلي اختار الأشخاص من بعض المجموعات السكانية بشكل أكثر تكرارًا من الآخرين عند تحديد من يجب التحقيق معهم بشأن الاحتيال المحتمل، وفقًا لتقارير The Guardian.
تتعارض هذه الإفصاحات مع الادعاءات السابقة لوزارة العمل والتأمينات الاجتماعية التي زعمت أن نظام الذكاء الاصطناعي لا يشكل أي مخاطر فورية للتمييز أو المعاملة غير العادلة.
دافعت الوزارة عن النظام، مشددة على أن القرارات النهائية يتم اتخاذها بواسطة الموظفين البشريين، وتقول إن الأداة هي “معقولة ومتناسبة” بالنظر إلى التكلفة السنوية المقدرة بـ 8 مليارات جنيه استرليني للغش والأخطاء في نظام الإعانات، كما أفادت صحيفة الغارديان.
ولكن، لم تتطرق التحليلات للتحيزات المحتملة المتعلقة بالعرق، الجنس، الدين، التوجه الجنسي، أو الحمل، مما ترك فجوات كبيرة في فهم عدالة النظام.
ينتقد البعض، بما في ذلك مشروع القانون العام، الحكومة بتبني نهج “إلحاق الضرر أولاً، الإصلاح فيما بعد”، ويدعون لمزيد من الشفافية والحماية ضد استهداف الجماعات المهمشة، كما أفادت صحيفة الغارديان.
“من الواضح أنه في غالبية الحالات العظمى، لم يقم إدارة الضمان الاجتماعي بتقييم ما إذا كانت العمليات الآلية التي يستخدمونها تتسبب في استهداف المجموعات المهمشة بشكل غير عادل”، هذا ما قالته كارولين سيلمان، زميلة بحث أولى في مشروع القانون العام، كما أفادت صحيفة The Guardian.
تأتي هذه النتائج في ظل تزايد الفحص المتزايد على استخدام الذكاء الصناعي في الخدمات العامة. تشير التقارير المستقلة إلى أن هناك على الأقل 55 أداة آلية تعمل في السلطات العامة في المملكة المتحدة، تؤثر بشكل محتمل على القرارات التي تؤثر على الملايين، كما تقول صحيفة The Guardian.
ومع ذلك، يُسرد السجل الرسمي للذكاء الاصطناعي للحكومة تسعة أنظمة فقط، مما يكشف عن إهمال كبير في المحاسبة، كما تقول صحيفة The Guardian.
علاوة على ذلك، تواجه الحكومة البريطانية انتقادات بسبب عدم تسجيل استخدام الذكاء الاصطناعي في السجل الإلزامي، مما يثير القلق حول الشفافية والمحاسبة مع نمو اعتماد الذكاء الاصطناعي.
تقدمت وزارة العمل والمعاشات (DWP) بتحليلها للإنصاف بعد أن حذفت التفاصيل الحاسمة، بما في ذلك المجموعات العمرية أو الجنسيات التي تم التعليم عليها بشكل غير متناسب. وقد أكد المسؤولون أن الكشف عن مثل هذه التفاصيل يمكن أن يتيح للمحتالين التلاعب بالنظام، كما لاحظت صحيفة الغارديان.
أكد المتحدث باسم وزارة العمل والمعاشات أن الحكم البشري لا يزال مركزيا في اتخاذ القرارات، حسبما ذكرت صحيفة الغارديان. تضيف هذه التكشفات إلى المخاوف الأوسع نطاقا حول شفافية الحكومة في تطبيق الذكاء الاصطناعي، مع دعوة المنتقدين إلى إشراف أكثر صرامة وضوابط قوية لمنع الاستخدام الخاطئ.
اترك تعليقًا
إلغاء