أصدرت اللجنة الاقتصادية للأمم المتحدة لأوروبا (UNECE) إعلانًا حول المنتجات المدمجة بالذكاء الصناعي
في عجلة من أمرك؟ ها هي الحقائق السريعة!
- تعزز الإعلان التعاون العالمي التنظيمي لتكنولوجيا الذكاء الصناعي.
- تتطلب المنتجات ذات الذكاء الصناعي العالي الخطر الرقابة الصارمة، في حين تحتاج المنتجات ذات الخطر المنخفض إلى الإشراف الأدنى.
- يجب أن تتكيف الرقابة على السوق مع الطبيعة المتطورة لتكنولوجيا الذكاء الصناعي.
أعلنت لجنة الأمم المتحدة الاقتصادية لأوروبا (UNECE) اليوم عن إعلان يتعلق بالتحديات التنظيمية التي تطرحها الذكاء الصناعي والتقنيات الرقمية المدمجة في المنتجات والخدمات اليومية. تهدف هذه المبادرة إلى تعزيز التناسق التنظيمي العالمي في ظل تعقيدات التقنيات الناشئة.
بناءً على الاتفاقيات التنظيمية المشتركة الشاملة (CRA)، يشجع الإعلان على التعاون التنظيمي الطوعي بين الحكومات، مع الحفاظ على التجارة العالمية والتقدم التكنولوجي.
تسلط الإعلان الضوء على انتشار المنتجات التي تستخدم الذكاء الصناعي المدمج والتكنولوجيا الرقمية، لكنه يشير إلى عدم وجود تعريفات وقوانين ثابتة.
على الرغم من أن هيئة الإذاعة والتلفزيون تؤكد أنها لا تشمل السيارات ذاتية القيادة أو الأسلحة، إلا أن إرشاداتها لا تزال ذات صلة بتلك القطاعات.
تُشدد الإعلانية على أهمية إدارة المخاطر المرتبطة بالمنتجات التي تتضمن الذكاء الصناعي المدمج أو التقنيات الرقمية الأخرى. وفقًا للإعلانية، فإن القضاء التام على جميع المخاطر أمر غير واقعي؛ بدلاً من ذلك، يجب أن تهدف اللوائح إلى إدارة المخاطر ضمن حدود مقبولة.
سوف تتطلب المنتجات عالية المخاطر، وخاصة تلك التي تؤثر على الصحة أو السلامة أو الخصوصية، الرقابة الصارمة. أما المنتجات المتوسطة المخاطر، التي قد تثير مخاوف بشأن سلامة المستخدمين ولكن لا تتضمن البيانات الشخصية، فستحتاج إلى مراقبة معتدلة. بالمقابل، ستتطلب المنتجات ذات المخاطر المنخفضة التي لا تستخدم البيانات الشخصية أو تؤثر مباشرة على المستخدمين إشرافًا أدنى.
فيما يتعلق بأنظمة الذكاء الصناعي عالية المخاطر، تدعو الإعلان إلى إدراج القرارات البشرية حيثما يكون ذلك ممكنا. على سبيل المثال، يجب أن تشمل الأجهزة الطبية التي تستخدم الذكاء الصناعي للتشخيص الاستعراض البشري للتخفيف من المخاطر المحتملة للمرضى، بينما يجب أن تسمح الآلات الصناعية التي تعمل بالذكاء الصناعي بالإشراف البشري في أماكن العمل.
تعترف الإعلان بطبيعة تكنولوجيا الذكاء الصناعي الغير متوقعة، وتشدد على ضرورة الاختبارات الدقيقة مع الاعتراف بوجود مخاطر غير معروفة تستمر. ويشجع المنظمون والموزعون على الكشف عن هذه المخاطر المتبقية وضمان أن تظل قابلة للإدارة.
لمنع الأذى، يجب أن تتناول الأنظمة الذكية المدمجة التحيزات في صنع القرار، معكسة تحيزات الإنسان والآلة معًا.
وتتضمن الإعلانات أيضًا أن هذه الأنظمة يجب أن تحترم الاستقلالية البشرية، والرفاه العقلي، والقيم المجتمعية، بما في ذلك حقوق الأطفال، وأن تعمل بكفاءة في الاقتصادات النامية بدون خلق حواجز تجارية.
تعتبر الميزات الأمنية أمرًا حاسمًا لتكنولوجيا الذكاء الصناعي لمنع الاستخدام الخاطئ. التقييمات التنظيمية للمطابقة ضرورية لمنتجات الذكاء الصناعي، حيث قد يتطلب العناصر ذات المخاطر المنخفضة فقط إعلان البائع بنفسه، بينما يجب أن تخضع المنتجات عالية المخاطر لتقييمات الجهات الخارجية للتحقق من الامتثال للمعايير الدولية.
وبالإضافة إلى ذلك، تجادل الإعلان أنه يجب أن تتطور الرقابة على السوق لمواكبة الطبيعة الديناميكية للذكاء الصناعي. التحقق المستمر من الامتثال ضروري، خاصة عندما يتلقى المنتجات تحديثات.
يجب أن تؤكد الفحوصات المستقلة أن المنتجات تحافظ على المعايير الأولية وأنها آمنة للاستخدام. يجب استرجاع المنتجات غير المتوافقة، وخاصة تلك التي تشكل مخاطر كبيرة، مع إصدار تنبيهات دولية للقضايا الخطيرة.
اترك تعليقًا
إلغاء