تساعد الذكاء الصناعي محكمة هولندية في صياغة الأحكام الجنائية

Image by Wesley Tingey, from Unsplash

تساعد الذكاء الصناعي محكمة هولندية في صياغة الأحكام الجنائية

وقت القراءة: 2 دقائق

مؤخرًا، أجرت محكمة روتردام الجزئية تجربة مساعدة بالذكاء الصناعي لصياغة الدافع وراء الحكم في قضية جنائية.

في عجلة من أمرك؟ اليك الحقائق السريعة:

  • جربت محكمة روتردام استخدام الذكاء الصناعي كمساعد في كتابة الأحكام الجنائية.
  • ساعد الذكاء الصناعي في صياغة دوافع الحكم، ولكن القضاة هم من اتخذوا القرارات النهائية.
  • لم يتم مشاركة أي بيانات خاصة بالقضايا مع الذكاء الصناعي خلال المحاكمة.

لم يكن الذكاء الاصطناعي مشاركًا في عملية اتخاذ القرار، ولكن تم استخدامه فقط كأداة للمساعدة في إعداد القسم الذي يشرح أسباب المحكمة وراء العقوبة، كما أوضح الجهاز القضائي، دو ريختسبراك.

أبلغت المحكمة جميع الأطراف فوراً بعد المحاكمة عن تنفيذ الذكاء الصناعي في العملية، في حين أصدرت أيضاً بياناً رسمياً حول التجربة، كما أوضحتها NL Times.

استخدم الذكاء الصناعي معلومات القضية العامة لإنشاء مسودات وثائق، لكن القضاة جنباً إلى جنب مع الكاتب استعرضوا هذه المسودات قبل استكمال تبرير الحكم. لم يشارك الذكاء الصناعي في اتخاذ القرارات القانونية، أو تقييم الحقائق خلال العملية.

توضح “نيوزلاند تايمز” أن أداة الذكاء الاصطناعي سرعت من عملية صياغة النص وحسنت من هيكله وفقًا للقضاة الذين استخدموها.

أعرب الموظفون في المحكمة الذين أجروا المحاكمة عن نتائج إيجابية، ولكنهم أبقوا على تحفظاتهم حول تطبيق أنظمة الذكاء الاصطناعي العامة في الإجراءات القضائية، كما لاحظته “دي ريختسبراك”.

لوحظ أن أدوات الذكاء الاصطناعي العامة تعمل بقدرات إدخال مقيدة، مما يقلل من أدائها. بالإضافة إلى ذلك، يشكل استخدام أنظمة الذكاء الاصطناعي العامة لمشاركة تفاصيل القضايا خطرًا أخلاقيًا أو قانونيًا بسبب الكشف المحتمل عن معلومات حساسة.

للتغلب على هذه المخاوف، اقترح القضاة تنفيذ نظام ذكاء اصطناعي داخلي آمن سيعمل حصريًا ضمن العمليات القضائية لحل هذه المشكلات.

سيعمل النظام بمعلومات سرية فقط حتى يمكن إدخال معلومات قضائية أكثر تفصيلاً وأهمية. يمكن أن يكون الأسلوب الممكن هو إنشاء قاعدة بيانات آمنة لجميع الأحكام الجنائية المتاحة للجمهور من موقع السلطة القضائية. يمكن أن تساعد هذه قاعدة البيانات الذكاء الاصطناعي في توليد مسودات العقوبات بدقة أكبر، كما لاحظته de Rechtspraak.

ومع ذلك، فإن تطبيق تكنولوجيا الذكاء الاصطناعي ضمن الأنظمة القضائية يأتي مع مخاطر معينة. في الواقع، أصبحت “الهلوسات” المولدة بواسطة الذكاء الاصطناعي التي تنتج بيانات غير صحيحة أو ملفقة مشكلة قانونية في محاكم الولايات المتحدة. في مثال حديث، استخدم محامو Walmart القضايا المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي خلال دعوى قضائية مما أدى إلى عقوبات محتملة. ونتيجة لذلك، تواصل الجماعة القانونية التعبير عن شكوك متزايدة حول موثوقية نظام الذكاء الاصطناعي.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…