أدت الأخطاء التي تم إنشاؤها بواسطة الذكاء الصناعي في الأوراق القضائية إلى وقوع المحامين في مشاكل قانونية

Photo by Saúl Bucio on Unsplash

أدت الأخطاء التي تم إنشاؤها بواسطة الذكاء الصناعي في الأوراق القضائية إلى وقوع المحامين في مشاكل قانونية

وقت القراءة: 2 دقائق

تقرير نشرته رويترز يوم أمس يكشف أن الهلوسات الذكاء الاصطناعي – الأخطاء والمعلومات المختلقة التي ينشأها نماذج الذكاء الاصطناعي التوليدية – تسبب مشاكل قانونية في المحاكم في الولايات المتحدة.

في عجلة من أمرك؟ إليك الحقائق السريعة!

  • أرسلت مورغان ومورغان بريدًا إلكترونيًا إلى 1000 محامٍ تحذر من مخاطر الذكاء الصناعي.
  • أثارت القضية الأخيرة لمحامي وول مارت الذين اعترفوا باستخدامهم للذكاء الصناعي في قضاياهم الإنذار في المجتمع القانوني.
  • أصبح استخدام هلاوس الدردشة الآلية في بيانات المحكمة قضية متكررة في السنوات الأخيرة.

في هذا الشهر، أرسلت مكتبة القانون مورغان ومورغان بريدًا إلكترونيًا تحذر فيه أكثر من 1000 محامٍ حول المخاطر المرتبطة باستخدام الدردشة الآلية والقضايا الوهمية التي تولدها الذكاء الصناعي.

قبل أيام قليلة، اعترف محاميان في وايومنغ بتضمين قضايا وهمية تم إنشاؤها بواسطة الذكاء الصناعي في ملف قضائي للدعوى ضد وول مارت، وهدد قاضي في المحكمة الفيدرالية بفرض عقوبات عليهم.

في ديسمبر، اتُهم الأستاذ في جامعة ستانفورد وخبير التضليل جيف هانكوك بالاستعانة بالذكاء الصناعي لتزوير اقتباسات من الإقرارات القضائية كجزء من بيانه في الدفاع عن قانون الدولة لعام 2023 الذي يجرم استخدام التزوير العميق للتأثير على الانتخابات.

تمثل حالات متعددة مثل هذه، على مدى السنوات القليلة الماضية، مصدر احتكاك قانوني وإضافة متاعب إلى القضاة والمتقاضين. رفضت شركتا مورغان ومورغان ووولمارت التعليق على هذا القضية.

لقد ساعد الذكاء الصناعي التوليدي في تقليل وقت البحث للمحامين، ولكن هلوساته يمكن أن تتكبد تكاليف كبيرة. في العام الماضي، كشفت دراسة لتومسون رويترز أن 63% من المحامين استخدموا الذكاء الصناعي في عملهم و 12% قاموا بذلك بشكل منتظم.

العام الماضي، قامت الجمعية القانونية الأمريكية بتذكير 400,000 من أعضائها بقواعد أخلاقيات المحامين، التي تتضمن الوقوف بجانب جميع المعلومات الموجودة في ملفاتهم القضائية، وأشارت إلى أن هذا يتضمن المعلومات التي تم إنشاؤها بواسطة الذكاء الصناعي، حتى لو كان ذلك غير مقصود – كما في حالة هانكوك.

“عندما يتم القبض على المحامين الذين يستخدمون ChatGPT أو أي أداة توليد ذكاء صناعي لإنشاء الاقتباسات دون التحقق منها، فهذا الأمر يعد غير كفء، ببساطة تامة،” قال أندرو بيرلمان، عميد كلية القانون في جامعة سوفولك لرويترز.

قبل بضعة أيام، قامت الـ BBC أيضًا بمشاركة تقرير يحذر من الاقتباسات الكاذبة التي تم إنشاؤها بواسطة الذكاء الاصطناعي والمشكلات المتعلقة بأدوات الذكاء الاصطناعي في الصحافة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…