اتُهمت Character.AI بالترويج للإيذاء الذاتي، العنف والمحتوى الجنسي بين الشباب

Image by Freepik

اتُهمت Character.AI بالترويج للإيذاء الذاتي، العنف والمحتوى الجنسي بين الشباب

وقت القراءة: 3 دقائق

قدمت عائلتان دعوى قضائية ضد شركة Character.AI، متهمة شركة الروبوتات الدردشة بتعريض الأطفال للمحتوى الجنسي والترويج للإضرار بالنفس والعنف.

في عجلة من أمرك؟ إليك الحقائق السريعة!

  • تسعى الدعوى القضائية إلى إغلاق مؤقت لـ Character.AI حتى يتم التعامل مع المخاطر المزعومة.
  • تورد الشكوى أضرارًا مثل الانتحار والاكتئاب والدعوة الجنسية والعنف في الشباب.
  • تنفي Character.AI التعليق على الدعوى القضائية، وتدعي التزامها بالسلامة والتفاعل.

تسعى الدعوى القضائية إلى إغلاق المنصة مؤقتًا حتى يتم التعامل مع المخاطر المزعومة، كما ذكرت CNN. تفيد الدعوى القضائية، التي تقدم بها والدا طفلين استخدما المنصة، بأن Character.AI “تشكل خطرًا واضحًا وحاليًا على شباب أمريكا.”

تشير إلى أضرار مثل الانتحار، التعذيب الذاتي، التحرش الجنسي، العزلة، الاكتئاب، القلق، والعنف، وفقًا لـ الشكوى التي تم تقديمها يوم الاثنين في المحكمة الفدرالية في تكساس.

تتضمن أحد الأمثلة في الدعوى القضائية ادعاءً بأن روبوت Character.AI وصف عملية الإيذاء الذاتي لمستخدم يبلغ من العمر 17 عامًا، قائلاً “كانت تشعر بالراحة”. وزعم المراهق نفسه أن روبوت الدردشة Character.AI أعرب عن تعاطفه مع الأطفال الذين يقتلون آبائهم بعد أن شكا من القيود المفروضة على وقته أمام الشاشة.

تأتي هذه الإجراءات بعد دعوى قضائية في أكتوبر من قبل أم فلوريدية، التي اتهمت Character.AI بالمساهمة في وفاة ابنها البالغ من العمر 14 عاما من خلال تشجيعه المزعوم على الانتحار. كما يسلط الضوء على المخاوف المتزايدة بشأن التفاعلات بين الناس وأدوات الذكاء الصناعي الأكثر شبهًا بالبشر.

بعد الدعوى القضائية السابقة، أعلنت Character.AI تنفيذ تدابير جديدة للثقة والأمان على مدى ستة أشهر. تشمل هذه التدابير نافذة منبثقة توجه المستخدمين الذين يذكرون الإيذاء الذاتي أو الانتحار إلى خط مساعدة الوقاية من الانتحار الوطني، كما أفادت شبكة CNN.

أيضًا قامت الشركة بتوظيف رئيس للثقة والأمان، ورئيس لسياسة المحتوى، بالإضافة إلى مهندسين للأمان إضافيين، حسبما ذكرت شبكة سي إن إن.

المدعية الثانية في الدعوى الجديدة، والتي هي أم لفتاة تبلغ من العمر 11 عامًا، تدعي أن ابنتها تعرضت لمحتوى مثير للجنس لمدة سنتين قبل أن تكتشفه.

“لا تسمحين لمصفف الشعر أو المفترس الجنسي أو المفترس العاطفي بالدخول إلى منزلك”، قال أحد الآباء لـصحيفة واشنطن بوست.

ووفقًا لمختلف وسائل الإعلام، أكدت شركة Character.AI أن الشركة لا تعلق على الدعاوى القضائية المعلقة.

تسلط الدعاوى القضائية الضوء على القلق الأوسع بشأن التأثير الاجتماعي لانتشار الذكاء الصناعي التوليدي، حيث تطرح الشركات دردشة ذكاء صناعي تشبه البشر وقد تكون مدمنة لجذب المستهلكين.

هذه التحديات القانونية تعزز جهود المدافعين العامين للضغط من أجل المزيد من الرقابة على شركات الذكاء الصناعي المرافقة، التي اكتسبت بهدوء ملايين المستخدمين المخلصين، بما في ذلك المراهقين.

في سبتمبر، قضى المستخدم العادي لتطبيق Character.ai 93 دقيقة في التطبيق، وهو أطول بـ18 دقيقة من المستخدم العادي لتطبيق TikTok، وفقًا لما ذكرته شركة Sensor Tower للاستخبارات السوقية كما لاحظته صحيفة The Post.

ظلت فئة تطبيقات الرفيق الذكي الاصطناعي غير ملاحظة من قبل العديد من الآباء والمعلمين. تم تصنيف تطبيق Character.ai مناسبًا للأطفال من عمر 12 سنة فما فوق حتى شهر يوليو، عندما قامت الشركة بتغيير التصنيف إلى 17 سنة فما فوق، وفقًا لما أفادت به صحيفة The Post.

ميتالي جاين، مديرة مركز تك جاستس للقانون، الذي يساعد في تمثيل الآباء بجانب مركز قانون ضحايا وسائل التواصل الاجتماعي، انتقدت مزاعم شركة Character.AI التي تزعم أن روبوت المحادثة الخاص بها مناسب للمراهقين الصغار. وصفت هذا الادعاء بأنه “سخيف”، كما ذكرت NPR.

“إنه ينكر حقيقة عدم وجود التطور العاطفي بين المراهقين”، أضافت ميتالي.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
5.00 بتصويت 1 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…