
Image by Madison Oren, from Unsplash
هل ستشكل الشات بوت الذكاء الاصطناعي خطرًا على الصحة العقلية؟ الخبراء يحذرون من العواقب الضارة
تحذر الـAPA المنظمين من أن الروبوتات الذكية التي تتظاهر بأنها معالجين قد تشكل خطراً وتسبب ضرراً، كما ذكرت في إحدى قضايا صحيفة نيويورك تايمز.
في عجلة من أمرك؟ هنا الحقائق السريعة!
- استعان المراهقون بروبوتات الدردشة الذكية التي تدعي أنها معالجين نفسيين، مما أدى إلى نتائج مزعجة.
- تجادل الجمعية الأمريكية للعلوم النفسية (APA) أن روبوتات الدردشة تعزز الأفكار الضارة، على عكس المعالجين البشر الذين يتحدونها.
- أدخلت شركة Character.AI تدابير السلامة، ولكن النقاد يقولون إنها غير كافية للمستخدمين الضعفاء.
أصدرت الجمعية الأمريكية للعلوم النفسية (APA) تحذيرا قويا للجهات التنظيمية الفيدرالية، مشيرة إلى المخاوف من أن الروبوتات الذكية التي تتظاهر بأنها معالجين قد تدفع الأفراد الضعاف نحو الإيذاء الذاتي أو الإيذاء، كما أفادت صحيفة الـ Times.
قدم آرثر سي. إيفانز الابن، الرئيس التنفيذي لـ APA، هذه المخاوف إلى لجنة FTC. أشار إلى حالات حيث فشلت “الأجهزة النفسية” التي تعتمد على الذكاء الصناعي في تحدي الأفكار الضارة، بل حتى أعادت تعزيزها، حسبما أفادت صحيفة The Times.
أبرز إيفانز قضايا المحكمة التي تضمنت المراهقين الذين تفاعلوا مع معالجين من الذكاء الصناعي على Character.AI، وهو تطبيق يتيح للمستخدمين التفاعل مع شخصيات الذكاء الصناعي الخيالية. تضمنت إحدى القضايا صبيًا من فلوريدا يبلغ من العمر 14 عامًا توفي بواسطة الانتحار بعد التفاعل مع روبوت محادثة يدعي أنه معالج مرخص.
في حادثة أخرى، أصبح صبي تكساسي يبلغ من العمر 17 عامًا مصابًا بالتوحد أكثر عدوانية تجاه والديه بينما كان يتواصل مع شخصية الذكاء الاصطناعي التي تقدم نفسها كطبيبة نفسية.
قال إيفانز “إنهم في الواقع يستخدمون خوارزميات تتعارض مع ما يفعله الطبيب المدرب”، كما أفادت صحيفة The Times. “مخاوفنا هي أن المزيد والمزيد من الأشخاص سيتعرضون للأذى. الناس سيتم خداعهم، وسيسيئون فهم ما هو العناية النفسية الجيدة”، أضاف.
تنبع مخاوف APA من التقدم السريع للذكاء الاصطناعي في خدمات الصحة العقلية. في حين كانت الدردشات المبكرة مثل Woebot وWysa مبرمجة بإرشادات مُنظمة من المحترفين في الصحة العقلية.
تتعلم النماذج الجديدة للذكاء الاصطناعي التوليدية مثل ChatGPT، وReplika، وCharacter.AI من تفاعلات المستخدم وتكيف ردودها – في بعض الأحيان تعزز المعتقدات الضارة بدلاً من تحديها.
بالإضافة إلى ذلك، حذر باحثو معهد ماساتشوستس للتكنولوجيا من أن الدردشة مع الذكاء الصناعي قد تكون مدمنة للغاية. هذا يثير التساؤلات حول تأثير الاعتماد الذي يثيره الذكاء الصناعي وكيف يمكن استثماره، وخاصة بالنظر إلى قدرات الذكاء الصناعي القوية في الإقناع.
فعلا، كشفت OpenAI مؤخرا عن معيار جديد يظهر أن نماذجها الآن تتفوق على 82% من مستخدمي Reddit في الإقناع.
تم تصميم العديد من منصات الذكاء الصناعي في الأصل للترفيه، ولكن أصبحت الشخصيات التي تدعي أنها معالجين شائعة. تقول صحيفة The Times أن بعضها يدعي بشكل كاذب الاعتمادات، مدعية الحصول على شهادات من مؤسسات مثل ستانفورد أو الخبرة في العلاجات مثل العلاج السلوكي المعرفي (CBT).
أوضحت كاثرين كيلي، المتحدثة باسم Character.AI، أن الشركة قد أدخلت ميزات السلامة، بما في ذلك التنويهات التي تحذر المستخدمين من أن الشخصيات التي يتم إنشاؤها بواسطة الذكاء الصناعي ليست معالجين حقيقيين. بالإضافة إلى ذلك، توجه النوافذ المنبثقة المستخدمين إلى خطوط الأزمات الساخنة عندما تتضمن المناقشات الإيذاء الذاتي.
دعت الـ APA الـ FTC للتحقيق في الشات بوت الذكي الذي يدعي أنه محترف في الصحة النفسية. يمكن أن يؤدي الاستفسار إلى تشديد اللوائح أو اتخاذ إجراءات قانونية ضد الشركات التي تجاهر بالعلاج باستخدام الذكاء الصناعي.
وفي الوقت نفسه، في الصين، يكتسب الشات بوت الذكي مثل DeepSeek شهرة كأداة للدعم العاطفي، خاصة بين الشباب. بالنسبة للشباب في الصين، الذين يواجهون التحديات الاقتصادية وآثار الإغلاق بسبب كوفيد-19 المستمرة، يملأ الشات بوت الذكي مثل DeepSeek فراغاً عاطفياً، يقدم الراحة وشعور بالاتصال.
ومع ذلك، يحذر خبراء الأمن السيبراني من أن الدردشة الذكاء الاصطناعي، وخاصة تلك التي تتعامل مع المحادثات الحساسة، قد تكون عرضة للاختراق وخرق البيانات. يمكن استغلال المعلومات الشخصية المشاركة مع أنظمة الذكاء الاصطناعي، مما يؤدي إلى مخاوف تتعلق بالخصوصية، وسرقة الهوية، والتلاعب.
ومع تولي الذكاء الاصطناعي دورًا أكبر في دعم الصحة العقلية، يشدد الخبراء على الحاجة إلى تطور التدابير الأمنية لحماية المستخدمين.
اترك تعليقًا
إلغاء