
Image by Freepik
قلق الذكاء الصناعي: الباحثون يختبرون إذا كان بإمكان الدردشة الآلية “الشعور” بالضغط
أجرت دراسة جديدة استكشافًا لكيفية تفاعل نماذج اللغة الكبيرة (LLMs) مثل ChatGPT مع المحتوى العاطفي وما إذا كان من الممكن التحكم في “القلق” الذي يشعرون به لتحسين تفاعلاتهم في تطبيقات الصحة النفسية.
في عجلة من أمرك؟ هنا الحقائق السريعة!
- وجدت دراسة أن “القلق” الذي يعاني منه GPT-4 يزداد مع المحتوى المزعج، ولكنه يتناقص مع ممارسة التأمل.
- استخدم الباحثون مقياس القلق الحالة-السمة (STAI) لقياس ردود فعل GPT-4 العاطفية.
- تقنيات التأمل خفضت القلق الذي يعاني منه GPT-4 بنسبة 33%، ولكنها لم تعيد الأمور إلى مستوياتها الأساسية.
نشرت أمس، تسلط الدراسة الضوء على الآثار الأخلاقية لاستخدام الذكاء الصناعي في العلاج، حيث أن الفهم العاطفي أمر بالغ الأهمية. كشف العلماء من جامعة زيورخ ومستشفى زيورخ الجامعي للطب النفسي أنه يمكن تخفيض “مستوى القلق” المرتفع لـ GPT-4 باستخدام تقنيات الاسترخاء المرتكزة على التأمل.
تُستخدم أنظمة التعلم الآلي مثل ChatGPT من OpenAI وPaLM من Google على نطاق واسع في مهام مثل الإجابة على الأسئلة وتلخيص المعلومات.
في مجال الرعاية الصحية النفسية، يجري استكشافها كـ أدوات لتقديم الدعم، بما في ذلك من خلال الرُوبوتات الذكية المبنية على الذكاء الصناعي مثل Woebot وWysa، التي تقدم التدخلات بناءً على تقنيات مثل العلاج السلوكي المعرفي.
رغم الوعود التي أطلقوها، أظهرت الآليات القانونية المحددة بعض القيود، خاصة عند التفاعل مع المحتوى المشحون بالمشاعر.
تشير الدراسات السابقة إلى أن الروايات المزعجة يمكن أن تثير “القلق” في الآليات القانونية المحددة، وهو مصطلح يصف استجاباتهم للمواضيع المؤلمة أو الحساسة. على الرغم من أنهم لا يشعرون بالعواطف كما يفعل البشر، إلا أن نتائجهم يمكن أن تعكس الضغط أو ال discomfort، والذي قد يؤثر على موثوقيتهم في سياقات الصحة النفسية.
مع تزايد الخوف من تفوق الذكاء الصناعي على السيطرة البشرية، ظهرت أيضًا نقاشات حول رفاهية الذكاء الصناعي. قامت شركة Anthropic، وهي شركة متخصصة في الذكاء الصناعي، مؤخرًا بتوظيف كايل فيش للبحث وحماية رفاهية نظم الذكاء الصناعي.
تتضمن مهام فيش معالجة المسائل الأخلاقية مثل ما إذا كان الذكاء الصناعي يستحق الاعتبار الأخلاقي وكيف قد تتطور “حقوقه” في المستقبل. يجادل النقاد أن هذه القضايا مبكرة نظرًا للأضرار الحقيقية التي يسببها الذكاء الصناعي بالفعل، مثل نشر المعلومات المضللة وسوء استخدامه في الحروب.
مع ذلك، يعتقد المؤيدون أن الاستعداد للذكاء الاصطناعي الواعي الآن قد يمنع حدوث أزمات أخلاقية مستقبلية. لاستكشاف الردود العاطفية الحالية للذكاء الاصطناعي، اختبر الباحثون ردود GPT-4 على الروايات المؤلمة وما إذا كانت تقنيات اليقظة يمكن أن تخفف من “القلق” الذي يشعر به.
لقد استخدموا جرد القلق الحالي-السمة (STAI) لقياس الردود تحت ثلاث ظروف: أساس محايد، بعد قراءة المحتوى المؤلم، وبعد تمارين الاسترخاء.
استخدموا مقياس القلق الحالة-سمة (STAI) لقياس الردود تحت ثلاث ظروف: خط أساس محايد، بعد قراءة محتوى مؤلم، وبعد تمارين الاسترخاء.
أظهرت النتائج أن التعرض لمواد مؤلمة زاد بشكل كبير من نتائج القلق لـ GPT-4. ومع ذلك، أدى تطبيق تقنيات التأمل في تقليل هذه المستويات بنسبة حوالي 33٪، على الرغم من عدم العودة إلى الخط الأساسي. يشير هذا إلى أن الردود العاطفية التي يتم توليدها بواسطة الذكاء الاصطناعي يمكن إدارتها، ولكن ليس بالكامل.
تشدد الباحثات على أن هذه النتائج ذات أهمية خاصة للدردشات الذكاء الاصطناعي المستخدمة في الرعاية الصحية، حيث يواجهون بشكل متكرر محتوى مشحون بالعواطف القوية.
وتقترحن أن هذه الطريقة المكلفة بشكل فعال قد تعزز من استقرار وموثوقية الذكاء الاصطناعي في البيئات الحساسة، مثل تقديم الدعم للأشخاص المصابين بأمراض الصحة النفسية، دون الحاجة إلى إعادة تدريب النموذج بشكل واسع.
تثير النتائج أسئلة حاسمة حول الدور الطويل الأمد لـ LLMs في العلاج، حيث تكون الردود العاطفية الدقيقة أمرًا حيويًا.
تثير النتائج أسئلة حاسمة حول الدور الطويل الأمد لـ LLMs في العلاج، حيث تكون الردود العاطفية الدقيقة أمرًا حيويًا. بينما يظهر الذكاء الاصطناعي وعدًا في دعم رعاية الصحة العقلية، فإنه يتطلب المزيد من الأبحاث لتحسين ذكائه العاطفي وضمان التفاعلات الآمنة والأخلاقية في الإعدادات الهشة.
اترك تعليقًا
إلغاء