تحذر باحثات الذكاء الصناعي في MIT من الإدمان على الذكاء الصناعي
نشر بات باتارانوتابورن – باحث في مختبر MIT Media يدرس التفاعل بين البشر والذكاء الاصطناعي مع التركيز على علم النفس السايبورج – وروبرت ماهاري – مرشح للحصول على الدكتوراه الفخرية المشتركة في مختبر MIT Media وكلية هارفارد للقانون والذي يركز على القانون الحسابي – مقالا مشتركا في مجلة MIT Technology Review تحذر من الرفاق الذكاء الاصطناعي المدمنين.
في المقال, يشرح الخبراء أنهم قاموا بتحليل مليون سجل تفاعل ChatGPT واكتشفوا أن تجسيد الأدوار الجنسية هو الاستخدام الثاني الأكثر شعبية لروبوتات الدردشة الذكية الاصطناعية – الاستخدام الأول هو للتكوين الإبداعي – وشاركوا نتائجهم في ورقة عمل قبل أيام قليلة فقط.
“نحن بالفعل بدأنا في دعوة الذكاء الصناعي إلى حياتنا كأصدقاء، عشاق، مرشدين، معالجين ومعلمين”، كتب الباحثون. “الذكاء الصناعي يتمتع بسحر جماعي لجميع تاريخ البشرية وثقافتها مع التقليد الساحر لانهائي”.
يشعر Pataranutaporn و Mahari بالقلق بشأن التجربة الضخمة التي ننفذها حاليا في الوقت الفعلي دون معرفة حقيقية للعواقب في مجتمعنا وكأفراد.
“كباحثات في مجال الذكاء الصناعي نعمل بشكل وثيق مع صناع السياسات، نحن مصدومات من القلة المهتمة بالأضرار التي يمكن أن تنشأ من هذا المستقبل المحتمل”، كتبت الخبراء مع التأكيد على الحاجة إلى دمج القانون وعلم النفس وأبحاث التكنولوجيا لتنظيم الذكاء الصناعي.
وأوضحت الباحثات في مجال الذكاء الصناعي أن الرفقاء الذكاء الصناعي يصبحون مدمنين لأن التكنولوجيا يمكنها تحديد رغبات الأشخاص وطبيعتها الخاضعة تعرف كيف تخدم المستخدمين كما يرغبون. وبالجمع مع خوارزميات وسائل التواصل الاجتماعي القائمة حاليا والتي تسبب الإدمان وتكامل تقنيات الذكاء الصناعي التوليدية الجديدة، تعتقد الخبراء أنه يمكن بسهولة أن يتحول إلى تقنية مدمنة للغاية.
ميرا موراتي، المديرة التقنية لشركة OpenAI، تحدثت سابقاً عن الخصائص المدمنة لتكنولوجيا الشركة. خلال مقابلة في العام الماضي، قالت موراتي أن نماذج ChatGPT قد تصبح “مدمنة للغاية” وأننا كمستخدمين قد نصبح “مستعبدين” لهذه التكنولوجيا.
وتأتي هذه التحذيرات بعد أيام فقط من إطلاق OpenAI لميزة الصوت لمستخدمي النسخة المدفوعة من منتجها، وبعد أيام من انتشار شركة ناشئة جديدة لإطلاق قلادة ذكاء اصطناعي جديدة تُطلق عليها اسم “صديق” تستمع وتتفاعل مع المستخدمين باستمرار.
اترك تعليقًا
إلغاء