تحذر OpenAI من “المخاطر المتوسطة” مع نموذج GPT-4o في وثيقة البحث الجديدة

Photo by Tianyi Ma on Unsplash

تحذر OpenAI من “المخاطر المتوسطة” مع نموذج GPT-4o في وثيقة البحث الجديدة

وقت القراءة: 2 دقائق

  • Andrea Miliani

    كتبه: Andrea Miliani كاتبة في مجال التقنية

  • فريق الترجمة والتوطين

    ترجمة فريق الترجمة والتوطين خدمات الترجمة والتوطين

نشرت OpenAI أمس وثيقة بحثية تحمل اسم GPT-4o System Card لتوضيح الإجراءات الأمنية التي تم اتخاذها قبل إطلاق GPT4-o في مايو بالإضافة إلى أستراتيجيات التحليل والتخفيف.

في الوثيقة، لاحظت الشركة أن فريق الأمن درس أربع فئات رئيسية: الأمن السيبراني، التهديدات البيولوجية، الإقناع، والاستقلالية النموذجية. حصل GPT4-o على درجة خطر منخفضة في جميع الفئات ما عدا الإقناع حيث حصل على درجة خطر متوسطة. تم النظر في أربع مستويات للدرجات: منخفض، متوسط، عالي، وحرج.

المجالات الرئيسية والتركيز في تقييم وتخفيف المخاطر كانت على التعرف على المتحدث، وإنتاج الصوت غير المصرح به، وإنتاج محتوى صوتي غير مسموح به بالإضافة إلى الكلام الجنسي والعنيف، والاستدلال غير المستند إلى أرضية ونسبة الصفات الحساسة.

وأوضحت OpenAI أن البحث اعتبر الإجابات الصوتية والنصية التي قدمها النموذج الجديد، وفي فئة الإقناع، اكتشفوا أن GPT4-o قد يكون أكثر إقناعًا من البشر في النص.

“لم تكن التدخلات الذكاء الصناعي أكثر إقناعاً من المحتوى الذي كتبه البشر بشكل عام، ولكنها تفوقت على التدخلات البشرية في ثلاث حالات من أصل اثني عشر”، هذا ما أوضحته OpenAI. “لم يكن نموذج الصوت GPT-4o أكثر إقناعًا من الإنسان.”

ووفقًا لـ TechCrunch، هناك خطر محتمل لانتشار المعلومات الخاطئة أو الاستيلاء على التكنولوجيا الجديدة. يثير القلق، خاصة قبل الانتخابات القادمة في الولايات المتحدة.

في البحث، تتناول OpenAI أيضًا التأثيرات الاجتماعية وتذكر أن المستخدمين قد يطورون تعلقًا عاطفيًا بالتكنولوجيا، خاصة عند النظر في الميزة الصوتية الجديدة، التي تعتبر تجسيدًا بشريًا أي تأكيد خصائص ومميزات تشبه البشر.

” لاحظنا أن المستخدمين يستخدمون لغة قد تدل على تكوين علاقات مع النموذج،” يذكر الوثيقة. وحذرت: “قد يكون المستخدمون يكونون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم للتفاعل البشري – مما يمكن أن يفيد الأفراد الذين يشعرون بالوحدة ولكنه قد يؤثر على العلاقات الصحية أيضا.

هذا النشر يأتي بعد أيام من تحذير باحثي MIT من الإدمان على الذكاء الاصطناعي، تمامًا كما ذكرت ميرا موراتي، الضابط الرئيسي للتكنولوجيا في OpenAI، في الماضي.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

عرض المزيد…