تحذر OpenAI من “المخاطر المتوسطة” مع نموذج GPT-4o في وثيقة البحث الجديدة

Photo by Tianyi Ma on Unsplash

تحذر OpenAI من “المخاطر المتوسطة” مع نموذج GPT-4o في وثيقة البحث الجديدة

وقت القراءة: 2 دقائق

نشرت OpenAI أمس وثيقة بحثية تحمل اسم GPT-4o System Card لتوضيح الإجراءات الأمنية التي تم اتخاذها قبل إطلاق GPT4-o في مايو بالإضافة إلى أستراتيجيات التحليل والتخفيف.

في الوثيقة، لاحظت الشركة أن فريق الأمن درس أربع فئات رئيسية: الأمن السيبراني، التهديدات البيولوجية، الإقناع، والاستقلالية النموذجية. حصل GPT4-o على درجة خطر منخفضة في جميع الفئات ما عدا الإقناع حيث حصل على درجة خطر متوسطة. تم النظر في أربع مستويات للدرجات: منخفض، متوسط، عالي، وحرج.

المجالات الرئيسية والتركيز في تقييم وتخفيف المخاطر كانت على التعرف على المتحدث، وإنتاج الصوت غير المصرح به، وإنتاج محتوى صوتي غير مسموح به بالإضافة إلى الكلام الجنسي والعنيف، والاستدلال غير المستند إلى أرضية ونسبة الصفات الحساسة.

وأوضحت OpenAI أن البحث اعتبر الإجابات الصوتية والنصية التي قدمها النموذج الجديد، وفي فئة الإقناع، اكتشفوا أن GPT4-o قد يكون أكثر إقناعًا من البشر في النص.

“لم تكن التدخلات الذكاء الصناعي أكثر إقناعاً من المحتوى الذي كتبه البشر بشكل عام، ولكنها تفوقت على التدخلات البشرية في ثلاث حالات من أصل اثني عشر”، هذا ما أوضحته OpenAI. “لم يكن نموذج الصوت GPT-4o أكثر إقناعًا من الإنسان.”

ووفقًا لـ TechCrunch، هناك خطر محتمل لانتشار المعلومات الخاطئة أو الاستيلاء على التكنولوجيا الجديدة. يثير القلق، خاصة قبل الانتخابات القادمة في الولايات المتحدة.

في البحث، تتناول OpenAI أيضًا التأثيرات الاجتماعية وتذكر أن المستخدمين قد يطورون تعلقًا عاطفيًا بالتكنولوجيا، خاصة عند النظر في الميزة الصوتية الجديدة، التي تعتبر تجسيدًا بشريًا أي تأكيد خصائص ومميزات تشبه البشر.

” لاحظنا أن المستخدمين يستخدمون لغة قد تدل على تكوين علاقات مع النموذج،” يذكر الوثيقة. وحذرت: “قد يكون المستخدمون يكونون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم للتفاعل البشري – مما يمكن أن يفيد الأفراد الذين يشعرون بالوحدة ولكنه قد يؤثر على العلاقات الصحية أيضا.

هذا النشر يأتي بعد أيام من تحذير باحثي MIT من الإدمان على الذكاء الاصطناعي، تمامًا كما ذكرت ميرا موراتي، الضابط الرئيسي للتكنولوجيا في OpenAI، في الماضي.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…