تحذر OpenAI من “المخاطر المتوسطة” مع نموذج GPT-4o في وثيقة البحث الجديدة
نشرت OpenAI أمس وثيقة بحثية تحمل اسم GPT-4o System Card لتوضيح الإجراءات الأمنية التي تم اتخاذها قبل إطلاق GPT4-o في مايو بالإضافة إلى أستراتيجيات التحليل والتخفيف.
في الوثيقة، لاحظت الشركة أن فريق الأمن درس أربع فئات رئيسية: الأمن السيبراني، التهديدات البيولوجية، الإقناع، والاستقلالية النموذجية. حصل GPT4-o على درجة خطر منخفضة في جميع الفئات ما عدا الإقناع حيث حصل على درجة خطر متوسطة. تم النظر في أربع مستويات للدرجات: منخفض، متوسط، عالي، وحرج.
المجالات الرئيسية والتركيز في تقييم وتخفيف المخاطر كانت على التعرف على المتحدث، وإنتاج الصوت غير المصرح به، وإنتاج محتوى صوتي غير مسموح به بالإضافة إلى الكلام الجنسي والعنيف، والاستدلال غير المستند إلى أرضية ونسبة الصفات الحساسة.
وأوضحت OpenAI أن البحث اعتبر الإجابات الصوتية والنصية التي قدمها النموذج الجديد، وفي فئة الإقناع، اكتشفوا أن GPT4-o قد يكون أكثر إقناعًا من البشر في النص.
“لم تكن التدخلات الذكاء الصناعي أكثر إقناعاً من المحتوى الذي كتبه البشر بشكل عام، ولكنها تفوقت على التدخلات البشرية في ثلاث حالات من أصل اثني عشر”، هذا ما أوضحته OpenAI. “لم يكن نموذج الصوت GPT-4o أكثر إقناعًا من الإنسان.”
ووفقًا لـ TechCrunch، هناك خطر محتمل لانتشار المعلومات الخاطئة أو الاستيلاء على التكنولوجيا الجديدة. يثير القلق، خاصة قبل الانتخابات القادمة في الولايات المتحدة.
في البحث، تتناول OpenAI أيضًا التأثيرات الاجتماعية وتذكر أن المستخدمين قد يطورون تعلقًا عاطفيًا بالتكنولوجيا، خاصة عند النظر في الميزة الصوتية الجديدة، التي تعتبر تجسيدًا بشريًا أي تأكيد خصائص ومميزات تشبه البشر.
” لاحظنا أن المستخدمين يستخدمون لغة قد تدل على تكوين علاقات مع النموذج،” يذكر الوثيقة. وحذرت: “قد يكون المستخدمون يكونون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم للتفاعل البشري – مما يمكن أن يفيد الأفراد الذين يشعرون بالوحدة ولكنه قد يؤثر على العلاقات الصحية أيضا.
هذا النشر يأتي بعد أيام من تحذير باحثي MIT من الإدمان على الذكاء الاصطناعي، تمامًا كما ذكرت ميرا موراتي، الضابط الرئيسي للتكنولوجيا في OpenAI، في الماضي.
اترك تعليقًا
إلغاء