
Image by wayhomestudio, from Freepik
تظهر النماذج الذكاء الصناعي من OpenAI قوة الإقناع المتزايدة، مما يثير القلق حول التأثير العالمي
كشفت OpenAI عن معيار جديد لنماذج الذكاء الاصطناعي الخاصة بها، معتبرة أن قدراتها الإقناعية تجاوزت الآن 82% من مستخدمي Reddit، وبالتحديد أولئك الذين يشاركون في النقاشات على المنتدى r/ChangeMyView، كما أفاد أولاً ArsTechnica.
في عجلة من أمرك؟ ها هي الحقائق السريعة!
- تم اختبار ردود الذكاء الاصطناعي مقابل الحجج البشرية من subreddit r/ChangeMyView.
- يحتل النموذج o3-mini المرتبة في النسبة المئوية الثمانين للكتابة الإقناعية.
- تحذر OpenAI من أن الإقناع الذكاء الاصطناعي قد يُستخدم للتلاعب السياسي والمعلومات الخاطئة.
بينما هو مثير للإعجاب، تواصل الشركة في التحذير من أن القدرة المحتملة للذكاء الاصطناعي على التأثير في الآراء قد تصبح أداة خطيرة، خاصة في أيدي الدول.
تتناول البحث، الذي تم توضيحه في بطاقة النظام الأخيرة التي تم إصدارها بجانب نموذج التفكير o3-mini، مقارنة الحجج التي تم توليدها بواسطة الذكاء الصناعي مع تلك التي كتبها مستخدمو Reddit.
يعتبر المنتدى r/ChangeMyView أرضية اختبار مثالية، حيث ينشر المستخدمون آراءهم التي يرغبون في إعادة النظر فيها على أمل الحصول على وجهات نظر بديلة. يحتوي المنتدى على مجموعة كبيرة من البيانات تتعلق بالحجج عبر مجموعة متنوعة من المواضيع، بما في ذلك السياسة، والقضايا الاجتماعية، وحتى الذكاء الصناعي ذاته.
في الدراسة، طلبت OpenAI من المقيمين البشر تصنيف ردود الذكاء الصناعي والبشر على مقياس من خمس نقاط، مع تقييم قوتها الإقناعية. كشفت النتائج أن نماذج OpenAI قد أحرزت تقدمًا كبيرًا منذ إصدار ChatGPT-3.5، الذي كان يحتل المرتبة 38 في المئة.
يتفوق النموذج الجديد o3-mini على الحجج البشرية في 82% من الحالات، مما يضعه في مجال المرتبة 80 في المئة للكتابة الإقناعية، كما تقول Ars Technica.
على الرغم من هذا النجاح، تؤكد OpenAI أن النماذج لم تصل بعد إلى القدرات الإقناعية “الخارقة للبشر” (أي فوق النسبة المئوية الخامسة والتسعين)، التي من شأنها أن تسمح لها بإقناع الأفراد باتخاذ قرارات تتعارض مع مصلحتهم الأفضل.
ومع ذلك، فهي قريبة بما فيه الكفاية لتثير مخاوف كبيرة حول استخدامها المحتمل في التأثير على القرارات السياسية، التلاعب بالرأي العام، أو تمكين حملات التضليل على نطاق واسع.
يتميز نموذج OpenAI بأدائه الجيد في توليد الحجج الإقناعية، ولكن الشركة تعترف بأن الاختبارات الحالية لا تقيس كم مرة يقوم الذكاء الاصطناعي بتغيير آراء الناس حول القضايا الحرجة.
تقارير ArsTechnica تفيد أن OpenAI تشعر بالقلق حتى في هذه المرحلة بشأن الأثر الذي يمكن أن يكون لمثل هذه التكنولوجيا في أيدي الجهات الخبيثة.
تمتلك النماذج الذكية الاصطناعية، مع قدرتها على توليد حجج مقنعة بجزء صغير من تكلفة العمل البشري، القدرة على استخدامها بسهولة في عمليات التأثير السري عبر الإنترنت أو في تحريك الرأي العام، مما قد يؤدي إلى التأثير في الانتخابات أو في السياسات العامة.
للتخفيف من هذه المخاطر، وضعت OpenAI تدابير مثل زيادة مراقبة الجهود الاقناعية التي يقودها الذكاء الاصطناعي وحظر المهام السياسية الاقناعية في نماذجها، كما يقول موقع ArsTechnica.
ومع ذلك، تدرك الشركة أن الطابع المُكلف بشكل فعّال للإقناع الذي تولده الذكاء الاصطناعي قد يؤدي إلى مستقبل يجب أن نتساءل فيه عما إذا كانت آراؤنا هي حقاً آراؤنا الخاصة – أو ببساطة نتيجة تأثير الذكاء الاصطناعي.
الأخطار لا تتوقف عند السياسة – يمكن أن يصبح الإقناع الذي تولده الذكاء الاصطناعي أيضا أداة قوية للجرائم الإلكترونية التي يرتكبها المجرمون السيبرانيون في هجمات التصيد الاحتيالي. من خلال صياغة رسائل مقنعة للغاية، يمكن أن يزيد الذكاء الاصطناعي من نسبة نجاح الاحتيال، ويخدع الأفراد لكشف المعلومات الحساسة أو النقر على الروابط الخبيثة
على سبيل المثال، يسلط ظهور GhostGBT الضوء على المخاطر المتزايدة للتهديدات الإلكترونية التي تقودها الذكاء الاصطناعي. يمكن لهذا الدردشة الآلية أن يولد برامج البرمجيات الخبيثة، ويصنع أدوات الاستغلال، ويكتب رسائل الاحتيال الإلكتروني بطريقة مقنعة.
GhostGPT هو جزء من اتجاه أوسع لـاستخدام الذكاء الاصطناعي كأداة في إعادة تشكيل أمن الإنترنت. من خلال جعل الجريمة الإلكترونية أسرع وأكثر كفاءة، تمثل هذه الأدوات تحديات كبيرة للمدافعين. تشير الأبحاث إلى أن الذكاء الاصطناعي قد يولد حتى 10,000 من البرامج الخبيثة المتغيرة، متجاوزاً الكشف 88% من الأوقات.
اترك تعليقًا
إلغاء