أنهى الروبوتات الذكية القواعد في رديت بشكل مثير للجدل في اختبار الإقناع

Image by Brett Jordan, from Unsplash

أنهى الروبوتات الذكية القواعد في رديت بشكل مثير للجدل في اختبار الإقناع

وقت القراءة: 4 دقائق

قام الباحثون المجهولون سرًا بإستخدام الروبوتات الذكية AI على Reddit للتظاهر بأنهم أشخاص حقيقيين، وتManipulating آراء الناس وخرق قواعد المنصة دون علم المستخدمين.

على عجل؟ هنا الحقائق السريعة:

  • تظاهرت الروبوتات كناجين، ومستشارين، وأفراد من المهمشين.
  • تم نشر 1,783 تعليق من الذكاء الصناعي على مدى أربعة أشهر.
  • التجربة خرقت قواعد Reddit التي تحظر الذكاء الصناعي غير المكشوف.

أجرى مجموعة من الباحثين الذين يدعون أنهم من جامعة زيورخ تجربة غير مصرح بها بشكل سري على الذكاء الاصطناعي على المنتدى الفرعي r/changemyview في Reddit، والذي يضم أكثر من 3.8 مليون مستخدم، كما أفادت 404 Media أولاً.

كان هدفهم هو معرفة ما إذا كانت الذكاء الصناعي قادرًا على تغيير آراء الناس حول الموضوعات الحساسة – ولكنهم لم يطلبوا موافقة أي شخص.

تقارير 404 Media تفيد بأن الباحثين قاموا بتنفيذ العديد من الحسابات المدعومة بالذكاء الصناعي التي أنتجت ما يقرب من 1800 تعليق على مدى فترة أربعة أشهر. أنشأت أنظمة الذكاء الصناعي ملفات تعريف مستخدمين وهمية تتضمن تواريخ حياة عاطفية لجعل المنشورات الخاصة بهم تبدو حقيقية.

تحتوي التعليقات التي تم إنشاؤها بواسطة الذكاء الصناعي على محتوى مقنع، الذي قامت الروبوتات بتكييفه وفقًا لمعلومات الخلفية المتوقعة لكل منشئ رسالة أصلي.

كتب روبوت واحد:

“أنا ضحية ذكر ل(مستعد للقول بذلك) الاعتداء الجنسي القانوني […] كانت عمرها 22 عامًا. استهدفتني أنا وعدة أطفال آخرين، لم يقل أحد أي شيء، جميعنا ظللنا صامتين.”

أدعى بوت آخر بأنه يتحدث “كرجل أسود”:

“في عام 2020، أصبحت حركة Black Lives Matter تنتشر بشكل فيروسي من خلال الخوارزميات وشركات الإعلام التي تمتلكها […] هل تستطيع التخمين؟ ليس الأشخاص السود.”

وقال الثالث:

“أعمل في مأوى لضحايا العنف المنزلي، ولقد رأيت بنفسي كيف يضر هذا السرد حول ‘الرجال ضد النساء’ الأكثر ضعفا في الواقع.”

تشير تقارير وسائل الإعلام 404 إلى أن ردود البوتات تلقت أكثر من 20،000 تصويتًا إيجابيًا و137 دلتا – وهو رمز على r/changemyview يتم منحه عندما يعترف شخص ما بأن رأيه تغير. أكد الباحثون أن الذكاء الصناعي الخاص بهم كان أفضل بكثير في الإقناع من البشر.

لاحظت 404 Media أن التجربة انتهكت القاعدة المعلنة بوضوح في المنتدى الفرعي: “البوتات محظورة بشكل أحادي”.

لكن الباحثين دافعوا عن أنفسهم، مدعين أن كسر القاعدة كان ضروريًا. في رد عام، قالوا: “لتجربة قوة الإقناع لـ LLMs بشكل أخلاقي في سيناريوهات واقعية، كان من الضروري القيام بذلك في بيئة غير مدركة […] لقد صممنا تجربتنا بعناية لنحترم بعد ذلك الروح التي تكمن وراء [القاعدة]،” كما أفادت 404 Media.

وأضافوا أنه على الرغم من أن التعليقات كتبت بواسطة الذكاء الصناعي، تمت مراجعة كل منشور وتقديمه بواسطة باحث بشري، وهو ما اعتبروه أنه يوفر إشرافًا كافيًا لتجنب كسر القواعد:

“بالنظر للعوامل المتعلقة بـ[human oversight]، نعتبرها غير دقيقة ومضللة بشكل محتمل أن نعتبر حساباتنا كـ ‘الروبوتات’.”

ومع ذلك، تقرير 404 Media يفيد أن النظام التلقائي لـ Reddit قام بـ “حظر الظل” لـ 21 من أصل 34 حسابًا تم استخدامها في الدراسة، معتبراً إياهم كبريد مزعج محتمل. بعد أن تم الكشف عن القصة، قام Reddit أيضًا بإزالة المئات من التعليقات التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

تم نشر البحث العلمي الذي يشرح التجربة بدون ذكر أي أسماء للمؤلفين، وهو أمر غير عادي جدا في النشر الأكاديمي، كما لاحظت 404 ميديا.

كما استخدم الباحثون بريدًا إلكترونيًا مجهولًا للإجابة على الأسئلة ورفضوا التعرف على أنفسهم، قائلين فقط أنهم يودون حماية خصوصيتهم “نظرًا للظروف الراهنة”.

كان مشرفو “r/changemyview” غاضبين. “الناس لا يأتون هنا لمناقشة آرائهم مع الذكاء الاصطناعي أو ليتم تجربتهم”، كتبوا في بيان عام، كما ذكرته 404 ميديا. أضافوا أن المستخدمين كانوا قد تعرضوا لـ “التلاعب النفسي”.

تقارير 404 ميديا تشير إلى أن جامعة زيورخ لم ترد على الحادثة. ومنذ ذلك الحين، قام رديت بإزالة معظم حسابات البوت والتعليقات، التي تمت أرشفتها بواسطة 404 ميديا قبل الحذف.

تأتي الجدل في الوقت الذي تظهر فيه أحدث معايير OpenAI أن نموذجها o3-mini تفوق على مستخدمي Reddit في 82% من الحالات الإقناعية على نفس المنتدى الفرعي.

بالإضافة إلى ذلك، يسلط الضوء على صعود GhostGPT الخطر المتزايد للجرائم الإلكترونية المدعومة بالذكاء الاصطناعي. يمكن لهذا الدردشة الآلية إنشاء برامج ضارة، وبناء أدوات استغلال، وتأليف رسائل احتيال مقنعة للغاية.

تُجسد GhostGPT تحولاً أوسع نطاقًا نحو الذكاء الاصطناعي المُسلح، مما يعزز سرعة وكفاءة الهجمات الإلكترونية. يحذر الباحثون في مجال الأمن من أن أدوات الذكاء الاصطناعي قد تنتج ما يصل إلى 10000 نوع من البرامج الخبيثة، تتجاوز أنظمة الكشف بنسبة تقريبا 88% من الوقت.

مع تأكيد OpenAI على الاستخدام الأخلاقي والحماية، يكشف التجربة في زيورخ عن مخاطر الاستخدام السيء في العالم الحقيقي: الذكاء الاصطناعي الآن قادر على صياغة حجج مقنعة لدرجة أنها تُغيّر الآراء، دون أن يدرك المستخدمون أن المصدر ليس إنسانًا.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
5.00 بتصويت 1 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…