تكشف الدراسة أن المزيد من المراهقين يتعرضون للتضليل بواسطة المحتوى الذي تولده الذكاء الصناعي

Image by Freepik

تكشف الدراسة أن المزيد من المراهقين يتعرضون للتضليل بواسطة المحتوى الذي تولده الذكاء الصناعي

وقت القراءة: 3 دقائق

تزداد أعداد المراهقين الذين يعانون من الصعوبة في التفريق بين المحتوى الحقيقي والمحتوى المُعدل على الإنترنت، وتضيف الوسائط التي يتم إنشاؤها بواسطة الذكاء الصناعي إلى الارتباك.

في عجلة من أمرك؟ ها هي الحقائق السريعة!

  • أفاد العديد من المراهقين بأنهم قاموا بمشاركة محتوى اكتشفوا لاحقاً أنه كان غير حقيقي.
  • العديد من المراهقين لا يثقون في الشركات التكنولوجية لتعتبر صحتهم العقلية أولوية.
  • يؤيد معظم المراهقين وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الصناعي للشفافية.

تسلط تقرير حديث الضوء على أن 35% من المراهقين تمت خداعهم بواسطة محتوى مزيف، بينما اعترف 22% بمشاركة محتوى اكتشفوا لاحقاً أنه كاذب، وقد شك 28% منهم في ما إذا كانوا يتحدثون مع إنسان أو برنامج دردشة آلي.

لقد أعادت هذه التجارب تشكيل ثقة المراهقين في المعلومات الإلكترونية بشكل كبير. ووجد التقرير أن 72% من المراهقين قد غيروا طريقة تقييمهم للمحتوى الرقمي بعد مواجهتهم لمواد مضللة.

بالإضافة إلى ذلك، يعتقد أكثر من ثلث (35%) أن الذكاء الاصطناعي التوليدي سوف يزيد من تآكل الثقة في المعلومات الإلكترونية. أصبح الذين خدعوا بمحتوى كاذب أكثر شكا، حيث قال 40% منهم أن الذكاء الاصطناعي سيجعل من الأصعب التحقق من الدقة، مقارنةً بـ 27% من الذين لم يكن لديهم تجارب مماثلة.

تواجه الذكاء الصناعي التوليدي مشكلات جدية في الصدقية بين المراهقين، وبشكل خاص في الإعداد الأكاديمي. أفاد ما يقرب من اثنين من كل خمسة (39%) طلاب استخدموا الذكاء الصناعي في أعمال المدرسة بأنهم وجدوا أخطاء في المحتوى الذي أنتجه الذكاء الصناعي. في الوقت نفسه، لم يلاحظ 36% أي مشاكل، وكان 25% غير متأكدين.

يثير هذا الموضوع القلق حول موثوقية الذكاء الصناعي في السياقات التعليمية، مما يبرز الحاجة إلى أدوات أفضل ومهارات التفكير النقدي لمساعدة المراهقين على تقييم المحتوى الذي ينتجه الذكاء الصناعي.

بعيداً عن الذكاء الصناعي، لا يزال الثقة في الشركات التكنولوجية الكبرى منخفضة. يعتقد حوالي 64٪ من المراهقين أن الشركات الكبيرة للتكنولوجيا لا تولي اهتماماً كافياً لصحتهم العقلية، و62٪ يعتقدون أن هذه الشركات لن تحمي أمان المستخدمين إذا كان ذلك يؤذي أرباحهم.

كما يشك أكثر من نصفهم أيضاً في أن العمالقة التكنولوجيين يتخذون قرارات تصميم أخلاقية (53٪)، أو يحمون البيانات الشخصية (52٪)، أو يعتبرون بصورة عادلة احتياجات المستخدمين المختلفة (51٪). بالنسبة للذكاء الصناعي، 47٪ لديهم ثقة ضئيلة في أن الشركات التكنولوجية تتخذ قرارات مسؤولة بشأن استخدامه.

رغم هذه المخاوف، إلا أن المراهقين يدعمون بقوة التدابير الوقائية للذكاء الاصطناعي التوليدي. يؤيد ما يقرب من ثلاثة من كل أربعة (74%) الحراسات الخاصة بالخصوصية والشفافية، في حين يعتقد 73% أنه يجب وضع علامات أو علامات مائية على المحتوى الذي تولده الذكاء الاصطناعي. بالإضافة إلى ذلك، يريد 61% من المراهقين أن يتم تعويض صُناع المحتوى عندما تستخدم نماذج الذكاء الاصطناعي أعمالهم للتدريب.

CNN تلاحظ أن عدم ثقة المراهقين بالشركات التكنولوجية الكبرى يعكس عدم الرضا الأوسع نطاقًا عن الشركات التكنولوجية الأمريكية الكبرى. يواجه البالغون الأمريكيون أيضا مستويات متزايدة من المحتوى المضلل أو المزيف، وهو الأمر الذي يتفاقم بفضل ضعف الحراسات الرقمية.

بينما تعيد الذكاء الاصطناعي التوليدية تشكيل المشهد الرقمي، يتطلب معالجة المعلومات الخاطئة واستعادة الثقة التعاون بين شركات التكنولوجيا، والمعلمين، وصناع السياسات، والمراهقين أنفسهم.

تعزيز الثقافة الرقمية وتطبيق معايير الحوكمة الواضحة للذكاء الاصطناعي سيكون أمراً ضرورياً لضمان بيئة على الإنترنت أكثر شفافية وثقة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…