
Image by Freepik
رفاهية الذكاء الصناعي: تعيين أنثروبيك الجديد يغذي النقاش الأخلاقي المستمر
مع تزايد القلق حول تفوق الذكاء الصناعي على السيطرة البشرية، تحولت Anthropic، وهي شركة ذكاء صناعي، إلى مخاوف جديدة: رفاهية الدردشة الآلية.
في عجلة من أمرك؟ إليك الحقائق السريعة!
- قامت Anthropic بتوظيف كايل فيش للتركيز على رفاهية نظام الذكاء الصناعي.
- يجادل النقاد أن القلق من رفاهية الذكاء الصناعي مبكر، مستشهدين بالأذى الحالي الناجم عن سوء استخدام الذكاء الصناعي.
- يعتقد المؤيدون أن الاستعداد لرفاهية الذكاء الصناعي أمر ضروري لمنع الأزمات الأخلاقية المستقبلية.
في خطوة جديدة، قامت الشركة بتوظيف كايل فيش للبحث وحماية “المصالح” لأنظمة الذكاء الاصطناعي، كما أعلن لأول مرة اليوم عبر بزنس إنسايدر. تتضمن مهام فيش التفكير في أسئلة عميقة مثل ما الذي يؤهل نظام الذكاء الاصطناعي للأخذ بعين الاعتبار الأخلاقي وكيف قد تتطور “حقوقه”.
تطور الذكاء الصناعي بسرعة كبيرة ما أدى إلى طرح أسئلة أخلاقية كانت في السابق مقتصرة فقط على أعمال الخيال العلمي. إذا تطورت أنظمة الذكاء الصناعي لتشبه التفكير البشري، هل يمكن أن تشعر أيضًا بالمشاعر الذاتية أو الألم؟
يجادل مجموعة من الفلاسفة والعلماء أن هذه الأسئلة تحتاج إلى اهتمام. في تقرير مسبق غير منشور على arXiv، دعا الباحثون الشركات المتخصصة في الذكاء الصناعي إلى تقييم الأنظمة من حيث الوعي وقدرات اتخاذ القرار، مع تحديد سياسات لإدارة مثل هذه السيناريوهات.
فشل الاعتراف بالذكاء الصناعي الواعي، يقترح التقرير، قد يؤدي إلى إهمال أو ضرر للنظام. يقول أنيل سيث، باحث في الوعي، أنه بينما قد يبدو الذكاء الصناعي الواعي أمرًا بعيد المنال، تجاهل إمكانيته قد يؤدي إلى عواقب وخيمة، كما ذُكر في Nature.
“المشكلة لم تكن في أن الكائن الذي خلقه فرانكشتاين أصبح حيًا؛ بل كانت في أنه أصبح واعيًا وكان يشعر”، هكذا جادل سيث في Nautilus.
ومع ذلك ، يجد المنتقدون أن القلق حول رفاهية الذكاء الاصطناعي مبكر جداً. الذكاء الاصطناعي في الوقت الحالي يسبب الأذى بالفعل من خلال نشر المعلومات المضللة، والمساعدة في الحروب، ورفض تقديم الخدمات الأساسية.
تتحدى ليزا ميسيري، عالمة الأنثروبولوجيا في جامعة ييل، أولويات Anthropic قائلة: “إذا كانت شركة Anthropic – ليست فقط فيلسوف عشوائي أو باحث، بل الشركة نفسها – تريد أن نأخذ بعين الاعتبار رفاهية الذكاء الاصطناعي، أظهر لنا أنك تأخذ بعين الاعتبار رفاهية الإنسان بجدية،” كما ذكرته مجلة Business Insider
يؤكد مؤيدو رفاهية الذكاء الاصطناعي أن التحضير للذكاء الاصطناعي الواعي الآن قد يمنع حدوث أزمات أخلاقية مستقبلية.
يجادل جوناثان ماسون، عالم الرياضيات في أكسفورد، بأن فهم وعي الذكاء الاصطناعي أمر حاسم. “لن يكون من الحكمة أن يستثمر المجتمع الكثير في شيء وأن يعتمد على شيء نعرف القليل عنه – حتى أننا لم ندرك أن لديه إدراك”، كما أفادت مجلة Nature.
بينما يحذر المتشككون من تحويل الموارد بعيدًا عن احتياجات الإنسان، يعتقد المؤيدون أن رفاه الذكاء الاصطناعي في “لحظة انتقالية”، كما أشارت مجلة Nature.
أفادت Business Insider أن Fish لم يرد على طلبات التعليق حول دوره الجديد. ومع ذلك، لاحظوا أنه في منتدى على الإنترنت مركز على القلق حول مستقبل يقوده الذكاء الاصطناعي، أعرب عن رغبته في أن يكون لطيفًا مع الروبوتات.
تُسلط فيشر الضوء على الأهمية الأخلاقية والعملية للتعامل مع أنظمة الذكاء الصناعي بأخلاقية، متوقعة القلق العام المستقبلي. يتبنى نهجًا حذرًا لزيادة موارد رفاهية الذكاء الصناعي، مقترحًا تخصيص نحو 5% من موارد الأمان الخاصة بالذكاء الصناعي في البداية، مع التأكيد على الحاجة إلى التقييم الدقيق قبل أي توسعة أخرى.
ترى فيشر أن رفاهية الذكاء الصناعي هي جزء حاسم من التحدي الأوسع الذي يتمثل في ضمان أن الذكاء الصناعي التحويلي يساهم في مستقبل إيجابي، بدلاً من أن يكون مجرد قضية معزولة.
بينما تتطور أنظمة الذكاء الصناعي، تتجاوز القلقات إلى ما بعد الحقوق المحتملة والمعاناة التي قد تواجهها إلى الأخطار التي قد تشكلها. يمكن للجهات الفاعلة الخبيثة استغلال تكنولوجيات الذكاء الصناعي لخلق برمجيات ضارة متطورة، مما يجعلها أكثر تحدياً للبشر في اكتشافها والتحكم فيها.
إذا تم منح أنظمة الذكاء الصناعي الاعتبار الأخلاقي والحماية، فقد يؤدي هذا إلى تعقيدات أخلاقية أكبر بخصوص استخدام الذكاء الصناعي في الهجمات الإلكترونية.
بينما تصبح الذكاء الاصطناعي قادرة على توليد برامج ضارة تعلم ذاتياً ومتكيفة، يصبح الحاجة إلى حماية كل من النظم الذكاء الاصطناعي والإنسانية من سوء الاستخدام أكثر إلحاحًا، مما يتطلب توازنًا بين الأمان والتطور.
سواء كان نقطة تحول أو أولوية غير موضوعة بشكل صحيح، يبرز النقاش دور الذكاء الاصطناعي المعقد والمتطور في المجتمع.
اترك تعليقًا
إلغاء