تستخدم LinkedIn بيانات المستخدمين لتدريب نماذج الذكاء الصناعي دون موافقة واضحة
في عجلة من أمرك؟ إليك الحقائق السريعة!
- استخدمت LinkedIn بيانات المستخدمين الأمريكيين للذكاء الصناعي دون إعلام واضح.
- كانت هناك خاصية الرفض، ولكن LinkedIn لم تقم بتحديث سياسة الخصوصية في البداية.
- يعكس التحديث المتأخر لـ LinkedIn المخاوف العالمية المتزايدة حول استخدام بيانات الذكاء الصناعي.
تعرضت LinkedIn، المنصة المهنية للتواصل الاجتماعي، لانتقادات بسبب استخدامها لبيانات المستخدمين لتدريب نماذج الذكاء الاصطناعي الخاصة بها دون إبلاغ المستخدمين بشكل صريح مقدما.
يمتلك المستخدمون في LinkedIn في الولايات المتحدة – ولكن ليس أولئك في الاتحاد الأوروبي، أو المنطقة الاقتصادية الأوروبية، أو سويسرا، وذلك على الأرجح بسبب قوانين الخصوصية الأكثر صرامة – خيار الاستبعاد في إعداداتهم الذي يكشف أن LinkedIn تجمع البيانات الشخصية لتدريب “نماذج الذكاء الاصطناعي لإنشاء المحتوى.”
بينما ليست القاطعة نفسها جديدة، فقد فشلت LinkedIn في البداية في تحديث سياسة الخصوصية لديها لتعكس هذا الاستخدام للبيانات، كما أفادت في البداية 404 Media.
في صفحة المساعدة، توضح LinkedIn أن نماذج الذكاء الاصطناعي التوليدية التي تمتلكها تُستخدم لمهام مثل ميزات المساعد في الكتابة.
يمكن للمستخدمين الاختيار بعدم استخدام بياناتهم لتدريب الذكاء الاصطناعي عن طريق التنقل إلى قسم “البيانات لتحسين الذكاء الاصطناعي التوليدي” تحت علامة التبويب الخصوصية والبيانات في إعدادات حسابهم.
ستوقف إيقاف التبديل LinkedIn من استخدام البيانات الشخصية لتدريب نموذج الذكاء الاصطناعي في المستقبل، على الرغم من أنه لا يلغي التدريب الذي حدث بالفعل.
لقد تم تحديث شروط الخدمة منذ ذلك الحين، كما أفادت TechCrunch، ولكن عادةً ما يحدث هذا النوع من التحديثات قبل فترة طويلة من التغييرات الكبيرة مثل إعادة استخدام بيانات المستخدمين.
عادةً ما يسمح هذا النهج للمستخدمين بتعديل إعداداتهم أو مغادرة المنصة إذا كانوا لا يتفقون مع التغييرات. هذه المرة، ولكن، لم يكن الأمر كذلك.
يأتي هذا في ظل المخاوف الأوسع بشأن كيفية معالجة البيانات الشخصية بواسطة أنظمة الذكاء الصناعي. يتزايد التدقيق العالمي على ممارسات بيانات الذكاء الصناعي.
كشفت دراسة حديثة من MIT أن عددًا متزايدًا من المواقع الإلكترونية تقيد استخدام بياناتها لتدريب الذكاء الصناعي.
بالإضافة إلى ذلك، اختتمت الهيئة الحمائية للبيانات مؤخراً الإجراءات القانونية ضد X بخصوص أداتها الذكاء الاصطناعي بعد أن وافقت الشركة على الالتزام بالقيود السابقة على استخدام بيانات المستخدمين في الاتحاد الأوروبي / المنطقة الاقتصادية الأوروبية لتدريب الذكاء الاصطناعي.
ويسلط الحادث الضوء على الأهمية المتزايدة للشفافية وموافقة المستخدم في تطوير تقنيات الذكاء الاصطناعي.
مع استمرار التقدم في مجال الذكاء الصناعي، من الضروري أن تكون الشركات واضحة فيما يتعلق بممارساتها الخاصة بالبيانات، وأن تحصل على إذن صريح من المستخدمين قبل استخدام معلوماتهم لأغراض التدريب.
وتسلط الحادثة أيضا الضوء على التوتر المتزايد بين شركات الذكاء الصناعي وأصحاب البيانات، حيث يطالب المزيد والمزيد من المنظمات بالسيطرة الأكبر على كيفية استخدام بياناتهم.
اترك تعليقًا
إلغاء