نموذج الذكاء الاصطناعي لـ Google تحت التحقيق الأوروبي

Image from Trustedreviews

نموذج الذكاء الاصطناعي لـ Google تحت التحقيق الأوروبي

وقت القراءة: 2 دقائق

  • كيارا فابري

    كتبه: كيارا فابري صحفية وسائط متعددة

  • فريق الترجمة والتوطين

    ترجمة فريق الترجمة والتوطين خدمات الترجمة والتوطين

أعلنت هيئة حماية البيانات (DPC) اليوم عن تحقيق في جوجل لتحديد ما إذا كانت الشركة قد اتبعت قوانين حماية البيانات الأوروبية أثناء تطوير نموذج الذكاء الاصطناعي لها، نموذج لغة الطرق (PaLM 2).

يُستخدم نموذج PaLM2 كنموذج لغة كبير في العديد من خدمات الذكاء الاصطناعي، بما في ذلك تلخيص البريد الإلكتروني. أعلنت جوجل أنها ستتعاون مع التحقيق، كما أشارت AP.

ستقوم التحقيقات بتقييم ما إذا كان يجب على Google إجراء تقييم لأثر حماية البيانات (DPIA) لتقييم المخاطر المحتملة على حقوق الأفراد وحرياتهم الناجمة عن تقنيات الذكاء الصناعي الخاصة بها.

هذا التحقيق هو جزء من الجهود الأوسع لدى DPC لضمان الالتزام بقواعد حماية البيانات في قطاع الذكاء الصناعي في جميع أنحاء أوروبا. يتم التدقيق بشكل خاص في معالجة البيانات عبر الحدود، التي تتضمن التعامل مع البيانات عبر عدة دول في الاتحاد الأوروبي أو التأثير على الأفراد في عدة دول.

أدوات الذكاء الاصطناعي الإبداعي، المعروفة بإنتاجها لمعلومات مقنعة ولكنها غير حقيقية والوصول إلى البيانات الشخصية، تشكل مخاطر قانونية كبيرة، كما لاحظت TechCrunch. اللجنة الحمائية للبيانات (DPC)، المسؤولة عن ضمان الامتثال الخاص بجوجل للوائح حماية البيانات العامة (GDPR).

لهذا الغرض، يمكن لـ DPC توقيع غرامات تصل إلى 4% من إيرادات شركة Alphabet الأم لجوجل السنوية العالمية في حالة الانتهاكات، كما أفادت TechCrunch.

قامت Google بتطوير مجموعة من أدوات الذكاء الصناعي المُولِدة، بما في ذلك سلسلة Gemini الخاصة بها من نماذج اللغة الكبيرة (التي كانت تُعرف سابقًا بـ Bard) المستخدمة لمجموعة متنوعة من التطبيقات، بما في ذلك تحسين البحث على الويب من خلال الدردشة الذاتية للذكاء الصناعي، كما تُلاحظ TechCrunch.

من الأدوات الأساسية لهذه الأدوات هو PaLM2 الخاص بـ Google، وهو نموذج لغة أساسي تم إطلاقه في مؤتمر المطورين I/O في العام الماضي، حسبما ذكرت TechCrunch.

الشهر الماضي، تعرضت “إكس” التابعة لإيلون ماسك للفحص من قبل المنظمين الأوروبيين بشأن استخدامها لبيانات المستخدمين لتدريب الذكاء الاصطناعي. أطلقت الهيئة المعنية بحماية البيانات (DPC) تحقيقاً بعد تلقيها شكاوى بأن “إكس” كانت تغذي تكنولوجيا الذكاء الاصطناعي Grok AI ببيانات المستخدمين دون الحصول على الموافقة المناسبة. بينما وافقت “إكس” على الحد من معالجة البيانات، لم تواجه أي عقوبات.

يعد هذا التحقيق جزءًا من جهود DPC الأوسع لتنظيم استخدام البيانات الشخصية في تطوير الذكاء الاصطناعي عبر الاتحاد الأوروبي. يمثل تبني الاتحاد الأوروبي الأخير لـ قانون الذكاء الاصطناعي خطوة هامة نحو إنشاء إطار تنظيمي لتكنولوجيا الذكاء الاصطناعي ضمن الكتلة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

عرض المزيد…