تحقيق في نموذج الذكاء الاصطناعي PaLM2 من Google
تحقيق في شركة Google بسبب نموذج الذكاء الاصطناعي PaLM2 وامتثاله لقواعد الخصوصية في الاتحاد الأوروبي. تفاصيل مثيرة تجدها على وورلد برس عربي.
تحت الفحص: نموذج الذكاء الاصطناعي لشركة جوجل يواجه انتباه الاتحاد الأوروبي من قبل هيئة المراقبة للخصوصية
قالت الجهات التنظيمية في الاتحاد الأوروبي يوم الخميس إنها تحقق في أحد نماذج الذكاء الاصطناعي الخاصة بشركة Google بسبب مخاوف بشأن امتثاله لقواعد خصوصية البيانات الصارمة في الاتحاد.
وقالت مفوضية حماية البيانات في أيرلندا إنها فتحت تحقيقًا في نموذج لغة المسارات 2 من جوجل، المعروف أيضًا باسم PaLM2. وهو جزء من جهود أوسع نطاقًا، بما في ذلك جهود هيئات الرقابة الوطنية الأخرى في جميع أنحاء التكتل الذي يضم 27 دولة، للتدقيق في كيفية تعامل أنظمة الذكاء الاصطناعي مع البيانات الشخصية.
ويقع المقر الرئيسي لشركة Google في دبلن، لذا تعمل هيئة الرقابة الأيرلندية كجهة تنظيمية رائدة للشركة فيما يتعلق بكتاب قواعد الخصوصية في التكتل، والمعروف باسم اللائحة العامة لحماية البيانات، أو GDPR.
وقالت المفوضية إنها تريد أن تعرف ما إذا كانت Google قد قيّمت ما إذا كانت معالجة بيانات PaLM2 ستؤدي على الأرجح إلى "خطر كبير على حقوق الأفراد وحرياتهم" في الاتحاد الأوروبي.
تُعد النماذج اللغوية الكبيرة مثل PaLM2 مجموعة كبيرة من البيانات التي تعمل كلبنات بناء لأنظمة الذكاء الاصطناعي. تستخدم جوجل PaLM2 لتشغيل مجموعة من خدمات الذكاء الاصطناعي التوليدي بما في ذلك تلخيص البريد الإلكتروني. وقالت الشركة إنها ستساعد في تحقيق هيئة الرقابة.
وقالت جوجل في بيان: "نحن نأخذ التزاماتنا بموجب اللائحة العامة لحماية البيانات على محمل الجد وسنعمل بشكل بنّاء مع لجنة حماية البيانات للإجابة على أسئلتهم".
قالت الهيئة الرقابية الأيرلندية في وقت سابق من هذا الشهر إن منصة التواصل الاجتماعي X المملوكة لشركة إيلون ماسك وافقت على التوقف بشكل دائم عن معالجة بيانات المستخدم لروبوت الدردشة الآلي الخاص بها Grok. ولم تفعل المنصة ذلك إلا بعد أن رفعت هيئة الرقابة دعوى قضائية أمام المحكمة في الشهر السابق، حيث قدمت طلبًا عاجلًا للمحكمة العليا لحمل X على "تعليق أو تقييد أو حظر" معالجة البيانات الشخصية الواردة في المنشورات العامة لمستخدميها.
أوقفت Meta Platforms مؤقتًا خططها لاستخدام المحتوى الذي ينشره المستخدمون الأوروبيون لتدريب أحدث إصدار من نموذجها اللغوي الكبير بعد ضغوط واضحة من المنظمين الأيرلنديين. وقالت هيئة الرقابة في يونيو إن القرار "جاء بعد مشاركة مكثفة" بين الطرفين.
حظرت الجهة المنظمة لخصوصية البيانات في إيطاليا العام الماضي ChatGPT مؤقتًا بسبب انتهاكات خصوصية البيانات وطالبت شركة OpenAI المصنعة لروبوت الدردشة الآلية بتلبية مجموعة من المطالب لحل مخاوفها.