الأمن السيبراني

ChatGPT الخاص بـ OpenAI ينتهك القانون العام لحماية البيانات (GDPR): تقول هيئة مراقبة البيانات الإيطالية


زعمت هيئة تنظيم خصوصية البيانات الإيطالية يوم الاثنين أن منصة الذكاء الاصطناعي ChatGPT التابعة لشركة OpenAI تنتهك قوانين حماية البيانات في الاتحاد الأوروبي.

فرضت الهيئة التنظيمية، المعروفة باسم Garante الإيطالية، أ الحظر المؤقت العام الماضي تم رفعه عندما عالجت OpenAI المخاوف. وقال موقع Garante الإلكتروني إن الإجراء الأخير الذي اتخذته هيئة الرقابة يمنح OpenAI 30 يومًا لمعالجة الانتهاكات المزعومة.

“بعد الحظر المؤقت على المعالجة الذي فرضته شركة Garante على OpenAI… في العام الماضي، واستنادًا إلى نتائج نشاط تقصي الحقائق، خلصت إدارة حماية البيانات الإيطالية إلى أن الأدلة المتاحة تشير إلى وجود انتهاكات للأحكام الواردة في الاتحاد الأوروبي اللائحة العامة لحماية البيانات”، وفقًا لـ موقع جارانت.

لقد كانت Garante واحدة من أكثر هيئات مراقبة الخصوصية ازدحامًا في الاتحاد الأوروبي في تقييم مخاطر الذكاء الاصطناعي. كان حظر OpenAI العام الماضي أحد أقسى التحركات حتى الآن وأجبر الشركة على معالجة حق المستخدمين في رفض الموافقة على استخدام البيانات الشخصية لتدريب الخوارزميات. وتأتي لدغة الهيئة الرقابية من اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي، والتي يمكن أن تفرض غرامات تصل إلى 4٪ من حجم مبيعات الشركة العالمية (الإيرادات).

وتوصل الاتحاد الأوروبي في ديسمبر/كانون الأول إلى اتفاق للمضي قدما في وضع قواعد تاريخية للذكاء الاصطناعي. نقلت رويترز يوم الثلاثاء عن مصادر قولها إن ألمانيا ستوافق على قانون الذكاء الاصطناعي، مما يقرب الإطار التنظيمي من إقراره.

متعلق ب:سيجتمع رئيس مكافحة الاحتكار في الاتحاد الأوروبي مع قادة شركات التكنولوجيا الكبرى في الولايات المتحدة

وفي رسالة بالبريد الإلكتروني إلى InformationWeek، يقول فار شانكار، المدير التنفيذي لمعهد الذكاء الاصطناعي المسؤول، إن الخطوة الإيطالية لها آثار بعيدة المدى.

“وسط الإثارة حول وضع الاتحاد الأوروبي اللمسات الأخيرة على تنظيم الذكاء الاصطناعي المقترح، فإن الإخطار الصادر يوم الاثنين من هيئة حماية البيانات الإيطالية فيما يتعلق بـ OpenAI هو تذكير في الوقت المناسب بأن أنظمة الذكاء الاصطناعي تخضع بالفعل لقوانين الخصوصية الحالية،” كما يقول.

يقول شانكار إن إجراء الاتحاد الأوروبي يركز على كيفية استخدام OpenAI للمعلومات الخاصة. يقول: “على الرغم من أن تفاصيل الانتهاكات المزعومة لم يتم الكشف عنها علنًا، فمن المحتمل أن تكون مرتبطة بجمع معلومات خاصة لتدريب حاملي الحقوق القانونية واستخدام حاملي الحقوق القانونية لإخراج معلومات حول الأفراد – سواء كانت صحيحة أو مهلوسة”.

ودافعت OpenAI في بيان لها عن ممارساتها، قائلة إنها تتماشى مع قوانين الخصوصية الحالية في الاتحاد الأوروبي. وقالت الشركة: “نحن نعمل بنشاط لتقليل البيانات الشخصية في تدريب أنظمتنا مثل ChatGPT”، مضيفة أنها تخطط “للعمل بشكل بناء مع Garante”.





Source link

زر الذهاب إلى الأعلى