أخبار التقنية

تقوم ICO في المملكة المتحدة بنشر استراتيجية القياسات الحيوية


أطلق مكتب مفوض المعلومات في المملكة المتحدة (ICO) استراتيجية الذكاء الاصطناعي (AI) واستراتيجية القياسات الحيوية ، والتي يقول الجهة المنظمة إنها ستدعم الابتكار مع حماية حقوق بيانات الأشخاص.

نُشر في 5 يونيو 2025 ، الاستراتيجية يسلط الضوء على كيفية قيام ICO بتركيز جهودها على حالات استخدام التكنولوجيا حيث تتركز معظم المخاطر ، ولكن حيث توجد أيضًا “إمكانات كبيرة” للمنفعة العامة.

ويشمل ذلك استخدام أنظمة صنع القرار الآلية (ADM) في التوظيف والخدمات العامة ، استخدام التعرف على الوجه من قبل قوات الشرطةو تطوير نماذج مؤسسة الذكاء الاصطناعي.

تشمل الإجراءات المحددة المحددة لهذه المجالات إجراء عمليات التدقيق وإنتاج التوجيه على الاستخدام “القانوني والعادل والمتناسب” للتعرف على الوجه من قبل الشرطة ، وضع “توقعات واضحة” لكيفية يمكن استخدام البيانات الشخصية للأشخاص لتدريب نماذج الذكاء الاصطناعي التوليديوتطوير مدونة الممارسة القانونية لاستخدام المنظمات من الذكاء الاصطناعي.

وأضاف المنظم أنه سيشاور أيضًا حول تحديث التوجيهات لمرشفي ADM ، ويعملون على وجه التحديد مع المتبنون الأوائل مثل وزارة العمل والمعاشات التقاعدية (DWP) ، وإنتاج تقرير مسح الأفق عن الآثار المترتبة على وكيل الذكاء الاصطناعي هذا قادر بشكل متزايد على التصرف بشكل مستقل.

وقال مفوض المعلومات جون إدواردز في إطلاق الإستراتيجية: “تنطبق مبادئ حماية البيانات نفسها الآن كما لديها دائمًا – الأمور على الأمن ، ولا يمكن بناؤها إلا من قبل المنظمات التي تستخدم المعلومات الشخصية للأشخاص بمسؤولية”. “لا تهدد ثقة الجمهور بتقنيات جديدة نفسها ، ولكن من خلال تطبيقات متهورة لهذه التقنيات خارج الدرابزين الضرورية.”

أوضحت الإستراتيجية أيضًا كيف – لأن “نرى باستمرار القلق العام” حول الشفافية والقدرة على التوضيح ، التحيز والتمييزوالحقوق والتعويض – هذه هي المجالات التي يركز فيها الجهة المنظم جهودها.

على نماذج الذكاء الاصطناعى ، على سبيل المثال ، قالت ICO إنها “ستؤمن تأمين” من المطورين حول كيفية استخدامهم للمعلومات الشخصية للأشخاص حتى يكون الناس على دراية ، بينما للاعتراف بالوجه ، قالت إنها ستنشر إرشادات توضح كيف يمكن نشرها بشكل قانوني.

سيتم أيضًا تدقيق أنظمة التعرف على وجه الشرطة ، حيث تم نشر النتائج التي توصلت إلى تأكيد الأشخاص أن الأنظمة تحكمها جيدًا وأن حقوقهم محمية.

الذكاء الاصطناعي هو أكثر من مجرد تغيير التكنولوجيا – إنه تغيير في المجتمع. لكن يجب أن تعمل الذكاء الاصطناعى للجميع … وهذا يتضمن وضع العدالة والانفتاح والشمول في الأسس

Dawn Butler ، AI All Party Parliamentary Group

وقال داون بتلر ، نائب رئيس المجموعة البرلمانية الحزبية (APPG) في إطلاق الإستراتيجية: “إن الذكاء الاصطناعي هو أكثر من مجرد تغيير في التكنولوجيا-إنه تغيير في المجتمع. سيغير بشكل متزايد كيف نحصل على الرعاية الصحية ، والالتحاق بالمدرسة ، والسفر ، وحتى تجربة الديمقراطية”. “لكن يجب أن تعمل الذكاء الاصطناعى للجميع ، وليس فقط عدد قليل من الناس ، لتغيير الأشياء. وهذا ينطوي على وضع الإنصاف والانفتاح والشمول في الأسس”.

وأضاف اللورد كليمنت جونز ، الرئيس المشارك لـ AI APPG: “يجب أن تكون ثورة الذكاء الاصطناعي تأسست على الثقة. الخصوصية والشفافية والمساءلة ليست عوائق أمام الابتكار-فهي تشكل أساسها. إن الذكاء الاصطناعى يتقدم بشكل سريع أو يضمن أن الابتكار غير المرغوب فيه أو لا يتجاوز الابتكار ، أو لا تضمن الابتكار في الانتقال ، أو لا تزيد من حقوق الابتكار. مبادئ.”

وفقًا لـ ICO ، فإن التصورات السلبية حول كيفية نشر القياسات الحيوية والقياسات الحيوية هناك حاجة إلى ثقة على وجه الخصوص للأشخاص لدعم هذه التقنيات أو التعامل معها، أو الخدمات التي تعمل بها.

ولاحظ أن المخاوف العامة مرتفعة بشكل خاص عندما يتعلق الأمر بالقياسات الحيوية للشرطة ، واستخدام الخوارزميات الآلية من قبل المجندين ، واستخدام الذكاء الاصطناعى لتحديد أهلية الناس للحصول على مزايا الرعاية الاجتماعية.

وقال المنظم: “في عام 2024 ، أبلغت 8 ٪ فقط من مؤسسات المملكة المتحدة باستخدام أدوات صنع القرار من الذكاء الاصطناعى عند معالجة المعلومات الشخصية ، و 7 ٪ أبلغوا عن استخدام الوجه أو الاعتراف الحيوي. كلاهما كانا هامشيًا فقط من العام السابق”.

“هدفنا هو تمكين المنظمات من استخدام هذه التقنيات المعقدة والمتطورة والتقنيات الحيوية بما يتماشى مع قانون حماية البيانات. وهذا يعني أن الأشخاص محميون وزيادة الثقة والثقة في كيفية استخدام المنظمات هذه التقنيات.

“ومع ذلك ، لن نتردد في استخدام صلاحياتنا الرسمية لحماية حقوق الناس إذا كانت المنظمات تستخدم المعلومات الشخصية بتهور أو تسعى إلى تجنب مسؤولياتها. من خلال التدخل بشكل متناسب ، سننشئ مجالًا أكثر عدلاً للمنظمات المتوافقة وضمان حماية قوية للناس.”

في أواخر مايو 2025 ، أ تحليل من قبل معهد Ada Lovelace وجدت أن “الفجوات المهمة والتفتت” في أطر الحوكمة “المرقعة” الحالية لتقنيات المراقبة الحيوية تعني أن حقوق الناس ليست محمية بشكل كاف.

بينما ركز تحليل معهد ADA Lovelace في المقام الأول على أوجه القصور في استخدام الشرطة في المملكة المتحدة لتكنولوجيا التعرف على الوجه الحية (LFR) – التي حددها على أنها أبرز قضية استخدام المراقبة الحيوية – أشار إلى أن هناك حاجة إلى الوضوح القانوني والحوكمة الفعالة لـ “تقنيات المراقبة الجماعية الحيوية” في جميع المجالات.

ويشمل ذلك أشكالًا أخرى من القياسات الحيوية ، مثل بصمات الأصابع للمدفوعات غير النقدية في المدارس ، أو الأنظمة التي تدعي أنها عن بُعد استنتاج مشاعر الناس أو صدقهم، بالإضافة إلى سيناريوهات النشر الأخرى ، مثل عندما تستخدم محلات السوبر ماركت LFR تحديد روش المتاجر أو أنظمة التحقق لضمان أعمار الناس لشراء الكحول.

أجرى كل من البرلمان والمجتمع المدني دعوات متكررة للحصول على أطر قانونية جديدة لحكم استخدام إنفاذ القانون في المملكة المتحدة لقياسات حيوية.

ويشمل ذلك ثلاثة استفسارات منفصلة من قبل لجنة العدالة والشؤون الداخلية اللوردات (JHAC) في السرقةو خوارزميات الشرطة و الاعتراف بالوجه للشرطة؛ اثنان من مفوضي القياسات الحيوية السابقة في المملكة المتحدة ، بول وايلز و فريزر سامبسون؛ و مراجعة قانونية مستقلة بقلم ماثيو رايدر QC ؛ ال لجنة المساواة وحقوق الإنسان في المملكة المتحدة؛ و لجنة العلوم والتكنولوجيا في مجلس العموم، الذي دعا إلى وقف على LFR حتى يوليو 2019

ومع ذلك ، في حين ركزت معظم هذه الأشياء على قياسات الشرطة الحيوية البحتة ، فإن مراجعة Ryder على وجه الخصوص أخذت في الاعتبار استخدامات القطاع الخاص للبيانات والتقنيات البيومترية ، كما في شراكات بين القطاعين العام والخاص و مراقبة مكان العمل



Source link

زر الذهاب إلى الأعلى