أطلق مكتب مفوض المعلومات في المملكة المتحدة (ICO) استراتيجية الذكاء الاصطناعي (AI) واستراتيجية القياسات الحيوية ، والتي يقول الجهة المنظمة إنها ستدعم الابتكار مع حماية حقوق بيانات الأشخاص.
نُشر في 5 يونيو 2025 ، الاستراتيجية يسلط الضوء على كيفية قيام ICO بتركيز جهودها على حالات استخدام التكنولوجيا حيث تتركز معظم المخاطر ، ولكن حيث توجد أيضًا “إمكانات كبيرة” للمنفعة العامة.
وقال مفوض المعلومات جون إدواردز في إطلاق الإستراتيجية: “تنطبق مبادئ حماية البيانات نفسها الآن كما لديها دائمًا – الأمور على الأمن ، ولا يمكن بناؤها إلا من قبل المنظمات التي تستخدم المعلومات الشخصية للأشخاص بمسؤولية”. “لا تهدد ثقة الجمهور بتقنيات جديدة نفسها ، ولكن من خلال تطبيقات متهورة لهذه التقنيات خارج الدرابزين الضرورية.”
أوضحت الإستراتيجية أيضًا كيف – لأن “نرى باستمرار القلق العام” حول الشفافية والقدرة على التوضيح ، التحيز والتمييزوالحقوق والتعويض – هذه هي المجالات التي يركز فيها الجهة المنظم جهودها.
على نماذج الذكاء الاصطناعى ، على سبيل المثال ، قالت ICO إنها “ستؤمن تأمين” من المطورين حول كيفية استخدامهم للمعلومات الشخصية للأشخاص حتى يكون الناس على دراية ، بينما للاعتراف بالوجه ، قالت إنها ستنشر إرشادات توضح كيف يمكن نشرها بشكل قانوني.
سيتم أيضًا تدقيق أنظمة التعرف على وجه الشرطة ، حيث تم نشر النتائج التي توصلت إلى تأكيد الأشخاص أن الأنظمة تحكمها جيدًا وأن حقوقهم محمية.
الذكاء الاصطناعي هو أكثر من مجرد تغيير التكنولوجيا – إنه تغيير في المجتمع. لكن يجب أن تعمل الذكاء الاصطناعى للجميع … وهذا يتضمن وضع العدالة والانفتاح والشمول في الأسس
Dawn Butler ، AI All Party Parliamentary Group
وقال داون بتلر ، نائب رئيس المجموعة البرلمانية الحزبية (APPG) في إطلاق الإستراتيجية: “إن الذكاء الاصطناعي هو أكثر من مجرد تغيير في التكنولوجيا-إنه تغيير في المجتمع. سيغير بشكل متزايد كيف نحصل على الرعاية الصحية ، والالتحاق بالمدرسة ، والسفر ، وحتى تجربة الديمقراطية”. “لكن يجب أن تعمل الذكاء الاصطناعى للجميع ، وليس فقط عدد قليل من الناس ، لتغيير الأشياء. وهذا ينطوي على وضع الإنصاف والانفتاح والشمول في الأسس”.
وأضاف اللورد كليمنت جونز ، الرئيس المشارك لـ AI APPG: “يجب أن تكون ثورة الذكاء الاصطناعي تأسست على الثقة. الخصوصية والشفافية والمساءلة ليست عوائق أمام الابتكار-فهي تشكل أساسها. إن الذكاء الاصطناعى يتقدم بشكل سريع أو يضمن أن الابتكار غير المرغوب فيه أو لا يتجاوز الابتكار ، أو لا تضمن الابتكار في الانتقال ، أو لا تزيد من حقوق الابتكار. مبادئ.”
ولاحظ أن المخاوف العامة مرتفعة بشكل خاص عندما يتعلق الأمر بالقياسات الحيوية للشرطة ، واستخدام الخوارزميات الآلية من قبل المجندين ، واستخدام الذكاء الاصطناعى لتحديد أهلية الناس للحصول على مزايا الرعاية الاجتماعية.
وقال المنظم: “في عام 2024 ، أبلغت 8 ٪ فقط من مؤسسات المملكة المتحدة باستخدام أدوات صنع القرار من الذكاء الاصطناعى عند معالجة المعلومات الشخصية ، و 7 ٪ أبلغوا عن استخدام الوجه أو الاعتراف الحيوي. كلاهما كانا هامشيًا فقط من العام السابق”.
“هدفنا هو تمكين المنظمات من استخدام هذه التقنيات المعقدة والمتطورة والتقنيات الحيوية بما يتماشى مع قانون حماية البيانات. وهذا يعني أن الأشخاص محميون وزيادة الثقة والثقة في كيفية استخدام المنظمات هذه التقنيات.
“ومع ذلك ، لن نتردد في استخدام صلاحياتنا الرسمية لحماية حقوق الناس إذا كانت المنظمات تستخدم المعلومات الشخصية بتهور أو تسعى إلى تجنب مسؤولياتها. من خلال التدخل بشكل متناسب ، سننشئ مجالًا أكثر عدلاً للمنظمات المتوافقة وضمان حماية قوية للناس.”
في أواخر مايو 2025 ، أ تحليل من قبل معهد Ada Lovelace وجدت أن “الفجوات المهمة والتفتت” في أطر الحوكمة “المرقعة” الحالية لتقنيات المراقبة الحيوية تعني أن حقوق الناس ليست محمية بشكل كاف.
بينما ركز تحليل معهد ADA Lovelace في المقام الأول على أوجه القصور في استخدام الشرطة في المملكة المتحدة لتكنولوجيا التعرف على الوجه الحية (LFR) – التي حددها على أنها أبرز قضية استخدام المراقبة الحيوية – أشار إلى أن هناك حاجة إلى الوضوح القانوني والحوكمة الفعالة لـ “تقنيات المراقبة الجماعية الحيوية” في جميع المجالات.
ومع ذلك ، في حين ركزت معظم هذه الأشياء على قياسات الشرطة الحيوية البحتة ، فإن مراجعة Ryder على وجه الخصوص أخذت في الاعتبار استخدامات القطاع الخاص للبيانات والتقنيات البيومترية ، كما في شراكات بين القطاعين العام والخاص و مراقبة مكان العمل