صلاحيات التحقيق: يمكن أن تساعد المبادئ التوجيهية للشرطة والجواسيس الشركات ذات الذكاء الاصطناعي

تتحول وكالات الشرطة والمخابرات إلى الذكاء الاصطناعى للخلع من خلال كميات هائلة من البيانات لتحديد التهديدات الأمنية والمشتبه بهم المحتملين والأفراد الذين قد يشكلون خطرًا أمنيًا.
تستخدم وكالات مثل GCHQ و MI5 تقنيات منظمة العفو الدولية لجمع البيانات من مصادر متعددة ، وإيجاد اتصالات بينهما ، والفرز أهم النتائج للمحللين البشريين للمراجعة.
لقد أثار استخدامهم للأنظمة الآلية لتحليل كميات كبيرة من البيانات ، والتي يمكن أن تشمل مجموعات البيانات السائبة التي تحتوي على السجلات المالية للأفراد والمعلومات الطبية والاتصالات المعتادة ، مخاوف جديدة بشأن الخصوصية وحقوق الإنسان.
متى يتم استخدام AI متناسب ، ومتى يذهب بعيدا؟ هذا سؤال أن هيئة الرقابة على خدمات الذكاء ، مكتب مفوض قوى التحقيق (IPCO) يتصارع مع.
متى يتم استخدام منظمة العفو الدولية؟
Duffy Calder هو كرسي IPCO’s اللجنة الاستشارية الفنية، والمعروفة باسم TAP ، وهي مجموعة صغيرة من الخبراء الذين لديهم خلفيات في الأوساط الأكاديمية ومجتمع الاستخبارات في المملكة المتحدة وصناعة الدفاع.
تتمثل وظيفتها في تقديم المشورة لمفوض قوى التحقيق ، براين ليفيسون ، والمفوضين القضائيين في IPCO – الذين يخدمون أو القضاة المتقاعدين – المسؤولين عن توقيع أو رفض طلبات أوامر المراقبة بشأن القضايا الفنية المعقدة في كثير من الأحيان.
يرافق أعضاء اللجنة أيضًا مفتشو IPCO في زيارات للشرطة ووكالات الاستخبارات وغيرها من الوكالات الحكومية التي يتمتعون بسلطات المراقبة ، بموجب قانون القوى التحقيق.
في المقابلة الأولى التي قدمتها IPCO عن عمل TAP ، يقول Calder إن إحدى الوظائف الرئيسية للمجموعة هي تقديم المشورة لمفوض القوى الاستقصائية حول اتجاهات التكنولوجيا المستقبلية.
وتقول: “من الواضح تمامًا أننا سنفعل شيئًا ما على الذكاء الاصطناعي”.
أنتج الصنبور إطار عمل – مساعدة تقييم التناسب AI – لمساعدة الشرطة وخدمات الاستخبارات وأكثر من 600 وكالة حكومية أخرى تنظمها IPCO في التفكير فيما إذا كان استخدام الذكاء الاصطناعى يتناسب ويقلل من غزو الخصوصية. كما جعلت إرشاداتها متاحة للشركات والمؤسسات الأخرى.
كيف يمكن استخدام الذكاء الاصطناعي في المراقبة
تقول كالدر إنها غير قادرة على قول أي شيء عن الفرق الذي تحدثه منظمة العفو الدولية للشرطة ووكالات الاستخبارات وغيرها من الهيئات الحكومية التي تشرف عليها IPCO. هذا سؤال للهيئات التي تستخدمها ، كما تقول.
ومع ذلك ، متاح للجمهور تقرير بحثي من معهد رويال يونايتد للخدمات (Rusi) ، بتكليف من GCHQ ، يقترح طرقًا يمكن استخدامها. وهي تشمل تحديد الأفراد من صوت صوتهم أو أسلوب الكتابة أو الطريقة التي يكتبون بها على لوحة مفاتيح الكمبيوتر.
© Ian Georgeson Photography“الناس يثيرون بحق قضايا الإنصاف والشفافية والتحيز ، لكنهم لا يفصلونهم دائمًا ويسألون ما يعنيه هذا في بيئة فنية”
Muffy Calder ، جامعة غلاسكو
ومع ذلك ، فإن حالة الاستخدام الأكثر إقناعًا هي فرز كمية هائلة من البيانات التي يتم جمعها من قبل وكالات الاستخبارات وإيجاد الروابط ذات الصلة بين البيانات من مصادر متعددة لها قيمة ذكاء. الاستخبارات المعززة يمكن للأنظمة تقديم المحللين مع المعلومات الأكثر صلة من بحر من البيانات لتقييم الحكم النهائي وإصداره.
يقول كالدر ، إن علماء الكمبيوتر وعلماء الرياضيات الذين يشكلون الصنبور يعملون مع ودراسة الذكاء الاصطناعي لسنوات عديدة ، ويدركون أن استخدام الذكاء الاصطناعى لتحليل البيانات الشخصية يثير أسئلة أخلاقية.
وتقول: “الناس يثيرون بحق قضايا الإنصاف والشفافية والتحيز ، لكنهم لا يفهمونهم دائمًا ويسألون ما يعنيه هذا في بيئة فنية”.
التوازن بين الخصوصية والتسلل
يهدف الإطار إلى إعطاء أدوات للمؤسسات لتقييم مقدار ما يتطفل على الخصوصية وكيفية تقليل التسلل. بدلاً من تقديم إجابات ، يقدم مجموعة من الأسئلة التي يمكن أن تساعد المنظمات في التفكير في مخاطر الذكاء الاصطناعي.
“أعتقد أن هدف الجميع ضمن التحقيقات هو تقليل اقتحام الخصوصية. لذلك ، يجب أن يكون لدينا دائمًا توازن بين الغرض من التحقيق والتحفيز على الناس ، وعلى سبيل المثال التسلل الجانبي [of people who are not under suspicion]تقول.
الصنبور مساعدة تقييم التناسب AI مخصص للأشخاص الذين يقومون بتصميم وتطوير واختبار ونماذج الذكاء الاصطناعي والأشخاص المشاركين في ضمان الامتثال لمنظماتهم للمتطلبات القانونية والتنظيمية. يوفر سلسلة من الأسئلة التي يجب مراعاتها لكل مرحلة في نموذج الذكاء الاصطناعي ، من المفهوم ، إلى التطور ، وحتى استغلال النتائج.
“إنه إطار عمل يمكننا من خلاله البدء في السؤال ، هل نفعل الأشياء الصحيحة؟ هل منظمة العفو الدولية أداة مناسبة للظروف؟ لا يتعلق الأمر بذلك ، إنه أكثر ما يجب علي” ، كما تقول.
هل الذكاء الاصطناعي هو الأداة الصحيحة؟
السؤال الأول هو ما إذا كانت الذكاء الاصطناعي هي الأداة المناسبة للوظيفة. في بعض الحالات ، مثل التعرف على الوجه ، قد يكون الذكاء الاصطناعى هو الحل الوحيد لأنه من الصعب حل هذه المشكلة ، وبالتالي فإن تدريب نظام الذكاء الاصطناعي من خلال إظهار أمثلة عليه أمر منطقي.
في حالات أخرى ، حيث يفهم الناس ما يشير إليه كالدر باعتباره “فيزياء” للمشكلة ، مثل حساب الضريبة ، فإن الخوارزمية الرياضية أكثر ملاءمة.
“منظمة العفو الدولية جيدة جدًا عندما يكون الحل التحليلي صعبًا للغاية أو لا نعرف ما هو الحل التحليلي. لذلك من البداية ، إنها مسألة السؤال ، هل أحتاج فعلاً إلى الذكاء الاصطناعي هنا؟” تقول.
هناك مشكلة أخرى يجب مراعاتها وهي عدد المرات التي يجب إعادة تدريب نماذج الذكاء الاصطناعى لضمان اتخاذ قرارات بشأن أفضل البيانات وأكثرها دقة ، والبيانات الأكثر ملاءمة للتطبيقات التي يتم استخدام النموذج من أجلها.
أحد الأخطاء الشائعة هو تدريب نموذج الذكاء الاصطناعي على البيانات التي لا تتماشى مع استخدامها المقصود. وتقول: “ربما يكون هذا كلاسيكيًا. لقد دربتها على صور للسيارات ، وستستخدمها لمحاولة التعرف على الدبابات”.
قد تتضمن الأسئلة الحرجة ما إذا كان نموذج الذكاء الاصطناعى له التوازن الصحيح بين الإيجابيات الخاطئة والسلبيات الخاطئة في تطبيق معين.
على سبيل المثال ، إذا تم استخدام الذكاء الاصطناعى لتحديد الأفراد من خلال تقنية التعرف على وجه الشرطة ، فإن الكثير من الإيجابيات الخاطئة تؤدي إلى إيقاف أبرياء عنهم واستجوابهم من قبل الشرطة. الكثير من السلبيات الخاطئة سيؤدي إلى عدم الاعتراف بالمشتبه بهم.
عندما يرتكب الذكاء الاصطناعي أخطاء
ماذا سيحدث ، إذن ، إذا تم وضع شخص ما بشكل خاطئ تحت المراقبة الإلكترونية نتيجة لقرار آلي؟ يوافق كالدر على أنه سؤال حاسم.
يساعد الإطار من خلال مطالبة المنظمات بالتفكير في كيفية الرد عليها عندما AI يرتكب الأخطاء أو الهلوسة.
“قد تكون الاستجابة هي أننا نحتاج إلى إعادة تدريب النموذج على بيانات أكثر دقة أو أكثر تحديثًا. قد يكون هناك الكثير من الإجابات ، والنقطة الأساسية هي أن تدرك حتى أن هناك مشكلة ، وهل لديك عملية للتعامل معها وطريقة ما لالتقاط قراراتك؟”
هل كان الخطأ نظامًا؟ هل كان مدخلات المستخدم؟ هل كان ذلك بسبب الطريقة التي أنتجها المشغل البشري ومعالجة النتيجة؟
“قد ترغب أيضًا في التساؤل عما إذا كان هذا هو نتيجة لكيفية تحسين الأداة. على سبيل المثال ، هل تم تحسينه لتقليل السلبيات الخاطئة ، وليس الإيجابيات الخاطئة ، وما فعلته كان شيئًا أعطاك إيجابية خاطئة؟” تضيف.
اقتحام أثناء التدريب
في بعض الأحيان ، قد يكون من المبرر قبول مستوى أعلى من خصوصية التسلل خلال مرحلة التدريب إذا كان ذلك يعني انخفاض مستوى التسلل عند نشر الذكاء الاصطناعي. على سبيل المثال ، يمكن لتدريب نموذج يحتوي على البيانات الشخصية لعدد كبير من الأشخاص التأكد من أن النموذج أكثر استهدافًا ومن المحتمل أن يؤدي إلى اقتحام “جانبي”.
وتقول: “النتيجة النهائية هي أداة يمكنك استخدامها بطريقة أكثر استهدافًا في السعي لتحقيق النشاط الإجرامي ، على سبيل المثال. لذا ، تحصل على أداة أكثر استهدافًا ، وعندما تستخدم الأداة ، فإنك تؤثر فقط على خصوصية قليلة من الناس”.
إن وجود إنسان في الحلقة في نظام الذكاء الاصطناعي يمكن أن يخفف من إمكانية وجود أخطاء ، ولكنه يجلب أيضًا مخاطر أخرى.
الإنسان في الحلقة
أنظمة الكمبيوتر التي تم تقديمها في المستشفيات ، على سبيل المثال ، تتيح للأطباء توزيع الأدوية بشكل أكثر كفاءة من خلال السماح لهم بالاختيار من قائمة الأدوية والكميات ذات الصلة ، بدلاً من الاضطرار إلى كتابة الوصفات الطبية باليد.
الجانب السلبي هو أنه من الأسهل على الأطباء “إزالة الحساسية” ويرتكب خطأ من خلال اختيار الدواء الخاطئ أو الجرعة الخاطئة ، أو الفشل في التفكير في دواء أكثر ملاءمة قد لا يتم تضمينه في القائمة المحددة مسبقًا.
يمكن أن تؤدي أدوات الذكاء الاصطناعى إلى التهاب الحساسية المماثلة ، حيث يمكن للأشخاص فك الارتباط إذا كان مطالبة بالتحقق باستمرار من عدد كبير من المخرجات من نظام الذكاء الاصطناعي. يمكن أن تصبح المهمة تمرين قائمة مراجعة ، ومن السهل على المراجع البشري المتعب أو المشتت انتباهه وضع علامة على المربع الخطأ.
يقول كالدر: “أعتقد أن هناك الكثير من أوجه التشابه مع استخدام الذكاء الاصطناعى والطب لأن كلاهما يتعامل مع البيانات الحساسة وله كلاهما تأثير مباشر على حياة الناس”.
من المحتمل أن تكون مساعدة تقييم التناسب في AI في TAP هي القراءة الأساسية لكبار موظفي المعلومات وكبار المسؤولين الرقميين الذين يفكرون في نشر الذكاء الاصطناعي في منظماتهم.
يقول كالدر: “أعتقد أن الغالبية العظمى من هذه الأسئلة قابلة للتطبيق خارج سياق التحقيق”.
“يجب على أي منظمة تستخدم التكنولوجيا تقريبًا التفكير في سمعتها وفعاليتها. لا أعتقد أن المنظمات شرعت في ارتكاب أخطاء أو القيام بشيء ما ، وبالتالي فإن الهدف من ذلك هو مساعدة الناس [use AI] تقول “بطريقة مناسبة”.




