أخبار التقنية

إمكانات إرهابية من الذكاء الاصطناعي “نظرية بحتة”


يمكن أن تساعد أنظمة الذكاء الاصطناعي التوليدي (GENAI) الإرهابيين في نشر الدعاية والتحضير للهجمات ، وفقًا لمستشار الإرهاب في المملكة المتحدة ، لكن مستوى التهديد لا يزال “نظريًا بحتًا” دون دليل إضافي على استخدامه في الممارسة العملية.

في له أحدث تقرير سنويحذر جوناثان هول ، المراجع المستقل للحكومة لتشريعات الإرهاب ، من أنه على الرغم من أن أنظمة Genai لديها القدرة على استغلالها من قبل الإرهابيين ، فإن مدى فعالية التكنولوجيا في هذا السياق ، وماذا تفعل حيال ذلك ، هو “سؤال مفتوح” حاليًا.

في تعليق على إمكانية نشر Genai في خدمة أنشطة الدعاية في مجموعة إرهابية ، على سبيل المثال ، أوضح هول كيف يمكن استخدامه لتسريع إنتاجها بشكل كبير وتضخيم نشرها ، وتمكين الإرهابيين من إنشاء صور وسرد وأشكال مراسلة يمكن مشاركتها بسهولة.

ومع ذلك ، أشار أيضًا إلى أن الإرهابيين “يغمرون” بيئة المعلومات من خلال المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعى ، وأن الاستيلاء على الجماعات قد يتنوع نتيجة لقدرتها على تقويض رسائلهم.

وقال: “بناءً على أهمية الأصالة ، فإن احتمال أن يكون النص أو الصورة قد تم إنشاؤه من الذكاء الاصطناعي قد تقوض الرسالة. قد تثبت عمليات الدعاية الشبيهة بالرسائل غير المرغوب فيها أنها قد تثبت انعدامها” ، مضيفًا أن بعض المجموعات الإرهابية مثل Queda ، والتي “تضع قسطًا من الرسائل الأصلية من كبار القادة” ، قد تتجنب وتجنبها للترسبات الدائرية.

“على العكس من ذلك ، قد يكون الوقت قد يكون الوقت المناسب للمنتديات اليمينية المتطرفة ، ومناهضة السامية ومنظري المؤامرة الذين يكتشفون في الإبداع.”

وبالمثل ، بشأن إمكانات التكنولوجيا في التخطيط للهجوم ، قال هول إنه على الرغم من أن لديها القدرة على المساعدة ، إلا أنها سؤال مفتوح حول مدى فائدة أنظمة الذكاء الاصطناعى الحالية للجماعات الإرهابية في الممارسة العملية.

وقال “من حيث المبدأ ، فإن Genai متاح للبحث عن الأحداث الرئيسية والمواقع لاستهداف الأغراض ، ويقترح طرقًا للتحايل على الأمن وتزويد Tradecraft بتكييف الأسلحة أو بنية الخلايا الإرهابية”.

“يمكن الوصول إلى chatbot المناسب للاستغناء عن الحاجة إلى تنزيل المواد التعليمية عبر الإنترنت وجعل الإرشادات المعقدة أكثر سهولة … [while] يمكن لـ Genai تقديم المشورة الفنية حول تجنب المراقبة أو جعل الإضرابات أكثر فتكًا ، بدلاً من الاعتماد على اتصال بشري متخصص. “

ومع ذلك ، أضاف أن “المكاسب قد تكون تدريجية وليست درامية” ومن المحتمل أن تكون أكثر صلة بالمهاجمين الوحيدين من المجموعات المنظمة.

وأضاف هول أيضًا أنه على الرغم من أنه يمكن استخدام Genai “لتوسيع منهجية الهجوم” – على سبيل المثال ، من خلال تحديد وتوليف العوامل البيولوجية أو الكيميائية الضارة – فإن هذا سيتطلب أيضًا من المهاجم أن يكون لديه خبرة ومهارات أو معدات سابقة.

وقال: “لقد تم الشك في فعالية جيناي هنا”.

تم توضيح نقطة مماثلة في البداية تقرير سلامة الذكاء الاصطناعى الدولي، التي تم إنشاؤها بواسطة مجموعة عالمية تضم ما يقرب من 100 من خبراء الذكاء الاصطناعي في أعقاب الافتتاح قمة سلامة الذكاء الاصطناعى التي استضافتها حكومة المملكة المتحدة في بارك بارك في عام 2023.

وقال إنه على الرغم من أن نماذج الذكاء الاصطناعى الجديدة يمكنها إنشاء أدلة خطوة بخطوة لإنشاء مسببات الأمراض والسموم التي تتجاوز الخبرة على مستوى الدكتوراه ، مما قد يقلل من الحواجز التي تحول دون تطوير الأسلحة البيولوجية أو الكيميائية ، فإنها تظل عملية “معقدة تقنيًا” ، مما يعني أن “الأداة العملية للمبتدئين لا تزال غير مؤكدة”.

هناك خطر آخر تم تحديده بواسطة Hall هو استخدام الذكاء الاصطناعى في عملية التطرف عبر الإنترنت عبر chatbots ، حيث قال إن التفاعلات الفردية بين الإنسان والآلة يمكن أن تخلق “حلقة مغلقة من التطرف الإرهابي … الأكثر أهمية للأفراد الوحيدين وغير السعداء الذين يتم التخلص منها بالفعل نحو العدمية أو البحث عن إجابات متطرفة وتفتقر إلى العالم الحقيقي أو عبر الإنترنت.

ومع ذلك ، أشار إلى أنه حتى لو لم يكن لدى النموذج الدرابزين وتم تدريبه على البيانات “متعاطفة مع الروايات الإرهابية” ، فإن المخرجات ستعتمد إلى حد كبير على ما يسأله المستخدم.

حلول محتملة؟

فيما يتعلق بالحلول القانونية ، سلط هول الضوء على صعوبة منع Genai من استخدامه لمساعدة الإرهاب ، مع الإشارة إلى أن “المسؤولية المنبع” للذين المشاركين في تطوير هذه الأنظمة محدودة ، حيث يمكن استخدام النماذج على نطاق واسع للعديد من الأغراض المختلفة التي لا يمكن التنبؤ بها.

بدلاً من ذلك ، اقترح تقديم “المسؤولية القائمة على الأدوات” ، والتي من شأنها أن تستهدف أدوات الذكاء الاصطناعى المصممة خصيصًا لمساعدة الأنشطة الإرهابية.

وقال هول إنه على الرغم من أن الحكومة يجب أن تفكر في التشريع ضد إنشاء أو حيازة برامج الكمبيوتر المصممة لإثارة الكراهية العنصرية أو الدينية ، فقد اعترف أنه سيكون من الصعب إثبات أن البرامج قد تم تصميمها على وجه التحديد لهذا الغرض.

وأضاف أنه على الرغم من أنه يمكن مقاضاة المطورين بموجب قوانين الإرهاب في المملكة المتحدة إذا قاموا بالفعل بإنشاء نموذج AI أو chatbot خاص بالإرهاب ، “يبدو من غير المحتمل أن يتم إنشاء أدوات Genai خصيصًا لتوليد أشكال جديدة من الدعاية الإرهابية-فمن الأرجح أن يتم تسخين قدرات النماذج العامة القوية”.

“يمكنني أن أتوقع صعوبات هائلة في إثبات أن chatbot [or GenAI model] تم تصميمه لإنتاج محتوى ضيق الإرهاب. سيكون المسار الأفضل جريمة صنع … برنامج كمبيوتر مصمم خصيصًا لإثارة الكراهية على أساس العرق أو الدين أو النشاط الجنسي “.

في تأملاته ، أقر هول أنه يبقى أن نرى بالضبط كيف سيتم استخدام الذكاء الاصطناعى من قبل الإرهابيين وأن الموقف يظل “نظريًا بحتًا”.

وقال: “سيقول البعض ، بشكل معقول ، أنه لا يوجد شيء جديد. “دون دليل على أن الإطار التشريعي الحالي غير كافٍ ، لا يوجد أي أساس لتكييفه أو تمديده للتعامل مع حالات الاستخدام النظري البحتة. في الواقع ، قد يشير غياب الهجمات التي تدعم Genai إلى أن القضية برمتها مبالغ فيها.”

وأضاف هول أنه حتى إذا كانت هناك حاجة إلى شكل من أشكال التنظيم لتجنب الأضرار المستقبلية ، فقد يقال إن المسؤولية الجنائية هي الخيار الأقل ملاءمة ، لا سيما بالنظر إلى الضرورة السياسية لتسخير الذكاء الاصطناعي كقوة للنمو الاقتصادي وغيرها من الفوائد العامة.

“تشمل بدائل المسؤولية الجنائية الإبلاغ عن الشفافية ، ومعايير الصناعة التطوعية ، ومراجعة الجهات الخارجية ، والإبلاغ عن النشاط المشبوه ، والترخيص ، والحلول المخصصة مثل AI-Waterming ، والقيود المفروضة على الإعلان ، وأشكال المسؤولية المدنية ، والالتزامات التنظيمية” ، قال.

بينما أعرب هول عن عدم اليقين حول مدى تبني الجماعات الإرهابية من الذكاء الاصطناعي ، خلص إلى أن التأثير الأكثر احتمالا للتكنولوجيا كان “تدهورًا اجتماعيًا” عامًا يروج له انتشار التضليل عبر الإنترنت.

وقال: “على الرغم من أن البوم من القنابل أو عمليات إطلاق النار أو هجمات القوة الحادة ، إلا أن التحريفات السامة حول دوافع الحكومة أو ضد التركيبة السكانية المستهدفة يمكن أن تضع الأسس من أجل الاستقطاب والعداء والعنف الإرهابي في العالم الحقيقي”. “لكن لا يوجد دور في تشريع الإرهاب هنا لأن أي صلة بين المحتوى المتعلق بالجنراي والإرهاب في نهاية المطاف سيكون غير مباشر للغاية.”

على الرغم من عدم تغطيته في التقرير ، إلا أن هول قد اعترف بأنه قد يكون هناك “آثار غير مباشرة” لـ Genai على الإرهاب ، حيث يمكن أن يؤدي إلى بطالة واسعة النطاق وخلق بيئة اجتماعية غير مستقرة “أكثر مواتية للإرهاب”.



Source link

زر الذهاب إلى الأعلى