أخبار التقنية

تصر الحكومة على أنها تتصرف “بمسؤولية” فيما يتعلق بالذكاء الاصطناعي العسكري


تصر حكومة المملكة المتحدة على أنها تتصرف بالفعل “بمسؤولية” في تطوير أنظمة الأسلحة الفتاكة المستقلة (LAWS) والذكاء الاصطناعي العسكري (AI)، بعد تحذير من اللوردات “بالمضي قدمًا بحذر”.

ومع ذلك، يقول النقاد إن الحكومة تفشل في التعامل مع وجهات نظر أخلاقية بديلة، وأن الاستجابة تؤكد فقط التزامها بمسار العمل الذي تم تحديده بالفعل.

تأسست في يناير 2023 للتحقيق في أخلاقيات تطوير ونشر الذكاء الاصطناعي العسكري وقوانين الأسلحة الفتاكة (LAWS)، لجنة اللوردات للذكاء الاصطناعي في أنظمة الأسلحة اختتمت في 1 ديسمبر أن وعد الحكومة بالتعامل مع الذكاء الاصطناعي العسكري بطريقة “طموحة وآمنة ومسؤولة” لم يرق إلى مستوى الواقع.

وأشار لوردز على وجه التحديد إلى أن المناقشات حول أنظمة الأسلحة الفتاكة المستقلة والذكاء الاصطناعي العسكري بشكل عام “يشوبها السعي وراء الأجندات ونقص الفهم”، وحذر الحكومة من “المضي قدمًا بحذر” عند نشر الذكاء الاصطناعي لأغراض عسكرية.

الرد إلى الموجودات من بين أعضاء اللجنة، قالت الحكومة إنها تتصرف بالفعل بمسؤولية، وأن أولوية وزارة الدفاع فيما يتعلق بالذكاء الاصطناعي هي تعظيم القدرة العسكرية في مواجهة الخصوم المحتملين، الذين زعمت أنه “من غير المرجح أن يكونوا مسؤولين”.

وأضافت الحكومة أنه على الرغم من ترحيبها بـ “التحليل الشامل والمثير للتفكير”، إلا أن الرسالة الشاملة للجنة والتي مفادها أنها يجب أن تتصرف بحذر “تعكس بالفعل نهج وزارة الدفاع تجاه اعتماد الذكاء الاصطناعي”.

وقالت أيضًا إنها بالفعل “ملتزمة بالاستخدام الآمن والمسؤول للذكاء الاصطناعي في المجال العسكري”، وأنها “ستلتزم دائمًا بقراراتنا الوطنية والدولية”. الالتزامات القانونية الدولية“.

توصيات محددة

وتناول رد الحكومة توصيات محددة قدمتها اللجنة، وتم التركيز على الكثير منها تحسين الرقابة وبناء الدعم الديمقراطي للذكاء الاصطناعي العسكري، بما في ذلك عن طريق إتاحة المزيد من المعلومات للبرلمان لإجراء التدقيق المناسب، بالإضافة إلى القيام بالعمل على فهم المواقف العامة.

كما دعت اللجنة إلى فرض حظر محدد على استخدام الذكاء الاصطناعي في القيادة والسيطرة والاتصالات النووية؛ السيطرة البشرية ذات مغزى في كل مرحلة من مراحل دورة حياة نظام أسلحة الذكاء الاصطناعي؛ واعتماد تعريف تشغيلي غير تقني لـ AWS حتى يمكن اتخاذ قرارات سياسية ذات معنى.

“[The UK government] وقال رئيس اللجنة اللورد ليزفان: “يجب أن تتضمن المبادئ الأخلاقية والقانونية في جميع مراحل التصميم والتطوير والنشر، مع تحقيق الفهم العام والتأييد الديمقراطي”. “يجب استخدام التكنولوجيا عندما تكون مفيدة، ولكن ليس بتكلفة غير مقبولة للمبادئ الأخلاقية في المملكة المتحدة.”

تفاصيل الرد

ومن خلال تقديم أمثلة على كيفية تعاملها بالفعل مع هذه القضية بحذر، قالت الحكومة إنها حددت بالفعل التزامها بالسيطرة البشرية الهادفة على أنظمة الأسلحة، وتجري بنشاط أبحاثًا حول أكثر أشكال السيطرة البشرية فعالية؛ وقد التزمت علناً بالفعل بالحفاظ على “السيطرة السياسية البشرية” على ترسانتها النووية.

وتعليقًا مباشرًا على التوصيات التي تقول إنه يجب عليها أن تحدد بوضوح كيف ستلتزم بالمبادئ الأخلاقية وتصبح رائدة في الذكاء الاصطناعي العسكري المسؤول، قالت الحكومة إنها تتخذ بالفعل “خطوات ملموسة” لتحقيق هذه النتائج.

“نحن مصممون على اعتماد الذكاء الاصطناعي بشكل آمن ومسؤول لأنه لا يوجد نهج آخر يتماشى مع قيم الجمهور البريطاني؛ تلبية متطلبات نهجنا الصارم الحالي بشأن السلامة والامتثال القانوني؛ أو السماح لنا بتطوير القدرة المدعومة بالذكاء الاصطناعي التي نحتاجها”.

“من المهم أن نوضح أن اعتماد ودمج التقنيات والقدرات الجديدة لا يمثل تحديًا جديدًا للدفاع. لقد قمنا بإنشاء أنظمة فعالة لإدارة المخاطر مع وجود خطوط واضحة للمساءلة، وأطر الضمان والضوابط المضمنة طوال دورة حياة أي قدرة عسكرية.

“عندما تكون هناك حاجة إلى متطلبات فريدة، نظرًا لطبيعة أو وظيفة الذكاء الاصطناعي، فسوف نقوم بمراجعة هذه الأساليب وتعزيزها، والعمل مع الأطر القائمة حيثما كان ذلك ممكنًا.”

تعظيم القدرة العسكرية

وقالت الحكومة إنها تدرك ضرورة احترام القانون الدولي ومبادئها الأخلاقية، إلا أن “أولويتنا هي تعظيم قدراتنا العسكرية في مواجهة التهديدات المتزايدة”.

ونظرًا لهذه الأولوية، قالت إنها لا تتفق مع اللجنة بشأن الحاجة إلى تعريف AWS – وبالتالي فهي لا تنوي اعتماد تعريف – لأن “السلوكيات والنتائج غير المسؤولة وغير الأخلاقية التي تشعر اللجنة بالقلق بشأنها بحق” محظورة بالفعل في ظل القائمة [international] الآليات القانونية”.

وأضافت أن استخدام تعريف أنظمة الأسلحة الفتاكة ذاتية التشغيل كنقطة بداية لصك قانوني جديد يحظر أنواعًا معينة من الأنظمة (كما جادل البعض، ولكن ليس اللجنة) “يمثل تهديدًا لمصالح الدفاع في المملكة المتحدة، وفي أسوأ وقت ممكن، نظرًا تصرفات روسيا في أوكرانيا وزيادة عامة في العدوانية من قبل الخصوم المحتملين”.

وجاء في التقرير: “إننا نؤكد على أن السيطرة البشرية الهادفة، والتي تتم ممارستها من خلال المشاركة البشرية المناسبة للسياق، يجب أن تؤخذ في الاعتبار دائمًا عبر دورة الحياة الكاملة للنظام”. “لقد كنا نحن وشركاؤنا الرئيسيون واضحين في أننا نعارض إنشاء واستخدام AWS التي من شأنها أن تعمل بأي طريقة أخرى، لكننا نواجه خصومًا محتملين لم يقدموا التزامات مماثلة ومن غير المرجح أن يكونوا مسؤولين.

“بدلاً من ذلك، كما رأينا في مجالات أخرى، سيسعى الخصوم إلى استخدام الضغوط الدولية والأدوات القانونية لتقييد البحث والتطوير المشروعين بينما يتابعون بنشاط حالات الاستخدام غير الآمنة وغير المسؤولة. ومن المهم أن تحافظ المملكة المتحدة على حرية العمل لتطوير القدرات الدفاعية القانونية والمسؤولة لحماية شعبنا ومجتمعنا من مثل هذه الأنشطة العدائية.

وقالت الحكومة إنه على الرغم من أن دمج التقنيات الجديدة لا يمثل تحديًا جديدًا لوزارة الدفاع، إلا أنها ستنشر “قريبًا” مزيدًا من الإرشادات حول كيفية تفعيل المبادئ الأخلاقية، والتي ستحدد على وجه التحديد الحوكمة والمساءلة والعمليات وآليات إعداد التقارير التي تعتقد أنها ضرورية. ضرورة ترجمة المبادئ إلى ممارسة.

الأصوات الناقدة

وتعليقًا على رد الحكومة، قال بيتر بيرت من منظمة Drone Wars غير الحكومية (التي أعطت شهادة قال (قدم إلى اللجنة في أبريل 2023) إن هناك القليل من المعلومات الجديدة في الرد ولا شيء فيه سيكون مفاجئًا لمراقبي سياسة الحكومة في هذا المجال.

“يحدد الرد فقط كيف تنوي الحكومة متابعة مسار العمل الذي خططت بالفعل لاتخاذه، مع تكرار جوهر بيانات السياسة السابقة مثل استراتيجية الذكاء الاصطناعي الدفاعي وتضخيم نشاط وزارة الدفاع والإنجازات الأخيرة في مجال الذكاء الاصطناعي العسكري. “كتب في أ مشاركة مدونة.

“كما يمكن تصوره، تتخذ الاستجابة نهجًا داعمًا لتوصيات اللوردات التي تتماشى مع أجندتها الخاصة، مثل تطوير مجموعات بيانات عالية الجودة، وتحسين ترتيبات شراء الذكاء الاصطناعي بوزارة الدفاع، وإجراء بحث حول قدرات الذكاء الاصطناعي المستقبلية المحتملة.”

ومع ذلك، أشار إلى أنه في الحالات النادرة التي تحدت فيها اللجنة “بشكل كبير” نهج وزارة الدفاع، تم رفض هذه التحديات في نهاية المطاف من قبل الحكومة، وعلى الأخص فيما يتعلق برفض اعتماد تعريف AWS على أساس أن “المملكة المتحدة سيجعلها أكثر عرضة للعمل العسكري الروسي. حقًا؟”

أستاذ مشارك في النظرية السياسية بجامعة كوين ماري في لندن ومؤلف كتاب آلات الموت: أخلاقيات التقنيات العنيفةقالت إلك شوارتز لـ Computer Weekly إنه على الرغم من وجود بعض التحركات والإشارات المشجعة في استجابة الحكومة، إلا أنها تجدها مخيبة للآمال باعتبارها عالمة في الأخلاق.

وقالت: “إن مشكلة الأخلاق لم تتم معالجتها بالكامل”. “بدلاً من ذلك، فإن المحور الأخير نحو “الذكاء الاصطناعي المسؤول”، على الرغم من عدم تعريفه بشكل كافٍ والإفراط في استخدامه مثل هذا المفهوم، يؤدي إلى الكثير من العمل الثقيل.

“ما رأيناه في السنوات الأخيرة هو أن فكرة “المسؤولية” الهزيلة نسبيًا أصبحت بديلاً لتفاعل أكثر تعمقًا مع الأخلاق. هذا التحول الجانبي نحو “المسؤولية” بدلاً من محاولة التعامل مع الأسئلة الأخلاقية الشائكة التي تظهر بوضوح مع الذكاء الاصطناعي، وخاصة الذكاء الاصطناعي في أنظمة الاستهداف، له عدد من الآثار المترتبة على الجهات الحكومية الراغبة في بناء AWS.

وأضافت شوارتز أن التركيز على “المسؤولية” يخلق أيضًا تمييزًا مفيدًا استراتيجيًا بين الجهات الفاعلة المسؤولة (أي القوى الغربية) والجهات الفاعلة غير المسؤولة بشكل جوهري (عادة الصين أو روسيا): “إننا نرى هذا مرارًا وتكرارًا في الخطاب”. قال. “إنها مرة أخرى فعالة في رفض التحديات التي يثيرها النقاد حول المخاطر الأخلاقية المحتملة، أو في الواقع النقص المحتمل في الأدلة على أن هذه الأنظمة فعالة بالفعل.”

وبالمثل، أشار بيرت إلى أن تركيز الحكومة على الحوار مع “الدول المتشابهة في التفكير” حول الذكاء الاصطناعي العسكري وخدمات خدمات الإنترنت “لا يتطلب سوى القليل من الجهد ومن المرجح أن يؤدي إلى مكاسب محدودة”، وأن التعامل مع أولئك الذين لديهم وجهات نظر مختلفة أمر ضروري لتحقيق تغيير حقيقي.

وأضاف: “من الواضح أن المملكة المتحدة لم تبذل أي جهد للقيام بذلك على الساحة الدولية”. وأضاف: “الرد مليء بأحكام مثل: “نحن نعلم أن بعض الخصوم قد يسعون إلى إساءة استخدام تقنيات الذكاء الاصطناعي المتقدمة، ونشرها بطريقة خبيثة وغير آمنة وغير أخلاقية”، مما يشير إلى أن المملكة المتحدة تعتزم اتباع نهج عدائي تجاه هؤلاء الخصوم”. وليس لديه مصلحة في الدخول في حوار معهم”.

في النهاية، قال شوارتز إنه نظرًا لمدى سرعة تغير الأهداف فيما يتعلق بما هو مقبول وما هو غير مقبول بالنسبة لأسلحة الذكاء الاصطناعي، فهل من الصعب ألا تشعر “بالإرهاق قليلاً” من استجابة الحكومة، وقراءتها على أنها جهد للالتفاف حول القضايا الأخلاقية المطروحة والاستمرار كما كان من قبل.

وقالت: “هناك الكثير من التحريفات اللغوية والعموميات والعبارات الغامضة وقليل جدًا من المشاركة الملموسة في تفاصيل القضايا الأخلاقية التي أثارها ليس فقط التقرير ولكن العديد من الخبراء في هذا الموضوع”. “يشعر المرء بوجود انحياز تأكيدي قوي في هذه القضية، حيث يتم الاعتراف فقط بتلك الجوانب من النقاش التي تريد الحكومة سماعها.”

الشركاء الرئيسيين

وأشار كل من بيرت وشوارتز إلى أن رد الحكومة يسلط الضوء بوضوح على إسرائيل باعتبارها “شريكًا رئيسيًا” في الذكاء الاصطناعي العسكري، الذي يستخدم نظامًا قائمًا على التعلم الآلي يعرف باسم حبسورا (أو الإنجيل باللغة الإنجليزية) لتحديد أهداف لقصفها. حملة في غزة.

في الوقت الذي أصبح فيه نظام الذكاء الاصطناعي معروفًا للعامة في بداية ديسمبر 2023وكانت قوات الدفاع الإسرائيلية قد قتلت بالفعل أكثر من 15 ألف شخص في غزة؛ الرقم الذي يقف على أكثر من 30،000 حتى وقت النشر، بحسب تقديرات وزارة الصحة في غزة.

وقال بيرت: “بدلاً من محاسبة إسرائيل على استخدامها للاستهداف وأساليب القتال، التي أدت إلى تضخم مستويات الضحايا المدنيين، تدعم المملكة المتحدة جهودها الحربية بكل إخلاص”.

“فجوات كهذه بين سياسات الحكومة المنصوص عليها في الرد على لجنة اللوردات وواقع ما تم تجربته أثناء الهجوم على غزة تكشف الرد على حقيقته – وثيقة علاقات عامة. إن الغرض النهائي من الرد ليس إقناع أعضاء مجلس اللوردات بأن الحكومة تستمع إلى مخاوفهم، ولكن “بيع” سياسة وزارة الدفاع الحالية والاستثمار في الذكاء الاصطناعي العسكري لوسائل الإعلام والجمهور.

وبربط ذلك بالتأثير التهميشي الذي يمكن أن تحدثه أنظمة الذكاء الاصطناعي على الحكم البشري، قال شوارتز إن وضع الإنسان في الحلقة قد لا يكون فعالاً على الإطلاق بالنظر إلى ما يشهده العالم مع جيش الدفاع الإسرائيلي في غزة.

وقالت: “المشاركة البشرية تعني عملية موافقة سريعة – القبول التسلسلي للأهداف دون الكثير من التدقيق سيكون هو القاعدة”. “هذا مسار واضح بالنظر إلى منطق نظام الذكاء الاصطناعي وجاذبية السرعة التي يوفرها. ومع ذلك، فإن مثل هذه المشاركة البشرية بعيدة كل البعد عن أن تكون ذات معنى.

وختمت شوارتز أنه على الرغم من أوجه القصور في استجابة الحكومة، إلا أنها ستكون حريصة على الاطلاع على وثائق التوجيه المرتقبة. وقالت: “ربما لا يزال هناك أمل في أن الحكومة ليست مقتنعة تمامًا بجماعة الضغط التكنولوجية القوية والمتزايدة التي تبيع أدواتها التي لم يتم تجربتها واختبارها بعد من أجل حرب مستقبلية”.



Source link

زر الذهاب إلى الأعلى