يقول المخططون العسكريون وشخصيات الصناعة إن الذكاء الاصطناعي (AI) يمكنهم فتح كفاءة المكتب الخلفي للقوات المسلحة في المملكة المتحدة ومساعدة القادة في اتخاذ قرارات أسرع وأفضل ، لكن “المشكلات المستعصية” قد تقلل من المساءلة العسكرية.
يتحدث على لجنة عن أخلاقيات باستخدام التقنيات المستقلة في الحرب في حدث AI UK الذي استضافته معهد آلان تورينج في منتصف مارس ، وشخصيات الصناعة وضابطًا كبيرًا في الجيش البريطاني المتقاعدادعى أن هناك ضرورة أخلاقية لنشر الذكاء الاصطناعي في الجيش.
وجادلوا بأن انتشار الذكاء الاصطناعى في جميع أنحاء المملكة المتحدة سوف يردع الصراع في المستقبل ، وتحرير الموارد ، وتحسين عمليات صنع القرار المختلفة-بما في ذلك التخطيط العسكري واختيار الهدف-ومنع البلاد من التغلب على خصومها بشكل لا رجعة فيه.
في حين أن هؤلاء المتحدثين يسلطون الضوء على أهمية ضمان الإشراف الإنساني ذي معنى على الذكاء الاصطناعي العسكري ، والحاجة إلى تنظيم عالمي للحد إلك شوارزأستاذ النظرية السياسية بجامعة كوين ماري لندن ومؤلفة كتابه آلات الموت: أخلاقيات التقنيات العنيفة، جادل أن هناك توترًا واضحًا بين الحكم الذاتي والتحكم الذي يتم خبزه في التكنولوجيا.
وأضافت هذه “المشكلة المستعصية” مع الذكاء الاصطناعى تعني أن هناك خطرًا حقيقيًا من أن البشر أخرج من حلقة صنع القرار العسكرية، بدوره تقليل المساءلة وخفض العتبة لللجوء إلى العنف.
الإمكانات العسكرية لمنظمة العفو الدولية
جادل اللواء روبرت جونز ، على سبيل المثال ، أن استخدام أكبر من الذكاء الاصطناعى يمكن أن يساعد في الدفاع في المملكة المتحدة بشكل أفضل على التنقل “السياق الموحل” للحرب الحديثة ، والذي يتميز بأعداء أقل محددة جيدًا ونزاعات بالوكالة.
وقال: “لقد أصبح الحرب أكثر تعقيدًا. النصر والنجاح يصعب تحديده” ، مضيفًا أن أعلى استخدام محتمل لمنظمة العفو الدولية هو كيف يمكن أن يساعد القادة على اتخاذ أفضل القرارات الممكنة في أقل وقت.
“بالنسبة لأولئك الذين ليسوا على دراية بالدفاع ، فهو حقًا سباق – أنت تتسابق مع خصمك لاتخاذ قرارات أفضل وأسرع مما يمكنهم. إذا اتخذوا قرارات أسرع عليك ، حتى لو لم تكن مواقف مثالية ، فمن المحتمل أن يتمكنوا من الحصول على الزخم فوقك”.
مع اتخاذ القرارات ، ستحتاج إلى أن يكون لديك بيانات قوية وموثوقة ومحدثة دائمًا لاستبدال القدرات والقدرات المعرفية لصانع القرار البشري
إلك شوارز ، جامعة كوين ماري لندن
علاوة على إمكانات التكنولوجيا في تعزيز اتخاذ القرارات ، قال جونز إن الطبيعة “باهظة الثمن” لمنظمات الدفاع الجارية تعني أن الذكاء الاصطناعى يمكن استخدامه أيضًا لتعزيز كفاءة المكتب الخلفي ، والتي بدورها ستحقق المزيد من الأموال لاستخدامها في إمكانات الخط الأمامي.
وقال: “منظمة العفو الدولية تمنحك كفاءة هائلة ، وتخرج البشر من الحلقة ، وتحرر المال – والشيء الوحيد الذي نحتاجه في الدفاع في المملكة المتحدة في الوقت الحالي هو تحرير بعض المال حتى نتمكن من تحديث الواجهة الأمامية”.
ومع ذلك ، فقد أشار إلى أن إمكانات التكنولوجيا لتعزيز اتخاذ القرارات وفتح كفاءة المكتب الخلفي ستستند إلى قدرة الدفاع في المملكة المتحدة على تحسين ممارسات البيانات الأساسية بحيث يمكن استغلال الكميات الهائلة من المعلومات التي تحتفظ بها بشكل فعال من قبل الذكاء الاصطناعي.
وأضاف جونز أن منظمات الدفاع في المملكة المتحدة يجب أن تبدأ في النشر في المكتب الخلفي أولاً لتكوين ثقتها في استخدام التكنولوجيا ، قبل الانتقال إلى حالات الاستخدام الأكثر تعقيدًا مثل الأسلحة المستقلة وغيرها من أنظمة الخط الأمامي الذي تعمل بالنيابة: “بناء خط أساسي لمنظمة العفو الدولية يمكنك النمو منه”.
في حين وافقت شوارز على أن الذكاء الاصطناعى ستكون مفيدة للغاية للجيش لمهام المكتب الخلفي ، إلا أنها أخذت الرأي لأن التكنولوجيا ببساطة ليست جيدة بما يكفي لحالات الاستخدام المميتة ، وأن استخدام الذكاء الاصطناعى في صنع القرار سيؤدي إلى مزيد من المياه.
وقالت: “مع اتخاذ القرارات ، على سبيل المثال ، ستحتاج إلى أن يكون لديك بيانات قوية وموثوقة ودائماً محدثة لاستبدال القدرات والقدرات المعرفية لصانع القرار البشري” ، مضيفة الديناميات المتأصلة في التكنولوجيا تخلق توترًا واضحًا بين السرعة والتحكم.
وقال شوارز: “من ناحية ، نقول ،” حسنًا ، نحن بحاجة إلى سيطرة بشرية ذات معنى في جميع نقاط استخدام هذه الأنظمة “، ولكن في النهاية ، فإن سبب وجود هذه الأنظمة هو إخراج الإنسان من الحلقة ، لذلك هناك توتر دائمًا”.
“السبب في أن الإنسان يخرج أكثر من الحلقة هو أن منطق النظام لا يتوافق مع هذا المنطق المعرفي لكيفية معالجة البيانات ، كبشر ، البيانات.”
وأضاف Elke أنه علاوة على التوتر الواضح بين سرعة الإدراك والسيطرة البشرية ذات المغزى ، هناك أيضًا مشكلة في تحيز الأتمتة ، حيث من المرجح أن يثق البشر في مخرجات الكمبيوتر لأن هناك شعورًا في غير محله ، والنتائج موضوعية بطبيعتها.
وقالت: “من المرجح أن نثق في قرار الماكينة بأن لدينا وقتًا أقل للالتفاف ، حيث لا يمكننا إنشاء صورة ذهنية كاملة في الوقت المناسب لاتخاذ قرار بشري – لأننا ندمج بشكل أكبر في الأنظمة الرقمية ، فهذه هي أنواع التوترات التي لا أرى أنها تسير في أي وقت قريب. إنها مشكلات متعصبة”.
“هذا يأخذنا إلى الأخلاق والسؤال ، ماذا نفعل بالقرارات الأخلاقية عندما يتم إخراج الإنسان؟”
في حين حث شوارز على الحذر الشديد ، قال هنري غيتس ، المدير المساعد في شركة AI Defense Startup Helsing ، إن هناك حاجة ملحة إلى “التحرك بسرعة” مع تطور الذكاء الاصطناعي العسكري حتى لا تتخلف المملكة المتحدة عن “ممثلين شائين آخرين” ، ويمكن أن يكون لها رأي أكبر حول كيفية تنظيم الأنظمة العسكرية المستقلة.
وقال: “إذا كنا مجرد بلد ليس لديه أي من هذه الأسلحة … لن يستمع الناس إلينا حقًا” ، مضيفًا أن الانتقال بوتيرة مع الذكاء الاصطناعي العسكري يمكن أن يساعد أيضًا في بناء ردع بديل.
“بنفس الطريقة التي لدينا أسلحة نووية كردع على الحرب النووية ، من المحتمل أن يوفر منظمة العفو الدولية طريقًا نحو الردع التقليدي الذي يقلل من الصراع المسلح”.
ومع ذلك ، حذر شوارز من “وضع كل بيضنا في سلة الذكاء الاصطناعي لردع الحرب” ، بحجة أن هناك حاجة إلى استثمار أكبر في القدرات البشرية للحوار والثقة والدبلوماسية.
“في النهاية ، كان الأمر كذلك دائمًا [with] وقالت إن التقنيات التي تعتمد عليها أكثر من ذلك ، وكلما زاد عدد وجهات نظرنا عنا ، وعن الآخرين أيضًا “، مضيفة أن هذا هو الحال بالتأكيد مع منظمة العفو الدولية ، على عكس أدوات الحرب الأخرى ، مثل الخزانات أو البنادق التي تستخدم كأطراف بدنية ، فإن التكنولوجيا تعمل كأدوات معرفية.
“ما هو منطق كل ذلك؟ حسنًا ، يرى نظام الذكاء الاصطناعى البشر الآخرين كأشياء ، بالضرورة – الحواف والآثار – ضمنية ، فهذا هو موضوع ، وهو مشكلة إذا أردنا إقامة علاقات.”
وراء الإدراك البشري
فيما يتعلق بمسألة السيطرة البشرية ذات مغزى ، أضاف غيتس أن هناك ثلاثة أشياء يجب مراعاتها: إلى أي مدى يتم تفويض اتخاذ القرارات إلى الذكاء الاصطناعي ، ومراقبة الأداء لضمان عدم “الانجراف” من غرضها ، والحفاظ على البشر في السيطرة الكاملة على كيفية تطوير أنظمة الذكاء الاصطناعى.
بنفس الطريقة التي لدينا أسلحة نووية كردع على الحرب النووية ، من المحتمل أن يوفر الذكاء الاصطناعى طريقًا نحو الردع التقليدي الذي يقلل من الصراع المسلح
هنري غيتس ، هيلسينغ
ومع ذلك ، كيث عزيزي ، المدير الإداري ل Fujitsu جادل مركز التقنيات المعرفية والمتقدمة ، بأن قدرات الذكاء الاصطناعى قد جاءت حتى الآن في فترة زمنية قصيرة بحيث تكون قادرة على التفوق على البشر حول كيفية تطبيق قوانين الحرب على قراراتها.
“لكي يتم تبرير الهدف بموجب قانون الصراع المسلح ، يجب تحديده بشكل إيجابي ، يجب أن يكون ضروريًا … يجب أن يكون متناسبًا ، ويجب أن تكون إنسانية ، لذلك لا توجد آثار غير متحمسة ، ويجب أن تكون قانونية. كل هذه الأشياء هي اختبارات يمكنك تطبيقها على الذكاء الاصطناعى بنفس الطريقة التي نطبق بها على الجندي أو الإبحار أو العامل الجوي في الجبهة”.
“عندما تقوم بتفويض السلطة ، يجب أن تتفوق علينا على هذه الأشياء ، وإذا كانت تفوقنا في تلك الأدوار حيث يمكنك الأساس والقياس ، فإنه يصبح من غير الأخلاقي عدم تفويض السلطة إلى الماكينة ، التي لديها سلبية أقل كاذبة في اتخاذ هذه القرارات منا.”
تسليط الضوء على كيف أن سرعة تداول الأسهم الحديثة تعني أنها تُركت إلى حد كبير لأجهزة الكمبيوتر ، فإن عزيزتي إضافة منظمة العفو الدولية ستنشئ وضعًا مشابهًا في الحرب في ذلك ، لأنه سيغلب على سرعة الإدراك البشري ، يمكن أن يترك اتخاذ القرارات لهذه الأنظمة المستقلة.
“إنها منظمة العفو الدولية تشاهد الذكاء الاصطناعى. [artificial general intelligence]وقال “سيكون هناك شخص ما في الحلقة ضارة – أعتقد أنه من الخيار أن تخسر”.
وتعليقًا على فكرة أن الذكاء الاصطناعى سوف يقلل من المعاناة الإنسانية في الصراع ويخلق مستقبلًا يتم فيه خوض الحروب بين جيوش الطائرات بدون طيار ، أضاف غيتس أنه من غير المحتمل ، مشيرا إلى أنه على الرغم من أنها قد تغير طابع الحرب ، فإنها لا تغير المنطق الأساسي ، وهو كيف يمكن لمجموعة “فرض إرادتها” على شخص آخر.
وافق جونز ، مشيرًا إلى أنه سواء تم جلس منظمة العفو الدولية في الوسط ، فإن الفكرة هي “إيذاء” الناس على الجانب الآخر. وقال “ما زلت تحاول التأثير على السكان وصناع القرار السياسي والجيش”.
يا عزيزي ، لن يكون هناك دور للبشر في ساحة المعركة. “عندما تنتهي أجهزتك من القتال وفاز جانب واحد ، لن يكون الأمر مختلفًا عن وجود جيش بشري فاز في ساحة المعركة – النقطة هي ذلك [either way] ليس لديك خيار سوى الاستسلام أو مواجهة حرب الإبادة “.
ومع ذلك ، أبرز شوارز حقيقة أن العديد من أنظمة الذكاء الاصطناعى اليوم ليست جيدة جدًا بعد ، وحذر من تقديم مطالبات “متفائلة بشكل كبير” حول الآثار الثورية للتكنولوجيا في كل جانب من جوانب الحياة ، بما في ذلك الحرب. قالت: “إنها ليست حدوث شبع على الإطلاق”.