هل تجعل الأسلحة المستقلة البشر مشاركين سلبيين في الحرب؟
على مر التاريخ، كان البشر يستخدمون التكنولوجيا الجديدة دائمًا لتحقيق التفوق في الحرب. والاندفاع الحالي من جانب الدول في جميع أنحاء العالم لتطوير ونشر أنظمة الأسلحة الفتاكة المستقلة (AWS) ليس مختلفًا. سيكتسب أسياد هذه التكنولوجيا قدرات قوة صلبة مبهرة يصر المؤيدون على أنها ستعزز السلام من خلال الردع. يزعم المنتقدون أنها ستحفز الحرب بدلاً من ذلك بينما تجرد المقاتلين والمدنيين على حد سواء من إنسانيتهم من خلال التنازل عن القرارات المتعلقة بالحياة والموت لحسابات خوارزمية باردة.
من الممكن أن يثبت كلا المنظورين صحة كل حالة على حدة. وسوف يعتمد الكثير على منظور السياق الذي تُستخدم فيه التكنولوجيا. والأمر المحوري في هذه القضية هو ما مدى السيطرة التي يتنازل عنها المشغلون البشريون للآلات – خاصة وأن سيناريوهات الصراع تتكشف بوتيرة أسرع كثيراً. فإذا كان هناك مجال واحد للإجماع حول أنظمة AWS، فهو أن هذه الأنظمة سوف تعمل على تسريع وتيرة الحرب إلى حد كبير.
وقع أكثر من 100 خبير في مجال الذكاء الاصطناعي والروبوتات على اتفاقية رسالة مفتوحة في عام 2017، حذرت منظمة الأمم المتحدة من أن أنظمة الأسلحة الإلكترونية تهدد بتمكين الحرب “من أن تُخاض على نطاق أوسع من أي وقت مضى، وفي فترات زمنية أسرع مما يستطيع البشر استيعابه”. والواقع أن هذه الديناميكية تدفع إلى تغيير كبير في السياسة العالمية. معضلة ضبط الأسلحةإنها مسألة مليئة بعدم اليقين والخلاف حول ما إذا كان البشر قادرين على السيطرة على التقنيات القاتلة التي يمكنها التفكير بشكل أسرع مما يستطيعون، وقد تتصرف ذات يوم بشكل مستقل.
وفقًا لحملة وقف الروبوتات القاتلة، فإن القواعد الدولية الصارمة ضرورية للحد من انتشار وإساءة استخدام أنظمة الحوسبة الآلية. ويحظى هذا الموقف بدعم العشرات من البلدان الأصغر حجمًا والحائزين على جائزة نوبل للسلام، فضلاً عن العديد من علماء السلام والأمن. وعلى النقيض من ذلك، القوى العسكرية تقاوم الضمانات الملزمة قانونًا.
وبدلاً من ذلك، تدعو دول مثل بريطانيا والصين والهند وإسرائيل والولايات المتحدة وغيرها إلى الاستخدام المسؤول للأسلحة عبر مبادئ إشراك الإنسان. وهذا يعني من الناحية النظرية أن يكون هناك مشغل بشري يشرف على استخدام القوة من جانب وحدات AWS ويوافق عليها في جميع الأوقات.
ولكن الإصدارات الجديدة من AWS تعمل بالفعل على تسريع دورة OODA – وهي المصطلحات العسكرية التي تشير إلى كيفية تحديد تسلسلات المراقبة والتوجيه واتخاذ القرار والعمل للهجمات.
وعلاوة على ذلك، من المعروف أن تحيز الأتمتة يحل محل الحكم البشري بشكل روتيني في استخدام التكنولوجيا الناشئة. وعند الجمع بين هذين العاملين، السرعة المتزايدة والاحترام للآلات، يصبح السؤال مفتوحا حول ما إذا كان حتى المشغلون العمليون لـ AWS سيتمكنون من السيطرة الكاملة على الأسلحة التي يستخدمونها.
“الكمبيوتر يقول اقتل”
يتم تعريف تحيز الأتمتة بشكل عام على أنه موقف يقبل فيه المستخدمون القرارات التي ينشئها الكمبيوتر بدلاً من الأدلة المتناقضة أو تصوراتهم الخاصة.
في رسالة بالبريد الإلكتروني، قال بات باتارانوتابورن، الخبير في مجال التكنولوجيا في معهد ماساتشوستس للتكنولوجيا: “إن أخطر الذكاء الاصطناعي ليس من نوع فيلم Terminator، بل لأن نواياه الشريرة واضحة”. بل إن الخطر الحقيقي، وفقًا لباتارانوتابورن، الخبير في التفاعل بين الإنسان والذكاء الاصطناعي، يكمن في الذكاء الاصطناعي الذي يبدو ودودًا ولكنه يتلاعب بسلوكنا بمهارة بطرق لا يمكننا توقعها”.
في أوائل أغسطس، كتب هو وزميل له مقالاً مقال يصف هذا المقال الجاذبية الخطيرة التي يفرضها “الذكاء الإدماني” – الأنظمة التي تتفوق على مشغليها من البشر وتخضع لهم في نفس الوقت.
وبينما تركز أبحاث باتارانوتابورن على رفاق الذكاء الاصطناعي، فإن المخاطر المماثلة المحيطة باستخدام أنظمة الأسلحة الذكية من قِبَل الجهات الفاعلة الحكومية وغير الحكومية واضحة. وينطبق هذا بشكل خاص إذا كانت النماذج الحاسوبية التي تدعم الأسلحة الذكية تنصح أو تختار تكتيكات الأرض المحروقة باعتبارها أقصر طريق إلى النصر.
عديد يتم تشغيل ألعاب الحرب باستخدام نماذج لغوية كبيرة على سبيل المثال، في العام الماضي، أظهرت الروبوتات التي تعمل بالذكاء الاصطناعي دور القادة العسكريين الذين يظهرون ميلاً مثيراً للقلق لسحق الخصوم من خلال إطلاق ضربات نووية.
أتمتة الصراع
الواقع أن الذكاء الاصطناعي يعمل بالفعل على إحداث ثورة في عالم الحرب. فقد تزامنت مناورة موسكو الإمبريالية في أوكرانيا مع قفزات هائلة في القدرة على تحمل تكاليف التعلم الآلي، وأدوات التعرف البصري، والاتصال بالشبكات الرقمية، والروبوتات، وإمكانية الوصول إليها. وبصرف النظر عن إشعال أكبر حرب بين الدول في هذا القرن حتى الآن، كانت النتيجة خلق بيئة قتالية غنية بالبيانات لا مثيل لها لتصميم واختبار وإثبات صحة خدمات أمازون ويب.
لقد تم الآن تقليص جزء كبير من دفاع أوكرانيا ضد الغزاة الروس إلى القتال بين الطائرات بدون طيار باستخدام أنظمة تقترب من القدرة على الاستقلال الذاتي بالكامل. في يونيو/حزيران، أنشأت كييف نظامًا جديدًا للطائرات بدون طيار. قوات الأنظمة غير المأهولة وبعد شهر واحد، أعلنت أوكرانيا وحلف شمال الأطلسي العسكري الغربي عن إنشاء صندوق مشترك جديد للطائرات بدون طيار بقيمة 45 مليون يورو (37 مليون جنيه إسترليني). ويهدف هذا الصندوق، الذي تقوده المملكة المتحدة ولاتفيا، إلى تسريع عملية شراء وتسليم الطائرات بدون طيار للمقاتلين الأوكرانيين على الخطوط الأمامية.
ولكن الطائرات بدون طيار موجودة في كل مكان بعيدًا عن أوروبا الشرقية أيضًا. فقد شهدت الأنظمة غير المأهولة استخدامًا واسع النطاق في مناطق الصراع بدءًا من غزة وميانمار، إلى السودان وإثيوبيا وناغورنو كاراباخ في أذربيجان وشمال العراق وسوريا. ويحتفظ الجيش الأمريكي بأسطول من السفن السطحية التي يتم التحكم فيها بواسطة الذكاء الاصطناعي لمراقبة مضيق هرمز، وهو ممر حيوي استراتيجيًا لإمدادات الطاقة العالمية ويقع على حدود إيران.
تنتشر المدافع ذاتية التحكم على جانب كوريا الجنوبية من المنطقة منزوعة السلاح بينها وبين كوريا الشمالية. ويشير تقرير صادر عن خبراء الأمم المتحدة إلى أن أول روبوت قاتل مستقل حقًا في العالم – وهو طائرة بدون طيار أنتجتها شركة الدفاع التركية المملوكة للدولة STM – تم استخدامه في ليبيا منذ عام 2020، لمطاردة المقاتلين المتمردين الموالين للجنرال المارق خليفة حفتر.
كما تعمل مكونات البرامج المتقدمة على تعزيز كفاءة القتال للقوات التقليدية، سواء كانت الحرب الإلكترونية المعتمدة على التعلم أو برامج التعرف السريع على الأهداف واكتسابها. ويتم دفع جزء كبير من هذا الابتكار من قبل الشركات الناشئة في وادي السليكون وأماكن أخرى، والتي تسعى إلى تعطيل صناعة الدفاع العالمية. تقرير من المتوقع من الجيش الأمريكي أن مجموع هذه التكنولوجيا الجديدة سوف يؤدي إلى زيادة كبيرة في قوة القتل في العمليات القتالية واسعة النطاق إلى حد من المرجح أن يتسبب في تغيير العقائد العسكرية الحديثة.
سرعة الهروب في AWS
الكتابة في الشؤون الخارجية يقول الرئيس التنفيذي السابق ورئيس مجلس إدارة شركة جوجل إريك شميت، إلى جانب رئيس الأركان العسكرية الأمريكية السابق مارك أ. ميلي، إن الولايات المتحدة وحلفاءها يجب أن يتبنوا نهجًا استراتيجية الحد الأقصى “إن الحروب المستقبلية لن تدور حول من يستطيع حشد أكبر عدد من الناس أو نشر أفضل الطائرات والسفن والدبابات”، كما يزعمون. “بدلاً من ذلك، سوف تهيمن عليها أنظمة أسلحة مستقلة بشكل متزايد وخوارزميات قوية”.
يقول شميدت وميلي إن المفتاح لتحقيق هذا الهدف هو الاستعانة بمصادر خارجية لكمية هائلة من التخطيط العسكري لوكلاء اصطناعيين. ويكتبان: “قد تتمكن أنظمة الذكاء الاصطناعي، على سبيل المثال، من محاكاة أساليب تكتيكية وعملياتية مختلفة آلاف المرات، مما يؤدي إلى تقصير الفترة بين الإعداد والتنفيذ بشكل كبير”.
ولكن هناك آخرون يحذرون من هذا النوع من المستقبل. ويحذرون من أن دمج أنظمة الأسلحة الهجومية على نطاق واسع في الأداء العسكري من شأنه أن يؤدي إلى تفاقم الوحشية المتأصلة والضبابية التي تكتنف الحرب في الصراعات المسلحة.
إن العنصر البشري في القتال ــ سواء كان خطر وقوع ضحايا، أو اختلاف الآراء، أو سلاسل القيادة البيروقراطية ــ يعمل عادة على تخفيف استخدام الحكومات للقوة، وإن كان ذلك بشكل غير كامل وأحياناً عن غير قصد. ولكنه على الأقل يبطئ من وتيرة استخدام القوة إلى الحد الذي يسمح بالتفكير في مسارات عمل بديلة. ومن شأن التبني النشط لأنظمة الأسلحة الهجومية أن يزيل بعض هذه العقبات.
ويرجع الكثير من هذا إلى بروتوكولات تدريب البرامج والبيانات التي تدعم الأجهزة المستخدمة في أنظمة الأسلحة. ويقول بيتر بيرت، الباحث في معهد ماساتشوستس للتكنولوجيا: “حتى عندما تكون مثل هذه الأنظمة تحت السيطرة البشرية اسميًا، فقد تكون هناك صعوبات”. حروب الطائرات بدون طيار في المملكة المتحدة“في حالة أتمتة العديد من وظائف النظام، فقد لا يتمكن المشغلون من مراقبة العملية بشكل صحيح وتجاوز النظام، إذا لزم الأمر.”
وهذا مهم للغاية لأنه يعني أن نظام الأسلحة الإلكترونية قد يشوه المساءلة حول استخدام القوة. وقالت بريانا روزن، زميلة جامعة أكسفورد وعضو مجلس الأمن القومي الأمريكي في عهد أوباما، في مقالة نشرتها صحيفة نيويورك تايمز: “إن القدرة على تفسير وتتبع القرارات في زمن الحرب أصبحت بالفعل نادرة للغاية”. بودكاست في شهر مارس.
وتتوقع أن يؤدي إدخال الذكاء الاصطناعي في هذه العملية إلى جعلها أسوأ بكثير، لأن الشبكة الغامضة من الخوارزميات المختلفة ومجموعات البيانات والإجراءات التي تفضلها الفروع العسكرية المختلفة ووكالات الاستخبارات تعني أنه “لن يتمكن أي شخص واحد من فهم كيفية عمل هذه التكنولوجيا بشكل كامل”.
ركزت إلكي شوارتز، أستاذة النظرية السياسية في جامعة كوين ماري في لندن، على أخلاقيات استخدام الذكاء الاصطناعي للاستخدام العسكري، وهو ما يعكس هذه الآراء.
وتقول: “إن قضية التحيز في الأتمتة شائكة للغاية، لأنها ليست شيئًا يمكن التغلب عليه بسهولة. إن تشغيل نظام أسلحة يعمل بالذكاء الاصطناعي ليس مجرد حالة بسيطة من القيادة والتحكم”.
ولكن عندما يتم “دمج المشغل البشري في بيئة من الشاشات والواجهات والتقنيات الرقمية، والتي لا يمكن فهم عملها بسهولة دائمًا”، فإن الإنسان الذي من المفترض أن يشرف على النظام يصبح في الواقع معتمدًا على المعلومات المقدمة إليه عبر صندوق أسود من تحليل الذكاء الاصطناعي. وتقول إلكي إن “القتل يصبح مسألة معالجة بيانات فعالة. القتل كشكل من أشكال إدارة سير العمل”.
الإشراف البشري
وباستثناء روسيا ــ التي أبلغت الأمم المتحدة العام الماضي أنها ليست قلقة بشكل مفرط بشأن الحفاظ على السيطرة البشرية المباشرة الكاملة على أنظمة الحوسبة السحابية ــ فقد أعلنت أغلب القوى العسكرية علناً أنها تريد أن تظل التكنولوجيا خاضعة دائماً للإشراف البشري. ولكن هذه المواقف يتم تأكيدها دون إرفاق سوى القليل من التفاصيل.
عندما يتعلق الأمر بإبقاء البشر على اطلاع، “يمكن للجميع أن يتقبلوا هذا المفهوم، وفي الوقت نفسه، يمكن للجميع أن يختلفوا حول ما يعنيه هذا المفهوم فعليًا في الممارسة العملية”، كما تقول ريبيكا كروتوف، أستاذة القانون وخبيرة AWS قال الجارديان في وقت سابق من هذا العام. “إنها ليست مفيدة حقًا من حيث توجيه قرارات التصميم التكنولوجي”.
وبالفعل، ومع تطور أنظمة الذكاء الاصطناعي، فإن التصميمات الجديدة تعمل بطبيعتها على إبعاد السيطرة البشرية ببضع درجات في كل مرة.
ويحذر بول شار، نائب الرئيس التنفيذي ومدير الدراسات في مركز الأمن الأميركي الجديد، قائلاً: “قد ننظر إلى الوراء بعد خمسة عشر أو عشرين عاماً من الآن وندرك أننا تجاوزنا عتبة بالغة الأهمية”.
طائرات بدون طيار مستقلة
على سبيل المثال، طورت الشركات الناشئة في أوكرانيا طائرات بدون طيار مستقلة يمكنها تعمل في أسراب حيث تتواصل كل وحدة وتنسق مع بعضها البعض أو يمكن برمجتها لتنفيذ هجوم حتى لو تم قطع اتصال الإنترنت مع المشغل البشري.
وفي الوقت نفسه، يقول منتقدو AWS إن استخدام إسرائيل لـ أسلحة تعمل بالذكاء الاصطناعي في غزة إن هذه التكنولوجيا تبدد فكرة أن الحرب سوف تصبح أكثر دقة وإنسانية ــ وهي نقاط البيع الرئيسية بين أنصارها. فحتى أواخر سبتمبر/أيلول، قُتل أكثر من 42 ألف شخص في غزة على يد قوات جيش الدفاع الإسرائيلي وجُرح ما يقرب من 100 ألف آخرين، وفقاً للسلطات الصحية المحلية، والغالبية العظمى منهم من المدنيين الأبرياء.
ولتصحيح هذا الوضع في المستقبل، يقترح شميت، الرئيس التنفيذي السابق ورئيس مجلس إدارة جوجل، وميلي، القائد السابق للجيش الأمريكي، أن تخضع أنظمة AWS ومشغليها البشريين لتدريب مستمر. وينصحان بضرورة اختبار وتقييم أنظمة الأسلحة بشكل مستمر للتأكد من أنها تعمل على النحو المقصود في ظروف العالم الحقيقي.
ويوصي شميدت وميلي أيضا بأن تفرض واشنطن عقوبات اقتصادية على البلدان التي لا تلتزم بهذا المبدأ. ويحذران من أن “الجيل القادم من الأسلحة المستقلة لابد وأن يُبنى وفقا للقيم الليبرالية واحترام حقوق الإنسان على المستوى العالمي ــ وهذا يتطلب قيادة أميركية عدائية”.
وتقترح روزن، الأكاديمية من أكسفورد والمشككة في التطبيقات العسكرية للذكاء الاصطناعي، أن تبدأ الديمقراطيات الليبرالية مناقشة عامة أكثر أهمية حول استخدام الأسلحة الذكية. وتقول إن هذا يمكن أن يشكل الأساس لبناء سياسات محلية وأدوات قانونية للحد من أضرارها. وبمجرد وضع آليات الحوكمة هذه، فقد توفر المصداقية اللازمة لمحاولة إيجاد إجماع دولي حول أنظمة الأسلحة الذكية.
قبل بضعة أسابيع، أيدت 61 دولة، بما في ذلك الولايات المتحدة، ما يسمى “مخطط العمل” في قمة الاستخدام العسكري المسؤول للذكاء الاصطناعي التي عقدت في سيول. إطار غير ملزم تتضمن الوثيقة 20 التزامًا مختلفًا، مقسمة إلى ثلاث فئات مختلفة، تسعى إلى وضع فهم مشترك لكيفية معالجة تأثير الذكاء الاصطناعي على السلام والأمن الدوليين. ويشمل ذلك الحفاظ على السيطرة البشرية على أنظمة الذكاء الاصطناعي، ورؤية لأنماط حوكمة الذكاء الاصطناعي في المجال العسكري في المستقبل.
في المجمل، يبدو أن الأسلحة ذاتية التشغيل سوف تصبح عنصراً ثابتاً من عناصر الصراع في القرن الحادي والعشرين. ويبقى أن نرى ما إذا كانت عملية اتخاذ القرار البشرية سوف تظل كذلك بعد عقد أو عقدين من الآن.