إن الأسلحة المستقلة تقلل من القدرة الأخلاقية وتقلل من قيمة الحياة البشرية
إن استخدام أنظمة الأسلحة المستقلة (AWS) لاستهداف البشر سيؤدي إلى تآكل القدرة الأخلاقية ويؤدي إلى التقليل من قيمة الحياة بشكل عام، وفقًا لخبراء التكنولوجيا العسكرية.
التحدث في مؤتمر فيينا حول أنظمة الأسلحة الذاتية التشغيل في 30 أبريل 2024 – منتدى أنشأته الحكومة النمساوية لمناقشة التحديات الأخلاقية والقانونية والإنسانية المستمرة التي تمثلها الأسلحة التي تعمل بالذكاء الاصطناعي (AI) – تحدث الخبراء عن تأثير AWS على الكرامة الإنسانية، وكيف يمكن أن يتم ذلك من خلال الخوارزميات سيؤدي تمكين العنف في نهاية المطاف إلى تجريد أهدافه ومشغليه من إنسانيتهم.
وشملت المخاوف المحددة التي أثارها الخبراء طوال المؤتمر إمكانية التجريد من الإنسانية عندما يكون الأشخاص الذين يتعرضون للقوة المميتة كذلك يتم تقليلها إلى نقاط البيانات والأرقام التي تظهر على الشاشة; خطر التمييز أثناء اختيار الأهداف بسبب التحيزات في البرمجة أو المعايير المستخدمة؛ فضلا عن الانفصال العاطفي والنفسي للمشغلين عن العواقب الإنسانية لأفعالهم.
وتطرق المتحدثون أيضًا إلى ما إذا كان من الممكن أن يكون هناك سيطرة بشرية ذات معنى على AWS، وذلك بسبب مزيج من التحيز الآلي وكيف تزيد هذه الأسلحة من سرعة الحرب بما يتجاوز الإدراك البشري.
أخلاقيات القتل الخوارزمي
تسليط الضوء على عمله حول أخلاقيات الأسلحة المستقلة مع الأكاديمي إلك شوارتزوقال نيل رينيك، الباحث في مركز الدراسات العسكرية في كوبنهاغن، إن مصدر القلق الرئيسي لدى AWS هو كيف يمكنهم زيادة تكثيف أنظمة العنف الأوسع التي هي مدمجة بالفعل فيها.
وقال: “من المرجح أن تضغط الأسلحة المستقلة والقتل المنهجي الذي ستمكنه وتسرعه على الكرامة الإنسانية بطريقتين مختلفتين، أولاً عن طريق التحفيز على التقليل الأخلاقي من القيمة الأخلاقية للمستهدفين”، مضيفًا أن “التنظيم الشديد” للبشر في ظل خدمات AWS سوف يفرض بشكل مباشر، أو على الأقل يحفز، اعتماد فئات استهداف محددة مسبقًا وواسعة النطاق.
“إن هذا التجسيد الفظ والكامل للبشر يؤدي بسهولة شديدة إلى فقدان القيود الأساسية، وبالتالي تجريد المستهدفين من الحقوق الأساسية والكرامة. ويمكننا ملاحظة هذه التأثيرات من خلال دراسة تاريخ القتل المنهجي.
بالنسبة لفان يانغ، الأستاذ المساعد في القانون الدولي في كلية الحقوق بجامعة شيامن، تتجلى مشكلة التحيز في AWS فيما يتعلق كل من البيانات المستخدمة لتدريب الأنظمة وكيفية تفاعل البشر معها.
وفي إشارة إلى أن التحيز في AWS سيظهر على الأرجح في خسائر بشرية مباشرة، قال يانغ إن هذا أسوأ بكثير من، على سبيل المثال، أن تكون ضحية للسعر. تمييز في خوارزمية البيع بالتجزئة.
وقال: “من الناحية الفنية، من المستحيل القضاء على التحيز في تصميم وتطوير AWS”. “من المرجح أن يستمر التحيز حتى لو كان هناك عنصر تحكم بشري في الكود النهائي لأن القادة والمشغلين من الناحية النفسية يميلون إلى الإفراط في الثقة بأي خيار أو قرار توصي به AWS.”
وأضاف يانغ أن أي استهداف تمييزي – سواء كان ذلك نتيجة للتحيزات المضمنة في البيانات أو تحيز المشغلين البشريين للثقة في مخرجات الآلات – من المرجح أن يؤدي إلى تفاقم الصراع من خلال زيادة تهميش مجموعات أو مجتمعات معينة، مما قد يؤدي في النهاية إلى تصعيد العنف وتقويض السلام. حلول.
تآكل الوكالة البشرية
وأضاف رينيك أن الطبيعة المنهجية والخوارزمية للعنف الذي تمارسه AWS لديها أيضًا القدرة على تقويض “الفاعلية الأخلاقية” للمشغلين الذين يستخدمون الأسلحة.
وقال: “في ظل أنظمة العنف المكثفة، غالبًا ما يُضعف البشر، أو يضعفون أنفسهم، كفاعلين أخلاقيين”. “إنهم يفقدون أو يتنازلون عن قدرتهم على التفكير الذاتي، وممارسة حكم أخلاقي ذي معنى في ساحة المعركة، وضمن أنظمة العنف الخوارزمي، من المرجح أن نرى المشاركين يتنازلون عن المزيد والمزيد من حكمهم لسلطة الخوارزميات”.
نيل رينيك، مركز الدراسات العسكرية
وأضاف رينيك أيضًا أنه من خلال “عمليات الروتين” التي يشجعها القتل المحوسب، يفقد مشغلو AWS القدرة والميل إلى التشكيك أخلاقيًا في مثل هذه الأنظمة، مما يؤدي إلى نوع مختلف من التجريد من الإنسانية.
وتعليقا على الآثار الضارة لـ AWS على مشغليها، قالت أمل الفلاح صغيروشني، الرئيسة التنفيذية للمركز الدولي للذكاء الاصطناعي في المغرب، إن هناك مشكلة مزدوجة تتمثل في “الافتراضية” و”السرعة”.
ومن خلال تسليط الضوء على المسافة المادية بين مستخدم AWS العسكري ومسرح العمليات حيث يتم نشر التكنولوجيا، أشارت إلى أن عواقب القرارات القاتلة الآلية ليست مرئية بنفس الطريقة، وأن السرعة المطلقة التي تتخذ بها هذه الأنظمة القرارات يمكن أن تترك أثرها. المشغلين مع نقص الوعي.
في مسألة ما إذا كان ينبغي تعيين الأهداف بشكل مستقل بواسطة AWS بناءً على خصائصهم، لم يخرج أي متحدث مؤيدًا.
على سبيل المثال، قالت أنجا كاسبرسن، مديرة تطوير الأسواق العالمية والتقنيات الرائدة في معهد مهندسي الكهرباء والإلكترونيات (IEEE)، إنه مع الذكاء الاصطناعي والتعلم الآلي بشكل عام، غالبًا ما يكون للأنظمة معدل خطأ مقبول.
“لديك دقة 90%، لا بأس. ولكن في التشغيلية [combat] وقالت: “خسارة 10% من المسرح يعني خسارة الكثير والكثير من الأرواح”. “قبول الاستهداف يعني قبول هذه الخسارة في حياة الإنسان – وهذا أمر غير مقبول”.
وأضاف رينيك أنه في حين أنه قد تكون هناك بعض السيناريوهات الأقل إشكالية حيث يمكن لـ AWS تحديد أهدافها بحرية أكبر – مثل البيئة البحرية بعيدًا عن المدنيين حيث تكون الخصائص التي يتم تحديدها هي عدو يرتدي الزي الرسمي على سطح السفينة – إلا أن هناك سيناريوهات لا حصر لها حيث يكون المرض -يمكن حساب الخصائص المحددة أو القابلة للتنافس لتشكيل فئة “العدو المستهدف” مع نتائج مروعة.
وقال: “هنا، أفكر في مقدار البؤس والأذى غير العادل الذي أحدثته خاصية “الذكر في سن الخدمة العسكرية”. “أنا قلق بشأن تلك الخاصية التي يتمتع بها الذكور في سن الخدمة العسكرية، على سبيل المثال، حيث يتم تشفيرهم بشكل صارم في سلاح مستقل. أعتقد أن هذا هو نوع التحدي الأخلاقي الذي يجب أن يزعجنا حقًا في هذه المناقشات.
وكان الإجماع بين رينيك وغيره من المتحدثين هو أن النهج المنظم للقتل الذي تولده خدمات أمازون ويب، والسهولة التي ستتمكن بها مختلف الجهات الفاعلة من نشر مثل هذه الأنظمة، سوف يؤدي في نهاية المطاف إلى خفض عتبة اللجوء إلى العنف.
وقال رينيك: “قضيتنا هنا ليست محو الإنسانية – فالأسلحة المستقلة لن تضع حداً للتدخل البشري”. “ومع ذلك، فإن ما سيفعلونه، جنبًا إلى جنب مع الذكاء الاصطناعي العسكري على نطاق أوسع، هو إعادة ترتيب وتشويه العلاقة الإنسانية مع العنف، وربما نحو الأسوأ”.
من حيث تنظيم التكنولوجيا، كان الإجماع على أنه يجب حظر الأسلحة المستقلة تمامًا تمامًا، في حين يجب تنظيم كل أنواع وجوانب AWS الأخرى بشكل صارم، بما في ذلك عملية اختيار الهدف، وحجم القوة المنتشرة في حالة معينة، وقدرة البشر على التدخل بشكل هادف .