تعهد Google Drops بعدم تطوير أسلحة الذكاء الاصطناعي

أسقطت شركة Google الأم Alphabet تعهدها بعدم استخدام الذكاء الاصطناعي (AI) في أنظمة الأسلحة أو أدوات المراقبة ، مشيرة إلى الحاجة إلى دعم الأمن القومي لـ “الديمقراطيات”.
الرئيس التنفيذي لشركة Google Sundar Pichai ، في مدونة تم نشره في يونيو 2018، أوضحت سابقًا كيف أن الشركة “لا تتابع” تطبيقات الذكاء الاصطناعى التي “تسبب أو من المحتمل أن تسبب ضررًا بشكل عام” ، وملتزمًا على وجه التحديد بعدم تطوير الذكاء الاصطناع تسهيل إصابة الناس “.
وأضاف أن Google لن تتابع أيضًا “التقنيات التي تجمع أو تستخدم معلومات للمراقبة التي تنتهك القواعد المقبولة دوليًا”.
تم استبدال Google – الذي تم استبدال شعار شركته “لا تكون الشر” في عام 2015 بـ “فعل الشيء الصحيح” – قرار إزالة هذه الأهداف من ذلك مبادئ AI صفحة الويب في Blogpost شارك في تأليفه ديميس هاسابيس ، الرئيس التنفيذي لشركة Google DeepMind ؛ وجيمس مانيكا ، نائب الرئيس الأول للشركة للتكنولوجيا والمجتمع.
“هناك منافسة عالمية تجري لقيادة الذكاء الاصطناعى ضمن مشهد جيوسياسي معقد بشكل متزايد. ونعتقد أن الديمقراطيات يجب أن تقود في تنمية الذكاء الاصطناعي ، تسترشد بالقيم الأساسية مثل الحرية والمساواة واحترام حقوق الإنسان “.
“ونحن نعتقد أن الشركات والحكومات والمؤسسات التي تشارك هذه القيم يجب أن تعمل معًا لإنشاء الذكاء الاصطناعي الذي يحمي الناس ويعزز النمو العالمي ويدعم الأمن القومي.”
وأضافوا أن مبادئ منظمة العفو الدولية من Google ستركز الآن على ثلاثة مستأجرين أساسيين ، بما في ذلك “الابتكار الجريء” ، الذي يهدف إلى “مساعدة وتمكين وإلهام الناس في كل مجال من المجالات البشرية تقريبًا” ومعالجة أكبر تحديات الإنسانية ؛ “التنمية والانتشار المسؤولين” ، مما يعني متابعة الذكاء الاصطناعي بمسؤولية خلال دورة حياة كاملة ؛ و “التقدم التعاوني ، معًا” ، الذي يركز على تمكين “الآخرين لتسخير الذكاء الاصطناعي بشكل إيجابي”.
التعليق على تغيير سياسة Google ، إلك شوارز – أستاذ النظرية السياسية بجامعة كوين ماري لندن ومؤلفة كتابه آلات الموت: أخلاقيات التقنيات العنيفة – قال إنه على الرغم من أنه “ليس مفاجئًا على الإطلاق” بالنظر إلى أن الشركة كانت بالفعل تزويد الجيش الأمريكي (و يقال إن جيش الدفاع الإسرائيليمع الخدمات السحابية ، لا تزال تشعر بالقلق إزاء المزاج المتغير بين شركات التكنولوجيا الكبيرة تجاه الذكاء الاصطناعي العسكري ؛ يجادل الكثيرون الآن أنه “من غير الأخلاقي عدم التعثر في” تطوير تطبيقات الذكاء الاصطناعي لهذا السياق.
“تشعر Google الآن بالراحة الكافية لإجراء مثل هذا التغيير العام الكبير دون الاضطرار إلى مواجهة رد فعل عنيف أو تداعيات مهمة تمنحك شعورًا بالمكان الذي نشهد فيه مخاوف أخلاقية بشأن التغذية من العنف (لوضعه ببراعة إلى حد ما). إنها تشير إلى قبول مقلق لبناء اقتصاد الحرب “، قالت لـ Computer Weekly ، مضيفة أن تغيير سياسة Google يسلط الضوء على تحول واضح مفاده أن صناعة التكنولوجيا العالمية أصبحت الآن صناعة عسكرية عالمية.
إنه يقترح العسكرة المتعدية لكل شيء. كما يشير إلى وجود موقف كبير في السوق في صنع الذكاء الاصطناعى لأغراض عسكرية وأن هناك حصة كبيرة من المكاسب المالية للاستيلاء على الشركات الكبرى الحالية. ما مدى فائدة هذا الدافع نحو منظمة العفو الدولية لأغراض عسكرية لا يزال مضاربة إلى حد كبير. “
الخبراء في الذكاء الاصطناعى العسكري لديهم سابقا الاهتمامات التي أثيرت حول الآثار الأخلاقية للقتل الممكّن من الخوارزمية ، بما في ذلك إمكانية تجاهل الإنسانية عندما يكون الناس في الطرف المتلقي للقوة الفتاكة تم تخفيضها إلى نقاط البيانات والأرقام على الشاشة؛ خطر التمييز أثناء الاختيار المستهدف بسبب التحيزات في البرمجة أو المعايير المستخدمة ؛ وكذلك الانفصال العاطفي والنفسي للمشغلين من العواقب الإنسانية لأفعالهم.
هناك أيضا مخاوف بشأن ما إذا كان يمكن أن يكون هناك سيطرة بشرية ذات مغزى على أنظمة الأسلحة المستقلة (AWS) ، بسبب مزيج من تحيز الأتمتة وكيف تزيد هذه الأسلحة من سرعة الحرب إلى ما وراء الإدراك البشري.
طوال عام 2024 ، مجموعة من مطوري الذكاء الاصطناعى الآخرين – بما في ذلك Openaiو الإنسان و ميتا – ساروا سياسات استخدام الذكاء الاصطناعى الخاصة بهم للسماح لنا وكالات الاستخبارات والدفاع باستخدام أنظمة الذكاء الاصطناعي. ما زالوا يزعمون أنهم لا يسمحون لمنظمة العفو الدولية بإلحاق الأذى بالبشر.
اتصلت الكمبيوتر الأسبوعي بـ Google حول التغيير – بما في ذلك كيفية تعزيز تطوير AI بمسؤولية في سياق الأمن القومي ، وإذا كان ينوي وضع أي حدود على أنواع التطبيقات يمكن استخدام أنظمة الذكاء الاصطناعي – ولكن لا تتلقى أي استجابة.
“لا تكن شريرًا”
اجتذبت هذه الخطوة من Google انتقادات قوية ، بما في ذلك منظمات حقوق الإنسان المعنية بشأن استخدام الذكاء الاصطناعي للأسلحة المستقلة أو المراقبة الجماعية. على سبيل المثال ، وصفت منظمة العفو الدولية قرار “مخزي” وقال إنه سيحدد سابقة “خطيرة”.
وقال مات محمدي ، الباحث والمستشار في منظمة العفو الدولية وحقوق الإنسان في منظمة العفو: “يمكن أن تدعم التقنيات التي تعمل من الذكاء الاصطناعى أنظمة القتل المميتة على نطاق واسع ، مما قد يؤدي إلى انتهاكات جماعية وينتهك الحق الأساسي في الخصوصية”.
“إن قرار Google بعكس حظرها على أسلحة الذكاء الاصطناعى يمكّن الشركة من بيع المنتجات التي تقنيات الطاقة بما في ذلك المراقبة الجماعية ، والطائرات بدون طيار تم تطويرها لضربات التوقيع شبه الآلية ، وبرامج توليد مستهدفة مصممة لتسريع قرار القتل.
“يجب على Google عكس التغييرات الحديثة بشكل عاجل في مبادئ الذكاء الاصطناعى والالتزام بالامتناع عن تطوير أو بيع أنظمة يمكن أن تمكن من انتهاكات خطيرة في مجال حقوق الإنسان. من الضروري أيضًا أن تنشئ الجهات الفاعلة الحكومية لوائح ملزمة تحكم نشر هذه التقنيات التي تستند إلى مبادئ حقوق الإنسان. يجب ألا تصرف واجهة التنظيم الذاتي الذي تديمه شركات التكنولوجيا عن الحاجة الملحة إلى إنشاء تشريعات قوية تحمي حقوق الإنسان. “
أبرزت هيومن رايتس ووتش بالمثل الطبيعة الإشكالية للتنظيم الذاتي من خلال المبادئ التطوعية.
“إن قيادة الصناعة العالمية مثل Google يمكن أن يتخلى فجأة عن الممارسات المحرمة التي تم الإعلان عنها ذاتيا عن سبب عدم وجود مبادئ توجيهية طوعية ليست بديلاً عن التنظيم والقانون القابل للتنفيذ. وتنطبق قانون ومعايير حقوق الإنسان الدولية الحالية في استخدام الذكاء الاصطناعى ، ويمكن أن يكون اللوائح حاسمة في ترجمة المعايير إلى الممارسة “. أقل قدرة على الاستشهاد بها عند العودة إلى ممارسات الذكاء الاصطناعى غير المسؤولة.
على سبيل المثال ، في سبتمبر 2022 ، دعا عمال Google والناشطين الفلسطينيين عملاق التكنولوجيا لإنهاء مشاركتها في عقد الحوسبة السحابية Nimbus السرية ، والذي يتضمن توفير أدوات التعلم الآلي (ML) إلى الحكومة الإسرائيلية.
واتهموا على وجه التحديد عملاق التكنولوجيا بـ “التواطؤ في الفصل العنصري الإسرائيلي” ، وقالوا إنهم يخشون كيف سيتم استخدام التكنولوجيا ضد الفلسطينيين ، مشيرين إلى مبادئ الذكاء الاصطناعى من Google. وقال متحدث باسم Google لـ Computer Weekly في ذلك الوقت: “يتضمن المشروع إتاحة منصة Google Cloud للوكالات الحكومية لأعباء العمل اليومية مثل التمويل والرعاية الصحية والنقل والتعليم ، ولكنه غير موجه إلى أعباء عمل حساسة أو مصنفة للغاية.”
وأضاف هيومن رايتس ووتش: “محور Google من رفض بناء الذكاء الاصطناعي للأسلحة إلى ذكر نية لإنشاء الذكاء الاصطناعى الذي يدعم مشاريع الأمن القومي صارخ. تستخدم الجيوش بشكل متزايد الذكاء الاصطناعي في الحرب ، حيث يزيد اعتمادهم على البيانات غير المكتملة أو المعيبة والحسابات المعيبة من خطر الضرر المدني. هذه الأدوات الرقمية تعقيد المساءلة لقرارات ساحة المعركة التي قد يكون لها عواقب الحياة أو الموت. “
بينما الغالبية العظمى من البلدان تؤيد الضوابط المتعددة الأطراف على أنظمة الأسلحة التي تعمل بمنظمة العفو الدولية، لاحظ وزراء الخارجية الأوروبيون وممثلي المجتمع المدني خلال مؤتمر في أبريل 2024 في فيينا أن عددًا صغيرًا من اللاعبين الأقوياء – بمن فيهم المملكة المتحدة والولايات المتحدة وإسرائيل – يحظون بالتقدم من خلال كونهم جزءًا من الدول القليلة المختارة لمعارضة التدابير الملزمة.
قال تيموثي موسى كابا ، وزير الشؤون الخارجية والتعاون الدولي في سيراليون ، في ذلك الوقت أنه من أجل العمل متعدد الأطراف في العالم الحديث ، هناك حاجة ملحة لإصلاح مجلس الأمن التابع للأمم المتحدة ، والتي تهيمن عليها مصالحها خمسة أعضاء دائمون (الصين وفرنسا وروسيا والمملكة المتحدة والولايات المتحدة).
وقال “أعتقد أنه مع ظهور حقائق جديدة ، من تغير المناخ إلى أنظمة الأسلحة المستقلة ، نحتاج إلى النظر في التعددية مرة أخرى” ، مشيرًا إلى أن أي مؤسسات جديدة أو إصلاحية ستحتاج إلى أن تكون شاملة وديمقراطية وقابلة للتكيف.