يعبر الجمهور في المملكة المتحدة عن دعم قوي لتنظيم الذكاء الاصطناعي

يقول ما يقرب من ثلاثة أرباع الجمهور في المملكة المتحدة إن إدخال قوانين لتنظيم الذكاء الاصطناعي (AI) سيزيد من راحتها مع التكنولوجيا ، وسط قلق عام متزايد بشأن الآثار المترتبة على بدء تشغيلها.
استجابةً للمسح الوطني لأكثر من 3500 من سكان المملكة المتحدة التي أجراها ada lovelace و معاهد آلان تورينج -الذي سأل الناس عن وعيهم وتصوراتهم حول حالات استخدام الذكاء الاصطناعى المختلفة ، وكذلك تجاربهم في الأضرار المتعلقة بالنيابة-قال الغالبية العظمى (72 ٪) إن القوانين واللوائح ستجعلها أكثر راحة مع انتشار تقنيات الذكاء الاصطناعي.
قال ما يقرب من تسعة من كل 10 أنهم يعتقدون أنه من المهم أن تتمتع الحكومة أو المنظمين بسلطة إيقاف استخدام منتجات الذكاء الاصطناعى التي تعتبر لخطر الأذى الشديد للجمهور ، في حين أن أكثر من 75 ٪ قالوا للمنظمين المستقلين – بدلاً من الشركات الخاصة وحدها – يجب أن تشرف على سلامة الذكاء الاصطناعي.
ووجدت المعاهد أيضًا أن تعرض الناس لأضرار منظمة العفو الدولية على نطاق واسع ، حيث تواجه ثلثي التقارير العامة مع مختلف الآثار السلبية للتكنولوجيا. كانت أكثر الأضرار التي تم الإبلاغ عنها هي معلومات كاذبة (61 ٪) ، والاحتيال المالي (58 ٪) و Deepfakes (58 ٪).
وجد المسح أيضًا دعمًا للحق في الاستئناف ضد القرارات القائمة على الذكاء الاصطناعي وللمزيد من الشفافية ، مع 65 ٪ قالوا إن إجراءات القرارات الطبيعية و 61 ٪ يقولون المزيد من المعلومات حول كيفية استخدام الذكاء الاصطناعى لاتخاذ قرار ستزيد من راحتها بالتكنولوجيا.
ومع ذلك ، قالت المعاهد إن الطلب المتزايد على تنظيم الذكاء الاصطناعى سيأتي في وقت المملكة المتحدة ليس لديها مجموعة من اللوائح الشاملة حول التكنولوجيا.
في تقرير يرافق نتائج المسح، أضافت المعاهد بينما ترحب بالاعتراف في خطة عمل فرص AI في المملكة المتحدة أن “يجب على الحكومة حماية المواطنين البريطانيين من أهم المخاطر التي قدمتها الذكاء الاصطناعى والثقة العامة في التكنولوجيا ، وخاصة بالنظر إلى مصالح المجموعات المهمشة” ، لا توجد التزامات محددة حول كيفية تحقيق هذا الطموح.
وقال أوكتافيا فيلد ريد ، المدير المساعد في معهد أدا لوفليس ، مضيفًا أن التقلب التشريعي للحكومة في الذكاء الاصطناعي يتناقض الآن مع المخاوف العامة حول التقنية ورغبتها ، “هذا الدليل يوضح أنه لكي يتم تطوير AI ونشره بمسؤولية ، فإنه يحتاج إلى مراعاة التوقعات العامة والمخاوف والخبرات”.
“تخلق هذه الفجوة بين السياسة والتوقعات العامة خطرًا على رد فعل عنيف ، وخاصة من المجموعات المصنوعة من الأقصر والأكثر تأثرًا بأضرار الذكاء الاصطناعى ، والتي من شأنها أن تعيق اعتماد الذكاء الاصطناعي وإدراك فوائدها. لن يكون هناك عائق أكبر لتوفير إمكانات الذكاء الاصطناعي من الافتقار إلى الثقة العامة.”
وفقًا للمسح-الذي أفرط في تخطيط مجموعات تجميلية اجتماعية ، بما في ذلك الأشخاص من خلفيات منخفضة الدخل والجماعات العرقية المصنوعة من الذكاء الاصطناعي-تختلف المواقف التي تجاه الذكاء الاصطناعى إلى حد كبير بين العديد من التركيبة السكانية ، مع عدد سكانهم تقليديًا في الإبلاغ عن المزيد من المخاوف وإدراك AI على أنها أقل فائدة. على سبيل المثال ، أعرب 57 ٪ من السود و 52 ٪ من الأشخاص الآسيويين عن قلقهم بشأن التعرف على الوجه في الشرطة، مقارنة بـ 39 ٪ في السكان الأوسع.
في جميع حالات استخدام الذكاء الاصطناعى التي تم طرحها في الاستطلاع ، فإن الأشخاص ذوي الدخل المنخفض ينظرون إليهم على أنهم أقل فائدة من الأشخاص ذوي الدخل الأعلى.
بشكل عام ، ومع ذلك ، كان الأشخاص في جميع المجموعات أكثر قلقًا بشأن استخدام بياناتهم وتمثيلهم في اتخاذ القرارات ، حيث قال 83 ٪ من الجمهور في المملكة المتحدة إنهم قلقون بشأن هيئات القطاع العام التي تشارك بياناتها مع الشركات الخاصة لتدريب أنظمة الذكاء الاصطناعي.
وردا على سؤال حول مدى شعورهم بآرائهم وقيمهم في القرارات الحالية التي يتم اتخاذها حول الذكاء الاصطناعى وكيف يؤثر على حياتهم ، قال نصف الجمهور إنهم لا يشعرون بالتمثيل.
وقالت هيلين مارغتس ، مديرة برنامج السياسة العامة في معهد آلان تورينج: “لإدراك العديد من الفرص وفوائد منظمة العفو الدولية ، سيكون من المهم بناء وجهات النظر والخبرات العامة في اتخاذ القرارات حول الذكاء الاصطناعي”.
“تشير هذه النتائج إلى أهمية وعد الحكومة في خطة عمل الذكاء الاصطناعى لتمويل المنظمين لزيادة قدراتهم وخبراتهم في الذكاء الاصطناعي ، والتي يجب أن تعزز ثقة الجمهور. كما تسلط النتائج الضوء على الحاجة إلى معالجة التوقعات التفاضلية وخبرات أولئك الذين لديهم دخل أقل ، بحيث تكتسب نفس الفوائد من فئات الدخل المرتفعة من الجيل الأخير من AI.”
في تقريرهم المصاحب ، قال المعاهد لضمان إدخال أنظمة منظمة العفو الدولية في خدمات القطاع العام للجميع ، يجب على صانعي السياسات المشاركة و استشر الجمهور لالتقاط مجموعة كاملة من المواقف التي تعبر عنها مجموعات مختلفة.
وقالت: “قد يساعد التقاط وجهات نظر متنوعة في تحديد حالات الاستخدام الشديد ، أو المخاوف أو الأضرار الجديدة ، و/أو تدابير الحوكمة المحتملة اللازمة لكسب ثقة الجمهور ودعم التبني”.
على الرغم من أن مشاركة الناس الشاملة في كل من الإدارة العامة والخاصة لأنظمة الذكاء الاصطناعى هي مفتاح جعل التكنولوجيا تعمل لصالح الجميع ، سبق أن أبلغ الكمبيوتر الأسبوعي أنه لا يوجد حاليًا أي طرق للمشاركة العامة ذات مغزى.
وفقًا لكبير المستشارين العلميين في الحكومة أنجيلا ماكلين ، على سبيل المثال ، لا توجد قنوات قابلة للحياة متاحة للجمهور من شأنها أن تسمح لهم بسماع أصواتهم حول مسائل العلوم والتكنولوجيا.
في سبتمبر 2024 ، كما أبرزت هيئة استشارية للأمم المتحدة (الأمم المتحدة) في الذكاء الاصطناعي الحاجة إلى التعاون عند إنشاء “بنية شاملة وموزعة عالميًا” لتحكم استخدام التكنولوجيا.
وقالت “ضرورة الحكم العالمي ، على وجه الخصوص ، لا يمكن دحضها”. “المواد الخام من الذكاء الاصطناعى ، من المعادن الحرجة إلى بيانات التدريب ، مصادر عالميًا. منظمة العفو الدولية للأغراض العامة ، التي يتم نشرها عبر الحدود ، تفرخ التطبيقات المتعددة على الصعيد العالمي. إن التطور المتسارع ل AI يركز على القوة والثروة على نطاق عالمي ، مع وجود آثار الجيوسياسية والاقتصادية الجيولوجية.
“علاوة على ذلك ، لا أحد يفهم حاليًا جميع أعمال منظمة العفو الدولية الداخلية بما يكفي للسيطرة على مخرجاتها بالكامل أو التنبؤ بتطورها. كما أن صانعي القرار يتحملون المسؤولية عن تطوير أو نشر أو استخدام أنظمة لا يفهمونها. وفي الوقت نفسه ، من المحتمل أن تكون الآثار السلبية والآثار المئوية الناتجة عن مثل هذه القرارات عالمية.”
وأضاف أنه على الرغم من أن الحكومات الوطنية والمنظمات الإقليمية ستكون حاسمة للسيطرة على استخدام الذكاء الاصطناعي ، “طبيعة التكنولوجيا نفسها – العابرة في البنية والتطبيق – تستلزم اتباع نهج عالمي”.