ارتفاع ضغط الذكاء الاصطناعي بنسبة 185% مع تزايد الدعوات إلى التنظيم
وصلت الضغوط المتعلقة بالذكاء الاصطناعي إلى آفاق جديدة في عام 2023، بمشاركة أكثر من 450 منظمة. ويمثل ذلك زيادة بنسبة 185% عن العام السابق، عندما قامت 158 منظمة فقط بذلك، وفقًا لإفصاحات جماعات الضغط الفيدرالية التي حللتها OpenSecrets نيابة عن CNBC.
ويأتي الارتفاع الكبير في ضغط الذكاء الاصطناعي وسط دعوات متزايدة لتنظيم الذكاء الاصطناعي ودفع إدارة بايدن للبدء في تدوين تلك القواعد. الشركات التي بدأت الضغط في عام 2023 ليكون لها رأي في كيفية تأثير التنظيم على أعمالها تشمل ByteDance، مالكة TikTok، تسلا, سبوتيفي, شوبيفي, بينتريست, سامسونج, بالانتير, نفيديا, بصندوق الإسقاط, إنستاكارت, DoorDashوالأنثروبي وOpenAI.
قامت مئات المنظمات التي مارست الضغط من أجل الذكاء الاصطناعي في عام 2023 بإدارة سلسلة كاملة من الشركات الناشئة في مجال التكنولوجيا والذكاء الاصطناعي إلى الأدوية والتأمين والتمويل والأوساط الأكاديمية والاتصالات وغيرها. حتى عام 2017، ظل عدد المنظمات التي أبلغت عن ممارسة الضغط باستخدام الذكاء الاصطناعي في خانة الآحاد، وفقًا للتحليل، لكن الممارسة نمت ببطء ولكن بثبات في السنوات التي تلت ذلك، لتزدهر في عام 2023.
أكثر من 330 منظمة مارست الضغط من أجل الذكاء الاصطناعي في العام الماضي لم تفعل الشيء نفسه في عام 2022. وأظهرت البيانات أن مجموعة من الصناعات هي من الوافدين الجدد إلى جماعات الضغط في مجال الذكاء الاصطناعي: شركات الرقائق مثل أيه إم دي و TSMCوالشركات الاستثمارية مثل أندريسن هورويتز، وشركات الأدوية الحيوية مثل أسترازينيكا، والتكتلات مثل ديزنيوشركات بيانات التدريب على الذكاء الاصطناعي مثل أبين.
عادةً ما تقوم المنظمات التي أبلغت عن ممارسة الضغط بشأن قضايا الذكاء الاصطناعي في عام 2023 بالضغط على الحكومة بشأن مجموعة من القضايا الأخرى. في المجمل، أبلغوا عن إنفاق أكثر من 957 مليون دولار للضغط على الحكومة الفيدرالية في عام 2023 بشأن قضايا تشمل، على سبيل المثال لا الحصر، الذكاء الاصطناعي، وفقًا لـ OpenSecrets.
في أكتوبر/تشرين الأول، أصدر الرئيس جو بايدن أمرا تنفيذيا بشأن الذكاء الاصطناعي التابع للحكومة الأمريكية الإجراء الأول من نوعه، مما يتطلب تقييمات جديدة للسلامة، وإرشادات حول حقوق الملكية والحقوق المدنية وأبحاثًا حول تأثير الذكاء الاصطناعي على سوق العمل. كلف الأمر المعهد الوطني للمعايير والتكنولوجيا التابع لوزارة التجارة الأمريكية (NIST) بوضع مبادئ توجيهية لتقييم بعض نماذج الذكاء الاصطناعي، بما في ذلك بيئات الاختبار الخاصة بها، ويكون مسؤولاً جزئيًا عن تطوير “معايير قائمة على الإجماع” للذكاء الاصطناعي.
بعد الكشف عن الأمر التنفيذي، بدأت موجة من المشرعين والمجموعات الصناعية ومنظمات الحقوق المدنية والنقابات العمالية وغيرها في البحث في الوثيقة المكونة من 111 صفحة وتدوين الأولويات والمواعيد النهائية المحددة والآثار واسعة النطاق لهذا الإجراء التاريخي. .
تركزت إحدى المناقشات الأساسية حول مسألة عدالة الذكاء الاصطناعي. وقال العديد من قادة المجتمع المدني لشبكة CNBC في نوفمبر أن النظام لا يذهب إلى حد كاف في التعرف على الأضرار الواقعية التي تنجم عن نماذج الذكاء الاصطناعي ومعالجتها، وخاصة تلك التي تؤثر على المجتمعات المهمشة. لكنهم قالوا إنها خطوة ذات معنى.
منذ ديسمبر، كان NIST جمع التعليقات العامة من الشركات والأفراد حول أفضل السبل لصياغة هذه القواعد؛ تنتهي فترة التعليق العام يوم الجمعة. في طلبها للحصول على معلومات، طلبت NIST على وجه التحديد من المستجيبين إبداء رأيهم في تطوير معايير الذكاء الاصطناعي المسؤولة، واختبار أنظمة الذكاء الاصطناعي بحثًا عن نقاط الضعف، وإدارة مخاطر الذكاء الاصطناعي التوليدي، والمساعدة في تقليل مخاطر “المحتوى الاصطناعي”، الذي يتضمن المعلومات الخاطئة والمزيفة العميقة.
— ساهمت ماري كاثرين ويلونز وميغان كاسيلا من سي إن بي سي في إعداد التقارير.