الأمن السيبراني

هل يمكن أن يكون مشروع قانون الذكاء الاصطناعي في كاليفورنيا بمثابة مخطط لتنظيم الذكاء الاصطناعي في المستقبل؟


لقد أصبحت مسألة سلامة الذكاء الاصطناعي موضع نقاش ساخن مع استمرار انتشار التكنولوجيا وتدفق الأموال على العديد من النماذج وحالات الاستخدام. مشروع قانون مجلس الشيوخ (SB) رقم 1047قد يكون لمشروع القانون الجديد، الذي يشق طريقه إلى مكتب حاكم ولاية كاليفورنيا جافين نيوسوم (ديمقراطي)، دور كبير في صياغة إجابة الجهات التنظيمية على هذا السؤال.

إذا تم تمرير مشروع القانون، فسوف يسن قانون الابتكار الآمن والمضمون لنماذج الذكاء الاصطناعي الرائدة في كاليفورنيا. ونظراً لنفوذ كاليفورنيا، فإن التشريع يمكن أن يكون بمثابة الأساس لتنظيم الذكاء الاصطناعي في ولايات أخرى.

لقد قوبل مشروع قانون مجلس الشيوخ رقم 1047 بالتصفيق والتفاؤل الحذر والمعارضة الصريحة. وإذا تم تمريره، فماذا قد يعني هذا التشريع لصناعة الذكاء الاصطناعي والتنظيم المستقبلي؟

مشروع القانون

يركز التشريع المقترح على بروتوكولات السلامة والأمن لنماذج الذكاء الاصطناعي الكبيرة، تلك التي تكلف 100 مليون دولار أو أكثر لتطويرها. ويهدف إلى تحميل مطوري هذه النماذج المسؤولية عن النتائج الضارة. ويقدم مشروع القانون أمثلة على الضرر، مثل إنشاء أسلحة تؤدي إلى إصابات جماعية والهجمات الإلكترونية على البنية التحتية الحيوية التي تؤدي إلى أضرار بقيمة 500 مليون دولار أو أكثر.

ويسمح التشريع للنائب العام باتخاذ إجراءات مدنية ضد مطوري الذكاء الاصطناعي إذا كانت نماذجهم مرتبطة بحدث كارثي.

متعلق ب:المشرعون الأمريكيون يدرسون تنظيم الذكاء الاصطناعي وخصوصية البيانات

المعارضة والدعم

إن الحاجة إلى تنظيم الذكاء الاصطناعي متفق عليها على نطاق واسع مع نمو استخدام التكنولوجيا. “أصبح الذكاء الاصطناعي جزءًا متزايدًا من حياتنا، مثل آلة صنع القهوة، مثل السيارة. قد لا تستخدم الذكاء الاصطناعي بشكل مباشر، ولكنك ربما تستخدم بعض التطبيقات التي قد تكون [in] “الخلفية”، ميليسا روزي، مديرة الذكاء الاصطناعي في شركة أمن SaaS تطبيق أومني، كما يقول InformationWeek.

إن النقاش حول كيفية تنظيم هذه التكنولوجيا سريعة الحركة مثير للجدال. وقد حظي مشروع قانون مجلس الشيوخ رقم 1047 بدعم من الباحثين في مجال الذكاء الاصطناعي جيفري هينتون ويوشوا بينجيو، فضلاً عن الملياردير إيلون ماسك. وأشار هينتون إلى “نهج معقول“وفقًا لبيان صحفي صادر عن السيناتور سكوت وينر (ديمقراطي من سان فرانسيسكو)، الذي قدم مشروع القانون. وقد لجأ ماسك إلى X للتعبير عن دعمه لتنظيم “…أي منتج/تكنولوجيا تشكل خطرًا محتملًا على الجمهور“.”

أنثروبيك، شركة ناشئة في مجال الذكاء الاصطناعي استثمار بقيمة 4 مليار دولار من أمازون، كتب خطاب إلى الحاكم نيوسوم الذي حدد الدعم الحذر، بشرط إجراء تعديلات على مشروع القانون. التغييرات المقترحة التركيز على تضييق نطاق إنفاذ القانون قبل وقوع الضرر، وتقليص المتطلبات في حالة عدم وقوع الضرر، والحد من “الجوانب غير ذات الصلة”.

من ناحية أخرى، كانت شركة OpenAI صريحة في معارضتها لمشروع القانون. فقد أعلنت الشركة دعمها للغرض من أجزاء من مشروع القانون، لكنها زعمت أن التنظيم يجب أن يتم على المستوى الفيدرالي.

متعلق ب:قانون الذكاء الاصطناعي بالاتحاد الأوروبي يتجاوز العقبة الأخيرة ليصبح معلمًا عالميًا

“ومع ذلك، فإن التأثيرات الواسعة والمهمة للذكاء الاصطناعي على القدرة التنافسية والأمن القومي للولايات المتحدة تتطلب تشكيل وتنظيم نماذج الحدود على المستوى الفيدرالي”، وفقًا للشركة. رسالة معارضة.

تحالف الذكاء الاصطناعي، وهي مجموعة تضم أعضاء مثل Meta وIBM، لديها أيضًا تحدث ضد مشروع القانونويزعم أن مشروع القانون يعاقب على تطوير البرمجيات مفتوحة المصدر، من بين انتقادات أخرى.

كان التركيز على برامج الماجستير في القانون سبباً للنقاش أيضاً. يقول جيفري ماتسون، الرئيس التنفيذي لشركة الأمن السيبراني: “إن النموذج الفردي أو النموذج الشامل ليس سوى جزء واحد من التطبيق الذي قد يتسبب في جميع أنواع الأضرار”. أمن إكساج“يمكنك الحصول على… عدة نماذج أصغر حجمًا [linked] على سبيل المثال، لا يتم التعامل مع هذا الأمر معًا في شبكة. قد يكون لديك نماذج أصغر حجمًا ولكنها مدربة بطريقة معينة باستخدام [a] “نوع معين من المعلومات التي تجعلها خطيرة.”

وقد شكك أصحاب المصلحة الآخرون في الصناعة في التركيز على بناة النماذج باعتبارهم حراس سلامة الذكاء الاصطناعي. تقول ماناسي فارتاك، كبير مهندسي الذكاء الاصطناعي في شركة “إنتل”: “بصفتنا بناة نماذج، من المستحيل معرفة كيفية استخدام النموذج، وفي الوقت الحالي، يضع مشروع القانون العبء حقًا على بناة النماذج”. كلاوديرا، وهي شركة برمجيات بحيرة البيانات.

متعلق ب:هل ينبغي السماح للحكومة بتنظيم الذكاء الاصطناعي؟

تنظيم الذكاء الاصطناعي قادم

إن مشروع القانون رقم 1047 لم يصبح قانونًا بعد، ولا يُضمن أن يصبح كذلك. ولكن إذا أصبح كذلك، فقد تتطلع ولايات أخرى إلى نهج كاليفورنيا في تنظيم الذكاء الاصطناعي.

“إذا تمت الموافقة على التشريع في ولاية مؤثرة مثل كاليفورنيا، فيمكن أن يساعد في إرساء أفضل الممارسات والمعايير في الصناعة للاستخدام الآمن والمسؤول للذكاء الاصطناعي”، كما تقول آشلي كاسوفان، المديرة الإدارية لمركز حوكمة الذكاء الاصطناعي في مؤسسة غير ربحية. الرابطة الدولية لمحترفي الخصوصية (IAPP)، كما يقول في مقابلة عبر البريد الإلكتروني.

كاليفورنيا ليست المكان الوحيد الذي يفرض تنظيم الذكاء الاصطناعي على راداره. قانون الاتحاد الأوروبي للذكاء الاصطناعي تم إقراره في وقت سابق من هذا العام. أصدرت الحكومة الفيدرالية في الولايات المتحدة قانونًا ميثاق حقوق الذكاء الاصطناعي، على الرغم من أن هذا بمثابة التوجيه وليس التنظيم. كولورادو ويوتا تم سن قوانين تنطبق على استخدام أنظمة الذكاء الاصطناعي.

ويقول كاسوفان: “أتوقع أن يكون هناك المزيد من التشريعات الخاصة بمجال أو تكنولوجيا الذكاء الاصطناعي الناشئة في جميع الولايات في العام المقبل”.

وبقدر ما يبدو أن التشريعات الجديدة المتعلقة بالذكاء الاصطناعي، والمناقشات المصاحبة لها، تظهر بسرعة، فإن الذكاء الاصطناعي يتحرك بسرعة أكبر. ويقول روزي: “التحدي الأكبر هنا… هو أن القانون يجب أن يكون واسع النطاق بما يكفي لأنه إذا كان محددًا للغاية، فربما يصبح غير ذي صلة بحلول الوقت الذي يتم فيه إقراره”.

إن جزءاً كبيراً آخر من التحدي الذي يواجه تنظيم الذكاء الاصطناعي يتلخص في الاتفاق على معنى السلامة في الذكاء الاصطناعي. ويقول فارتاك: “إن معنى السلامة… متعدد الأوجه وغير محدد بشكل جيد في الوقت الحالي”.

من الممكن تحديد مفهوم السلامة من خلال التركيز على تطبيقات الذكاء الاصطناعي المحددة عبر الصناعات المختلفة.

وتزعم فارتاك أيضًا أن الوكالات الحكومية يجب أن تشارك في اختبار نماذج الذكاء الاصطناعي المختلفة من أجل اكتساب فهم أفضل للتكنولوجيا التي تحاول تنظيمها. وتشير إلى اتفاق بين Anthropic وOpenAI ومعهد سلامة الذكاء الاصطناعي الأمريكي في المعهد الوطني للمعايير والتكنولوجيا (NIST) كمثال على هذا النوع من التعاون.

ونظراً لمدى حداثة صناعة الذكاء الاصطناعي، فإن الإجابة على الأسئلة الأساسية حول السلامة من المرجح أن تستغرق وقتاً ومالاً. ومن الممكن أن يساعد تمويل المؤسسات الأكاديمية ومختبرات الأبحاث ومراكز الفكر الجهات التنظيمية في الإجابة على هذه الأسئلة وتشكيل نهجها. “أنا شخصياً أحب أن أرى المزيد من التمويل هناك حتى نتمكن من فهم ما نواجهه ومن ثم يمكننا التفكير في كيفية [to] “إن أفضل طريقة لتنظيم ذلك هي من خلال ما يقوله فارتاك”.

وبغض النظر عن الكيفية التي يتشكل بها المشهد التنظيمي، يتعين على مطوري ومستخدمي الذكاء الاصطناعي التفكير في السلامة الآن. ويحث كاسوفان على ذلك قائلاً: “من المهم أن نبدأ في تطوير معرفة قوية بحوكمة الذكاء الاصطناعي داخل مؤسستك. وسيكون من المهم إدارة هذه الأنظمة بشكل مستقل عن التشريعات للحد من مخاطر الأعمال”.





Source link

زر الذهاب إلى الأعلى