كيفية تنظيم الذكاء الاصطناعى دون خنق الابتكار

انتقلت اللوائح بسرعة من موضوع جاف ، إلى أخبار في الصفحات الأمامية ، خاصة وأن التكنولوجيا تستمر في إعادة تشكيل عالمنا بسرعة. مع إعلان وزير التكنولوجيا في المملكة المتحدة بيتر كايل عن خطط لتشريع مخاطر الذكاء الاصطناعي هذا العام ، ويتم اقتراحه مماثل للولايات المتحدة وما بعدها ، كيف يمكننا حماية مخاطر الذكاء الاصطناعي مع السماح بالابتكار؟
النقاش حول لائحة الذكاء الاصطناعي يزيد على الصعيد العالمي. واجه قانون الذكاء الاصطناعى الطموح للاتحاد الأوروبي ، الذي غالباً ما ينتقد لكونه مقيدًا للغاية ، رد فعل عنيف من الشركات الناشئة التي تدعي أنها تعيق قدرتها على الابتكار. وفي الوقت نفسه ، تضغط الحكومة الأسترالية على تنظيم وسائل التواصل الاجتماعي التاريخية وتبدأ في تطوير درابزين من الذكاء الاصطناعى مماثلة لتلك الموجودة في الاتحاد الأوروبي. على النقيض من ذلك ، تتصارع الولايات المتحدة مع نهج الترقيع ، مع بعض الأصوات ، مثل دونالد ترامب ، ووعد بتراجع اللوائح إلى “إطلاق الابتكار”.
يسلط هذا الترقيع التنظيمي العالمي الضوء على الحاجة إلى التوازن. إن تنظيم منظمة العفو الدولية يخاطر بشكل فضفاض بعواقب مثل الأنظمة المتحيزة ، والمعلومات الخاطئة غير المقيدة ، وحتى مخاطر السلامة. لكن الإفراط في التنظيم يمكن أن يخنق الإبداع ويثبط الاستثمار.
تحقيق التوازن الصحيح
يتطلب التنقل في تعقيدات تنظيم الذكاء الاصطناعي جهدًا تعاونيًا بين المنظمين والشركات. إنه يشبه إلى حد ما المشي على حبل مشدود: تميل إلى حد بعيد ، وأنت تخاطر بالابتكار الخانق ؛ تميل إلى أبعد من ذلك الآخر ، ويمكن أن تساوم السلامة والثقة.
المفتاح هو إيجاد توازن يعطي الأولوية للمبادئ الرئيسية.
التنظيم القائم على المخاطر
لا يتم إنشاء كل الذكاء الاصطناعى على قدم المساواة ، ولا هو المخاطر التي يحملها.
من الواضح أن أداة تشخيص الرعاية الصحية أو مركبة مستقلة تتطلب إشرافًا أكثر قوة ، على سبيل المثال ، محرك توصية لمتجر عبر الإنترنت. والتحدي هو ضمان تطابق التنظيم مع سياق وحجم الضرر المحتمل. تعد المعايير الأكثر صرامة ضرورية للتطبيقات عالية الخطورة ، ولكن على قدم المساواة ، نحتاج إلى ترك مساحة للابتكارات ذات المخاطر المنخفضة لتزدهر دون أن تعيقها بيروقراطية غير ضرورية.
نتفق جميعًا على أن الشفافية أمر بالغ الأهمية لبناء الثقة والإنصاف في أنظمة الذكاء الاصطناعي ، ولكن لا ينبغي أن يأتي على حساب التقدم. إن تطوير الذكاء الاصطناعي قادر على التنافس بشكل كبير ، وغالبًا ما يصعب مراقبة أنظمة الذكاء الاصطناعية هذه مع تشغيل معظمها باعتبارها “مربعًا أسود” وهذا يثير مخاوف للجهات التنظيمية على أنها قادرة على تبرير التفكير في صميم تحديد النية.
نتيجة لذلك ، في عام 2025 ، سيكون هناك زيادة في الطلب على الذكاء الاصطناعي. نظرًا لأن هذه الأنظمة يتم تطبيقها بشكل متزايد على مجالات مثل الطب أو التمويل ، فهناك حاجة أكبر لإظهار التفكير ، ولماذا أوصت الروبوت بخطة علاجية معينة أو إجراء تجارة محددة هو شرط تنظيمي ضروري في حين أن شيئًا ما يولد نسخة إعلانية لا يفعل ذلك تتطلب نفس الرقابة. من المحتمل أن يخلق هذا ممرتين من التنظيم لمنظمة العفو الدولية اعتمادًا على ملف المخاطر. سيدعم التحديد الواضح بين حالات الاستخدام المطورين ويحسن الثقة للمستثمرين والمطورين الذين يعملون حاليًا في منطقة رمادية قانونية.
الوثائق التفصيلية والشرح أمران حيويان ، ولكن هناك خط رفيع بين الشفافية المفيدة والشريط الأحمر المشلول. نحتاج إلى التأكد من أن الشركات واضحة بشأن ما يتعين عليهم القيام به لتلبية المطالب التنظيمية.
تشجيع الابتكار
لا ينبغي أن يكون التنظيم عائقًا ، خاصة بالنسبة للشركات الناشئة والشركات الصغيرة.
إذا أصبح الامتثال مكلفًا للغاية أو معقدًا ، فإننا نخاطر بترك وراءهم الأشخاص الذين يقودون الموجة التالية من تطورات الذكاء الاصطناعي. يجب أن تكون السلامة العامة متوازنة ، مما يترك مجالًا للتجربة أو الابتكار.
نصيحتي؟ لا تخف من التجربة. جرب AI بطرق صغيرة يمكن التحكم فيها لمعرفة كيف تناسب مؤسستك. ابدأ بإثبات مفهوم التعامل مع تحدٍ محدد – هذا النهج هو وسيلة رائعة لاختبار المياه مع الحفاظ على الابتكار المثيرة والمسؤولة.
لا يهتم الذكاء الاصطناعي بالحدود ، لكن التنظيم غالبًا ما يكون ، وهذه مشكلة. تخلق القواعد المتباينة بين البلدان ارتباكًا للشركات العالمية وترك الثغرات للجهات الفاعلة السيئة لاستغلالها. لمعالجة ذلك ، يعد التعاون الدولي أمرًا حيويًا ، ونحن بحاجة إلى نهج عالمي ثابت لمنع التفتت وتحديد معايير واضحة يمكن للجميع اتباعها.
تضمين الأخلاق في تنمية الذكاء الاصطناعي
الأخلاق لا ينبغي أن تكون فكرة لاحقة. بدلاً من الاعتماد على عمليات التدقيق بعد التطوير ، يجب على الشركات تضمين الإنصاف ، والتخفيف من التحيز ، وأخلاقيات البيانات في دورة حياة الذكاء الاصطناعي منذ البداية. هذا النهج الاستباقي لا يبني الثقة فحسب ، بل إنه يساعد أيضًا على التنظيم الذاتي للمنظمات مع تلبية معايير قانونية وأخلاقية أوسع.
ما هو واضح أيضًا هو أن المحادثة يجب أن تشمل الشركات وصانعي السياسات والتقنيين والجمهور. يجب أن يتم تصميم اللوائح مع أولئك الموجودين في طليعة ابتكار الذكاء الاصطناعي لضمان أن تكون واقعية وعملية ومظهر تطلعية.
نظرًا لأن العالم يتصارع مع هذا التحدي ، فمن الواضح أن التنظيم ليس عائقًا أمام الابتكار – إنه أساس الثقة. بدون ثقة ، فإن إمكانات المخاطر التي تطغى عليها المخاطر.