الأمن السيبراني

منظمة غير ربحية تطلق أدوات لتعزيز الذكاء الاصطناعي المسؤول


في السباق لتبني أدوات الذكاء الاصطناعي الساخنة، تواجه الشركات مزيجًا عالميًا متزايدًا من المبادئ التوجيهية لتبني الذكاء الاصطناعي الآمن – بما في ذلك المراسيم الجديدة من الأمر التنفيذي للرئيس بايدن والقواعد الأخيرة التي تمت صياغتها في الخارج.

أطلق معهد الذكاء الاصطناعي المسؤول (RAI Institute) يوم الخميس ثلاث أدوات مصممة لمساعدة أولئك الذين يتطلعون إلى تنفيذ الذكاء الاصطناعي في المؤسسات بأمان ومسؤولية. تم تصميم الأدوات، المعروفة باسم معايير السلامة والفعالية المسؤولة في الذكاء الاصطناعي (RAISE)، لمساعدة الشركات في تطوير منتجات الذكاء الاصطناعي الآمنة وتلبية المتطلبات التنظيمية المتغيرة بسرعة.

تغطي الأدوات الجديدة ثلاثة معايير لسلامة الذكاء الاصطناعي، بما في ذلك تلك الخاصة بسياسة الذكاء الاصطناعي للشركات، وهلوسة الذكاء الاصطناعي، ومواءمة بائعي الذكاء الاصطناعي. ستكون الأدوات متاحة للمؤسسات والشركات الناشئة وأعضاء RAI الفرديين.

في مقابلة مع InformationWeek، يشرح مانوج ساكسينا، مؤسس معهد RAI والرئيس التنفيذي، أهمية تطوير إطار أمان الذكاء الاصطناعي مع استمرار ظهور GenAI بسرعة. بصفته المدير العام السابق لشركة IBM Watson Solutions، فإن ساكسينا على دراية جيدة بالوعود والمخاطر المحتملة المرتبطة بالذكاء الاصطناعي. أثناء عملها في شركة IBM، كانت ساكسينا حاضرة في مؤتمر حيث طرح أحد الأشخاص احتمالية تحيز الذكاء الاصطناعي في الطب على وجه التحديد، حيث يمكن أن يكون الفرق بين الحياة والموت.

متعلق ب:المساومة حول مستقبل تنظيم الذكاء الاصطناعي ومسؤوليته

يقول ساكسينا: “لقد غيّر ذلك اتجاه حياتي حرفيًا، وجعلت من مهمة حياتي التأكد من أننا نضع حواجز الحماية ونبتكر بشكل مسؤول باستخدام الذكاء الاصطناعي”.

ثلاث قوى

قال ساكسينا إن “القوى الثلاث” تجتمع معًا مع استمرار GenAI في السيطرة على النظام البيئي المسؤول للذكاء الاصطناعي. وتتمثل هذه القوى في التنظيم، والنجاح من خلال نشر الذكاء الاصطناعي المسؤول، ووعي العملاء والطلب على الذكاء الاصطناعي الآمن. ويضيف أن الولايات المتحدة والمملكة المتحدة وكندا تبذل المزيد من الجهود التنظيمية المؤيدة للسوق، في حين أن دول أخرى مثل الصين لديها قواعد أكثر صرامة.

وقال: “لذا، هدفنا هو أن نكون مثل وكالة تصنيف السندات للذكاء الاصطناعي… مساعدة الشركات على معرفة أفضل طريقة لتنفيذ الذكاء الاصطناعي بطريقة تضيف إلى الربحية والميزة التنافسية”.

تحاول الشركات الآن معرفة كيفية التعامل مع الجانب المظلم للذكاء الاصطناعي، بما في ذلك قضايا مثل تسرب البيانات، والهلوسة، والتحيز الذي يمكن أن يقوض المعايير الأخلاقية للشركة. باستخدام اللوائح والأطر الحالية المعمول بها بالفعل، مثل إطار ومعايير الذكاء الاصطناعي للمعهد الوطني للمعايير والتكنولوجيا (NIST) التي أنشأتها المنظمة الدولية للمعايير (ISO) للأمن السيبراني، تعمل أدوات RAI على إنشاء نقطة مرجعية واحدة لنظام تنظيمي عالمي معقد. النظام البيئي.

متعلق ب:المشرعون الأمريكيون يدرسون الذكاء الاصطناعي، تنظيم خصوصية البيانات

ويقول: “تعرف الشركات أنها بحاجة إلى إنشاء ونشر الذكاء الاصطناعي، لكنها تحتاج أيضًا إلى القيام بذلك بطريقة متوافقة ومخففة من المخاطر”.

خفض حاجز الذكاء الاصطناعي للدخول

تجبر الضغوط التنافسية العديد من الشركات على القفز بقوة إلى اعتماد الذكاء الاصطناعي. وبالنسبة للشركات الصغيرة ذات الموارد الأقل، قد يكون من الصعب إنشاء بيئة آمنة للذكاء الاصطناعي تلبي وفرة اللوائح العالمية التي يتم تطويرها باستمرار. يتمتع أعضاء RAI بإمكانية الوصول إلى الأدوات عبر الإنترنت التي ترشدهم خلال العملية.

يقول ساكسينا، إن هذه الشركات بحاجة إلى النظر في ثلاث خطوات مهمة: التأكد من أن المنتج ليس هذيانًا، وأن هناك معيارًا سياسيًا سليمًا مطبقًا، وأخيرًا، إذا قمت بتنفيذ أو شراء منتج للذكاء الاصطناعي، فإنه يتماشى مع السياسات الحالية. واللوائح. وقال: “نريد التأكد من أن هذا آمن، وأنه ليس هلوسة، وأن ChatGPT أو Bard أو الآخرين لا يختلقون أشياء يمكن أن تلحق الضرر بي وبشركتي”.

وقال فار شانكار، المدير التنفيذي لمعهد RAI، إن وجود ثقافة الاستخدام المسؤول للذكاء الاصطناعي على مستوى الشركة أمر ضروري. “أنت بحاجة إلى برنامج مطور مواطن – تحتاج إلى مشاركة الجميع في الذكاء الاصطناعي والتنمية. من ناحية أخرى، أنت بحاجة إلى النظافة فيما يتعلق بالحصول على الوثائق والعمليات الصحيحة. وللقيام بهذين الأمرين بشكل جيد، تحتاج إلى إضافة مستوى معين من التوثيق الآلي، وهو ما نحاول الوصول إليه من خلال هذه المعايير.

متعلق ب:سد فجوة استراتيجية الذكاء الاصطناعي في الإدارة التنفيذية

تأسس معهد RAI في عام 2016، ويضم أعضاء معهد RAI Amazon Web Services، وBoston Consulting Group، وShell Chevron، والعديد من الشركات الأخرى التي تتعاون لتعزيز الاستخدام المسؤول للذكاء الاصطناعي.





Source link

زر الذهاب إلى الأعلى