الأمن السيبراني

كيفية مراقبة الذكاء الاصطناعي باستخدام الذكاء الاصطناعي


تعتبر زلات الذكاء الاصطناعي مثيرة للقلق، سواء كانت هلاوس أو اتخاذ قرارات مشكوك فيها. وهذا هو أحد الأسباب وراء ضرورة إبقاء البشر في الحلقة. ومع ذلك، يمكن للذكاء الاصطناعي أن يعمل بسرعة وعلى نطاق مستحيل جسديًا بالنسبة للبشر، بينما يبرز استثناءات الحالات المتطورة التي تتطلب المراجعة والرقابة البشرية. ويساعد هذا النوع من الشراكة على ضمان قيام الذكاء الاصطناعي بعمله بشكل صحيح.

“لا يستطيع الإنسان قراءة وتقييم الأشياء على مدار الساعة طوال أيام الأسبوع واتخاذ الإجراءات في أجزاء من الثانية. “لهذا السبب لم يعد اختبار تورينج قابلاً للتطبيق لأننا الآن نتحدث عن نفس القدرة التي يتمتع بها الإنسان ولكن مع تحسين 100000X في الحجم والسرعة والدقة لأنه يسترد المزيد من المعلومات،” كما يقول محمد الجندي، الرئيس التنفيذي والشريك. -مؤسس منصة اختبار AI/ML كولينا. “يتم استخدام نماذج اللغة الكبيرة لتقييم النماذج قبل نشرها وكحواجز حماية بعد نشرها.”

على سبيل المثال، قد تحتاج إحدى الشركات إلى حاجز حماية بسيط لبرنامج الدردشة الآلي يمنع برنامج الدردشة الآلي من ذكر منافس أو حواجز حماية أكثر تعقيدًا حول العنف والهلوسة وكسر الحماية. في مجال التكنولوجيا المالية، تُمنع العارضات من تقديم المشورة المالية في تطبيقات التكنولوجيا المالية لأن القيام بذلك غير قانوني.

يقول كاش ميريل، مؤسس شركة تطوير البرمجيات: “إن فكرة استخدام الذكاء الاصطناعي لمراقبة وتنظيم أنظمة الذكاء الاصطناعي الأخرى هي تطور حاسم في ضمان فعالية هذه الأنظمة وأخلاقيتها”. زيبتيك، في مقابلة عبر البريد الإلكتروني. “في الوقت الحالي، يتم استخدام تقنيات مثل نماذج التعلم الآلي التي تتنبأ بسلوكيات النماذج الأخرى (النماذج الفوقية) لمراقبة الذكاء الاصطناعي. تقوم هذه الأنظمة بتحليل أنماط ومخرجات الذكاء الاصطناعي التشغيلي للكشف عن الحالات الشاذة أو التحيزات أو حالات الفشل المحتملة قبل أن تصبح حرجة.

متعلق ب:ما تحتاج لمعرفته حول الذكاء الاصطناعي كخدمة

تشمل فوائد مراقبة الذكاء الاصطناعي مستوى من قابلية التوسع لا يمكن للبشر تحقيقه، ومستوى أعلى من الاتساق نظرًا لأن الذكاء الاصطناعي لا يتطلب راحة وعمقًا في التحليل استنادًا إلى أنماط وارتباطات أعمق قد يتجاهلها المحللون البشريون.

فكر في المراقبة من حيث الاختبار

يتم التعبير عن الذكاء الاصطناعي من خلال البرامج، وكما هو الحال مع أي نوع آخر من البرامج، يعد الاختبار ضروريًا للتأكد من أن الذكاء الاصطناعي يقوم بما تم تصميمه للقيام به. على سبيل المثال، تستدعي المزيد من التطبيقات واجهات برمجة التطبيقات لنماذج اللغة الكبيرة (LLM)، ولكن مشكلة استهلاك الذكاء الاصطناعي هي أن شخصًا ما يحتاج إلى قياسه. باستخدام الذكاء الاصطناعي الذي يستخدم البيانات الزمنية المنظمة، من الممكن تحقيق توقعات أكثر دقة.

يقول ديفارفرات شاه، الرئيس التنفيذي: “إنك تحاول مراقبة الاستهلاك الذي يقدمه الذكاء الاصطناعي باستمرار، وتحاول الاستفادة من بيانات السلاسل الزمنية المنظمة لفهم الأنماط الموجودة فيها للقيام بالتنبؤات أو فهم الحالات الشاذة أو فهم علاقة نقطة التغيير بينهما”. والمؤسس المشارك لـ مختبرات إيكيجاي، وهي منصة ذكاء اصطناعي مؤسسية لبيانات السلاسل الزمنية المنظمة، وأستاذ علوم البيانات والإحصاء في معهد ماساتشوستس للتكنولوجيا.

متعلق ب:هل فقاعة الذكاء الاصطناعي أمر لا مفر منه؟

ويقول إن هناك حاجة أيضًا إلى استخدام الذكاء الاصطناعي لاختبار الفرضيات.

على سبيل المثال، لدى المجتمع معايير معينة من المتوقع أن يتم دعمها، ويتم استخدام الذكاء الاصطناعي بالفعل للامتثال التنظيمي. ومع ذلك، يمكن استخدام الذكاء الاصطناعي للمساعدة في تحديد المعايير الصالحة وغير الصالحة. سيقدم المستخدم للذكاء الاصطناعي معيارًا ويمكن للذكاء الاصطناعي معرفة ما إذا كان يمكن تحويل هذا المعيار إلى اختبار فرضية أم لا. إذا كان ذلك ممكنًا، فباستخدام البيانات، سيكون من الممكن التحقق من القاعدة باستمرار. يمكن للذكاء الاصطناعي أيضًا إخبار المستخدم بنوع البيانات التي يحتاجها.

يقول شاه: “بوصفنا أكاديميين، ما يتعين علينا القيام به هو تحديد مفهوم اختبار الفرضيات ثم إنشاء اختبار وإنشاء دليل على ذلك”. “يجب أن نكون أنا والذكاء الاصطناعي قادرين على تحديد اللوائح وإدارة الذكاء الاصطناعي التنظيمي، سواء كان ذلك من خلال تدقيق النماذج أو التقاضي بشأن النماذج.”

ذو الفقار رمضان، كبير العلماء ونائب الرئيس التنفيذي للمنتجات والتطوير في شركة حماية الهوية هالةيقول إن الشفافية ليست كافية، خاصة بالنسبة للأنظمة المعقدة، لأنها معقدة للغاية بحيث لا يستطيع الإنسان فهمها.

متعلق ب:هل يتفوق الابتكار على الذكاء الاصطناعي المسؤول؟

يقول رمضان: “هناك الكثير من أبحاث الذكاء الاصطناعي الرائعة القابلة للتفسير، ولكن عندما يتعلق الأمر بالخوارزميات الأكثر تقدمًا، فنحن لسنا قريبين من المكان الذي يجب أن نكون فيه في بيئات الإنتاج”.

التحديات المتعلقة بمراقبة الذكاء الاصطناعي بواسطة الذكاء الاصطناعي

وفقًا لميريل من Zibtek، هناك ثلاثة تحديات تواجه استخدام الذكاء الاصطناعي لمراقبة الذكاء الاصطناعي. الأول هو تعقيد التنظيم الذاتي. يتضمن تصميم الذكاء الاصطناعي الذي يراقب الذكاء الاصطناعي الآخر بشكل فعال تدريبًا متكررًا معقدًا، والذي قد يكون من الصعب تنفيذه وصيانته.

والثاني هو الاعتماد المفرط على التكنولوجيا. هناك خطر الاعتماد بشكل مفرط على الحلول التكنولوجية، مما قد يؤدي إلى إهمال الحكم البشري الحاسم في الإشراف على قرارات الذكاء الاصطناعي ووضعها في سياقها.
والثالث هو المخاوف الأخلاقية والخصوصية. يثير استخدام الذكاء الاصطناعي لمراقبة أنظمة الذكاء الاصطناعي الأخرى مخاوف كبيرة بشأن الخصوصية والمراقبة، لا سيما حول من يتحكم في هذه الأنظمة وكيفية استخدامها.

التحدي الآخر هو ما إذا كان من الممكن فهم ما يحدث بالفعل، ولهذا السبب فإن الذكاء الاصطناعي القابل للتفسير مهم.

“لست بحاجة إلى درجة الدكتوراه. في التعلم الآلي لفهم الخوارزميات البسيطة مثل أشجار القرار والغابات العشوائية. [However,] يقول رمضان من Aura: “عندما تتعامل مع بيئات غير مقيدة حقًا حيث تتفاعل مع بيانات المستخدم التي يمكن أن تأتي من أي مكان أو أي شيء، فإن القدرة على التقاط كل حالة من حالات الاستخدام هذه بشكل موثوق يمكن أن تكون مشكلة”.

أول مكان يعتقد أنه يجب على المؤسسات أن تبدأ فيه هو استخدام الذكاء الاصطناعي لمراقبة البيانات لأن دقة الاستدلالات تعتمد عليها.

يقول رمضان: “عليك أن تنظر إلى بياناتك مقدمًا، لأنه إذا لم يكن لديك تلك البيانات، فلا يهم ما يحدث بعد ذلك”. “الشيء الثاني يتعلق بهندسة الميزات ومعرفة ما يجب البحث عنه في البيانات. وهنا تكمن أهمية الخبرة في المجال. وبعد ذلك يمكنك البدء في البحث برمجيًا عن تلك الأنواع من الحالات. وعندها فقط يكون للمصنف أهمية.”

مستقبل الإشراف على الذكاء الاصطناعي

لقد تحدثت OpenAI بصراحة عن رغبتها وجهودها لبناء ذكاء اصطناعي عام (AGI) وهي مشكلة أصعب في حلها من الذكاء الاصطناعي الضيق (ANI) اليوم الذي يفعل شيئًا محددًا بشكل جيد. تعمل كولينا على الذكاء الاصطناعي العام بالشراكة مع إحدى الوكالات الحكومية حاليًا، وعلى الرغم من التوقعات طويلة المدى التي امتدت حتى عام 2050، يتوقع الجندي أن يظهر الذكاء الاصطناعي العام لأول مرة في عام 2025.

يقول الجندي: “عندما يتعلق الأمر بالذكاء الاصطناعي العام، فأنت تريده أن يتخلى عن بعض الأشياء لأن تعلم المعلومات من الإنترنت يسبب الهلوسة والحاجة إلى اتخاذ القرارات”. “ستتكون قطعة المراقبة من شيئين: التحقق من أن الذكاء الاصطناعي يفعل ما هو المقصود منه القيام به، وتمكين الإنسان من فهم تفاصيل كيف أدى كل إجراء إلى النتيجة النهائية عندما يكون مرتبكًا.”

ويرى ميريل من زيبتيك ظهور أنظمة ذكاء اصطناعي أكثر استقلالية على نحو متزايد وقادرة على التصحيح الذاتي واتخاذ قرارات أكثر دقة على أساس الأخلاقيات.

يقول ميريل: “من المرجح أن تلعب التطورات في الذكاء الاصطناعي القابل للتفسير دورًا مهمًا في جعل مراقبة الذكاء الاصطناعي أكثر شفافية وقابلية للفهم، وهو أمر حيوي لكسب ثقة الجمهور والامتثال التنظيمي”. “بينما نقوم بتحسين هذه التقنيات، سيكون الهدف هو إنشاء نظام بيئي متوازن حيث يعزز الذكاء الاصطناعي القدرات البشرية دون استبدال الرقابة الحاسمة التي لا يمكن إلا للبشر توفيرها.”

رمضان Aura يضاعف جهوده في الذكاء الاصطناعي القابل للتفسير.

“هذا مجال يوجد فيه الكثير من الأبحاث النشطة الآن. يقول رمزان: “أيضًا، مع تزايد أهمية التشريعات وأنظمة الامتثال، فإن هذا سيعيد إلى ذهننا نقطة مفادها أننا بحاجة إلى تفسير أفضل”. “يمكنني أن أخبرك أنه من المخيف حقًا نشر نظام لأول مرة وعدم معرفة كيفية أدائه أو كيفية التحقق من صحته. لذلك، يجب بذل الكثير من الجهد في خطوة التحقق في المقام الأول.





Source link

زر الذهاب إلى الأعلى