الأمن السيبراني

بناء البنية التحتية السحابية الآمنة للوكيل الذكاء الاصطناعى


تتنبأ شركة الأبحاث والاستشارية Gartner سيكون ذلك العامل الذكاء الاصطناعي في 33 ٪ من تطبيقات برامج المؤسسات وتمكين اتخاذ القرارات المستقلة ل 15 ٪ من العمل اليومي بحلول عام 2028. وبينما تعمل المؤسسات نحو هذا المستقبل ، يجب على القادة النظر فيما إذا كانت البنية التحتية السحابية الحالية جاهزة لتدفق وكلاء الذكاء الاصطناعى.

يقول Nataraj Nagaratnam ، زميل IBM و CTO للأمان السحابي في شركة التكنولوجيا والاستشارات: “في النهاية ، يتم تشغيلها واستضافتها والوصول إليها عبر البيئات السحابية المختلطة”. IBM. “يمكنك حماية وكيلك [AI]، ولكن إذا تركت بابك الأمامي مفتوحًا على مستوى البنية التحتية ، سواء كان ذلك في السحابة أو السحابة الخاصة أو السحابة العامة … يزيد التهديد والمخاطر “.

تحدثت Information Week مع Nagaratnam وخبر اثنين آخرين في Cloud Security و AI لفهم سبب أهمية البنية التحتية السحابية الآمنة وما يمكن للمؤسسات القيام به لضمان وجود هذا الأساس في مكانه كحالات استخدام AI AIC.

اعتبارات الأمن والمخاطر

إن مخاوف الأمن والمخاطر المتمثلة في تبني AI الوكيل ليست غير مألوفة تمامًا للمنظمات. عندما نظرت المؤسسات لأول مرة في الانتقال إلى السحابة ، كانت الأمن ، والديون التكنولوجية القديمة ، وتسرب البيانات المحتملة أجزاء كبيرة من اللغز.

“كل المبادئ نفسها ينتهي بها الأمر إلى أن تكون صحيحة ، فقط عندما تنتقل إلى بيئة قائمة على الوكيل ، يصبح كل التعرض أو الضعف المحتمل في تلك البنية التحتية أكثر حيوية” ، مات هوبز ، والهندسة ، والبيانات ، وقائد الذكاء الاصطناعي في شبكة الخدمات المهنية PWC، يخبر Information Week.

متعلق ب:تلوح مراكز بيانات القمر في الأفق القريب

لأنها جديدة ومثيرة كما يشعر AGENIC AI ، يبدأ الأمن وإدارة المخاطر لهذه التكنولوجيا بالأساسيات. “هل فعلت النظافة الأساسية؟” ناجاراتنام يسأل. “هل لديك مصادقة كافية في مكانها؟”

البيانات هي كل شيء في عالم الذكاء الاصطناعي. إنه يعمل على غذ وكلاء الذكاء الاصطناعي ، وهو مورد مؤسسي ثمين يحمل الكثير من المخاطر. هذا الخطر ليس جديدًا ، لكنه ينمو مع AICEC.

“ليس فقط البيانات المنظمة التي تعاملنا معها تقليديًا ولكن [also] يشير ناجاراتنام إلى أن انفجار البيانات غير المهيكلة والمحتوى الذي يمكن له من جيناي وبالتالي عصر الوكيل قادرًا على الاستفادة منه.

يضيف عوامل الذكاء الاصطناعى ليس فقط خطر تعريض تلك البيانات ، ولكن أيضًا إمكانية اتخاذ إجراء ضار. “هل يمكنني الحصول على هذا الوكيل للكشف عن المعلومات التي ليس من المفترض أن تكشفها؟ هل يمكنني المساومة عليها؟ هل يمكنني الاستفادة من الكود الضار أو حقنها؟” ناجاراتنام يسأل.

يحتاج قادة المؤسسات أيضًا إلى التفكير في أبعاد الامتثال لتقديم AI AI. يقول ناجاراتنام: “يجب أن يكون الوكلاء والنظام متوافقًا ، لكنك ترث امتثال تلك البنية التحتية السحابية الأساسية …”.

متعلق ب:تطور الزعنفة يتجاوز السحابة

أصحاب المصلحة المناسبين

من المحتمل أن تدرك أي منظمة شرعت في رحلة الذكاء الاصطناعي بالفعل ضرورة إشراك أصحاب المصلحة المتعددين من جميع أنحاء العمل. مديري المعلومات ، CTOs ، و CISO – الأشخاص المنغمسون بالفعل في الأمن السحابي – هم قادة طبيعيون لاعتماد AI AI. لدى الخبراء القانونيين والتنظيمي أيضًا مكان في هذه المحادثات الداخلية حول البنية التحتية السحابية واحتضان الذكاء الاصطناعي.

مع ظهور Agentic AI ، قد يكون من المفيد أيضًا إشراك الأشخاص الذين سيعملون مع وكلاء الذكاء الاصطناعي. يقول ألكساندر هوجانكامب ، مدير الذكاء الاصطناعي والأتمتة في AN RTS Labs، شركة الاستشارات منظمة العفو الدولية.

يمكن إشراك هؤلاء الأشخاص مساعدة المؤسسات على تحديد حالات الاستخدام ، والتعرف على المخاطر المحتملة ، وفهم أفضل كيف يمكن للوكيل الذكاء الاصطناعى تحسين مهام سير العمل وأتمتة.

تتحرك مساحة الذكاء الاصطناعى في مقطع سريع – بأسرع موجة المد والجزر ، والسباح ، والسفن الصاروخ ، واختيار التشبيه الخاص بك – ومواكبة الهجوم على التطورات هو التحدي الخاص. يمكن إنشاء مجموعة عمل منظمة العفو الدولية تمكين المنظمات من مواكبة كل شيء يحدث في الذكاء الاصطناعي. يمكنهم تكريس ساعات العمل لاستكشاف التطورات في الذكاء الاصطناعى والالتقاء بانتظام للحديث عن معنى هذا لفرقهم ، وبنيتهم ​​التحتية ، وأعمالهم بشكل عام.

متعلق ب:إعادة اختراع مركز البيانات

يقول Hogancamp: “هؤلاء هم الهواة والأشخاص ذوي الشغف”. “تحديد هذه الموارد في وقت مبكر هو حقا ، قيمة حقا.”

يعد بناء فريق داخلي أمرًا بالغ الأهمية ، ولكن لا توجد مؤسسة هي جزيرة في عالم AIC. من المؤكد أن الشركات ستعمل مع البائعين الخارجيين الذين يجب أن يكونوا جزءًا من المحادثة.

يشارك جميع مقدمي الخدمات السحابية ومقدمي خدمات النماذج من الذكاء الاصطناعى ومقدمي منصات الذكاء الاصطناعى في رحلة AI Agency للمؤسسة. يحتاج كل من هؤلاء اللاعبين إلى الخضوع لتقييم مخاطر الطرف الثالث. ما هي البيانات التي يمكنهم الوصول إليها؟ كيف يتم تدريب نماذجهم؟ ما هي بروتوكولات الأمن والأطر المعمول بها؟ ما هي مخاطر الامتثال المحتملة التي يقدمونها؟

الاستعداد للوكيل الذكاء الاصطناعى

إن السرعة التي تتحرك بها الذكاء الاصطناعي هي تحدي للشركات. كيف يمكنهم مواكبة مع إدارة المخاطر الأمنية؟ إن تحقيق هذا التوازن صعب ، لكن هوبز يشجع الشركات على إيجاد مسار إلى الأمام بدلاً من الانتظار إلى أجل غير مسمى.

يقول: “إذا تجمدت كل الابتكارات في الوقت الحالي وقلت:” ما لدينا هو ما سنجمله على مدار السنوات العشر القادمة “، فأنت لا تزال تقضي السنوات العشر القادمة في الاستيلاء على عملك ، وتبني ، وإعادة التعديل التحديثية لعملك.

بدلاً من الانتظار إلى أجل غير مسمى ، يمكن للمنظمات قبول أنه سيكون هناك منحنى تعليمي للوكيل الذكاء الاصطناعى.

سيتعين على كل شركة تحديد مستوى استعدادها للوكيل الذكاء الاصطناعي. والمنظمات الأصلية السحابة قد يكون لها ساق.

“إذا كنت تفكر في المنظمات الأصلية السحابية التي بدأت ببنية تحتية حديثة لكيفية استضافة الأشياء ، فقد قاموا بعد ذلك ببناء بيئة بيانات حديثة فوقها. لقد قاموا ببناء الأمن القائم على الأدوار في وصول API وحوله” ، يوضح هوبز. “أنت في مكان أكثر تحضيرًا لأنك تعرف كيفية تمديد تلك البنية التحتية الحديثة إلى بنية تحتية للوكيل.

من المحتمل أن تكون المنظمات التي تعمل إلى حد كبير مع بنية تحتية محلية ولم تتعامل مع تحديث البنية التحتية السحابية أكثر من العمل قبل تبني AI AI.

نظرًا لأن فرق المؤسسات تقوم بتقييم البنية التحتية الخاصة بها قبل نشر العميل الذكاء الاصطناعي ، فإن الدين التقني سيكون اعتبارًا مهمًا. “إذا لم تكن قد عالجت الدين التقني الموجود في البيئة ، فستتحرك بطيئًا للغاية مقارنةً بالمقارنة” ، يحذر هوبز.

لذلك ، تشعر أنك مستعد للبدء في التقاط قيمة AIGEC AI. من أين تبدأ؟

“لا تبدأ بشبكة متعددة الوكلاء في حالة الاستخدام الأولى” ، يوصي Hogancamp. “إذا حاولت القفز مباشرة إلى الوكلاء تفعل كل شيء الآن ولا تفعل أي شيء مختلف ، فمن المحتمل أن تقضي وقتًا سيئًا.”

تحتاج المؤسسات إلى تطوير القدرة على مراقبة وكلاء الذكاء الاصطناعي. يقول Hogancamp: “كلما سمحت للوكيل بالقيام ، كلما كانت شجرة القرار أكثر تعقيدًا”.

عندما يصبح وكلاء الذكاء الاصطناعى أكثر قدرة ، يحتاج قادة المؤسسات إلى التفكير بهم كما لو كانوا موظفًا.

يقول هوبز: “يجب أن تنظر إليها كما لو كان لديك موظف في مؤسستك دون التوجيه المناسب ، والمعلمات ، ونهج السياسة ، واعتبارات الحكم الجيد”. “إذا كان لديك أشياء تتعرض داخليًا وبدأت في بناء وكلاء يذهبون ويستجوبون في بيئتك وتستفيد من البيانات التي لا ينبغي أن تكون عليها ، فيمكنك انتهاك التنظيم. أنت بالتأكيد تنتهك سياساتك الخاصة. قد تنتهك الاتفاق الذي لديك مع عملائك.”

بمجرد أن تجد المؤسسات النجاح من خلال المراقبة والاختبار والتحقق من صحة وكيل واحد ، يمكنها البدء في إضافة المزيد.

يعد قطع الأشجار والتتبع والمراقبة القوية ضرورية حيث يقوم وكلاء الذكاء الاصطناعي بشكل مستقل ، مما يتخذ القرارات التي تؤثر على نتائج الأعمال. وبما أن المزيد والمزيد من الوكلاء يتم دمجهم في سير عمل المؤسسات – تناول البيانات الحساسة أثناء عملهم – سيحتاج قادة المؤسسات إلى الأمان الآلي بشكل متزايد لمراقبتها باستمرار في البنية التحتية السحابية الخاصة بهم.

“لقد ولت الأيام التي يعطينا فيها CISO مجموعة من السياسات والضوابط ويقول [you] يجب أن تفعل ذلك. لأنه يصبح من الصعب على المطورين أن يفهموا وتفسيروا. لذلك ، فإن أتمتة الأمان هي في صميم حل هذا “، كما يقول ناجاراتنام.

نظرًا لأن حالات استخدام Augleic AI تنطلق ، فإن المديرين التنفيذيين والمجالس يرغبون في رؤية قيمته ، ويشهد Hobbs ارتفاعًا في المحادثات حول قياس العائد على الاستثمار.

يقول: “هل هي كفاءة في العملية وتقليل التكلفة ودفعها إلى المزيد من الذكاء الاصطناعي؟ هذه مجموعة مختلفة من القياسات. هل هي الإنتاجية العامة؟ هذه مجموعة مختلفة من القياس”.

بدون مؤسسة سحابة آمنة ، من المحتمل أن تكافح الشركات لالتقاط العائد على الاستثمار الذي يطاردونه. “نحن بحاجة إلى تحديث منصات البيانات. نحتاج إلى تحديث مشهد الأمان الخاص بنا. نحتاج إلى أن نفهم كيف نقوم بإدارة البيانات الرئيسية بشكل أفضل [we] يقول هوبز: “يمكن الاستفادة وقيادة سرعة أسرع في اعتماد القوى العاملة الوكلاء أو أي مسار منظمة العفو الدولية”.





Source link

زر الذهاب إلى الأعلى