الأمن السيبراني

لماذا تعد حوكمة تكنولوجيا المعلومات مشكلة تتعلق بالترميز


سلطت دراسة لبنك Capital One من شركة Forrester الضوء على أهمية نشر السياسة كرمز لتبسيط تطوير البرمجيات ومشاريع الذكاء الاصطناعي (AI).

وفقا لشركة فوريستر، ديمقراطية التعلم الآلي يعد تعلم البيانات (ML) من خلال إتاحة الأدوات التي تعتمد على التعلم الآلي متاحة بسهولة للأدوار في جميع أنحاء المؤسسة – بما في ذلك خط الأعمال (LOB) والعمليات – أمرًا بالغ الأهمية لتسريع وتوسيع نطاق مساهمات علم البيانات في نجاح الأعمال.

استنادًا إلى دراسة استقصائية شملت 180 خطًا لاستراتيجية البيانات وخط صناع القرار في مجال الأعمال، أفادت شركة Forrester أن 67% يقولون إن من بين التحديات الرئيسية التي تواجه كونك منظمة تعتمد على الذكاء الاصطناعي مع تدفقات عمل لنشر الديمقراطية هو أن هذا قد يؤدي إلى المزيد من المخاطر، نظرًا لأن البيانات الأقل – الأدوار الذكية تصل إلى نماذج وتطبيقات تعلم الآلة. وجد الاستطلاع أن 63% يعتقدون أن الافتقار إلى سياسات الحوكمة أو الأمان التي تعمل بشكل فعال مع الموردين الخارجيين يحد من الوصول إلى نماذج وتطبيقات تعلم الآلة، بينما يعتقد 64% أنه من الصعب إضفاء الطابع الديمقراطي على تعلم الآلة مع تخفيف المخاطر في نفس الوقت.

وفي معرض مناقشة النتائج، قال ديفيد كانج، نائب الرئيس الأول ورئيس قسم رؤى بيانات كابيتال وان: “تعد الحوكمة والأتمتة جانبين مهمين من النظام البيئي للبيانات المُدار بشكل جيد“.

من خلال خبرة كانغ، بمجرد بدء إنتاج نماذج الآلات، يمكن للأتمتة أن تساعد الشركات على تحقيق التسليم المستمر لخدمة التنبؤ بالنماذج. وقال: “إن أتمتة مراقبة نموذج التعلم الآلي والتدريب عليه يمكن أن يضمن أداء النموذج عندما يتم دفعه إلى الإنتاج ومساعدة الفرق على اتخاذ قرارات أفضل بشأن متى يلزم اتخاذ إجراء لإعادة تدريب النموذج”. هذه الأتمتة، وفقًا لكانغ، توفر للمهندسين الثقة في إمكانية التكرار والصيانة بشكل متسق.

وأوصى بأن يضمن قادة تكنولوجيا المعلومات وجود إشراف بشري على النماذج الآلية، على سبيل المثال، من خلال استخدام هيئة إدارة مركزية. “يمكن لهيئة إدارة مركزية إدارة العمليات والضوابط والمراقبة والبنية التحتية للتكنولوجيا للمساعدة في توسيع نطاق تعلم الآلة بشكل مسؤول مع تسهيل قدر أكبر من الشفافية عبر جهود التطوير.”

مطلوب أيضًا وجود إطار حوكمة قوي لدعم عمليات البيانات والمنصات التي تحتاجها الشركات التي تريد أن تعتمد على الذكاء الاصطناعي والبيانات. وحذرت شركة Forrester من أن بعض أدوار البيانات وتكنولوجيا المعلومات قد تعوض ذلك بشكل مفرط من خلال الحوكمة الثقيلة التي يمكن أن تحد من قدرات المنصات والعمليات. وأوصت شركة التحليل بأن الحوكمة يجب أن تكون محيطة حيث تكون الثقة ضمنية، ويتم منح خط صناع القرار في الأعمال الحرية للقيام بما يحتاجون إليه دون الاضطرار إلى التفكير كثيرًا بشأن الأذونات أو ما إذا كانوا يتبعون الإجراءات القانونية الواجبة.

قال كانغ الحوكمة والأتمتة هي جوانب مهمة للنظام البيئي للبيانات المُدار بشكل جيد. وأضاف: “إن أتمتة مراقبة نموذج تعلم الآلة والتدريب عليه يمكن أن يضمن أداء النموذج عندما يتم دفعه إلى الإنتاج ومساعدة الفرق على اتخاذ قرارات أفضل حول متى يلزم اتخاذ إجراء لإعادة تدريب النموذج”. “توفر هذه الأتمتة للمهندسين الثقة في إمكانية التكرار والصيانة بشكل متسق.”

الورقة الأخيرة التي أعدتها شركة فوريستر، تعتمد على الرؤى: مبدأ أساسي لهوس العملاءوذكرت أن التحديات الثقافية غالبا ما تكون أكثر انتشارا من التحديات التقنية. لاحظ مؤلفو التقرير أن فرق البيانات تقدم أحيانًا لوحات معلومات وتقارير لا يستخدمها أحد. يحدث هذا، وفقًا لشركة Forrester، بسبب ضعف المعرفة بين مستخدمي الأعمال والقادة الذين يستخدمون البيانات بشكل انتقائي عند التحقق من صحة القرار. وفي هذه الحالات، توصي شركة Forrester بضرورة استخدام التدريب الشامل والتواصل لسد الفجوات في معرفة البيانات.

وقال كانغ: “بالنسبة لكل من الأدوار التجارية والتقنية، فإن توحيد الأدوات والعمليات والمنصات يمكن أن يسهل تحديد موقع البيانات عالية الجودة وفهمها واستخدامها”. “سيستخدم علماء البيانات ومهندسو التعلم الآلي هذه الأسس الراسخة لبناء نماذج تعلم الآلة وتدريبها ونشرها.”

السياسة كرمز لإدارة السحابة الأصلية

تعكس النتائج التي توصلت إليها شركة فوريستر نتائج حالة السياسة كرمز تقرير من ستيرا واستنادًا إلى استطلاع رأي شمل 285 مطورًا أمريكيًا، وجد الاستطلاع أن النهج التقليدي للترخيص قد عفا عليه الزمن. يعتقد ثلاثة أرباع المطورين الذين شملهم الاستطلاع أن سياسات الترخيص المحلية عرضة للأخطاء، ويصعب إدارتها، وتضيع وقتًا ثمينًا يمكنهم إنفاقه على عمل أكثر فائدة، مثل بناء منتجات مبتكرة أو تحسين الميزات الجديدة.

وجد استطلاع Styra أن 51% من المطورين الأمريكيين الذين شملهم الاستطلاع والذين يستخدمون السياسة كرمز قد اعتمدوها فقط في العامين الماضيين. من بين أولئك الذين نفذوا السياسة كرمز، يقول أكثر من النصف (52٪) إن التحدي الأكثر شيوعًا للأداء لديهم هو كتابة سياسات فعالة كرمز. وأفاد الاستطلاع أيضًا أن 30% من المؤسسات تستخدم السياسة كرمز بقدر كبير. قالت Styra إنها تمكن المطورين من تحديد سياسات الترخيص الموحدة وتنفيذها وإدارتها بسلاسة عبر المجموعة السحابية الأصلية.

إلى جانب توفير حواجز الحماية الآلية للتعلم الآلي والمطورين الذين يبنون تطبيقات تعتمد على البيانات، قالت Styra إن السياسة كرمز هي أيضًا عنصر مهم في البنية التحتية السحابية الأصلية.

وفقًا لـ Styra، تحتاج المؤسسات إلى معالجة التحديات التي تعيق الفرق عن العمل معًا، وتعزيز الأمان وإنشاء سياسات ترخيص مركزية متسقة على نطاق واسع. مع تزايد الهجمات السيبرانية، تعد السياسة كأدوات تعليمات برمجية جزءًا مهمًا من التكوين الأمني ​​للمؤسسات. أفاد استطلاع Styra أن 96% من المشاركين يقولون إن السياسة باعتبارها رمزًا حيويًا لبناء البنية التحتية السحابية وتأمينها وصيانتها.

وقال تيم هينريكس، كبير مسؤولي التكنولوجيا في Styra: “السياسة كرمز ليست مجرد اتجاه؛ لقد أصبح جزءًا لا يتجزأ من نسيج تطوير السحابة. لا يمكن للمطورين أن يتحملوا الاستمرار في إضاعة الوقت في الممارسات والتكنولوجيا التي تربك الفرق وتشوش الرؤية وتعقد تطوير البرمجيات.

وبعيدًا عن تحسين كفاءة المطورين والأشخاص الذين يعملون في مجال التعلم الآلي باستخدام تقنيات مثل السياسات مثل التعليمات البرمجية، فإن الوصول المنظم إلى البيانات المُدارة بشكل جيد يفتح فرصًا أخرى. بمجرد تطبيقه، قال كانغ إنه يمكن بعد ذلك توفير الأدوات التي لا تحتوي على تعليمات برمجية أو ذات تعليمات برمجية منخفضة لمساعدة الأشخاص على تحليل البيانات لاتخاذ القرارات التجارية. وهذا يساعد على إضفاء الطابع الديمقراطي على الوصول إلى البيانات.

وأضاف: “إن وضع قوة التعلم الآلي في أيدي كل موظف يمكن أن يحول أي شركة إلى مؤسسة تعتمد على البيانات”.



Source link

زر الذهاب إلى الأعلى