أخبار التقنية

التهديدات مقابل الفوائد المحتملة: وزن مخاطر المؤسسة لاحتضان الذكاء الاصطناعي


رمي الذكاء الاصطناعي (AI) الأدوات الموجودة على الحائط ورؤية ما هي العصي سوف تقدم على الأرجح نتائج مختلطة. لذلك ، لإدراك الفرص ، يجب أن تدفع إلى النطاق وتقليل المخاطر المحتملة مقدمًا.

بعد كل شيء ، حتى الموارد الجيدة لا تزال الشركات تكافح لمعرفة مقاربتها تجاه الذكاء الاصطناعي، كما يؤكد Dael Williamson ، كبير مسؤولي التكنولوجيا في أوروبا والشرق الأوسط وأياما في تحليلات البيانات ومزود برامج الذكاء الاصطناعي Databricks.

“على سبيل المثال ، يأتي النسخ واللصق من شيء خاص إلى آخر ، ثم آخر ، مع” ضريبة “متأصلة على سلامة البيانات. أنت بحاجة إلى جميع الشيكات والتوازنات. ويمكن لجميع الشركات تجربة هذا ، لأن جميع الشركات لديها صوطات “.

إذا كانت بياناتك مشكلة أو خاطئة ، فسيعاني الاستدلال ، وربما لن تحصل على العائد على الاستثمار (ROI). ثم هناك خطر اختيار الخطأ نموذج اللغة لاحتياجاتك.

“عليك تدريب النماذج. لكن الاستدلال هو اللحوم والبطاطس [of] ما الذي ستذهب إليه بالفعليلاحظ ويليامسون. “يمكن أن تكون الذكاء الاصطناعي مفيدًا بشكل لا يصدق. لكنها أيضًا صعبة “.

يمثل تأمين الذكاء الاصطناعى أيضًا المخاطر ، وليس فقط من الهجمات التي تدعم الذكاء الاصطناعي ، مثل الهندسة الاجتماعية الأكثر تطوراً أو الحقن الفوري أو التخلص من الانحدار.

يقول ريتشارد كاسيدي ، كبير موظفي أمن المعلومات في أوروبا والشرق الأوسط وأفريقيا في شركة إدارة البيانات السحابية ، Rubrik ، إذا كنت لا تتكئ على “كيف” من أهداف الذكاء الاصطناعي ، يمكنك تقديم مخاوف أمنية لأنواع مختلفة.

على سبيل المثال ، يمكن أن تصبح الذكاء الاصطناعى “مولد ضوضاء” يصرف انتباه المستخدمين – بما في ذلك الحوادث الحقيقية – ويزيد من النفايات و التكاليف. بالإضافة إلى ذلك ، قد لا تنقل الضوابط الأمنية المبتسم بعناية إلى سير عمل الذكاء الاصطناعي.

علاوة على ذلك ، يمكن أن تكون المهارات الرقمية ذات الصلة غير موجودةويقول إن مهام سير العمل غالباً ما لا يتم ترقيمها بشكل كافٍ.

إذا كانت العمليات الأساسية معيبة ، فلا يمكن لمنظمة العفو الدولية إصلاح ذلك. سوف تضخيم الفوضى فقط

ريتشارد كاسيدي ، روبريك

تقييم المخاطر وتحديد الأولويات

يقول: “لا يسأل الناس عن شكل اعتماد الذكاء الاصطناعي في الممارسة العملية”. “يمكن ل CISO أن بناء بحيرات بيانات ذات أبعاد ملحمية ، مع مصادقة متعددة العوامل ، وإسناد المستخدم ، والوصول الآمن ، وما إلى ذلك. الجيل المعزز للاسترجاع (خرقة) سير العمل وما إلى ذلك ، وفقدت أدوات التحكم في الأمان. “

هذا يطابق أرقام مكتب الإحصاء الوطنية (ONS) التي تشير إلى أن الحواجز الأكثر شيوعًا أمام اعتماد الذكاء الاصطناعي هي صعوبة في تحديد الأنشطة أو حالات استخدام الأعمال (39 ٪) والتكلفة (21 ٪). استشهد حوالي 16 ٪ من الشركات عدم وجود خبرة ومهارات منظمة العفو الدولية.

يقول كاسيدي: “إذا كانت العمليات الأساسية معيبة ، فلا يمكن لمنظمة العفو الدولية إصلاح ذلك. فسيؤدي ذلك إلى تضخيم الفوضى”.

“كما هو الحال دائمًا ، ابدأ بالمشكلة ، وليس الضجيج ، ولا تتبنى الذكاء الاصطناعي لمجرد أنك تعتقد أنك يجب عليك. خدمة العملاء الزجاجة أو الدورات البطيئة – والبناء من هناك. “

تقليل المخاطر من خلال سياسات الاستخدام الواضحة ودرجات الدراجات للطيارين أحادي العمل-ربما تلخيص التقارير ، أو المساعدة في الاستعلامات ، أو أتمتة توليد الفاتورة-ثم قياس التأثير.

هل نجحت؟ هل خفضت التكلفة أو زيادة القيمة؟ تعلم من ذلك وبناء خريطة طريق من الأدلة ، وليس الحماس ، ينصح كاسيدي.

المزيد من استراتيجيات التخفيف

بغض النظر ، من المحتمل ألا ترغب في القفز إلى الذكاء الاصطناعي على الفور ، ولا ترغب في توصيل جميع بياناتك الحساسة أو المنظمة في نموذج على الجرف لتدريبه أيضًا ، كما يضيف Tony Lock ، المحلل المتميز في Dynamics Freeform Freeform.

“بمجرد وضع البيانات في نموذج اللغة، لا يمكنك إخراجها مرة أخرى. يقول Lock: “هذا هو السبب في أن Rag موجود ، لذا بدلاً من إطعام المعلومات في LLM ، يمكنك تنظيف كل شيء”.

وماذا لو تم سحب نموذجك من السوق؟ بينما المصدر المفتوح، يمكن أن تساعد بوابات التطورات المتوازية وواجهة برمجة التطبيقات (API) في حماية المؤسسات ، ويشير Lock إلى أننا لا نستطيع أن نعرف بالضبط كيف ستلعب المخاطر عندما يتعلق الأمر ، على سبيل المثال ، بفقدان دعوى قضائية حول حقوقها في استخدام الممتلكات الفكرية للآخرين.

بمجرد وضع البيانات في نموذج اللغة ، لا يمكنك إخراجها مرة أخرى. إنه مجرد تحلل في النمط. هذا هو السبب في أن الخرقة موجودة ، لذا بدلاً من إطعام المعلومات في LLM ، يمكنك تطهير كل شيء

توني لوك ، ديناميات Freeform

يقول لوك: “إذا أخبرتك أحد القاضي أنك بحاجة إلى إخراج كل هذه المعلومات ، فلا يُسمح لك باستخدامها لأغراض التدريب ، فمن المحتمل أن تبدأ نموذج اللغة بأكمله من جديد ببيانات مضمنة بشكل صحيح حصلت عليها”.

العقوبات يمكن أن تلتزم. كيف سيستجيب موردو الذكاء الاصطناعى؟ هل سيقومون بتمرير التكاليف ذات الصلة للعملاء؟ هل سيتم معاقبة العملاء أنفسهم؟ هذه أسئلة لم تتم الإجابة عليها قد تتطلب مشورة قانونية محددة.

قبل أن تراهن على استخدام بيانات محددة في نموذج معين ، قد يكون من الحكمة أن تتذكر أن هناك دعاوى متعددة متعلقة بالنيابة في خط الأنابيب.

وطني اللوائح تعقد البيئة. على سبيل المثال ، تفضل حكومة المملكة المتحدة حاليًا بعضًا من نوع “إلغاء الاشتراك” في عملية الذكاء الاصطناعي لأصحاب الممتلكات الفكرية (IP).

ومع ذلك ، في الاتحاد الأوروبي ، على سبيل المثال ، لن ينجح هذا ، لأن كل شيء يجب أن يكون “يختار” ، قفل الملاحظات. وللتفقد ، يجب إخبار المستخدمين بالضبط كيف سيتم استخدام عنوان IP الخاص بهم.

يقول: “ربما لن تنفذ المحاكم الأمريكية إجراءً. ولكن مرة أخرى ، كل تلك الشركات لديها الشركات التابعة الأوروبية والمملكة المتحدة واليابانية التي يمكن أن تصبح مسؤولة ، وربما حتى الرئيس التنفيذي المحلي”.

في الوقت نفسه ، يمكن أن تدفع للانتظار. بعد كل شيء ، يمكن أن يكون هناك واحد فقط “المحرك الأول” ؛ قد يستفيد المشاركون اللاحقون من نقص نسبي في العقبات التي كان يتعين على المتبنين الأوائل معالجتها.

توصية أعلى

يوصي Williamson DataBricks بالمؤسسات الحصول على دار البيانات الخاصة بهم بالترتيب أولاً ، حتى لو كان هذا يؤخر التبني. يقول: “إن معالجة البيانات وتنظيمها أمر صعب ، حتى بالنسبة للشركات التي لديها المال وفريقًا ضخمًا في المنزل”.

عادة، البيانات ليست جاهزة فقط لمنظمة العفو الدولية. وهذا يعني الحاجة إلى جرد ومراجعة ورسم خريطة جميع البيانات منظمة وغير منظمة. قد يتطلب أساس البيانات المنظف ، المكرس ، الموحد ، الدقيق والذات الصلة توحيد الصوامى أيضًا ، قبل إضافة الذكاء الاصطناعى في الأعلى ، كما يشير.

والخبر السار هو أن إصلاح البيانات “بالمعنى الأوسع” سيشتري وقتًا للمؤسسات للنظر في مقاربتها وتوليد فوائد – بما في ذلك توفير التكاليف ، وكفاءة التخزين وإزالة Legacy أو Shadow It – للشركة بأكملها.

يعتقد Rubrik’s Cassidy أن الفرص تدور عادة حول “الوفد الذكي” للمهام وإضفاء الطابع الديمقراطي على الذكاء القائم على البيانات في جميع أنحاء العمل. “ويقدم AI SMEs قدرة حقيقية على الرفع.”

خطة التنفيذ والجداول الزمنية

يقول روبي جيروم ، كبير الفقريين الرئيسيين في الذكاء الاصطناعى في ريد هات ، إن على المؤسسات أن تركز على تحديد ما يجب أن تفعله مع الذكاء الاصطناعي ، ويستغرق وقتًا طويلاً كما يحتاجون إلى القيام بذلك.

يقول جيروم: “أولاً ، فهم حاجتك ، ثم تضييق حالة الاستخدام. لا تحاول غلي المحيط”.

شيء واحد يمكن للمؤسسات القيام به هو حساب الرموز المطلوبة لتمكين الذكاء الاصطناعي المعطى ، على الرغم من أنه ليس من السهل دائمًا.

أولاً ، فهم حاجتك ، ثم تضييق حالة الاستخدام. لا تحاول غلي المحيط

روبي جيروم ، ريد هات

“كتابة بعض الأجزاء الصغيرة من كود بيثون ، ربما 10 دقائق ، قد تستخدم 45000 الرموز. خريطة مرة أخرى إلى التكلفة ، وربما بضع سنتات. ولكن إذا قمت بتوسيع نطاق ذلك ، ولديك 10 مطورين يقومون بذلك طوال اليوم ، فكم هذا؟ في كل مرة يخرج فيها عميل منظمة العفو الدولية ويتحدث إلى شيء ما ، على سبيل المثال ، يستخدم الرموز “.

اختر شيئًا صغيرًا ، واحصل على بعض الخبرة في تشغيل شيء يمكن تتبعه ، وقم ببناء شيء سيتعلم منه الشركة.

يمكن أن يقلل Sandboxing من المخاطر ، خاصة عند النظر في المزيد من الأنظمة ذاتية الحكم مثل العوامل. فحص ما إذا كان يمكن تدريبه في السياسات الثابتة للشركة ، على سبيل المثال.

ربما اطلب من نموذج لمراجعة العقد ، ومقارنته بالعقود السابقة ، وإظهار الاختلافات أو الارتباكات أو المخالفات. قد تلاحظ اثنين من المخالفات ، لكن النموذج قد يسلط الضوء على شيء مختلف للتفكير فيه. التغييرات على مدار سنوات ، على سبيل المثال ، قد تشير إلى تحدي محتمل في علاقة العملاء التي لم يتم التقاطها مسبقًا.

يمكن لمنظمة العفو الدولية أن تساعد في تأديب تفكيرك وتطبيق الطريقة. بعد ذلك ، نتائج التحقق المزدوجة وإعادة التقييم. هل يمكنك ضبط النموذج لمحاذاة أفضل مع الحاجة ، أو تجربة بديل؟

يقول جيروم: “بعض حالات الاستخدام الممل هي المكان الذي ستبدأ فيه رؤية القيمة” ، مشيرًا إلى ذلك الوقت AI التوليدي (Genai) يرتكب الأخطاء ، وكذلك البشر.

التعليم والتدريب للعمال هي بنفس القدر من الأهمية. سيحتاج معظمهم إلى مساعدة في تعلم أفضل طريقة لاستخدام خدمات الذكاء الاصطناعي.

“هذا يمكن أن يجعلك في الكثير من الماء الساخن” ، يحذر جيروم. “الذكاء الاصطناعى بالفعل في كل مكان.”

الخطوات التالية لتبني AI Enterprise

يقول سو دالي ، مدير التكنولوجيا والابتكار في Techuk ، إن جميع منظمة العفو الدولية لديها “إمكانات هائلة” للشركات. بغض النظر عن الشكل أو الحجم أو القطاع ، فمن المفهوم لفهم بالضبط كيف يمكن لمنظمة العفو الدولية قيادة الكفاءة والفعالية. “ماذا تريد أن تفعل وماذا تتطلع إلى تحقيقه؟”

كما هو الحال مع أي تقنية أخرى ، هل منظمة العفو الدولية هي الأداة المناسبة؟ في بعض الأحيان قد تكون الفوائد وكيلًا ، بينما قد يحتاج الآخرون إلى ملف نموذج لغة صغير أو نهج محدد للغاية.

يقول دالي: “قد تكون نماذج اللغة الصغيرة أكثر ملاءمة لاحتياجات أو إصدار محدد في سلسلة التوريد أو الخدمات اللوجستية أو العمليات. سيكون السياق مهمًا للغاية”.

العب “بعقلانية” في صندوق رمل أو بيئة آمنة لمعرفة ما يمكن أن تفعله الذكاء الاصطناعي. فحص الامتثال ، والسياسات الأمنية والممارسة ، و الأخلاق حول الابتكار المسؤول. النظر في الاحتياجات upskilling. الحصول على منظور من الناس وبناء فرق متعددة الوظائف في جميع أنحاء العمل.

يقول دالي: “ابدأ بالتعليم والوعي. فكر في مؤسستك على جميع المستويات ، من مستوى مجلس الإدارة إلى الإدارة الوسطى والعمال الأفراد”. “ابحث عن طرق لإحضار الناس في الرحلة معك. إنها عملية إدارة تغيير ، تؤثر على الكثير من وظائف الناس.”

حتى لو فكرت المؤسسات في أدوات Genai على أنها مجرد chatbot أخرى ، الكثير chatbots لم يرضي العملاء. يتطلب الاستفادة من الذكاء الاصطناعى التفكير الجاد ، بما في ذلك حول كيفية تطور الإصدار التالي أو المنتج. مرة أخرى ، فإن النصيحة العليا هي أن المخرجات لا يمكن أن تكون جيدة مثل مدخلات البيانات الخاصة بك ، كما تقول.

يضيف قفل Freeform Dynamics: “فهم كيفية عمل الذكاء الاصطناعى حتى يقول شعبك إنه يساعدهم فعليًا ، بدلاً من أن يكونوا مجرد شيء آخر” للتجول “. عندما يختارون الذكاء الاصطناعي من تلقاء أنفسهم ، تذكر أن البعض قد يقوم بأشياء مفيدة لم تفكر فيها – أو شيء لا ينبغي عليهمه.

أخيرًا ، لا تنسى أن هناك فئات مختلفة من الذكاء الاصطناعي – بعضها قد يتمتع الشركة بالفعل بخبرة.



Source link

زر الذهاب إلى الأعلى