الأمن السيبراني

كيف يمكن لصناع القرار أن يثقوا بالذكاء الاصطناعي المهلوس؟


كل اختراق له نصيبه من الأخطاء. يعمل الذكاء الاصطناعي على تعطيل المهام الروتينية وسرعان ما يثبت نفسه كمساعد شخصي قوي للغاية. على سبيل المثال، يساعد الذكاء الاصطناعي الباحثين الطبيين العثور على وتقييم الجهات المانحة المتاحة لعلاجات الخلايامما يمنح المرضى الأمل حيث لم يكن هناك أمل – وقائمة استخدامات الذكاء الاصطناعي تطول. ومع ذلك، فإن هذه التكنولوجيا نفسها تولد توقعات مالية مضللة استنادا إلى بيانات غير موجودة أو تخلق إشارات لمقالات علمية وهمية.

تعتبر نماذج الذكاء الاصطناعي جديرة بالثقة مثل البيانات التي يتم تدريبها عليها. ومع ذلك، حتى مع وجود أساس متين للبيانات، فإن نتائج تنبؤات الذكاء الاصطناعي ليست دقيقة بنسبة 100%. قد يتراوح تأثير الهلوسة العرضية من التسبب في إحراج طفيف للمستخدم إلى خسائر مالية بقيمة مليارات الدولارات وتداعيات قانونية للمؤسسات. والسؤال هو كيف يمكن للمؤسسات أن تنظر إلى ما هو أبعد من الهلوسة وتعتمد على الذكاء الاصطناعي في اتخاذ القرار عندما تكون النماذج شفافة جزئياً.

الثقة بالذكاء الاصطناعي تضلل صناع القرار

أكثر من نصف شركات فورتشن 500 تلاحظ الذكاء الاصطناعي كعامل خطر محتمل. إنهم يخشون وجود تناقضات في الذكاء الاصطناعي والمخاطر الأخلاقية المحتملة التي قد تؤدي إلى دعاية سلبية للعلامة التجارية وخسائر مالية وخسائر تتعلق بالسمعة.

من المستحيل إصلاح هلوسة الذكاء الاصطناعي بإشارة من اليد. حتى الآن، تمثل الهلوسة تحديًا شائعًا في حلول الذكاء الاصطناعي. في حين أن إمكانية شرح طرق تعلم الآلة التقليدية والشبكات العصبية أصبحت مفهومة جيدًا حتى الآن، إلا أن العديد من الباحثين يعملون على طرق لشرح GenAI وLLMs. ستحدث تطورات كبيرة في المستقبل القريب. وفي الوقت نفسه، لا ينبغي بالتأكيد استبعاد الذكاء الاصطناعي لأنه غير موثوق به تمامًا: لقد أصبح بالفعل أداة لا بد منها للمؤسسات في مختلف الصناعات. يجب على صناع القرار الاعتماد على الذكاء البشري والإشراف عليه دمج نماذج الذكاء الاصطناعي بشكل فعال في العمليات التجارية.

متعلق ب:محترفو تكنولوجيا المعلومات يحبون الذكاء الاصطناعي ويخافونه ويقدسونه: تقرير حالة الذكاء الاصطناعي لعام 2024

قضايا الثقة في الصندوق الأسود

نماذج الذكاء الاصطناعي هي عبارة عن صناديق سوداء تفتقر إلى الشفافية ولا يمكن تفسيرها إلا جزئيًا. الهلوسة شائعة في نماذج اللغة المعقدة وأنظمة التعلم العميق. تتأثر مثل هذه الأنظمة لأنها تعتمد على أنماط مستمدة من مجموعات بيانات واسعة بدلاً من الفهم الحتمي الأساسي للمحتوى.

والخبر السار هو أن إلقاء نظرة ثاقبة على الصناديق السوداء أمر ممكن إلى حد ما. يمكن للمؤسسات استخدام أساليب محددة لمعالجة إحدى مشكلات الثقة الرئيسية في الذكاء الاصطناعي.

شرح ما لا يمكن تفسيره

في العديد من تطبيقات الأعمال، وخاصة تلك التي تؤثر على اتخاذ القرارات الحاسمة، تعد القدرة على شرح كيفية وصول نموذج الذكاء الاصطناعي إلى استنتاجاته أكثر أهمية من تحقيق أعلى دقة ممكنة للنموذج.

متعلق ب:داخل ازدواجية القوى العظمى للذكاء الاصطناعي

ليست كل نماذج الذكاء الاصطناعي عبارة عن صناديق سوداء. على سبيل المثال، تعتبر أشجار القرار أو الانحدارات الخطية شائعة في التحليلات التنبؤية والتنبؤ المالي وتطبيقات ذكاء الأعمال. هذه الأنواع من نماذج الذكاء الاصطناعي قابلة للتفسير.

بالنسبة للنماذج غير الشفافة، يساعد SHAP (تفسيرات مضافة شابلي) في توضيح مدى تأثير كل إدخال على تنبؤات LLM. على سبيل المثال، يمكن للمستخدمين أن يطلبوا من LLM تسليط الضوء على النقاط الرئيسية في بيانات الإدخال وشرح السلسلة المنطقية وراء الإخراج. يمكن أن تساعد الإجابات في تحسين مطالبات النظام وإدخال البيانات. ومع ذلك، فإن SHAP لها فعالية محدودة بالنسبة لماجستير القانون المدربين مسبقًا بسبب تعقيدها، الأمر الذي يتطلب أساليب مختلفة لشرح نتائجها. لا يزال هذا مجالًا يتطور بسرعة كبيرة، مع ظهور أساليب جديدة لتفسير ماجستير إدارة الأعمال، مثل استخدام آليات الانتباه لتتبع كيفية وصول النموذج إلى نهايته أو استخدام ماجستير إدارة الأعمال مع وظائف الذاكرة لتقليل التناقضات بمرور الوقت.

كيف يمكن للمؤسسات الاعتماد على نماذج الذكاء الاصطناعي؟

يجب على المنظمات إدارة موثوقية النماذج التي تستخدمها ووضعها في سياقها بعناية. يمكن لصناع القرار تطبيق حواجز الحماية مثل عمليات التدقيق والبروتوكولات المنتظمة للرقابة البشرية. ويمكنهم التفكير في إنشاء قاعدة معرفية خاصة بمجال معين، والتي، على سبيل المثال، ستكون ذات أهمية قصوى للمهنيين الطبيين، حيث أن قراراتهم غالبًا ما تؤثر على حياة الناس. يمكنهم أيضًا التقديم نهج RAG (التوليد المعزز للاسترجاع) للتخفيف من المخاطر المرتبطة بها. على سبيل المثال، يمكن لروبوت دعم العملاء استرداد التفاعلات السابقة مع العميل، وزيادة تلك البيانات بتحديثات المنتج، وإنشاء استجابات وثيقة الصلة لحل الاستعلام.

ذات صلة:نظرة خاطفة على الكلمة الرئيسية: تفاصيل محلل Forrester تتماشى مع التصميم وإمكانية شرح الذكاء الاصطناعي

يعمل الذكاء الاصطناعي التوليدي بشكل أفضل من خلال تعزيز عملية صنع القرار البشري بدلاً من استبداله بالكامل. ومن المهم إبقاء البشر على اطلاع، لأنهم مؤهلون لمراقبة دقة النموذج وامتثاله الأخلاقي. كقاعدة عامة، قم بتنفيذ حلول GenAI التي توفر رؤى مع تكليف الموظفين البشريين بمسؤولية اتخاذ القرارات النهائية. يمكنهم تصحيح المخرجات وتحسينها قبل أن يتحول الخطأ الناتج عن الذكاء الاصطناعي إلى مشكلة.

يجب أن تكون نماذج الذكاء الاصطناعي ديناميكية. تلعب حلقات ردود الفعل، حيث يقوم البشر بالإبلاغ عن المشكلات وإدخال التغييرات، دورًا رئيسيًا في الحفاظ على دقة وموثوقية الذكاء الاصطناعي وتعزيزها. تتمثل الخطوة التالية في مواءمة الذكاء الاصطناعي مع العمليات التنظيمية في تعزيز التعاون بين علماء البيانات وخبراء المجال والقادة.

أخيرًا، قبل الاستثمار في GenAI، يجب على المؤسسات إجراء تقييم النضج للتأكد من أن لديها البنية التحتية اللازمة للبيانات وسياسات الحوكمة القوية. إنهم بحاجة إلى ذلك لتحسين جودة البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي وإمكانية الوصول إليها.

يتمتع الذكاء الاصطناعي بإمكانات كبيرة لتعزيز عملية صنع القرار، ولكن يجب على المنظمات أن تعترف بمخاطر الهلوسة. وعندما ينفذون تدابير متسقة لمعالجة هذه المشكلة، فإنهم يبنون الثقة في الذكاء الاصطناعي ويعظمون فوائد حلول الذكاء الاصطناعي.





Source link

زر الذهاب إلى الأعلى