الأمن السيبراني

هل الذكاء الاصطناعي القابل للتفسير قابل للتفسير بدرجة كافية حتى الآن؟


مع استمرار زيادة استخدام الذكاء الاصطناعي، هناك مشكلة كامنة في الخلفية تكبر يومًا بعد يوم: إنها قدرة الذكاء الاصطناعي على شرح نفسه بحيث يتضح ما أدى إلى نتيجة. أدى غموض التعلم العميق إلى زيادة الطلب على الذكاء الاصطناعي القابل للتفسير (XAI). ولا يساعد ذلك الباحثين في شرح كيفية عمل النماذج التي يبنونها ولماذا. إن التعقيد المتزايد للتعلم العميق ونماذج اللغة الكبيرة يجعل تحقيق الذكاء الاصطناعي القابل للتفسير أكثر صعوبة، وأولوية أعلى.

“لقد تمكنا من تحقيق القدرة على التفسير من خلال تقنيات مثل الجير، شاب“إن الذكاء الاصطناعي هو أداة قوية لتحليل البيانات، وتصور الانتباه، ولكن هذا لا يوفر سوى فهم جزئي لأنظمة الذكاء الاصطناعي المعقدة”، كما تقول أديتي جودبولي، عالمة البيانات الكبيرة في شركة تقديم برامج تطبيقات المؤسسات سابفي مقابلة عبر البريد الإلكتروني، قال جوردان: “على الرغم من أن لدينا آليات لشرح جوانب معينة من عملية اتخاذ القرار في العديد من نماذج التعلم العميق، إلا أن تقديم تفسيرات شاملة وبديهية لا يزال يشكل تحديًا”.

وتقول إن هناك حاجة إلى العديد من التطورات لتحسين حالة الذكاء الاصطناعي القابل للتفسير، مثل تطوير تقنيات أكثر تقدمًا وإنشاء معايير صناعية لضمان الاتساق والمقارنة. كما أن التعاون بين التخصصات المختلفة مثل علوم الكمبيوتر وعلم النفس المعرفي والاتصالات ضروري أيضًا للحصول على تفسيرات أكثر فعالية، فضلاً عن الأطر التنظيمية المحددة جيدًا مع المبادئ التوجيهية والمتطلبات الواضحة.

متعلق ب:الذكاء الاصطناعي ليس قابلاً للتفسير أو الأخلاق بشكل كامل (هذا هو التحدي الذي نواجهه)

يقول جودبول: “في أغلب الأحيان، كلما زادت الدقة التي يوفرها نموذج الذكاء الاصطناعي، أصبح أكثر تعقيدًا وأقل قابلية للتفسير، مما يجعل تطوير نماذج الذكاء الاصطناعي القابلة للتفسير أمرًا صعبًا”. “تتمثل فرضية أنظمة الذكاء الاصطناعي هذه في أنها يمكن أن تعمل مع بيانات عالية الأبعاد وبناء علاقات غير خطية تتجاوز القدرات البشرية. وهذا يسمح لها بتحديد الأنماط على نطاق واسع وتوفير دقة أعلى. ومع ذلك، يصبح من الصعب تفسير هذا التباين غير الخطي وتقديم تفسيرات بسيطة وبديهية بمصطلحات مفهومة”.

وتتمثل التحديات الأخرى في توفير تفسيرات شاملة وسهلة الفهم، فضلاً عن حقيقة أن الشركات تتردد في شرح أنظمتها بالكامل خوفاً من الكشف عن الملكية الفكرية وفقدان ميزتها التنافسية.

يقول جودبول: “مع إحرازنا تقدمًا نحو أنظمة الذكاء الاصطناعي الأكثر تطورًا، فقد نواجه تحديات أكبر في شرح عمليات اتخاذ القرار الخاصة بها. بالنسبة للأنظمة المستقلة، قد يكون توفير إمكانية التفسير في الوقت الفعلي للقرارات الحاسمة أمرًا صعبًا من الناحية الفنية، على الرغم من أنه سيكون ضروريًا للغاية”. “عندما يتم استخدام الذكاء الاصطناعي في مجالات حساسة، سيصبح من المهم بشكل متزايد شرح القرارات التي لها آثار أخلاقية كبيرة، ولكن هذا سيكون أيضًا تحديًا. مع زيادة تعقيد الأنظمة التي تستخدم وكلاء ذكاء اصطناعي متعددين متفاعلين، قد يصبح تفسير السلوك الناتج معقدًا للغاية”.

متعلق ب:كيفية مراقبة الذكاء الاصطناعي باستخدام الذكاء الاصطناعي

أديتي_جودبول-SAP.jpg

تتطور الذكاء الاصطناعي القابل للتفسير بسرعة حيث تعبر المزيد من الشركات عن الحاجة إليه، وفقًا لمايتريا ناتو، كبير علماء البيانات في شركة SaaS التي تقدم برامج المؤسسات المستقلة القائمة على SaaS لعمليات تكنولوجيا المعلومات والأعمال مصبع.

وفي مقابلة عبر البريد الإلكتروني، يقول ناتو: “في المستقبل، لن يكون هذا مجرد خيار حكيم، بل ضرورة. وسيتعين على الصناعات البحث عن طرق إبداعية لإيجاد حل وسط بين شفافية حلول الصندوق الأبيض ودقة حلول الصندوق الأسود. وسوف تتطور أساليب التصميم الرسمية لتحقيق القدرة على التفسير من خلال التصميم منذ المراحل المبكرة للغاية لتطوير حلول الذكاء الاصطناعي، وسيتم وضع أطر عمل متقنة لتقييم مستويات القدرة على التفسير لحلول الذكاء الاصطناعي وتحديد فوائدها الملموسة فيما يتعلق بالثقة والتبني والامتثال التنظيمي، وما إلى ذلك. وسوف يضع الذكاء الاصطناعي القابل للتفسير الأساس لطرق جديدة للذكاء المعزز من خلال التعاون بين الإنسان والآلة”.

متعلق ب:الذكاء الاصطناعي السببي: الذكاء الاصطناعي يعترف بالسبب الذي دفعه إلى القيام بما فعله

تتضمن المحركات الرئيسية للذكاء الاصطناعي المشكلات التي تطرحها حلول الصندوق الأسود، مثل الإفراط في التجهيز أو الارتباطات الزائفة، وصعوبة الحفاظ على الأداء، والسلوك غير المتوقع، والظلم المحتمل والمزيد. يقول ناتو إن القدرة على التفسير ستمنع هذه المشكلات وتسمح للخبراء البشريين بتدريب نموذج الذكاء الاصطناعي بشكل أكثر فعالية، وتقديم الملاحظات إليه، وتصحيح مساره. يمكن للذكاء الاصطناعي القابل للتفسير أن يفتح المجال لاستعارات جديدة للذكاء المعزز حيث تستفيد نماذج الذكاء الاصطناعي حقًا من حدس الخبير وخبرة الممارس المخضرم.

عند تصميم خطوط أنابيب تحليلية معقدة، يجب اتخاذ قرارات حذرة لترك عدد كافٍ من السنانير لتتبع البيانات وتفسيرها. بعبارة أخرى، فكر في التطبيق باعتباره مخططًا انسيابيًا معقدًا، وإذا تم توفير السنانير عند كل نقطة قرار في مخطط التدفق هذا، فإن التتبع من الورقة إلى الجذر يمكن أن يوفر درجة معقولة من القدرة على التفسير وراء الناتج الناتج.

“إن خوارزميات الصندوق الأسود أمر لا مفر منه في العديد من السيناريوهات المعقدة بطبيعتها مثل اكتشاف الاحتيال أو التنبؤ بالأحداث المعقدة. ولكن يمكن استكمال هذه الخوارزميات بأساليب التفسير اللاحقة التي تمكن من التفسير من خلال تحليل دالة الاستجابة لنموذج التعلم الآلي”، كما يقول ناتو. “ستكون هناك حالات لا يمكن فيها استنتاج المنطق الشامل ولكن حتى في مثل هذه الحالات، يمكن استخدام التقنيات لاستنتاج مساهمات الميزات المختلفة في مخرجات نموذج التعلم الآلي”.

تحديات اللغة

يتحدث البشر والآلات لغات مختلفة، وهذا هو السبب في أن بائعي التحليلات قاموا بتحويل استعلامات اللغة البشرية إلى SQL، ولكن التحويل في الاتجاه المعاكس يمكن أن يكون إشكاليًا.

على سبيل المثال، تحتوي كل عبارة SQL على عبارة from التي توضح من أين جاءت البيانات، والتي تنتقل إلى نتيجة الاستعلام. وفقًا لمايك فلاكسمان، نائب رئيس قسم المنتجات وممارسة علوم البيانات المكانية في شركة التحليلات المتقدمة HEAVY.AI، من الأسهل تحديد مصدر البيانات، لكن الجزء الأصعب هو التحويلات.

يقول فلاكسمان: “عندما تختار المبيعات من جدول، يصبح الأمر واضحًا عندما ترى SQL. الرقم جاء من هذا العمود، وهذه هي الإجابة الدلالية. المشكلة هي أن الشركات ليس لديها جدول مبيعات واحد، بل لديها 400 جدول وثلاثة تعريفات مختلفة للمبيعات. هذه معضلات حقيقية في دلالات كيفية حساب هذه المعلومات، وكذلك من قام بذلك، ومتى وأين، مما يثير قضية العناية الإلهية. SQL صريحة، لكن الإجابة قد تكون صيغة معقدة حقًا”.

على سبيل المثال، توفر قراءة الحرارة من مقياس الحرارة إجابة بسيطة. ومع ذلك، فإن مؤشرات الحرارة معقدة لأنها تحتوي على العديد من الاستثناءات كما تحتوي على القواعد. علاوة على ذلك، هناك العديد من مؤشرات الحرارة، لذلك إذا لم يفهم المرء رقم مؤشر الحرارة المستخدم، فلن يتمكن حقًا من فهم ما يعنيه مؤشر الحرارة.

يقول فلاكسمان: “يمكنك توثيق الأمر على المستوى الأعلى وجعله قابلاً للتفسير، ولكن بعد ذلك تأتي الخطوة التالية وهي من أين جاء هذا العمود وما هي الصيغة أو العلم الذي دخل فيه؟” “لذا، أعتقد أن SQL هي إجابة جزئية، ثم شرح النتائج في [human language]”.”

تحديات البيانات

البيانات هي التي تدعم الذكاء الاصطناعي. إذا كانت جودة البيانات سيئة، فمن المرجح أن تكون نتيجة التحليل أو التوصية أو الإجابة خاطئة. كما أن حوكمة البيانات مهمة أيضًا لضمان الاستخدام السليم للبيانات.

فياس سيكار، أستاذ الهندسة الكهربائية والحاسوبية في قسم الهندسة الكهربائية والحاسوبية في جامعة كارنيجي ميلون، ورئيس العلماء في شركة تحليلات البيانات كونفيفايعتقد أن ظهور نماذج الأساسات الكبيرة والمتعددة الوسائط كان له تأثير سلبي على جهود الذكاء الاصطناعي. كما يؤكد على أهمية البيانات.

يقول سيكار في مقابلة عبر البريد الإلكتروني: “لا نعرف ما يدخل ولا نستطيع فهم ما يخرج أو سبب خروجه! نحتاج إلى فهم بيانات التدريب التي دخلت في بناء النموذج بالإضافة إلى الخوارزمية/النموذج المستخدم للاستجابة وأنواع الأسئلة التي نطرحها. مع تعاملنا مع مجموعات بيانات أكبر ونماذج أكثر تعقيدًا وتفاعلات متعددة الوسائط، ستكون هناك تحديات”.

فياس_سيكار_(002).jpg

لقد أدى الانتشار المتزايد لنماذج اللغة الكبيرة (LLM) على مدار العامين الماضيين إلى زيادة صعوبة الحفاظ على الأنظمة القابلة للتدقيق. لمعالجة هذه المشكلة، قال باناجيوتيس أنجيلوبولوس، كبير مسؤولي التكنولوجيا في شركة Motivation AI: بيرسادو يقول إنه من الضروري التركيز على إمكانية تدقيق بيانات التدريب نفسها – والتأكد من أن مجموعة التدريب خالية من التحيزات لتمكين أنظمة الذكاء الاصطناعي العادلة والموثوقة.

“وعلاوة على ذلك، فإن الاختبارات الصارمة، بما في ذلك العمل الجماعي، تشكل أهمية بالغة لهذه النماذج المعقدة. ويتضمن ذلك إخضاع نظام الذكاء الاصطناعي لسيناريوهات متطرفة مختلفة بعد التدريب لمراقبة كيفية تفاعله والقرارات التي يتخذها في ظل ظروف مختلفة”، كما يقول أنجيلوبولوس. “يساعد هذا الاختبار في تقييم قوة أنظمة الذكاء الاصطناعي وعمليات اتخاذ القرار، وضمان عملها بشكل موثوق وأخلاقي في مواقف العالم الحقيقي”.

قد تساعد التصورات

لقد قامت HEAVY.AI بتجربة التصور الذي يعزز القدرة على التفسير، لكن هذا المسعى يمثل تحديًا كبيرًا.

يقول فلاكسمان من HEAVY.AI: “يمكننا الاتفاق على إجابة SQL لسؤال ما في كثير من الحالات، ولكن لا يمكننا الاتفاق على خريطة أو تصور جيد. لا توجد معايير على حد علمي، ومعايير قليلة فيما يتعلق بشرح البيانات والنتائج التحليلية”. “يصبح الرسم البياني جزءًا من السؤال التالي، وأعتقد أن النماذج [can do] “هذا صحيح. ولكن لدينا القليل من النظريات التي يمكننا الاعتماد عليها، لذا نحاول تجميعها معًا أثناء تقدمنا، ولكن أعتقد أن القدرة على المحادثة مهمة للغاية.”

ديبي مالاكار، نائب الرئيس لإدارة المنتجات في شركة استخبارات البيانات النشوةويعتقد أن الخطوة الحاسمة إلى الأمام تتضمن إنشاء خريطة بصرية أكثر وضوحًا لسلالة البيانات، بما في ذلك تتبع البيانات الوصفية الفنية والنظامية والتجارية أثناء تدفق البيانات عبر الأنظمة وإلى نماذج الذكاء الاصطناعي.

يقول مالاكار في مقابلة عبر البريد الإلكتروني: “إن رسم الخرائط أمر ضروري لفهم وشرح عملية اتخاذ القرار في الذكاء الاصطناعي، وهو أمر مهم بشكل خاص في البيئات عالية المخاطر حيث المساءلة والثقة أمران حاسمان”. “يكمُن مستقبل الذكاء الاصطناعي القابل للتفسير في أطر حوكمة الذكاء الاصطناعي القوية التي تتضمن سلسلة البيانات كمكون أساسي. إن ضمان الشفافية عبر دورة حياة البيانات بالكامل – من أصلها إلى دورها في اتخاذ القرارات في مجال الذكاء الاصطناعي – هو مفتاح لتعزيز القدرة على التفسير. ومن المرجح أن يتضمن هذا تطوير أدوات ومنهجيات جديدة توفر تمثيلًا مرئيًا لكيفية استخدام البيانات عبر الأنظمة، مما يسهل على علماء البيانات والمستخدمين النهائيين وقادة الأعمال وأصحاب المصلحة من الجمهور فهم قرارات الذكاء الاصطناعي “.

خلاصة القول

لقد أصبحت تقنية XAI ضرورية بشكل متزايد مع اعتماد المؤسسات عليها بشكل أكبر مما كانت عليه في الماضي. وفي حين لا تعتبر جميع تقنيات الذكاء الاصطناعي “صندوقًا أسودًا”، فإن نماذج التعلم العميق ونماذج التعلم العميق تصبح أكثر تعقيدًا وبالتالي يصعب تفسيرها.

إن تحقيق رؤية الذكاء الاصطناعي يتطلب الكثير من العمل، ولا يوجد حل بسيط أو فوري لجميع المشكلات. ويتطلب تعزيزه من المنظمات تحديد أولوياته، والخبراء القادرين على تعزيزه، والتنظيم السليم، والطلب الثابت في السوق.





Source link

زر الذهاب إلى الأعلى