الأمن السيبراني

هل يتفوق الابتكار على الذكاء الاصطناعي المسؤول؟


الذكاء الاصطناعي الأخلاقي، الذكاء الاصطناعي المسؤول، الذكاء الاصطناعي الجدير بالثقة. لم تكن هذه المصطلحات ذات معنى قبل بضع سنوات فقط، لكن قبول الذكاء الاصطناعي وزخمه يتزايدان بشكل مطرد. الهدف من الذكاء الاصطناعي المسؤول هو التأكد من أن جهود الذكاء الاصطناعي لا تسبب ضررًا للأفراد أو المجتمع ككل، على الرغم من أن الموضوع لا يقتصر على تخفيف المخاطر. يمكن للذكاء الاصطناعي المسؤول أيضًا تعزيز قيمة الأعمال.

أحد المحفزات التي تشعل الذكاء الاصطناعي المسؤول هو التنظيم، مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي.

“يتعلق الأمر أكثر بتوقع اللوائح والتأكد من استعدادك للامتثال لها. لم يعد الأمر يتعلق بالانتظار حتى يتم الانتهاء من اللوائح بالكامل،” كما يقول بينا أماناث، قائد أخلاقيات صندوق التكنولوجيا في ديلويت ومؤلف الذكاء الاصطناعي الجدير بالثقة: دليل الأعمال للتنقل بين الثقة والأخلاق في الذكاء الاصطناعي. “رأيت [an increasing number] تدريبات الذكاء الاصطناعي لأعضاء مجلس الإدارة وأعضاء الإدارة العليا والموظفين من منظور تحسين المهارات أو إعادة تشكيل المهارات فيما يتعلق بطلاقة الذكاء الاصطناعي، وكيفية استخدام الذكاء الاصطناعي بشكل أكثر فعالية وموازنة المخاطر مع الاستخدام الأمثل للذكاء الاصطناعي.

يتضمن الذكاء الاصطناعي المسؤول عدة أشياء، كما تمت مناقشته في تقرير ديلويت تقرير حديث حول بناء ذكاء اصطناعي توليدي جدير بالثقة. وتشمل هذه الاعتبارات ما يلي:

  • تعيين مجالات الثقة للذكاء الاصطناعي التوليدي

  • العدالة والحياد

  • الشفافية وقابلية التفسير

متعلق ب:صوفيا مندلسون من SAP تتحدث عن استخدام الذكاء الاصطناعي لتوسيع نطاق الاستدامة

ديلويت كذلك الراعي المؤسس لمركز المنتدى الاقتصادي العالمي للتكنولوجيا الجديرة بالثقة الذي يعزز ويسهل التكنولوجيا الأخلاقية.

بينا_عمانات-deloitte_.jpg

يقول أماناث: “يبحث قادة المؤسسات عن الأشياء الملموسة التي يمكنهم القيام بها اليوم، سواء كان ذلك تدريب القوى العاملة لديهم على أخلاقيات الذكاء الاصطناعي، أو وضع سياسات وإرشادات استخدام الذكاء الاصطناعي، أو التأكد من وجود ضوابط وتوازنات عند استخدام الذكاء الاصطناعي”. “هناك المزيد من التحيز تجاه العمل – وهو ما يمكننا كمنظمة أن نفعله الآن.”

اعتماد الذكاء الاصطناعي مقابل اعتماد الذكاء الاصطناعي المسؤول

في حين أن اعتماد كل من الذكاء الاصطناعي واعتماد الذكاء الاصطناعي المسؤول قد زاد، فإن الطريق إلى تخفيف المخاطر وزيادة قيمة الأعمال يمكن تحقيقه بسهولة أكبر إذا أعطت الشركات الأولوية للذكاء الاصطناعي المسؤول.

على سبيل المثال، تعاونت مجموعة بوسطن الاستشارية (BCG) ومعهد ماساتشوستس للتكنولوجيا في بعض الدراسات الاستقصائية، واحدة منها وجدت أن 20% من الشركات لديها برامج ذكاء اصطناعي مسؤولة، و30% ليس لديها أي شيء، والباقي يقع في مكان ما بينهما.

“لم يكن هناك الكثير من الارتباط بين نضج الذكاء الاصطناعي ونضج الذكاء الاصطناعي المسؤول. ومن المثير للاهتمام أنك تعتقد أن كل شيء ناضج حقًا [organizations] يقول ستيفن ميلز، المدير الإداري والشريك والرئيس التنفيذي لأخلاقيات الذكاء الاصطناعي في BCG: “سيكون لدينا أيضًا ذكاء اصطناعي مسؤول وناضج”. “عندما بحثنا في البيانات، وجدنا أنه من المفيد توسيع نطاق الذكاء الاصطناعي المسؤول قبل الذكاء الاصطناعي.”

متعلق ب:7 أهم تحديات تكنولوجيا المعلومات في عام 2024

والسبب في ذلك هو أنه من خلال معالجة الذكاء الاصطناعي المسؤول أولاً، فإن هفوات النظام تحدث بشكل أقل تواتراً، وتكون المؤسسات قادرة على تحقيق قيمة أكبر من استثماراتها في الذكاء الاصطناعي.

“إن الأمر لا يتعلق بحواجز الحماية والسياسة بقدر ما يتعلق بالتفكير في حالات الاستخدام والنتائج. يقول ميلز: “لقد أخبرت الناس دائمًا أن السياسات التي تضعها، وأطر المخاطر التي تنشئها لا يمكن أن تكون ثابتة، بل يجب أن تتطور بمرور الوقت بينما تتعلم”.

لقد كان ميلز مثالاً يحتذى به في مجموعة BCG، على سبيل المثال. لقد قام بتحديث السياسة أربع أو خمس مرات خلال الأشهر الـ 12 الأولى من انفجار الذكاء الاصطناعي التوليدي، نظرًا لوجود حالات استخدام تحتاج إلى المزيد من الاهتمام بها.

“عليك أن تتقبل أنك تتعلم بينما تتقدم. تحتاج أيضًا إلى وظيفة تتبع لفهم كيفية تطور التكنولوجيا. ما هي المخاطر الجديدة التي ظهرت؟ يقول ميلز.

ومن المفيد أيضًا أن يكون لديك شخص مسؤول وخاضع للمساءلة عن برنامج مسؤول للذكاء الاصطناعي، مثل كبير مسؤولي الأخلاقيات. إذا لم يكن ذلك عمليًا، فربما يقود مدير تكنولوجيا المعلومات أو رئيس قسم التكنولوجيا الجهود، أو في حالة الشركات الصغيرة، الرئيس التنفيذي. ومع ذلك، فإن تعزيز القيمة يتطلب دعم المنظمة، مما يعني أن كبير مسؤولي الأخلاقيات أو أي شخص مسؤول آخر لديه الموارد المالية والبشرية التي يحتاجها لدفع العمل.

متعلق ب:هل تحتاج مؤسستك إلى قائد متخصص في الذكاء الاصطناعي؟

لقد اتضح أن الشركات الأفضل تجهيزًا لإدارة مخاطر الذكاء الاصطناعي خارج نطاق البوابة تعمل في صناعات شديدة التنظيم لأنها تعرف بالفعل كيفية وضع نموذج لإدارة المخاطر.

Steve_Mills_boston_consulting_group.jpg

“أؤكد دائمًا للشركات أنها رحلة لبناء برنامج ذكاء اصطناعي ناضج ومسؤول. يقول ميلز: “نعتقد أن الأمر يستغرق عامين أو ثلاثة أعوام للانتقال من الصفر إلى مرحلة النضج الحقيقي، ولكن لا يتعين عليك الانتظار عامين أو ثلاثة أعوام لتحقيق أي فائدة”. “لا سيما إذا قمت بتسريع مراجعة حالات الاستخدام، فسوف تدرك الفائدة بسرعة كبيرة وهذا هو الشيء الصحيح الذي ينبغي عمله.”

ضع في اعتبارك أن الذكاء الاصطناعي المسؤول لا يتعلق فقط بالامتثال التنظيمي وإدارة المخاطر. يمكن أن يكون مصدرا لقيمة الأعمال. وفقًا لبحث BCG/MIT المشار إليه أعلاه، أفاد نصف قادة الذكاء الاصطناعي المسؤولين أنهم طوروا منتجات وخدمات أفضل، ويقول نفس القدر تقريبًا إنهم يحققون اعترافًا أفضل بالعلامة التجارية. وأشار عدد أقل بقليل (43%) إلى الابتكار المتسارع.

الحد الأدنى

من المرجح أن يكون لدى مؤسسات اليوم برنامج مسؤول للذكاء الاصطناعي عما كانت عليه قبل عامين فقط لأنهم يدركون أن هناك مخاطر مرتبطة بالذكاء الاصطناعي، وهناك المزيد من التنظيمات القادمة التي ستتطلب الامتثال، وهم يريدون تحقيق أكبر قدر ممكن من القيمة. من المرجح أن تحقق برامج الذكاء الاصطناعي الناضجة والمسؤولة هذه العناصر الثلاثة، على الرغم من أن معظم الشركات لا تزال تفتقر إلى برنامج ذكاء اصطناعي ناضج ومسؤول.

على الرغم من أن المؤسسات الأكبر حجمًا لا تتمتع بالمال الكبير الذي تتمتع به، إلا أنه من الحكمة أن يكون لديها برنامج مسؤول للذكاء الاصطناعي وشخص ما لقيادة الجهود. فقط تذكر أن هذا الشخص يحتاج إلى الموارد الكافية والسلطة لتشغيل برنامج ناجح.





Source link

زر الذهاب إلى الأعلى