الحد من مخاطر الذكاء الاصطناعي مع زيادة ذكاءك حيال ذلك
إن فكرة استخدام الذكاء الاصطناعي لكتابة محتوى تسويقي، أو تحديد أسعار التأمين، أو أتمتة توقعات المبيعات هي فكرة جذابة للغاية. يمكن لهذه التكنولوجيا تحليل مجموعات البيانات المعقدة، وتحديد الأنماط، وتحقيق نتائج قيمة – غالبًا في جزء صغير من الوقت الذي يستغرقه الإنسان للقيام بنفس المهمة.
ومع ذلك، في مكان ما بين توفير التكاليف وزيادة الإنتاجية تكمن حقيقة مثيرة للقلق: وهي أن الذكاء الاصطناعي ينطوي أيضًا على مخاطر تجارية. مارس 2022 استطلاع وجدت دراسة أجرتها شركة المحاماة بيكر ماكنزي أنه في حين أن 76% من الشركات لديها سياسات خاصة بالذكاء الاصطناعي لإدارة المخاطر، فإن 24% فقط من المديرين التنفيذيين يعتقدون أن السياسات “فعالة إلى حد ما”.
علاوة على ذلك، مع انجذاب المؤسسات نحو أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT، تتزايد المخاطر. يقول براد نيومان، الشريك والقائد في شركة بيكر ماكنزي: “هناك العديد من المجالات التي تمثل مستوى عالٍ من الاهتمام”. تتضمن القائمة الملكية الفكرية (IP)، وانتهاك حقوق النشر، وتحيز البيانات، والتزييف العميق، والأمن السيبراني، وخصوصية البيانات.
إنها مشكلة يجب على مديري تكنولوجيا المعلومات وغيرهم من قادة الأعمال وتكنولوجيا المعلومات مواجهتها. يمكن أن تكون التداعيات الناجمة عن سوء الاستخدام العرضي أو الإهمال للذكاء الاصطناعي مكلفة وتؤدي إلى عقوبات قانونية وتنظيمية تمس بالسمعة.
تقول ليز جرينان، الشريك المساعد الخبير في شركة McKinsey & Company: “تعيش كل شركة الآن في نظام بيئي للموردين سيهيمن عليه الذكاء الاصطناعي قريبًا. هناك طبقات عديدة من المخاطر، والعديد من المصادر.
تضيف أفيفا ليتان، محللة نائب الرئيس المتميزة في شركة Gartner Research: “تستيقظ المؤسسات فجأة على حقيقة وجود مخاطر خطيرة تتعلق بالذكاء الاصطناعي، وأن الضوابط القديمة لا تكفي. من المهم تنفيذ ضوابط جديدة لناقل الهجوم الجديد.
عمل خطر
إن النمو الهائل للذكاء الاصطناعي والنجاح الهائل لأنظمة الذكاء الاصطناعي التوليدية قد ترك المؤسسات تتدافع لتبني الحلول. ماكينزي وشركاه التقارير أن ثلث الشركات التي شملتها الدراسة في عام 2023 تستخدم بالفعل الذكاء الاصطناعي بانتظام، ويقول 40% من المشاركين إنهم يعززون الاستثمارات في الذكاء الاصطناعي. وفي الوقت نفسه، يقول 79% من المشاركين أنهم تعرضوا إلى حد ما لأنظمة الذكاء الاصطناعي التوليدية.
على الرغم من أنه لا أحد يجادل بأن الذكاء الاصطناعي يفتقر إلى القيمة – فقد وجدت مؤسسة Gartner أن 7 من كل 10 من قادة الأعمال يقولون إن الفوائد تفوق المخاطر – فمن الواضح أيضًا أن المخاطر الجديدة تظهر بشكل أسرع من قدرة قادة الأعمال على إدارتها. على سبيل المثال، لاحظت شركة Forrester Research ذلك يتم الآن استخدام الذكاء الاصطناعي لإنشاء هجمات التصيد الاحتيالي المقنعة، والتزييف العميق الذي ينتحل صوت أو شبه مسؤول تنفيذي رفيع المستوى، ونشر معلومات مضللة حول الشركة أو أسهمها.
وتوجد مخاوف أيضاً في مجال الملكية الفكرية. هناك احتمال وجود أسرار مسربة في التعليمات البرمجية التي ينشئها الذكاء الاصطناعي. ومع ذلك، هناك أيضًا مخاطر مرتبطة باستخدام ChatGPT وDALL·E 2 لإنشاء نص ومرئيات. تظل كيفية تطبيق قوانين حقوق الطبع والنشر على الذكاء الاصطناعي التوليدي غامضة و موجة من الدعاوى القضائية – من الفنانين والموسيقيين ومطوري البرمجيات وغيرهم – يشقون طريقهم الآن عبر المحاكم.
تعتبر تحيزات الذكاء الاصطناعي مجالًا معقدًا آخر. ويمكن أن يؤدي ذلك إلى اتهامات بالتمييز، وممارسات التوظيف غير العادلة، وأشكال أخرى من التحيز. وقد وجد بيكر ماكنزي أن 39% فقط من قادة الأعمال يعترفون بالمخاطر. يقول نيومان إن جذور المشكلة تكمن في الرقابة العشوائية على الذكاء الاصطناعي. ويقول إن حوالي ربع سياسات الذكاء الاصطناعي فقط موثقة بدقة. ومع قيام المسوقين والمطورين والموارد البشرية وخدمة العملاء والفرق القانونية باستغلال أنظمة الذكاء الاصطناعي هذه، يتزايد خطر إساءة الاستخدام.
في الواقع، وجدت دراسة ماكنزي أيضًا أن 4 من كل 10 مؤسسات ليس لديها شخص واحد مسؤول عن الإشراف على الذكاء الاصطناعي، وأن 83% منها تقوم بتسليم المسؤولية الأساسية للإشراف على الذكاء الاصطناعي إلى قسم تكنولوجيا المعلومات. بالإضافة إلى ذلك، أفاد 54% فقط من المشاركين أن الموارد البشرية تشارك في عملية صنع القرار فيما يتعلق بأدوات الذكاء الاصطناعي. يقول نيومان: “تؤدي المدخلات غير المكتملة إلى سياسات غير مكتملة وقرارات سيئة حول كيفية استخدام الذكاء الاصطناعي ومتى وأين”.
ويشير ليتان إلى أن المخاطر المرتبطة بالذكاء الاصطناعي، وخاصة الذكاء الاصطناعي التوليدي، يمكن أن تطير بسهولة تحت الرادار. على سبيل المثال، هناك مشكلة خطيرة في أنظمة مثل ChatGPT وGoogle’s Bard وغيرهما وهي أنها تظهر ميلًا نحو توليد ما يسمى الهلوسة. بدون الضوابط والتوازنات، يمكن أن تنتهي الحقائق الكاذبة والمعلومات غير الصحيحة التي تولدها هذه الأنظمة في المستندات والتقارير ورسائل البريد الإلكتروني للعملاء ومضمنة في المنتجات. يقول ليتان: “يمكن أن يؤدي ذلك إلى المسؤولية القانونية والدعاوى القضائية واتخاذ القرارات السيئة”.
يقول جيرالد سي كين، الأستاذ المساعد لنظم المعلومات في كلية تيري للأعمال بجامعة جورجيا، إن أساليب التعلم العميق والتعلم الآلي التي تدرب هذه النماذج يمكن أن تساهم أيضًا في خروج الأنظمة عن مسارها الصحيح. “ماذا يحدث عندما يسيء روبوت الدردشة التصرف أو يوزع معلومات خاطئة؟ ماذا يحدث إذا تحدثت أو تصرفت بطريقة متحيزة أو تمييزية؟ يحتاج قادة الأعمال إلى التفكير في هذه الأمور قبل تقديم الذكاء الاصطناعي.
أن تصبح أكثر ذكاءً فيما يتعلق بالذكاء الاصطناعي
هناك شيء واحد واضح عندما يتعلق الأمر بإدارة مخاطر الذكاء الاصطناعي: الأمور لن تصبح أكثر بساطة في أي وقت قريب. علاوة على ذلك، فإن الشركات بطيئة في التحرك وتثبيت إطار الحوكمة اللازم للذكاء الاصطناعي. وجدت شركة Gartner أن 82% من المؤسسات ليس لديها حتى الآن سياسة استخدام مقبولة لـ ChatGPT.
ومع ذلك، يستطيع مدراء تقنية المعلومات وغيرهم من قادة المؤسسات اتخاذ خطوات لتقليل النقاط العمياء وتخفيف المخاطر. يقول نيومان إن إنشاء منصب كبير مسؤولي الذكاء الاصطناعي للإشراف على جميع نقاط الاتصال التي تنشئها التكنولوجيا يعد خطوة أولى مهمة. “هناك وهم في العديد من الشركات بأن لدينا علماء ومطورين رائعين في مجال البيانات يعملون لدينا وأنهم يتحكمون في كل شيء.” لا شيء يمكن أن يكون أبعد عن الحقيقة.” ويعني وجود خليط متزايد من قوانين الدولة والقوانين الوطنية والدولية أن “الرقابة يجب أن تبدأ وتنتهي عند كبار المسؤولين”.
يقول جرينان من شركة ماكينزي إن الاستخدام الآمن والفعال للذكاء الاصطناعي يتطلب “مجموعة من العناصر الأساسية” التي تدور حول الإستراتيجية، وفهم كيفية ربط المخاطر بأهداف العمل، ومبادئ توجيهية واضحة ومحددة للحصول على مصادر البيانات، واستخدامها، وتصميم النماذج، والتدريب، النشر والأمن والاستخدام المقبول والمراقبة والتحسين المستمر.
يقول غرينان: “يجب أن يكون هناك وضوح بشأن الدور الذي يلعبه الأشخاص والبيانات”. علاوة على ذلك، “تتطلب مشاريع الذكاء الاصطناعي تعاونًا متعدد الوظائف، بما في ذلك علماء البيانات، وخبراء المجال، والمهنيين القانونيين والإلكترونيين، وغيرهم”.
يقول ليتان إن الهدف النهائي هو ثقة الذكاء الاصطناعي. يتضمن ذلك الرقابة والضوابط التي كانت المؤسسة تطبقها دائمًا – لأشياء مثل السرقة، وإتلاف البيانات والأصول، والأمن، والخصوصية – ولكن أيضًا لمخاطر الهندسة الاجتماعية والذكاء الاصطناعي التي لا يمكن اكتشافها بسهولة.
ويخلص ليتان إلى القول: “هناك حاجة إلى التغيير التنظيمي، وملكية العمليات، وتحسينات التكنولوجيا”. “في كثير من الأحيان، يدفع قادة الأعمال لاستخدام التكنولوجيا – وتكون ضوابط المخاطر والأمن مجرد فكرة لاحقة.”