الأمن السيبراني

إطلاق العنان للإبداع ولكن إدارة الذكاء الإصطناعي الظلي


إن تحقيق التوازن بين ازدواجية الفرص والمخاطر التي تأتي مع التقنيات الناشئة يشكل تحديًا قديمًا، وهو الأمر نفسه الذي ينطبق على الذكاء الاصطناعي. فمثله كمثل الحوسبة السحابية وتحليلات البيانات وأتمتة العمليات الآلية في السنوات الأخيرة، يحمل الذكاء الاصطناعي القدرة على تعزيز الإنتاجية وجلب مزايا أخرى للشركات، في حين يفرض أيضًا تهديدات تتطلب دراسة جادة.

شددت أمازون على الحذر من بين مهندسيها عند استخدام ChatGPT أثناء تسليط الضوء إمكانات الذكاء الاصطناعي في منتجات مثل أليكسافي شركتنا، نسعى جاهدين لتحقيق التوازن بين الحاجة إلى نهج مدروس للتخفيف من المخاطر مع تشجيع الابتكار في تطوير واستخدام الذكاء الاصطناعي في منصتنا وأعمالنا.

وفقا لشركة جارتنر، من المتوقع أن يرتفع الإنفاق على برمجيات الذكاء الاصطناعي إلى 297 مليار دولار بحلول عام 2027على الرغم من كل هذا الضجيج، كشف استطلاع رأي حديث أجرته AuditBoard وThe Harris Poll أن أقل من نصف الأمريكيين العاملين (42%) يقول بعض الناس إن شركتهم لديها سياسة رسمية لاستخدام أدوات مدعومة بالذكاء الاصطناعي غير مقدمة من الشركة للعمل – مما يعرضهم لمخاطر أخلاقية وقانونية وخصوصية محتملة. تؤكد اللوائح الأخيرة مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي والتوجيهات الإشارية مثل الأمر التنفيذي الأمريكي بشأن التطوير والاستخدام الآمن والموثوق للذكاء الاصطناعي على أهمية ترتيب منزلك الآن، قبل أن تكون هناك عقوبات على عدم الامتثال.

متعلق ب:ما الذي يمكن لقادة تكنولوجيا المعلومات أن يتعلموه من تكنولوجيا المعلومات الظلية

يتعين على الشركات الاستعداد لاتخاذ القرارات المعززة بالذكاء الاصطناعي في جميع مؤسساتها – والعمل الآن على وضع المبادئ التوجيهية لإدارة مخاطر الذكاء الاصطناعي بشكل فعال مع الاستفادة من القدرات الجديدة للبقاء في صدارة المنافسة.

قد تبدو الذكاء الاصطناعي مخيفة، لكن ليس من الضروري إعادة اختراع العجلة. إذا نظرنا عن كثب، فإن مخاطر الذكاء الاصطناعي تشبه العديد من المخاطر المألوفة، ولدينا بالفعل عمليات وسياسات للتخفيف من هذه المخاطر، بما في ذلك حوكمة البيانات، وإدارة الهوية والوصول، ومنع فقدان البيانات. فيما يلي ثلاث طرق يمكن للمؤسسات من خلالها الاستفادة من السياسات الاستباقية والعمليات الراسخة لإدارة مخاطر الذكاء الاصطناعي مع الاستفادة من إمكاناتها لتغيير قواعد اللعبة:

1. إعطاء الضوء الأخضر لحالات استخدام الذكاء الاصطناعي الآمنة مع سياسات الاستخدام المقبولة.

من دون خنق الإبداع والإنتاجية، تحتاج المنظمات إلى تحقيق التوازن بين الفرص المتاحة للتكنولوجيا والاستخدام المقبول. ومن المرجح أن يؤدي الحظر الشامل على الذكاء الاصطناعي إلى “الذكاء الاصطناعي الظلي”، وهو الاستخدام غير المصرح به للذكاء الاصطناعي خارج حوكمة تكنولوجيا المعلومات. إن اتباع نهج مدروس في صياغة سياسات الاستخدام المقبول يمكن أن يعطي الضوء الأخضر لبعض حالات الاستخدام دون إعاقة الإبداع. وينبغي للسياسات القوية أن توفر قائمة بأدوات الذكاء الاصطناعي التوليدية المعتمدة، وتضع إرشادات بشأن الفئات المسموح بها من البيانات أو مجموعات البيانات، وتحدد حالات الاستخدام عالية المخاطر التي يجب تجنبها. وينبغي وضع القيود لمنع استخدام بيانات محددة لأغراض تدريب النماذج، والحد من اتخاذ القرارات الآلية، وضمان الاعتبارات الأخلاقية. وينبغي للسياسة أيضًا أن تحدد الإجراءات الخاصة بطلب حالات الاستخدام الجديدة ومراجعتها والموافقة عليها.

متعلق ب:كيفية السيطرة على تحليلات الظل

2. تقليل المخاطر باستخدام سياسات التحكم الرئيسية للذكاء الاصطناعي.

يمكن أن تلعب سياسات التحكم في المفاتيح دورًا أساسيًا في الحد من مخاطر خرق البيانات أو إساءة استخدامها. ستضمن سياسة التحكم في المفاتيح المصممة جيدًا أن يكون تبني الذكاء الاصطناعي متوافقًا مع اللوائح والسياسات، وأن البيانات المصرح بها بشكل صحيح فقط هي التي يتم تعريضها لحلول الذكاء الاصطناعي، وأن الموظفين المصرح لهم فقط لديهم حق الوصول إلى مجموعات البيانات والنماذج وأدوات الذكاء الاصطناعي نفسها. يقلل العزل عن الأنظمة الأساسية من فرصة العثور على البيانات في طريقها إلى أنظمة الطرف الثالث، وتسهل سجلات التدقيق والمراقبة اكتشاف الأنشطة أو الخروقات غير العادية. تتمثل الخطوة الأخيرة الرئيسية في مطالبة البشر بالمشاركة، مع مراجعة توصيات الذكاء الاصطناعي دائمًا من قبل مشغلين بشريين مع وجود دليل على الناتج الذي تتم مراجعته والقرارات المتخذة.

متعلق ب:تقرير الرواتب: تكنولوجيا المعلومات في ظل بحار اقتصادية مضطربة ورياح تغيير هادرة

3. دمج اعتبارات الذكاء الاصطناعي في عمليات اختيار الأدوات

إن الموافقة على أدوات جديدة في عصر الذكاء الاصطناعي لا تتعلق بإنشاء عملية جديدة، بل تتعلق أكثر بضمان أن عمليات إدارة المخاطر الحالية الخاصة بأطراف ثالثة يمكنها مراعاة الفروق الدقيقة للذكاء الاصطناعي. في شركتنا، عندما نراجع المقترحات الخاصة بالأدوات الجديدة، نقوم بتقييم الفوائد والمخاطر المحتملة، والتوافق مع الأهداف التنظيمية، والامتثال للمعايير واللوائح الأخلاقية. تتضمن الأسئلة الرئيسية التي يجب طرحها عند اختيار الأدوات المتعلقة بالذكاء الاصطناعي ما يلي:

  • هل لدينا الإذن بتوفير هذه البيانات لهذه الأداة؟

  • هل تعتبر هذه الأداة “معالجًا فرعيًا” يجب الكشف عنه للعملاء؟

  • هل يمكننا منع الذكاء الاصطناعي من استخدام البيانات الحساسة للتدريب؟

  • هل يمكنني إلغاء السماح للأدوات باستخدام بياناتي في نماذج التدريب المستخدمة من قبل أطراف أخرى؟

  • هل يمكننا اكتشاف تدفق البيانات إلى أدوات غير مصرح بها؟

بمجرد إضافة الأدوات إلى قائمة معتمدة، يتم تقديم إرشادات حول مجموعات البيانات المعتمدة. بالإضافة إلى ذلك، نقدم إرشادات حول حدود الذكاء الاصطناعي، ونضع قيودًا على عمليات اتخاذ القرار الآلية، ونحدد الاستخدامات المحظورة، ونأخذ في الاعتبار الأخلاقيات لضمان العدالة والمساءلة.

ومن خلال بناء هذه العمليات، تستطيع المنظمات تعزيز الابتكار مع إعطاء الأولوية للاعتبارات الأخلاقية والتأثير المجتمعي.

إدارة مخاطر الذكاء الاصطناعي هي رياضة جماعية

لا تقتصر مخاطر الذكاء الاصطناعي وفرصه على شخص واحد أو وظيفة واحدة في المنظمة. بل إنها تشملنا جميعًا. وسوف يتطلب الأمر التعاون والتواصل لإنشاء نهج متماسك لإدارة مخاطر الذكاء الاصطناعي مع تمكين الابتكار. يجب أن ندرك أنه لا يوجد نهج واحد يناسب الجميع لإدارة الذكاء الاصطناعي – فسوف يبدو مختلفًا لكل منظمة.

ولإحداث نقلة نوعية، ينبغي لك أن تتولى قيادة المناقشات حول المخاطر والتحديات المحتملة المرتبطة بتبني الذكاء الاصطناعي في مؤسستك. ثم اتبع ذلك بالعمل مع أصحاب المصلحة الرئيسيين لتطوير سياسة شاملة لاستخدام الذكاء الاصطناعي تمكن من الابتكار مع تخفيف المخاطر. ومن خلال الاستفادة من مبادئ إدارة المخاطر التي أثبتت جدواها وتعزيز التواصل المفتوح المستمر، يمكننا تقليل التهديد وتقاسم المسؤولية وجني ثمار الذكاء الاصطناعي.





Source link

زر الذهاب إلى الأعلى