تقنية

آثار نماذج الذكاء الاصطناعي المتحيزة على صناعة الخدمات المالية


من المستحيل تجاهل الزيادة الهائلة في استخدام الذكاء الاصطناعي في جميع القطاعات. مهما كانت مشاعرك تجاه الذكاء الاصطناعي، فإن استخدام هذه النماذج سيبقى معنا ويستخدم بالطريقة الصحيحة، فهو يخلق فرصًا للشركات لتحسين الكفاءة وتقليل التكاليف وفي الوقت نفسه تبسيط (ونأمل) تحسين تجربة العملاء.

ومع ذلك، فإن استخدام الذكاء الاصطناعي في الخدمات المالية يجلب معه تحديات إضافية تتطلب دراسة متأنية. أحد هذه التحديات هو خطر أن نماذج الذكاء الاصطناعي المستخدمة مبنية على تحيز غير عادل يؤدي إلى التمييز ضد مجموعات سكانية معينة. وهذا أمر سيئ بالنسبة للعملاء ويجلب مخاطر قانونية محتملة للشركات التي تستخدم نماذج الذكاء الاصطناعي هذه.

كيف يمكن أن تكون نماذج الذكاء الاصطناعي متحيزة؟

تساعد مراحل تطوير نموذج الذكاء الاصطناعي (أو بشكل أكثر تحديدًا الخوارزمية التي تحرك النموذج) على فهم المخاطر المحتملة للتحيز. على مستوى عالٍ، تقدم خوارزمية الذكاء الاصطناعي قائمة من التعليمات للكمبيوتر تسمح له بإنشاء مخرجات بناءً على البيانات التي يمكنه الوصول إليها.

يمكن تقديم التحيز بعدة طرق. من الممكن أن الخوارزمية نفسها تخلق تحيزًا بسبب الطريقة التي يتم تنفيذها بها من خلال إعطاء بيانات معينة أهمية أكبر، وبالتالي تحريف النتائج. ويمكن أيضًا أن يتم تقديمه بواسطة البشر عند اختيار مجموعات البيانات التي يجب تضمينها أو استبعادها في وضع الذكاء الاصطناعي. ومع ذلك، فإن الفرصة الأكثر مناسبة لظهور التحيز هي محتوى مجموعات البيانات المستخدمة.

إن جودة نماذج الذكاء الاصطناعي تكون بنفس جودة البيانات التي يتم تدريبهم عليها. يمكن الحصول على مجموعات البيانات بعدة طرق. قد تستخدم الشركة بياناتها التاريخية الخاصة لإنشاء مجموعة بيانات – على سبيل المثال، جميع معلومات مطالبات التأمين التاريخية لتحسين تقييمات المخاطر وتقديرات الأقساط. وبدلاً من ذلك، يمكن شراء مجموعات البيانات من أطراف ثالثة قامت بجمع البيانات عن طريق استجواب واستخراج الإنترنت أو مصادر أخرى. وفي كلا السيناريوهين، هناك خطر أن تكون هذه البيانات متحيزة لأن البيانات المستخدمة غالبا ما تعكس عدم المساواة في المجتمع.

على سبيل المثال، قد تعطي البيانات الأفضلية للرجال البيض على النساء أو مجموعات الأقليات العرقية. إذا تم تدريب مجموعة البيانات على البيانات التاريخية المتحيزة ضد الأقليات العرقية، فقد يؤدي ذلك إلى تسعير تمييزي. ومن الأمثلة الموثقة جيدًا لهذا التحيز خارج قطاع التأمين نموذج الذكاء الاصطناعي للتوظيف في أمازون والذي تبين أنه تمييزي ضد المرأة لأنه تم تدريبه على معلومات التوظيف التاريخية في أمازون.

كيف يمكننا وقف التحيز في نماذج الذكاء الاصطناعي؟

هناك عدة طرق يمكن للشركات من خلالها تقليل مخاطر تسلل التحيز إلى نماذج الذكاء الاصطناعي. لا يوجد أي منها محصن ضد الخداع، ولكن محاولة وضع ضمانات شاملة يمكن أن تقلل من المخاطر.

يجب أن تكون مجموعات البيانات شفافة للسماح بتحليلها للتأكد من عدم تحيزها. على سبيل المثال، يجب أن يكون واضحًا كيف ومتى تم الحصول على البيانات وتصنيفها. والأهم من ذلك، سيكون من المهم النظر في تركيبة الأفراد الذين يشكلون جزءًا من أي مجموعة بيانات. ستمكن هذه المعلومات من تحديد مدى ملاءمة مجموعة البيانات لغرض نموذج الذكاء الاصطناعي وما إذا كان قد يكون هناك أي انحراف تمييزي.

لا يعد هذا دائمًا تمرينًا مباشرًا لأنه سيعتمد على حجم مجموعة البيانات وما إذا كانت مجموعة البيانات محلية أو تم شراؤها من طرف ثالث. وفيما يتعلق بالأخيرة، سيكون من المهم فهم شروط وأحكام استخدام أي مجموعة بيانات تم شراؤها لتوضيح أين تكمن المخاطر والمسؤولية في حالة إثارة مجموعة البيانات لمشكلات قانونية في المستقبل.

من المهم أيضًا مراقبة وتقييم نموذج الذكاء الاصطناعي بشكل مستمر. هناك مكان محدد في تطوير نماذج الذكاء الاصطناعي للبشر. من المهم للشركات أن تقوم باختبار نماذج الذكاء الاصطناعي الخاصة بها لضمان تحقيق هدفها دون تحيز. وهذا يعني وجود فريق تدقيق داخلي يفهم نموذج الذكاء الاصطناعي ومجموعات البيانات المستخدمة والبيانات المستمرة التي ستتم إضافتها إلى نموذج الذكاء الاصطناعي في الوقت الفعلي للتأكد من أن المخرجات عادلة وغير تمييزية. يجب أن تكون هناك سياسات تصعيدية مطبقة داخل الشركات لضمان إمكانية إجراء أي تغييرات مطلوبة على نماذج الذكاء الاصطناعي بشكل فعال وسريع. وهذا مهم بشكل خاص لتمكين التفاعلات الحتمية مع الهيئات التنظيمية التي تهتم بشكل متزايد بضمان شفافية نماذج الذكاء الاصطناعي وعملها لصالح العملاء.

مخاطر نماذج الذكاء الاصطناعي المتحيزة في قطاع التأمين

هناك الضرر المحتمل الذي قد يلحق بالأفراد أو الشركات التي أبرمت عقود تأمين نتيجة للممارسات التمييزية في نماذج الذكاء الاصطناعي. وفي المملكة المتحدة، قد يدفع هذا الأفراد إلى طلب التعويض من خلال أمين المظالم المالية أو من خلال المحاكم.

نحن نشهد بالفعل انتشارًا لقضايا حقوق الطبع والنشر من قبل الأفراد ضد عمالقة الذكاء الاصطناعي مثل Stability AI وOpen AI. في الولايات المتحدة، هذه دعاوى قضائية جماعية، ومن الممكن أنه إذا كان نموذج الذكاء الاصطناعي في قطاع التأمين يؤثر على مجموعة كبيرة من الأفراد من منظور تمييزي، فقد تتبعه دعاوى قضائية مماثلة.

الخطر الآخر الذي يجب مراعاته هو ظهور الانتهاك التنظيمي.

مع تطور الذكاء الاصطناعي، يتطور المشهد التنظيمي أيضًا. كان هناك اهتمام كبير بقانون الذكاء الاصطناعي للاتحاد الأوروبي والذي من المرجح أن يتم الانتهاء منه قريبًا (على الرغم من أنه لن يصبح ساري المفعول قانونيًا لمدة عامين على الأقل)، وقد تم تلخيص الهدف منه بدقة على موقع البرلمان الأوروبي على النحو التالي: “أنظمة الذكاء الاصطناعي المستخدمة في الاتحاد الأوروبي آمنة وشفافة ويمكن تتبعها وغير تمييزية وصديقة للبيئة. يجب أن يشرف الناس على أنظمة الذكاء الاصطناعي، بدلاً من الأتمتة، لمنع النتائج الضارة.

وتتطلع المملكة المتحدة أيضًا إلى تنظيم الذكاء الاصطناعي خارج نطاق قانون الذكاء الاصطناعي الخاص بالاتحاد الأوروبي. إنها تطرح إطارًا مؤيدًا للذكاء الاصطناعي ولكن عدم التمييز لا يزال عنصرًا أساسيًا في الكتاب الأبيض لعام 2023. ويتجلى ذلك من خلال المبادئ الخمسة لتوجيه وإرشاد التطوير والاستخدام المسؤول للذكاء الاصطناعي في جميع قطاعات الاقتصاد، وهي (1) السلامة والأمن والمتانة؛ (2) الشفافية المناسبة وقابلية التفسير؛ (3) العدالة؛ (4) المساءلة والحوكمة؛ و(5) القدرة على المنافسة والتعويض.

أضف إلى هذا المزيج اللائحة العامة لحماية البيانات (GDPR) فيما يتعلق بالمعلومات الشخصية المستخدمة في نماذج الذكاء الاصطناعي وقواعد الأمن السيبراني، مما يعني أن عدم الامتثال لنماذج الذكاء الاصطناعي قد يكون مكلفًا للغاية بالفعل من منظور تنظيمي.

من المتوقع أن يستمر صعود نماذج الذكاء الاصطناعي في قطاع التأمين، لكن نماذج الذكاء الاصطناعي التي تؤدي إلى مخرجات متحيزة تشكل خطراً حقيقياً من المنظور القانوني ومنظور السمعة. وينبغي وضع السياسات والإجراءات لضمان ملاءمة نماذج الذكاء الاصطناعي للغرض، وبالتالي التخفيف من التحديات القانونية المكلفة قدر الإمكان.


جيمي رولاندز شريك في بحيرة هاسلتين كيمبنر.



Source link

زر الذهاب إلى الأعلى