الأمن السيبراني

كيف يؤثر تحيز الذكاء الاصطناعي على الرعاية الصحية


وقد تم استخدام الذكاء الاصطناعي لاكتشاف التحيز في الرعاية الصحية، مثل عدم وجود درجات لون البشرة الداكنة المواد التعليمية الجلديةلكن الذكاء الاصطناعي كان سببًا للتحيز نفسه في بعض الحالات.

عندما يحدث تحيز الذكاء الاصطناعي في مجال الرعاية الصحية، فإن الأسباب تكون مزيجًا من الأخطاء الفنية بالإضافة إلى القرارات البشرية الحقيقية، وفقًا للدكتور مارشال تشين، أستاذ أخلاقيات الرعاية الصحية في قسم الطب بجامعة شيكاغو. وشارك تشين في رئاسة الحكومة الأخيرةلوحةعلى تحيز الذكاء الاصطناعي.

يقول تشين لموقع InformationWeek: “هذا شيء يمكننا السيطرة عليه”. “إنه ليس مجرد شيء تقني لا مفر منه.”

في عام 2023، أ دعوى جماعية اتهمت شركة UnitedHealth باستخدام خوارزمية الذكاء الاصطناعي بشكل غير قانوني لإبعاد المرضى المسنين المصابين بأمراض خطيرة عن الرعاية بموجب برنامج Medicare Advantage. ألقت الدعوى باللوم على نموذج nH Predict AI التابع لشركة naviHealth لعدم الدقة. وقالت يونايتد هيلث ستات نيوز في العام الماضي لم يتم استخدام أداة دعم الرعاية naviHealth لاتخاذ القرارات. وقالت الشركة: “الدعوى ليس لها أي أساس، وسندافع عن أنفسنا بقوة”.

وشملت الحالات الأخرى للتحيز المحتمل للذكاء الاصطناعي خوارزميات تدرس حالات قصور القلب، وجراحة القلب، والولادة المهبلية بعد الولادة القيصرية (VBAC)، حيث قادت خوارزمية الذكاء الاصطناعي المرضى السود إلى إجراء عمليات قيصرية أكثر مما كان ضروريًا، وفقًا لتشين. تنبأت الخوارزمية بشكل خاطئ بأن الأقليات كانت أقل عرضة للنجاح في الولادة المهبلية بعد الولادة القيصرية مقارنة بالنساء البيض غير اللاتينيات. وفق وزارة الصحة الأمريكية ومكتب الخدمات الإنسانية لصحة الأقليات.
يوضح تشين: “لقد كان من غير المناسب أن يكون عدد مرضى الأقليات العرقية الذين خضعوا لعمليات قيصرية شديدة بدلاً من الولادة المهبلية”. “لقد أدى ذلك في الأساس إلى قرار سريري خاطئ لم يكن مدعومًا بقاعدة الأدلة الفعلية.”

متعلق ب:لماذا تسير وتيرة الذكاء الاصطناعي الأبطأ في مجال الرعاية الصحية كما ينبغي أن تكون؟

بعد سنوات من البحث، تم تغيير خوارزمية VBAC بحيث لم تعد تأخذ في الاعتبار العرق أو الانتماء العرقي عند التنبؤ بالمرضى الذين قد يعانون من مضاعفات إجراء VBAC، حسبما ذكرت HHS.

يوضح توم هيتينجر، قائد الذكاء الاصطناعي التطبيقي للرعاية الصحية في شركة Deloitte Consulting: “عندما تفتقر مجموعة البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي إلى التنوع، يمكن أن يؤدي ذلك إلى تشخيصات خاطئة، وفوارق في الرعاية الصحية، وقرارات تأمين غير متكافئة بشأن أقساط التأمين أو التغطية”.

يقول هيتنجر في مقابلة عبر البريد الإلكتروني: “إذا كانت مجموعة البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي تفتقر إلى التنوع، فقد يطور الذكاء الاصطناعي خوارزميات متحيزة تؤدي أداءً جيدًا لمجموعات ديموغرافية معينة بينما تفشل في الآخرين”. “وهذا يمكن أن يؤدي إلى تفاقم عدم المساواة الصحية القائمة، مما يؤدي إلى نتائج صحية سيئة للفئات الممثلة تمثيلا ناقصا.”

متعلق ب:Metaverse: الحدود التالية في الرعاية الصحية؟

تحيز الذكاء الاصطناعي في تطوير الأدوية

على الرغم من أن أدوات الذكاء الاصطناعي يمكن أن تسبب التحيز، إلا أنها تجلب أيضًا المزيد من التنوع لتطوير الأدوية. تقوم شركات مثل BioPhy بدراسة أنماط المرضى لمعرفة كيفية استجابة الناس لأنواع مختلفة من الأدوية.

ويتمثل التحدي في اختيار مجموعة من المرضى تكون واسعة بما يكفي لتقديم مستوى من التنوع ولكن أيضًا لتحقيق فعالية الدواء. ومع ذلك، فإن تصميم خوارزمية الذكاء الاصطناعي للتنبؤ بمجموعات المرضى قد يؤدي إلى مجموعة فرعية فقط من السكان، كما يوضح ديف لاتشو الثاني، الحائز على درجة الدكتوراه، والمؤسس المشارك لشركة BioPhy.

“إذا قمت بتغذية خوارزمية مصممة للتنبؤ بالمجموعات السكانية المثالية للمرضى مع مجموعة فرعية فقط من السكان، فسوف تعطيك مخرجات توصي فقط بمجموعة فرعية من السكان،” يقول لاتشو لمجلة InformationWeek. “ينتهي بك الأمر إلى التحيز في تلك التوقعات إذا تصرفت بناءً عليها عندما يتعلق الأمر بتنظيم تجاربك السريرية والعثور على المرضى المناسبين للمشاركة.”

ويضيف أنه لذلك، يجب على قادة تكنولوجيا المعلومات الصحية تنويع مجموعات التدريب الخاصة بهم عند تدريس منصة الذكاء الاصطناعي لتجنب العمى في النتائج.

“إن السيناريو الذي يحلم به أي شخص يقوم بتطوير دواء هو أن يكون قادرًا على اختبار الدواء على أي شخص تقريبًا من أي خلفية ومن أي مكان وبأي تركيبة وراثية مصابة بمرض معين، وسوف يعمل بنفس الطريقة على الجميع. يقول لاتشو. “هذه هي الحالة المثالية للعالم.”

متعلق ب:الرعاية الصحية المتصلة تحقق قفزة هائلة إلى الأمام

كيفية تجنب تحيز الذكاء الاصطناعي في الرعاية الصحية

يجب على قادة تكنولوجيا المعلومات إشراك مجموعة متنوعة من أصحاب المصلحة عند تنفيذ الخوارزميات. ويقول تشين إن ذلك يشمل قادة التكنولوجيا والأطباء والمرضى والجمهور.

عند التحقق من صحة نماذج الذكاء الاصطناعي، يجب على قادة تكنولوجيا المعلومات تضمين علماء الأخلاقيات وعلماء البيانات جنبًا إلى جنب مع الأطباء والمرضى والزملاء، وهم موظفون غير طبيين وأعضاء هيئة التدريس والعاملين المتعاقدين في مؤسسة الرعاية الصحية، كما يقول هيتينجر.
عندما تقوم فرق متعددة بطرح نماذج جديدة، يمكن أن يؤدي ذلك إلى زيادة الوقت اللازم للتجريب ويؤدي إلى طرح تدريجي إلى جانب المراقبة المستمرة، وفقًا لهيتنجر.

ويقول: “قد تستغرق هذه العملية عدة أشهر”.

تستخدم العديد من المنظمات خوارزميات خاصة، والتي تفتقر إلى الحافز للشفافية، وفقًا لما ذكره تشين. ويقترح أن تحتوي خوارزميات الذكاء الاصطناعي على ملصقات مثل علبة الحبوب تشرح كيفية تطوير الخوارزميات، وكيفية توزيع الخصائص الديموغرافية للمريض، والتقنيات التحليلية المستخدمة.

يقول تشين: “هذا من شأنه أن يعطي الناس فكرة عن ماهية هذه الخوارزمية، لذا فهذا ليس صندوقًا أسودًا كاملاً”.

بالإضافة إلى ذلك، يجب على المؤسسات تدقيق ومراقبة أنظمة الذكاء الاصطناعي بحثًا عن التحيز والتفاوت في الأداء، كما ينصح هيتنجر.

يقول هيتنجر: “يجب على المؤسسات البحث بشكل استباقي عن التحيزات داخل خوارزمياتها ومجموعات البيانات الخاصة بها، وإجراء التصحيحات اللازمة، وإنشاء آليات لمنع ظهور تحيزات جديدة بشكل غير متوقع”. “عند اكتشاف التحيز، يجب تحليله ومن ثم تصحيحه من خلال إجراءات محددة جيدًا تهدف إلى معالجة المشكلة واستعادة ثقة الجمهور.”

منظمات مثل ديلويت تقديم أطر لتقديم التوجيهات حول كيفية الحفاظ على الاستخدام الأخلاقي للذكاء الاصطناعي.

يقول هيتنجر: “أحد المبادئ الأساسية هو إنشاء نماذج عادلة وغير متحيزة، وهذا يعني أن الذكاء الاصطناعي يحتاج إلى التطوير والتدريب للالتزام بإجراءات عادلة وموحدة واتخاذ قرارات محايدة”.

بالإضافة إلى ذلك، يمكن لمؤسسات الرعاية الصحية اعتماد أدوات مراقبة آلية لرصد انحراف النموذج وإصلاحه، وفقًا لهيتنجر. ويقترح أيضًا أن تشكل منظمات الرعاية الصحية شراكات مع المؤسسات الأكاديمية وشركات أخلاقيات الذكاء الاصطناعي.

يوصي الدكتور يائير لويس، كبير المسؤولين الطبيين في منصة نافينا للرعاية الأولية المدعومة بالذكاء الاصطناعي، بأن تقوم المؤسسات بإنشاء مقياس لدرجة العدالة للخوارزميات لضمان معاملة المرضى على قدم المساواة.

يقول لويس في مقابلة عبر البريد الإلكتروني: “الفكرة هي تحليل أداء الخوارزمية عبر مجموعات سكانية مختلفة لتحديد أي تباينات”. “من خلال قياس التحيز بهذه الطريقة، يمكن للمؤسسات وضع معايير للعدالة ومراقبة التحسينات بمرور الوقت.”





Source link

زر الذهاب إلى الأعلى