هل هناك طريقة سهلة؟
عندما تم إطلاق ChatGPT تجاريًا في عام 2022، بدأت الحكومات وقطاعات الصناعة والهيئات التنظيمية ومجموعات الدفاع عن المستهلك في مناقشة الحاجة إلى تنظيم الذكاء الاصطناعي، وكذلك استخدامه، ومن المرجح أن المتطلبات التنظيمية الجديدة سوف تظهر للذكاء الاصطناعي في الأشهر المقبلة.
المأزق الذي يواجهه مديرو تكنولوجيا المعلومات هو أنه لا أحد يعرف حقًا ما ستكون عليه هذه المتطلبات الجديدة. ومع ذلك، هناك أمران واضحان: من المنطقي أن تقوم ببعض التفكير الخاص بك حول ما يجب أن تكون عليه حواجز الحماية الداخلية لشركتك بالنسبة للذكاء الاصطناعي؛ وهناك أمور كثيرة على المحك بحيث لا يمكن للمؤسسات أن تتجاهل التفكير في مخاطر الذكاء الاصطناعي.
إن سجلات عمليات نشر الذكاء الاصطناعي مليئة بالأمثلة لقد أخطأ الذكاء الاصطناعيمما أدى إلى الإضرار بصور الشركة وإيراداتها. لا يوجد رئيس قسم تكنولوجيا المعلومات يريد أن يكون في الطرف المتلقي لمثل هذه الزلة.
لهذا السبب يقول برايس ووترهاوس كوبرز“يجب على الشركات أيضًا طرح أسئلة محددة حول البيانات التي سيتم استخدامها لتصميم قطعة معينة من التكنولوجيا، وما هي البيانات التي ستستهلكها التكنولوجيا، وكيف سيتم الحفاظ عليها وما هو تأثير هذه التكنولوجيا على الآخرين… ومن المهم ألا نأخذ في الاعتبار المستخدمين فقط، ولكن أيضًا أي شخص آخر قد يتأثر بالتكنولوجيا. هل يمكننا تحديد كيف يمكن أن يتأثر الأفراد والمجتمعات والبيئات سلبًا؟ ما هي المقاييس التي يمكن تتبعها؟
حدد “القائمة المختصرة” لمخاطر الذكاء الاصطناعي
مع نمو الذكاء الاصطناعي وبدء الأفراد والمؤسسات من جميع المجالات في استخدامه، ستتطور مخاطر جديدة، ولكن هذه هي المخاطر مخاطر الذكاء الاصطناعي الحالية التي يجب على الشركات مراعاتها عند الشروع في تطوير الذكاء الاصطناعي ونشره:
البيانات غير المدققة.من غير المرجح أن تحصل الشركات على جميع البيانات الخاصة بمشاريع الذكاء الاصطناعي الخاصة بها من مصادر داخلية. سيحتاجون إلى مصدر البيانات من أطراف ثالثة.
استخدم فريق بحثي للتصميم الجزيئي في أوروبا الذكاء الاصطناعي لمسح واستيعاب جميع المعلومات العالمية المتاحة من مصادر مثل الأوراق البحثية والمقالات والتجارب المتعلقة بهذا الجزيء. أرادت إحدى مؤسسات الرعاية الصحية استخدام نظام الذكاء الاصطناعي لتشخيص السرطان، لذلك خرجت للحصول على بيانات عن مجموعة واسعة من المرضى من العديد من البلدان المختلفة.
وفي كلتا الحالتين، كان لا بد من فحص البيانات.
في الحالة الأولى، قام فريق البحث بتضييق عدسة البيانات التي كان يختار قبولها في مستودع البيانات الجزيئية الخاص به، واختار استخدام المعلومات التي تشير مباشرة إلى الجزيء الذي كانوا يدرسونه فقط. وفي الحالة الثانية، تأكدت مؤسسة الرعاية الصحية من أن أي بيانات تم الحصول عليها من أطراف ثالثة كانت مجهولة المصدر بشكل صحيح بحيث يتم حماية خصوصية المرضى الأفراد.
ومن خلال فحص البيانات الداخلية والخارجية التي سيستخدمها الذكاء الاصطناعي بشكل صحيح، قللت كلتا المؤسستين بشكل كبير من مخاطر قبول البيانات السيئة في مستودعات بيانات الذكاء الاصطناعي الخاصة بهما.
خوارزميات غير كاملة.البشر غير كاملين، وكذلك المنتجات التي ينتجونها. الأمازون الخاطئ أداة التوظيف، المدعوم بالذكاء الاصطناعي ويخرج النتائج التي تفضل الذكور على الإناث في جهود التوظيف، هو مثال يُستشهد به كثيرًا – ولكنه ليس الوحيد.
تشكل الخوارزميات غير الكاملة مخاطر لأنها تميل إلى تحقيق نتائج غير مثالية يمكن أن تقود الشركات إلى المسارات الإستراتيجية الخاطئة. لهذا السبب من الضروري أن يكون لديك فريق ذكاء اصطناعي متنوع يعمل على تطوير الخوارزميات والاستعلام. وينبغي تحديد هذا التنوع في الموظفين من خلال مجموعة متنوعة من مجالات العمل (جنبًا إلى جنب مع علماء تكنولوجيا المعلومات والبيانات) الذين يعملون على المباني الخوارزمية التي ستقود البيانات. وينبغي استخدام قدر متساو من التنوع لأنه ينطبق على التركيبة السكانية للعمر والجنس والخلفية العرقية. وبقدر ما يتم دمج مجموعة كاملة من وجهات النظر المتنوعة في تطوير الخوارزميات وجمع البيانات، تقلل المؤسسات من مخاطرها، لأن عددًا أقل من الأمور التي لم تُقلب.
ضعف التدريب على المستخدم والعمليات التجارية.يجب فحص مستخدمي نظام الذكاء الاصطناعي، وكذلك بيانات وخوارزميات الذكاء الاصطناعي، أثناء تطوير الذكاء الاصطناعي ونشره. على سبيل المثال، قد يكون لدى أخصائي الأشعة أو أخصائي السرطان القدرة على استخدام نظام الذكاء الاصطناعي المصمم خصيصًا لتشخيص السرطان، ولكن قد لا يكون لدى طبيب الأقدام.
ومن المهم بنفس القدر التأكد من أن مستخدمي نظام الذكاء الاصطناعي الجديد يفهمون أين وكيف سيتم استخدام النظام في عمليات أعمالهم اليومية. على سبيل المثال، قد يتلقى متعهد القرض في أحد البنوك طلب قرض، ويجري مقابلة مع مقدم الطلب، ويتخذ قرارًا أوليًا بشأن نوع القرض الذي يمكن أن يكون مقدم الطلب مؤهلاً للحصول عليه، ولكن قد تكون الخطوة التالية هي تشغيل الطلب من خلال الذكاء الاصطناعي. نظام قوي لاتخاذ قرار القروض لمعرفة ما إذا كان النظام يوافق. إذا كان هناك خلاف، فقد تكون الخطوة التالية هي تقديم الطلب إلى مدير الإقراض للمراجعة.
المفاتيح هنا، من منظور تطوير الذكاء الاصطناعي ونشره، هي أن نظام الذكاء الاصطناعي يجب أن يكون سهل الاستخدام، وأن يعرف المستخدمون كيف ومتى يستخدمونه.
الدقة مع مرور الوقت.يتم تطوير واختبار أنظمة الذكاء الاصطناعي في البداية حتى تكتسب درجة من الدقة تلبي أو تتجاوز دقة خبراء الموضوع (SMEs). المعيار الذهبي لدقة نظام الذكاء الاصطناعي هو أن النظام دقيق بنسبة 95% عند مقارنته باستنتاجات الشركات الصغيرة والمتوسطة. ومع ذلك، مع مرور الوقت، يمكن أن تتغير ظروف العمل، أو قد يبدأ التعلم الآلي الذي يقوم به النظام من تلقاء نفسه في إنتاج نتائج تؤدي إلى مستويات منخفضة من الدقة مقارنة بما يحدث في العالم الحقيقي. عدم الدقة يخلق المخاطر.
الحل هو إنشاء مقياس للدقة (على سبيل المثال، 95%)، وقياس هذا المقياس على أساس منتظم. بمجرد أن تبدأ نتائج الذكاء الاصطناعي في فقدان الدقة، يجب مراجعة البيانات والخوارزميات وضبطها واختبارها حتى يتم استعادة الدقة.
مخاطر الملكية الفكرية.ناقشنا سابقًا كيفية فحص مستخدمي الذكاء الاصطناعي لمعرفة مستويات مهاراتهم واحتياجاتهم الوظيفية قبل استخدام نظام الذكاء الاصطناعي. وينبغي تطبيق مستوى إضافي من التدقيق على الأفراد الذين يستخدمون الذكاء الاصطناعي للشركة لتطوير الملكية الفكرية الخاصة بالشركة.
إذا كنت شركة طيران، فأنت لا تريد أن يخرج كبير المهندسين لديك من الباب مع البحث القائم على الذكاء الاصطناعي لنظام الدفع النفاث الجديد.
عادة ما يتم التعامل مع مخاطر الملكية الفكرية مثل هذه من قبل الموظفين القانونيين والموارد البشرية. يتم الاتفاق على اتفاقيات عدم المنافسة وعدم الإفصاح كشرط أساسي للتوظيف. ومع ذلك، إذا تم نشر نظام الذكاء الاصطناعي لأغراض الملكية الفكرية، فيجب أن يكون بمثابة نقطة تفتيش نقطية في قائمة المشاريع بحيث يحصل كل شخص مصرح له باستخدام النظام الجديد على التصريح اللازم.