تحديد سياسة حوكمة الذكاء الاصطناعي
تعلم كل شركة أنها تحتاج إلى سياسة حوكمة للذكاء الاصطناعي، ولكن هناك القليل من التوجيهات لإنشاء مثل هذه السياسة. ما هي القضايا الحاسمة، وكيف تبدأ؟
هناك الذكاء الاصطناعي الحكم الخطوط العريضة والنماذج في كل مكان، ولكن لا أحد، ولا حتى الهيئات التنظيمية أو المسؤولين الحكوميين أو الخبراء القانونيين، يعرف المواقف التي سيتطلب فيها الذكاء الاصطناعي التوجيه والحوكمة. ويُعزى هذا النقص في الفهم إلى حداثة الذكاء الاصطناعي.
نظرًا لوجود قدر كبير من عدم اليقين بشأن حوكمة الذكاء الاصطناعي، فإن العديد من الشركات تتجاهل تعريف الحوكمة، على الرغم من أنها تقوم بالتحقيق في الذكاء الاصطناعي وتنفيذه في أعمالها. سأقول إن الشركات لا يتعين عليها الانتظار لتحديد حوكمة الذكاء الاصطناعي. ويمكنهم البدء بما يعرفونه بالفعل عن الخصوصية، ومكافحة التحيز، وحقوق الطبع والنشر وغيرها من اللوائح التنظيمية، والبدء بدمج هذه العناصر المعروفة في سياسة حوكمة الذكاء الاصطناعي.
فيما يلي ملخص لما نعرفه بالفعل.
خصوصية
يمكن أن تختلف قوانين الخصوصية من ولاية إلى أخرى ومن بلد إلى آخر. ما نحن يفعل ما نعرفه هو أن الأفراد لديهم الحق في الخصوصية الشخصية، والحق في “أن يُتركوا وشأنهم” بموجب قانون الولايات المتحدة. تعتبر البيانات الفردية سرية للغاية، خاصة في مجال الرعاية الصحية والمجالات المالية. يجب على الأفراد التوقيع على بيانات الخصوصية التي توافق على مشاركة معلوماتهم مع أطراف ثالثة معينة، إذا كانت المعلومات ستتم مشاركتها. تشرح سياسات الخصوصية أيضًا المعلومات التي ستحميها الشركات.
وبتطبيق هذه الأساسيات على الذكاء الاصطناعي، يعني هذا أن بيانات المرضى، على سبيل المثال، من المرجح أن تكون مجهولة المصدر إذا تم تجميعها في مجموعة سكانية من الأفراد الذين لديهم ميل للإصابة بمرض أو حالة معينة. لذلك، بالنسبة لنظام الذكاء الاصطناعي للتشخيص الطبي الذي يتم استخدامه للوصول إلى تشخيص لمريض معين، يمكن لخوارزمية الذكاء الاصطناعي التحقيق في البيانات الموجزة عن المرضى المسجلين لديها، ولكن لا يمكنها الخوض في تفاصيل أي واحد منهم المرضى الذين تم تجميع بياناتهم أو سيخاطرون بانتهاك حقوق خصوصية المريض.
مكافحة التحيز
يعد التمييز والتحيز جزءًا لا يتجزأ من قانون الموظفين ويجب إضفاء الطابع الرسمي عليه في حوكمة الذكاء الاصطناعي.
لقد واجهت المؤسسات بالفعل أخطاء في الذكاء الاصطناعي بسبب التحيز من خلال عدم ملء أنظمتها ببيانات غير متحيزة بما فيه الكفاية، ومن خلال تطوير خوارزميات واستعلامات خاطئة.
وكانت النتيجة أنظمة منحازة بشكل خطير مما أدى إلى نتائج غير دقيقة ومحرجة. ولهذا السبب يجب أن يكون التنوع والشمول جزءًا لا يتجزأ من فرق عمل الذكاء الاصطناعي، بالإضافة إلى مراجعة البيانات للتأكد من أنها خالية من التحيز قدر الإمكان.
ينطبق التنوع على تركيبة موظفي الذكاء الاصطناعي، ولكنه ينطبق أيضًا على أقسام الشركة.
على سبيل المثال، قد يرغب قسم التمويل في معرفة كيفية تحسين هوامش ربح المنتج، ولكن قد ترغب المبيعات في معرفة كيفية تحسين ولاء العملاء، وقد ترغب الهندسة والتصنيع في معرفة كيفية تحسين أداء المنتج بحيث تكون هناك عوائد أقل. بشكل جماعي، يجب تضمين كل هذه وجهات النظر في تحليل الذكاء الاصطناعي لرضا العملاء، وإلا فإنك تخاطر بالحصول على نتائج متحيزة وغير دقيقة.
“أحد أكبر المخاطر في مجال الذكاء الاصطناعي هو تكرار التحيزات المجتمعية القائمة. وأشار إلى أن جودة أنظمة الذكاء الاصطناعي تكون بقدر جودة البيانات التي يتم تدريبها عليها، وإذا كانت تلك البيانات تعكس وجهات نظر عالمية متحيزة أو غير كاملة، فإن مخرجات الذكاء الاصطناعي ستحذو حذوها. نيكول برادفورد، مدير تنفيذي مقيم لـ AI+HI في جمعية إدارة الموارد البشرية.
الملكية الفكرية
يمهد الذكاء الاصطناعي التوليدي الطريق أمام الآخرين لجمع إبداعاتهم المرئية والمبنية على الكلمات وإعادة تصميمها للاستخدام، غالبًا دون علم الشركة أو المنشئ. على سبيل المثال، يمكن لشركتك الدخول في اتفاقية مع بائع خارجي تريد شراء بياناته لمستودع بيانات الذكاء الاصطناعي الخاص بك. لا يمكنك التأكد من كيفية حصول الطرف الثالث على بياناته، أو ما إذا كانت بياناته تنتهك حقوق الطبع والنشر أو قانون الملكية الفكرية.
ال هارفارد بزنس ريفيو ناقش هذه المسألة في عام 2023. وذكر، “على الرغم من أنه قد يبدو أن أدوات الذكاء الاصطناعي الجديدة هذه يمكنها استحضار مواد جديدة من الأثير، إلا أن هذا ليس هو الحال تمامًا… تأتي هذه العملية مع مخاطر قانونية، بما في ذلك انتهاك الملكية الفكرية. وفي كثير من الحالات، يطرح أيضًا أسئلة قانونية لا تزال قيد الحل. على سبيل المثال، هل ينطبق انتهاك حقوق النشر والعلامات التجارية لبراءات الاختراع على إبداعات الذكاء الاصطناعي؟ هل من الواضح من يملك المحتوى الذي تنشئه منصات الذكاء الاصطناعي التوليدية لك أو لعملائك؟ قبل أن تتمكن الشركات من احتضان فوائد الذكاء الاصطناعي التوليديإنهم بحاجة إلى فهم المخاطر وكيفية حماية أنفسهم.
لسوء الحظ، من الصعب أن نفهم ما هي المخاطر لأن انتهاكات الملكية الفكرية وحقوق النشر في الذكاء الاصطناعي بدأت للتو في الطعن في المحاكم، ولم يتم بعد إنشاء سوابق قضائية.
وإلى أن يتم تقديم التوضيحات القانونية، من المستحسن أن تقوم الشركات في البداية بصياغة إرشادات حوكمة الملكية الفكرية وحقوق التأليف والنشر التي تنص على أن أي بائع يتم شراء البيانات منه لاستخدامها في الذكاء الاصطناعي يجب أن يتم فحصه ويضمن أن البيانات المقدمة خالية من حقوق الطبع والنشر أو مخاطر الملكية الفكرية. . داخليًا، يجب على قسم تكنولوجيا المعلومات أيضًا فحص بيانات الذكاء الاصطناعي الخاصة به بحثًا عن أي مشكلات محتملة تتعلق بالملكية الفكرية أو انتهاك حقوق الطبع والنشر. إذا كانت هناك بيانات يمكن أن تشكل مشكلة انتهاك، فأحد الأساليب هو ترخيصها.
تأسيس حوكمة الذكاء الاصطناعي في المنظمة
سيقع على عاتق فريق تكنولوجيا المعلومات بدء عملية حوكمة الذكاء الاصطناعي. ويجب أن تبدأ هذه العملية بالحوارات مع كبار المسؤولين ومجلس الإدارة. ويجب على أصحاب المصلحة الرئيسيين هؤلاء دعم فكرة حوكمة الذكاء الاصطناعي في العمل وكذلك بالقول، لأن حوكمة الذكاء الاصطناعي ستؤثر على سلوكيات الموظفين وكذلك إدارة البيانات والخوارزميات.
يجب تحديد “نقاط الهبوط” الأكثر احتمالاً للذكاء الاصطناعي في الإدارات لأن هذه الإدارات ستكون مسؤولة بشكل مباشر عن مدخلات الخبراء في الموضوع والتدريب على نماذج الذكاء الاصطناعي، وسوف تحتاج إلى تدريب في مجال الحوكمة.
وللقيام بذلك، ينبغي تشكيل لجنة حوكمة مشتركة بين الإدارات للذكاء الاصطناعي توافق على سياسات وممارسات الحوكمة. وكان ينبغي أن تلتزم القيادة التنفيذية بدعمها.
سيكون تطوير سياسة حوكمة الذكاء الاصطناعي سلسًا لأن تنظيم الذكاء الاصطناعي يتسم بالسيولة، ولكن يمكن للمؤسسات أن تبدأ بما تعرفه بالفعل عن الخصوصية والملكية الفكرية وحقوق النشر والأمن والتحيز. يجب أن تكون سياسات حوكمة الذكاء الاصطناعي الأولية هذه مصحوبة بتدريب للموظفين الداخليين الذين سيعملون مع الذكاء الاصطناعي.
ما يهم حاليًا مدراء تكنولوجيا المعلومات هو جعل حوكمة الذكاء الاصطناعي جزءًا لا يتجزأ من نشر نظام الذكاء الاصطناعي. هناك كل الأسباب للقيام بذلك الآن بفضل ما نعرفه بالفعل عن الممارسات السليمة للتعامل مع البيانات.