الأمن السيبراني

دليل CIO للنشر الأخلاقي لمنظمة العفو الدولية


تواجه الشركات ضغطًا هائلاً على توصيل القيمة مع الذكاء الاصطناعي. على الرغم من أن هذا يعني البحث عن طرق مبتكرة لتطبيق التكنولوجيا ، فإن CIOs وغيرها من قادة المؤسسات التي يحتاجها أيضًا إلى التفكير في استخدامها الأخلاقي وإدارة المخاطر. إذا تجاهلوا تلك القطعة من اللغز ، فإنهم يفعلون ذلك على مسؤوليتهم.

“ستحصل على القضايا الجديرة بالثقة ، وقضايا الإنصاف ، وبعد ذلك بصراحة ، أنت تفتح نفسك على بعض الخسائر الخطيرة” ، ساذرلاند، وهي شركة للتحول الرقمي ، تخبر Information Week.

مع استمرار تنفيذ لوائح الذكاء الاصطناعى والنتائج السيئة المتعلقة باستخدام الذكاء الاصطناعى ، تواجه الشركات إمكانية الغرامات والدعاوى القضائية. التخفيف من هذا الخطر يعني تحديد الذكاء الاصطناعي الأخلاقي الآن ، ودمج ذلك في إطار عمل على مستوى المؤسسة ، وضمان تطبيقه بشكل موحد ودعمه.

تحديد AI الأخلاقية

من السهل أن نقول أن الذكاء الاصطناعى الأخلاقي يعني “القيام بعمل جيد” أو “لا تضر” ، ولكن كيف يبدو ذلك في الواقع في الممارسة العملية؟ يبدأ بالاعتراف أنه لا يوجد تعريف واحد لأخلاقيات الذكاء الاصطناعي.

تقول هيلينا نمو ، مديري المعلومات في “مديرة العمل”: “يعتمد الأمر على قيمك ، وتربيتك ، وبيئتك ، ومن أنت كشخص”. IFS، شركة برمجيات المؤسسات العالمية. “إن محاولة الوصول إلى شيء هو إطار شائع ستكون تحديًا ، وسيستغرق الكثير من التفاوض.”

متعلق ب:رائعة ، ولكن أعمى: التكلفة الخفية للإفراط في الثقة من الذكاء الاصطناعي

لكن هذا التفاوض يمكن أن يكون متجذرًا في المبادئ الأساسية المعترف بها على نطاق واسع باعتبارها ضرورية لأخلاقيات الذكاء الاصطناعي: الإنصاف والشفافية والمساءلة والخصوصية.

“عندما تنظر إلى ما يبدو عليه الإطار الأخلاقي ، لا يهم ما إذا كانت صفحتين أو 100 صفحة. يجب أن يكون لها هذه الكلمات الأربع ، في رأيي” ، كما تقول.

قد يكون لدى القادة في صناعات مختلفة قضايا مختلفة يجب مراعاتها عند النظر في حالات استخدام الذكاء الاصطناعى المحددة. على سبيل المثال ، قد يكون CIO في مؤسسة الرعاية الصحية منشغلة بشكل خاص بجانب الخصوصية من الذكاء الاصطناعي. هل تقوم المنظمة بما يكفي لحماية بيانات المريض الحساسة؟ من ناحية أخرى ، من ناحية أخرى ، من ناحية أخرى ، فإن CIO لشركة التصنيع هل يتم تطبيق الذكاء الاصطناعى بطريقة تضمن أن تتدحرج خطوط الإنتاج ويتم إبقاء العمال البشريين من الأذى؟

بناء إطار

يمكن أن تشعر أخلاقيات الذكاء الاصطناعى بالألعاب الساحقة ، لكن مديري المعلومات لا تحتاج إلى بناء إطار عمل للمؤسسة من نقطة الصفر. يمكنهم الانسحاب من العديد من الأطر القائمة وأخذ العظة من اللوائح التي تنطبق على الولايات القضائية التي تعمل فيها.

يقول نيمو: “الشركات تبني أطر عمل نفسها”. “إنهم يختارون ويختارون ويبحثون عن الأفضل.”

متعلق ب:5 الوجبات الجاهزة لخريطة الطريق من الذكاء الاصطناعي لمراكمة مديريشي الأمن

يمكن أن تشكل الأخلاق الأساس لنهج المؤسسة الشامل لحوكمة الذكاء الاصطناعى بشكل عام.

يقول جيلبرت: “إذا كنت ترغب في الحصول على أمان جيد في الشركة وفي سياساتك … فأنت تكتب سياساتك مع وضع الأمن في الاعتبار وأنت تعيشها”. “لقد أصبحت أخلاقيات الذكاء الاصطناعي بنفس الطريقة بالضبط ؛ إنها عمود أساسي ومن ثم هذا العمود الأساسي يصوغ الذكاء الاصطناعي الخاص بك.”

مثل سياسات الأمن ، لا يمكن إنشاء سياسات الذكاء الاصطناعي مع نهج “تعيينه واتركه”. يجب مراجعتها وتحديثها لمواكبة التطور السريع للتكنولوجيا.

يجب أن تضمن CIOs عمليات التدقيق الجارية. من أين تأتي البيانات المستخدمة لتدريب النماذج؟ هل النتائج غير متحيزة؟ كيف وصل نموذج الذكاء الاصطناعي إلى قراراته؟ هل تتسبب تلك القرارات في الأذى؟ هل تعمل المؤسسة على خصوصية البيانات لأنها تستخدم الذكاء الاصطناعي؟ هل يضمن القادة الذين يضمنون أن يكون الجميع ، بما في ذلك أنفسهم ، مسؤولاً عن إطار الذكاء الاصطناعي الأخلاقي للمنظمة؟

عندما تصبح الذكاء الاصطناعى أكثر دمجًا في المؤسسات ، ستجد مديري تقنية المعلومات نفسها بحاجة إلى معالجة مشكلات جديدة. يشير Nimmo إلى إنسانية الذكاء الاصطناعي باعتبارها اعتبارًا ناشئًا. تتبنى المؤسسات بشكل متزايد chatbots والوكلاء الظاهريين وتعاملهم مثل الموظفين.

“[What if] لاحظت أن أحد زملائك الافتراضيين هو أن يخطئ في شيء خاطئ باستمرار؟ ” يسأل Nimmo. هل هذه مشكلة في الموارد البشرية؟ هل هذه قضية تكنولوجيا المعلومات؟ كيف تتعامل مع ذلك؟ ”

متعلق ب:يتحدث Rad Security CTO إيجاد عمق مع AI مقابل مطاردة غبار البكسي

ستحتاج CIOS إلى تحديث أطر عمل المؤسسة لمعالجة هذه الأنواع من الأسئلة.

تأمين المشاركة في المؤسسة

تبدأ المبادرة على مستوى المؤسسة-سواء كانت مرتبطة بالأمان أو الثقافة أو الذكاء الاصطناعي أو الثلاثة-مع C-suite.

يمكن أن يكون CIO هو الذي يقود تعريف وتطبيق الذكاء الاصطناعي الأخلاقي ، ولكن يجب أن يكون كل شخص على الطاولة جزءًا من المحادثة. يجب أن تكون قيادة المؤسسة على نفس الصفحة حول موازنة الضغوط التجارية لتقديم النتائج وضد مخاطر الاستخدام غير الأخلاقي للمنظمة العفوية.

يقول نيمو: “نتحمل جميعًا مسؤولية التأكد من أننا نفكر في هذه الأشياء الكبيرة”. “نحن نتقاضى رواتبهم للتفكير في هذه التحديات الكبيرة.”

يحتاج القادة إلى المشاركة في إدارة أصحاب المصلحة لضمان أن الجميع ، من كبار القادة إلى التعيينات الجديدة ، يفهمون كيفية استخدام الذكاء الاصطناعى في إطار العمل المتفق عليه. في الواقع ، هذه هي المجموعة الأصغر سناً التي يعتقد Nimmo أنها مهمة بشكل خاص لإدراجها في محادثة أخلاقيات الذكاء الاصطناعي.

وتقول: “عندما نتعامل مع تقنيات جديدة لتغيير العالم ، مثل الذكاء الاصطناعي ، جلب الأصوات الأصغر سناً”. “استمع إلى ما يجب أن يقولوه لأنهم سيكونون هم الذين سيحصلون على الفوائد ، أو لا”.





Source link

زر الذهاب إلى الأعلى