الأمن السيبراني

حوكمة الذكاء الاصطناعي والخصوصية: الموازنة بين الابتكار والأمن


تميزت شركة AT&T Cybersecurity بلوحة مزج إلكترونية ديناميكية مع Akamai وPalo Alto Networks وSentinelOne وCloud Security Alliance. ناقشنا بعض المواضيع الاستفزازية حول الذكاء الاصطناعي (AI) والتعلم الآلي (ML) بما في ذلك الذكاء الاصطناعي المسؤول وتأمين الذكاء الاصطناعي. كانت هناك بعض الأمثلة الجيدة لأفضل الممارسات المشتركة في عالم الذكاء الاصطناعي الناشئ مثل تنفيذ بنية الثقة المعدومة وإخفاء هوية البيانات الحساسة. شكرا جزيلا لأعضاء اللجنة لتبادل وجهات نظرهم.

قبل التعمق في المواضيع الساخنة حول حوكمة الذكاء الاصطناعي وحماية خصوصيتنا، دعنا نحدد ML وGenAI لتوفير بعض المعلومات الأساسية عن ماهيتهما وما يمكنهما فعله بالإضافة إلى بعض أمثلة حالات الاستخدام الواقعية للحصول على سياق أفضل حول تأثير الذكاء الاصطناعي وآثاره سيكون لها على مستقبلنا.

جيناي و مل

التعلم الآلي (ML) هو مجموعة فرعية من الذكاء الاصطناعي الذي يعتمد على تطوير الخوارزميات لاتخاذ القرارات أو التنبؤات بناءً على البيانات دون برمجتها بشكل صريح. ويستخدم الخوارزميات للتعلم والتحسين تلقائيًا من التجربة.

GenAI هي مجموعة فرعية من ML تركز على إنشاء عينات بيانات جديدة تشبه بيانات العالم الحقيقي. يمكن لـ GenAI إنتاج محتوى جديد وأصلي من خلال التعلم العميق، وهي طريقة تتم من خلالها معالجة البيانات مثل الدماغ البشري وتكون مستقلة عن التفاعل البشري المباشر.

يمكن لـ GenAI إنتاج محتوى جديد يعتمد على النص والصور والعرض ثلاثي الأبعاد والفيديو والصوت والموسيقى والرمز، ويمكنه بشكل متزايد باستخدام إمكانات الوسائط المتعددة تفسير مطالبات البيانات المختلفة لإنشاء أنواع مختلفة من البيانات لوصف الصورة وإنشاء صور واقعية وإنشاء رسوم توضيحية نابضة بالحياة. التنبؤ بالمحتوى ذي الصلة بالسياق، والإجابة على الأسئلة بطريقة إعلامية، وغير ذلك الكثير.

تتضمن حالات الاستخدام في العالم الحقيقي تلخيص التقارير، وإنشاء الموسيقى بأسلوب معين، وتطوير التعليمات البرمجية وتحسينها بشكل أسرع، وإنشاء محتوى تسويقي بلغات مختلفة، واكتشاف الاحتيال ومنعه، وتحسين تفاعلات المرضى، واكتشاف العيوب وقضايا الجودة، والتنبؤ بالتحديات السيبرانية والاستجابة لها. الهجمات بقدرات الأتمتة بسرعة الآلة.

الذكاء الاصطناعي المسؤول

بالنظر إلى القدرة على فعل الخير باستخدام الذكاء الاصطناعي، كيف نوازن بين المخاطر والمكافأة لصالح المجتمع؟ ما هي روح المنظمة وفلسفتها حول حوكمة الذكاء الاصطناعي؟ ما هي فلسفة المنظمة حول الموثوقية والشفافية والمساءلة والسلامة والأمن والخصوصية والعدالة مع الذكاء الاصطناعي، والتي تتمحور حول الإنسان؟

من المهم بناء كل من هذه الركائز في ابتكار الذكاء الاصطناعي واتخاذ القرارات التجارية في المؤسسة. يعد تحقيق التوازن بين مخاطر ومكافأة ابتكار الذكاء الاصطناعي/التعلم الآلي في النظام البيئي للمؤسسة دون المساس بالمسؤولية الاجتماعية والإضرار بالعلامة التجارية للشركة وسمعتها أمرًا بالغ الأهمية.

في قلب الذكاء الاصطناعي، حيث البيانات الشخصية هي الحمض النووي لهويتنا في عالم رقمي شديد الترابط، تعد الخصوصية أولوية قصوى.

مخاوف الخصوصية مع الذكاء الاصطناعي

في استبيان خصوصية المستهلك لعام 2023 من Cisco، وهي دراسة أجريت على أكثر من 2600 مستهلك في 12 دولة حول العالم، تشير إلى أن وعي المستهلك بحقوق خصوصية البيانات مستمر في النمو مع ممارسة الأجيال الشابة (الفئات العمرية أقل من 45 عامًا) لحقوق الوصول إلى البيانات وتغيير مقدمي الخدمة فيما يتعلق بممارسات وسياسات الخصوصية الخاصة بهم. يدعم المستهلكون استخدام الذكاء الاصطناعي ولكنهم يشعرون بالقلق أيضًا.

مع أولئك الذين يدعمون الذكاء الاصطناعي للاستخدام:

  • يعتقد 48% أن الذكاء الاصطناعي يمكن أن يكون مفيدًا في تحسين حياتهم
  • 54% من المشاركين على استعداد لمشاركة البيانات الشخصية مجهولة المصدر لتحسين منتجات الذكاء الاصطناعي

الذكاء الاصطناعي هو مجال يحتاج إلى القيام ببعض العمل لكسب الثقة

  • يعتقد 60% من المشاركين أن استخدام الذكاء الاصطناعي من قبل المؤسسات قد أدى بالفعل إلى تآكل الثقة فيها
  • أبلغ 62% عن مخاوفهم بشأن الاستخدام التجاري للذكاء الاصطناعي
  • أشار 72% من المشاركين إلى أن فحص المنتجات والحلول للتأكد من عدم تحيزها سيجعلهم “أكثر راحة إلى حد ما” أو “أكثر” مع الذكاء الاصطناعي

من بين 12% الذين أشاروا إلى أنهم مستخدمون منتظمون لـ GenAI

  • 63% كانوا يدركون قيمة كبيرة من GenAI
  • قام أكثر من 30% من المستخدمين بإدخال الأسماء والعناوين والمعلومات الصحية
  • قدم 25% إلى 28% من المستخدمين أرقامًا مالية ودينية/عرقية وأرقام حسابات أو أرقام هوية

تمثل هذه الفئات من البيانات مخاوف وتحديات بخصوصية البيانات إذا تم عرضها للجمهور. أشار المشاركون في الاستطلاع إلى مخاوفهم بشأن أمان وخصوصية بياناتهم وموثوقية المعلومات المشتركة أو جدارتها بالثقة.

  • قال 88% من المستخدمين إنهم “قلقون إلى حد ما” أو “قلقون للغاية” إذا تمت مشاركة بياناتهم
  • أعرب 86% عن قلقهم من أن المعلومات التي يحصلون عليها من جنرال الذكاء الاصطناعي قد تكون خاطئة ويمكن أن تضر بالبشرية.

الشراكات الخاصة والعامة في مشهد الذكاء الاصطناعي المتطور

في حين أن لكل شخص دور يؤديه في حماية البيانات الشخصية، فإن 50% من آراء المستهلكين بشأن قيادة الخصوصية يعتقدون أن الحكومة الوطنية أو المحلية يجب أن تتحمل المسؤولية الأساسية. ومن بين المشاركين في الاستطلاع، يعتقد 21% أن المؤسسات بما في ذلك الشركات الخاصة يجب أن تتحمل المسؤولية الأساسية عن حماية البيانات الشخصية بينما قال 19% أن الأفراد أنفسهم.

تجري العديد من هذه المناقشات حول أخلاقيات الذكاء الاصطناعي، وحماية الذكاء الاصطناعي، وحماية الخصوصية على مستوى الدولة والمستوى الوطني والعالمي، من البيت الأبيض إلى البرلمان الأوروبي. يلعب مبتكرو الذكاء الاصطناعي والعلماء والمصممون والمطورون والمهندسون وخبراء الأمن الذين يقومون بالتصميم والتطوير والنشر والتشغيل والصيانة في عالم الذكاء الاصطناعي/التعلم الآلي والأمن السيبراني المزدهر دورًا حاسمًا في المجتمع لأن ما نفعله مهم.

سيحتاج قادة الأمن السيبراني إلى أن يكونوا في الطليعة لتبني ممارسات تصميم الأمان التي تتمحور حول الإنسان وتطوير طرق جديدة لتحسين تأمين تطبيقات الذكاء الاصطناعي/التعلم الآلي وماجستير إدارة الأعمال لضمان تنفيذ الضوابط الفنية المناسبة وحواجز الحماية المحسنة ووضعها في مكانها الصحيح. سيحتاج متخصصو الخصوصية إلى الاستمرار في تثقيف الأفراد حول خصوصيتهم وحقوقهم.

ستظل الشراكات التعاونية الخاصة والعامة عبر الصناعة والوكالات الحكومية والأوساط الأكاديمية والباحثين فعالة في تعزيز اعتماد إطار حوكمة يركز على الحفاظ على الخصوصية، وتنظيم حماية الخصوصية، وتأمين الذكاء الاصطناعي من إساءة الاستخدام وأنشطة الجرائم الإلكترونية، وتخفيف استخدام الذكاء الاصطناعي كوسيلة سلاح جيوسياسي.

حوكمة الذكاء الاصطناعي

يعد المعيار الذهبي لنموذج وإطار حوكمة الذكاء الاصطناعي أمرًا ضروريًا لسلامة وموثوقية اعتماد الذكاء الاصطناعي. نموذج حوكمة يعطي الأولوية للموثوقية والشفافية والمساءلة والسلامة والأمن والخصوصية والعدالة في الذكاء الاصطناعي. واحدة من شأنها أن تساعد في تنمية الثقة في تقنيات الذكاء الاصطناعي وتعزيز ابتكارات الذكاء الاصطناعي مع تخفيف المخاطر. إطار عمل للذكاء الاصطناعي من شأنه أن يرشد المؤسسات بشأن اعتبارات المخاطر.

  • كيف يمكن مراقبة وإدارة المخاطر باستخدام الذكاء الاصطناعي؟
  • ما هي القدرة على قياس المخاطر بشكل مناسب؟
  • ما ينبغي أن يكون تحمل المخاطر؟
  • ما هي أولوية المخاطر؟
  • ما هو المطلوب للتحقق؟
  • وكيف يتم التحقق منها والتحقق من صحتها؟
  • ما هو تقييم التأثير على العوامل البشرية، الفنية والاجتماعية والثقافية والاقتصادية والقانونية والبيئية والأخلاقية؟

هناك بعض الأطر المشتركة الناشئة مثل NIST AI Risk Management Framework. وهو يوضح الخصائص التالية لأنظمة الذكاء الاصطناعي الجديرة بالثقة: صالحة وموثوقة وآمنة ومرنة وخاضعة للمساءلة وشفافة وقابلة للتفسير وقابلة للتفسير ومعززة للخصوصية وعادلة مع إدارة التحيز الضار.

لدى AI RMF أربع وظائف أساسية للتحكم في مخاطر الذكاء الاصطناعي وإدارتها: الحكم والخريطة والقياس والإدارة. كجزء من عملية منتظمة ضمن دورة حياة الذكاء الاصطناعي، فإن الذكاء الاصطناعي المسؤول الذي يتم إجراؤه عن طريق الاختبار والتقييم والتحقق والتحقق من الصحة يسمح بالمعالجة في منتصف المسار وإدارة المخاطر اللاحقة.

أعلنت وزارة التجارة الأمريكية مؤخرًا أنها ستنشئ، من خلال المعهد الوطني للمعايير والتكنولوجيا (NIST)، المعهد الأمريكي لسلامة الذكاء الاصطناعي (USAISI) لقيادة جهود الحكومة الأمريكية في مجال سلامة وثقة الذكاء الاصطناعي. سيعتمد معهد سلامة الذكاء الاصطناعي على إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع لـ NIST لإنشاء معيار لتقييم ومراجعة نماذج الذكاء الاصطناعي.

سيعمل اتحاد معهد سلامة الذكاء الاصطناعي الأمريكي على تمكين التعاون الوثيق بين الوكالات الحكومية والصناعة والمنظمات والمجتمعات المتأثرة للمساعدة في ضمان أن تكون أنظمة الذكاء الاصطناعي آمنة وجديرة بالثقة.

الحفاظ على الخصوصية وفتح الإمكانات الكاملة للذكاء الاصطناعي

لا يقتصر تأثير الذكاء الاصطناعي على أعمالنا ومصالحنا الوطنية فحسب، بل يمكن أن يكون له أيضًا تأثير دائم على مصالحنا الإنسانية ووجودنا. الحفاظ على خصوصية تطبيقات الذكاء الاصطناعي:

  • التطبيقات الآمنة التي تدعم الذكاء الاصطناعي وLLM
  • تأمين البيانات الحساسة
  • إخفاء هوية مجموعات البيانات
  • تصميم وتطوير الثقة والسلامة
  • تحقيق التوازن بين المزايا التنافسية التقنية والتجارية للذكاء الاصطناعي والمخاطر دون المساس بالنزاهة البشرية والمسؤولية الاجتماعية

سيطلق العنان للإمكانات الكاملة للذكاء الاصطناعي مع الحفاظ على الامتثال لقوانين ولوائح الخصوصية الناشئة. إن إطار إدارة مخاطر الذكاء الاصطناعي مثل NIST الذي يتناول العدالة ومخاوف الذكاء الاصطناعي مع التحيز والمساواة إلى جانب المبادئ التي تركز على الإنسان في جوهرها سوف يلعب دورًا حاسمًا في بناء الثقة في الذكاء الاصطناعي داخل المجتمع.

سيكون لمخاطر الذكاء الاصطناعي وفوائده على أمننا وخصوصيتنا وسلامتنا وحياتنا تأثير عميق على التطور البشري. ربما يكون تأثير الذكاء الاصطناعي هو التطور الأكثر أهمية للبشرية. هذه مجرد بداية للعديد من المحادثات المثيرة والمثيرة للاهتمام حول الذكاء الاصطناعي. هناك شيء واحد مؤكد، وهو أن الذكاء الاصطناعي لن يختفي. سيظل الذكاء الاصطناعي موضوعًا استفزازيًا لعقود قادمة.

لتعلم المزيد

استكشف موقعنا خدمات استشارات الأمن السيبراني للمساعدة.



Source link

زر الذهاب إلى الأعلى