الأمن السيبراني

الجيد والسيئ والمخيف


يعمل الذكاء الاصطناعي والتعلم الآلي (ML) على تحسين العمليات من خلال تقديم توصيات لتحسين الإنتاجية وتقليل الدورات وزيادة الكفاءة. يعمل الذكاء الاصطناعي أيضًا على تحسين رأس المال البشري من خلال أداء المهام الدنيوية والمتكررة على مدار الساعة طوال أيام الأسبوع دون الحاجة إلى الراحة وتقليل الأخطاء البشرية.

هناك العديد من الفوائد فيما يتعلق بكيفية استفادة الذكاء الاصطناعي للمجتمع. وبقدر ما يستطيع الذكاء الاصطناعي دفع التقدم البشري إلى الأمام، فإنه يمكن أن يكون له عواقب على حسابنا إذا لم يتم التوجيه المناسب. نحن بحاجة إلى فهم المخاطر والتحديات التي تأتي مع الذكاء الاصطناعي. إن تنمية معرفتك في العصر الجديد للذكاء الاصطناعي سيساعدك أنت ومؤسستك على التطور.

الذكاء الاصطناعي يمكن أن يكون ساحة معركة بين الخير والشر. هناك القدرة على فعل الخير والقدرة على فعل الشر. فيما يلي بعض الأمثلة على الأشياء الجيدة والسيئة والمخيفة في الذكاء الاصطناعي.

جيد

  • الأمن السيبراني – اكتشاف الهجمات السيبرانية والرد عليها باستخدام إمكانات التشغيل الآلي بسرعة الجهاز والتنبؤ بالحالات الشاذة السلوكية والدفاع ضد التهديدات السيبرانية قبل حدوث هجوم فعلي
  • الخدمات المصرفية والمالية – اكتشاف الاحتيال ومنعه، وإدارة المخاطر، وتمكين الخدمات الشخصية، وأتمتة معالجة القرارات المالية
  • الرعاية الصحية – تحسين تفاعلات المرضى، وتطوير خطط علاجية مخصصة، والحصول على تجربة أفضل للمريض، وتحسين دقة بيانات المريض، وتقليل سجلات المرضى التي تم حفظها بشكل غير صحيح
  • التصنيع – توقع الصيانة، واكتشاف العيوب وقضايا الجودة، وتعزيز الإنتاجية، وإنشاء تصميمات المنتجات والمكونات، وتحسين المخزون والتنبؤ بالطلب
  • البيع بالتجزئة – الدفع الذاتي الآمن الذي يساعد على منع الخسائر، وتحسين عمليات البيع بالتجزئة وسلسلة التوريد، وتعزيز تجارب العملاء
  • المدن الذكية وإنترنت الأشياء – إدارة حركة مرور المركبات ذاتية القيادة والقيادة الذاتية، وإدارة استهلاك الطاقة، وتحسين استخدام المياه، وتبسيط إدارة النفايات من خلال بيانات الاستشعار في الوقت الحقيقي
  • الاتصالات – توقع ازدحام الشبكة وأعد توجيه حركة المرور بشكل استباقي لتجنب انقطاع الخدمة

سيء

  • مجرمو الإنترنت – الاستفادة من الأدوات المدعومة بالذكاء الاصطناعي والهندسة الاجتماعية لسرقة الهويات، وإنشاء هجمات برامج الفدية، وتنفيذ هجمات مستهدفة على مستوى الدولة الوطنية، وتدمير البنية التحتية الحيوية الوطنية
  • موارد الحوسبة – تتطلب مصدر طاقة ثقيل، وطاقة التصميم الحراري (TDP)، ووحدة معالجة الرسومات (GPU)، وذاكرة الوصول العشوائي (RAM)
  • التأثير البيئي – تأثير موارد الحوسبة المكثفة على البصمة الكربونية والبيئة
  • تكلفة الطاقة – إن الارتفاع في استخدام الطاقة الكهربائية والمياه للتبريد وزيادة التكاليف الحسابية يترجم إلى انبعاثات الكربون
  • التحيز والتمييز – نشر التحيزات نتيجة لبيانات التدريب السيئة، والبيانات غير المكتملة، ونموذج الذكاء الاصطناعي سيئ التدريب
  • عدم المساواة – توسيع الفجوة بين الأغنياء والفقراء وزيادة عدم المساواة في المجتمع
  • الخصوصية – فقدان خصوصية البيانات من أنظمة الذكاء الاصطناعي غير الآمنة، ومصادر البيانات غير المشفرة، وإساءة الاستخدام
  • فقدان المهارات – تقليل مهارات التفكير النقدي البشري للكشف عن المشكلات الجذرية، وحل المشكلات المعقدة، والقدرة على الكتابة على مستوى الكلية والمهنية

مخيف

  • فقدان الوظائف ونزوحها – استبدال البشر بالروبوتات في كل قطاع لأداء وظائف مهنية عالية المهارة
  • الاعتماد المفرط على الذكاء الاصطناعي – الاعتماد بشكل كبير على الذكاء الاصطناعي لاتخاذ قرارات مهمة مثل اختيار الإجراءات الطبية، أو اتخاذ قرارات الحياة أو الموت، أو اختيار المرشحين السياسيين.
  • هيمنة الذكاء الاصطناعي – القدرة المحتملة للذكاء الاصطناعي على تجاوز الذكاء البشري والسيطرة
  • احتكار التكنولوجيا – يمكن لعدد مختار من شركات التكنولوجيا احتكار الاقتصاد ويكون لها تأثير غير مبرر على البناء الاجتماعي لحياتنا اليومية، بدءًا من أنماط الشراء وحتى اتخاذ القرارات اليومية.
  • Deepfakes – قم بإنشاء صور مزيفة بعمق باستخدام مقاطع فيديو وصور تم التلاعب بها للتأثير على المناقشات على وسائل التواصل الاجتماعي والمنتديات عبر الإنترنت
  • الدعاية والمعلومات المضللة – نشر الحملات البشرية والروبوتية لنشر المعلومات المضللة والدعاية للتلاعب بالرأي العام
  • الرقابة – تشكل روبوتات الدردشة المدعومة بالذكاء الاصطناعي التي تقيد الوصول إلى محتوى الوسائط وتزيل الخطاب غير المرغوب فيه عبر الإنترنت خطرًا على حرية الإنترنت والمجتمع الديمقراطي

في مثال التزييف العميق ونشر المعلومات المضللة، كيف يمكن لنظام الذكاء الاصطناعي التحقق من صحة الفيديو أو الصورة الخاصة بالفرد؟ وكيف يتم التحقق من مصدر وصحة المعلومات؟ كيف يمكن فصل الحقيقة عن الخيال؟ كيف يمكننا التخفيف من الشكوك عندما تكون المعلومات هي الحقيقة في الواقع؟

المخاوف الموجودة في الدراسات الاستقصائية البحثية

إن الجانب السيئ والمخيف للذكاء الاصطناعي ليس بعيدًا عن الواقع. تثير هذه المخاوف أكثر من مجرد الدهشة لدى المستهلكين العاديين. لقد ضربوا بالقرب من المنزل. في استبيان خصوصية المستهلك لعام 2023 من Cisco,

  • أعرب 75% من المشاركين عن قلقهم من احتمال فقدان وظائفهم أو استبدالهم بجيل الذكاء الاصطناعي
  • أشار 72% من المشاركين إلى أن فحص المنتجات والحلول للتأكد من عدم تحيزها سيجعلهم مرتاحين “إلى حد ما” أو “أكثر بكثير” مع الذكاء الاصطناعي
  • أعرب 86% عن قلقهم من أن المعلومات التي يحصلون عليها من جنرال الذكاء الاصطناعي قد تكون خاطئة ويمكن أن تضر بالبشرية.

وفقا ل استطلاع بيو للأبحاث لعام 2023,

  • كان 52% من الأمريكيين قلقين بشأن الاستخدام المتزايد للذكاء الاصطناعي أكثر من حماسهم. أولئك الذين كانوا على دراية بالذكاء الاصطناعي أصبحوا أكثر قلقًا بشأن دور الذكاء الاصطناعي حيث ارتفعوا 16 نقطة إلى 47% بينما أولئك الذين سمعوا القليل عن الذكاء الاصطناعي زادوا 19 نقطة إلى 58% عن العام السابق
  • عندما يتعلق الأمر بالذكاء الاصطناعي لتحقيق الخير، مثل قيام الأطباء بتقديم الرعاية للمرضى أو عثور الأشخاص على المنتجات والخدمات التي يهتمون بها عبر الإنترنت، اعتبر الأمريكيون أن الذكاء الاصطناعي مفيد أكثر من كونه ضارًا – بنسبة 46% و49% على التوالي. تقول التركيبة السكانية ذات التعليم العالي والدخل إن الذكاء الاصطناعي له تأثير إيجابي
  • على الرغم من المزايا والفوائد التي تأتي مع الذكاء الاصطناعي، فقد برز فقدان خصوصية البيانات باعتباره مصدر قلق كبير عبر التركيبة السكانية. قال 53% من الأمريكيين أن الذكاء الاصطناعي يضر بالناس أكثر من مساعدتهم في الحفاظ على خصوصية معلوماتهم الشخصية. 59% من خريجي الجامعات قالوا نفس الشيء.

التنقل عبر حالات عدم اليقين

في حين أن هناك حجج تتنبأ بيوم القيامة، إلا أن بعض خبراء الذكاء الاصطناعي يجادلون بأن الأمر ليس مجرد عذاب وكآبة.

نحن بعيدون كل البعد عن الاعتماد المفرط على الذكاء الاصطناعي أو هيمنة الذكاء الاصطناعي. نحن بعيدون كل البعد عن أن يتجاوز الذكاء الآلي الذكاء البشري، ناهيك عن تحقيقه. منظور آخر حول هذا هو كيف يمكن للذكاء الآلي أن يعزز القدرات البشرية كما نرى في بحث جوجل؟ علاوة على ذلك، كيف يمكن للبشر والآلات التواصل والعمل معًا بشكل أكثر ذكاءً من العمل بمفردهم؟

عندما ننظر إلى تقدم التكنولوجيا بدءًا من الحوسبة الشخصية على الكمبيوتر الشخصي وحتى إحداث ثورة في طريقة تواصلنا واتصالنا عبر الإنترنت، هناك الكثير مما يمكننا استخلاصه والتعلم منه. لقد غير الإنترنت الطريقة التي نعمل بها وأنتج وظائف جديدة لم تكن موجودة من قبل. وهم يتراوحون من مطوري الويب إلى علماء البيانات، ومطوري التطبيقات، ومهندسي البرمجيات، وأخصائي تحسين محركات البحث، والمسوق الرقمي، ومدير الوسائط الاجتماعية، وغيرهم الكثير مع نمو شبكة 5G اللاسلكية وإنترنت الأشياء (IoT).

أدى كل من هذه الأدوار إلى زيادة الإنتاجية وحل المشكلات. يمكننا أن نتوقع نفس الشيء مع استمرار سوق الذكاء الاصطناعي التوليدي في التطور والنضج – تعزيز الإنتاجية، وحل المشكلات الجديدة بشكل أكثر كفاءة، ورؤية موجة جديدة من خلق فرص العمل.

  • تطوير العقلية – لا يزال GenAI في أيامه الأولى، ونحن حقًا لا نعرف ما يكفي للتنبؤ بكل الآثار السلبية على المجتمع حتى نكون متشائمين. يفتح العصر الجديد للذكاء الاصطناعي الأبواب أمام إمكانيات لا حصر لها لاستكشاف الإبداع والابتكارات الجديدة. وجهة النظر المتفائلة هي التأثير الإيجابي الذي يمكن أن يحدثه الذكاء الاصطناعي في التخفيف من التهديدات الوجودية مثل تغير المناخ، والذكاء الاصطناعي نفسه، والمزيد.
  • التدريب والتعليم – الذكاء الاصطناعي لن يختفي. الأمر الأكثر رعبًا من الذكاء الاصطناعي نفسه، هو الخوف الذي يعيق نموك الشخصي. التعليم هو المفتاح. حدد المهارات والقدرات الجديدة التي ستحتاجها وظيفتك الحالية والجيل القادم من القوى العاملة. تعلم كيفية استخدام أدوات الذكاء الاصطناعي. هناك المئات من أدوات الذكاء الاصطناعي المتاحة في كل صناعة.
  • مجازفة إدارية – تبدأ إدارة المخاطر الكامنة في الذكاء الاصطناعي بالوعي بمخاطر وتحديات الذكاء الاصطناعي. مجرمو الإنترنت لن يختفيوا أيضًا. على الرغم من أنه لا يُمنع كل مجرم من خلق “المخيف” باستخدام الذكاء الاصطناعي، إلا أن مكافحة المجرمين الذين يستخدمون الذكاء الاصطناعي الجيل التالي الحديث من SOC المدعوم بالذكاء الاصطناعي ضروري لتحقيق المرونة.
  • تأمين الذكاء الاصطناعي – تضمين الأمان منذ البداية وطوال كل مرحلة من مراحل المشروع دورة حياة تطوير أنظمة الذكاء الاصطناعي لا يعد ذلك من أفضل الممارسات فحسب، بل يخفف أيضًا من استخدام الخصوم للذكاء الاصطناعي لأغراض سيئة
  • تنظيم الخصوصية – تحتاج الولايات المتحدة إلى قانون وطني لحماية الخصوصية والبيانات. على عكس أماكن مثل الاتحاد الأوروبي التي لديها قانون حماية البيانات العامة، ليس لدينا مثل هذا القانون اليوم. وفي الواقع، فإن الاتحاد الأوروبي في طريقه ليصبح أول هيئة عالمية تنظم الذكاء الاصطناعي. وبدون اتباع نهج شامل لقوانين الخصوصية وحماية البيانات مع تنظيم قانوني واضح، تتخلف الولايات المتحدة في قدرتها على حماية أمن مواطنيها وخصوصيتهم.
  • تطوير الثقة – أن نكون أكثر شفافية وشرح كيفية عمل أنظمة وأدوات الذكاء الاصطناعي، وضمان المشاركة البشرية، وإنشاء برنامج إدارة أخلاقيات الذكاء الاصطناعي من شأنه أن يجعل المزيد من الأفراد مرتاحين مع الذكاء الاصطناعي.

هذه مجرد بعض النصائح للمساعدة في توجيه الأفراد والمنظمات – الخاصة والعامة على حد سواء – للتغلب على الشكوك المتعلقة بالذكاء الاصطناعي – الجيد والسيئ والمخيف. وفي نهاية المطاف، فإن مصير البشرية متروك لكل منا، والمنظمات، والمجتمع ككل. دعونا نأمل أن نتخذ الخيارات الصحيحة. مستقبلنا يعتمد على ذلك.

لتعلم المزيد · استكشف خدماتنا الاستشارية في مجال الأمن السيبراني لمساعدتك.



Source link

زر الذهاب إلى الأعلى