الأمن السيبراني

هل الإعلام الاصطناعي حبة سامة للحقيقة؟


ربما لم تسمع من قبل عن “الوسائط الاصطناعية”، ولكن من المرجح أنك قد جربتها.

الوسائط الاصطناعية هي الوسائط (مثل البريد الصوتي أو مقاطع الفيديو أو الصوت) التي تم إنتاجها أو تعديلها بواسطة الذكاء الاصطناعي. تعد عمليات التزييف العميق مثالاً شائعًا للوسائط الاصطناعية وكيفية نشرها. يمكن إنشاء مقاطع فيديو وصور ومقاطع صوتية تم إنشاؤها بواسطة الذكاء الاصطناعي لتمثيل أشخاص حقيقيين.

على سبيل المثال، في شهر يناير/كانون الثاني الماضي، حققت ولاية نيو هامبشاير في مكالمة آلية مزيفة باستخدام صوت الرئيس بايدن لثني الناس عن التصويت خلال الانتخابات التمهيدية. وهذا مجرد مثال واحد من بين أمثلة عديدة.

تزايد المخاوف

بالنسبة للمراقب العادي، يمكن أن تكون تقنية التزييف العميق مقنعة للغاية. ويمكن استخدام هذه التقنية في البيئات الشخصية والتجارية والمجتمعية. على سبيل المثال:

  • يمكن استخدام تقنية Deepfakes لبدء مكالمة هاتفية من طفل أو حفيد شخص ما في حالة من الضيق ويطلب المال.

  • يمكن استخدام هذه التكنولوجيا لانتحال شخصية رؤساء تنفيذيين أو غيرهم من قادة الشركات، وإصدار تعليمات لشخص يعمل في مجال التمويل بتحويل الأموال أو مشاركة معلومات حساسة. وقد دفع عامل مالي في هونج كونج مبلغًا من المال 25 مليون دولار بتوجيه من مقلد محتال لمديره المالي.

  • في السياقات المجتمعية الواسعة، يمكن استخدام التزييف العميق للتلاعب السياسي أو التدخل في الانتخابات، من خلال تقديم رسائل صوتية أو مرئية مقنعة للغاية من المرشحين يقولون أشياء لم يقولوها أبدًا.

متعلق ب:التعامل مع التزييف العميق

التكنولوجيا ليست مثالية بعد، لكنها تتحسن. نحن في أيام الذروة مع الذكاء الاصطناعي. على سبيل المثال، مايكروسوفت فاسا-1 إن هذا المشروع مخيف للغاية من حيث إمكاناته. إن VASA تعني “مُحرِّك المهارات البصرية والعاطفية”. قم بتزويد VASA بصورة رأس واحدة مع عينة صوتية وسيتمكن النظام من إنشاء فيديو واقعي، مع تعبيرات الوجه المرتبطة وحركات الشفاه التي تبدو حقيقية بشكل مخيف. VASA هو مشروع مختبري (في الوقت الحالي) ولكن كم من الوقت سيستغرق قبل أن يصبح ــ أو يصبح حقيقة واقعة ــ مشروعًا حقيقيًا. تكنولوجيا قوية بشكل مماثل — هل يتم تسريب هذه المعلومات واستغلالها لأغراض سيئة؟ هل يمكن أن تصبح هذه التقنيات في الواقع “حبة سامة” ضد الحقيقة؟

في حين أن الإمكانات قد تكون مخيفة، إلا أنها قد تكون مفيدة أيضًا.

القوة الإيجابية للإعلام الاصطناعي

هناك تطبيقات محتملة إيجابية للوسائط الاصطناعية. على سبيل المثال:

  • يمكن للمنظمات استخدام الوسائط الاصطناعية لتوسيع نطاق وصول أعضاء فريق التدريب والمبيعات لديها، وإنشاء عروض توضيحية للمنتجات ومقاطع فيديو توضيحية وندوات عبر الإنترنت وغيرها من المخرجات في ثوانٍ.

  • يمكن لروبوتات الدردشة الذكية والمساعدين الافتراضيين استخدام أصوات أعضاء الموظفين المعترف بهم لتوصيل الرسائل.

  • يمكن استخدام الوسائط الاصطناعية لتوصيل رسائل الشركة عبر الحدود الجغرافية والحواجز اللغوية من خلال ترجمة عرض تقديمي يقدمه الرئيس التنفيذي إلى لغات متعددة.

متعلق ب:كيفية حماية مؤسستك من أضرار Deepfake

وما دامت هذه الجهود تتسم بالشفافية، فإن قوة الوسائط الاصطناعية قادرة على توسيع نطاق الموارد المحدودة بطرق إبداعية متزايدة. وفي الوقت نفسه، هناك خطوات تستطيع المنظمات اتخاذها لحماية أعمالها من الإساءة الخبيثة للتقنيات مثل الوسائط الاصطناعية.

مكافحة مخاطر الوسائط المصطنعة

إن الفجوة بين التقدم التكنولوجي السريع والقدرة البشرية على التكيف تخلق أرضًا خصبة للاستغلال. وهذه الفجوة هي المكان الذي يعيش فيه مجرمو الإنترنت، حيث يتبنون باستمرار أساليب جديدة لإضعاف دفاعات المنظمة. ولكن على الرغم من جهودهم، لا يزال هناك أمل. يمكن للمنظمات التخفيف من المخاطر الناجمة عن تقنيات مثل الوسائط الاصطناعية من خلال تعزيز ثقافة أمنية قوية من خلال:

  • الوعي هو الخطوة الأولى. يجب تدريب الموظفين وتثقيفهم حول أحدث التهديدات الاصطناعية وكيفية تحديدها.

  • يمكن التحكم في الوصول إلى المعلومات الحساسة من خلال عمليات التحقق الصارمة التي قد تشمل المصادقة متعددة العوامل واستخدام الكلمات أو العبارات المشفرة.

  • يمكن تطبيق الضوابط الفنية كوسيلة مساعدة للكشف عن التزييف العميق من خلال تحليل التناقضات في مقاطع الفيديو أو عدم التطابق بين الصوت والصورة. يمكن أن يكون هذا تطبيقًا ممتازًا لأتمتة الذكاء الاصطناعي.

  • إن التعاون مع النظراء في الصناعة والتواصل مع خبراء الأمن السيبراني يمكن أن يساعد الشركات على البقاء على اطلاع دائم بالتهديدات الناشئة – وأفضل الممارسات لمكافحة تلك التهديدات.

  • الدعوة إلى وضع سياسات ولوائح على مستوى الدولة والحكومة الفيدرالية لمكافحة إساءة استخدام الوسائط الاصطناعية.

متعلق ب:صعود تقنية Deepfakes وما تعنيه للأمن

يمكن تطبيق نفس خوارزميات الذكاء الاصطناعي التي تنتج مقاطع الفيديو المزيفة للدفاع ضدها. أصبحت هذه الأنظمة أكثر تطوراً وقادرة على تحديد حتى العلامات الدقيقة للغاية التي تشير إلى وجود خطأ ما في مقطع فيديو أو مقطع صوتي. يمكن استخدام الذكاء الاصطناعي للمساعدة في تدريب الموظفين على التعرف على هذه التهديدات المزيفة والاستجابة لها.

هل تؤدي الوسائط الاصطناعية إلى إفساد قدرتنا على تمييز الحقيقة؟ من المؤكد أنها فعلت ذلك بالفعل، نظرا لانتشار التزييف العميق. إن القدرة على استغلال هذه التلاعبات من قبل جهات خبيثة تشكل حقيقة مثيرة للقلق. ولكن كما نجحت الشركات والحكومات في معالجة التهديدات السيبرانية المختلفة من خلال بناء ورعاية ثقافة أمنية صحية، فإنها تستطيع أن تفعل الشيء نفسه لمكافحة المخاطر التي تشكلها الوسائط الاصطناعية والتزييف العميق.





Source link

زر الذهاب إلى الأعلى