الأمن السيبراني

التلاعب بالذكاء الاصطناعي يهدد روابط عالمنا الرقمي


لم يعد التلاعب بالذكاء الاصطناعي يمثل تهديدًا مجرد نظريات. إنه هنا. يتم اتخاذ خطوات لحماية الأشخاص والمؤسسات من المحتوى الاحتيالي الناتج عن الذكاء الاصطناعي. ومع ذلك، يمكن القيام بالمزيد بشكل استباقي للحفاظ على الثقة في نظامنا البيئي الرقمي.

تسعى تقنية Deepfakes إلى تعطيل الانتخابات الحرة والنزيهة

في أغسطس، شارك إيلون ماسك أ فيديو مزيف عميق لنائب الرئيس كامالا هاريس على X. وكتب: “هذا مذهل” مع رمز تعبيري يضحك ويبكي. تلقى منشوره أكثر من 100 مليون مشاهدة والكثير من الانتقادات. أطلق عليها ” ماسك ” اسم “الهجاء”. ومع ذلك، أدانه النقاد باعتباره انتهاكًا لسياسة الإعلام الاصطناعية والمتلاعب بها الخاصة بـ X. وأشار آخرون إلى إنذارات بشأن قدرة الذكاء الاصطناعي على تعطيل العملية الانتخابية الحرة والنزيهة أو دعوا إلى استجابة وطنية أقوى لوقف انتشار التزييف العميق.

يعد عام 2024 عامًا انتخابيًا مهمًا، حيث يتوجه ما يقرب من نصف سكان العالم إلى صناديق الاقتراع. حذرت وكالة موديز من أن المحتوى السياسي المزيف العميق الناتج عن الذكاء الاصطناعي يمكن أن يساهم في تهديد نزاهة الانتخابات – وهو شعور يشاركه الناخبون على مستوى العالم، حيث يخشى 72% من أن محتوى الذكاء الاصطناعي سيقوض الانتخابات المقبلة، وفقًا لـ مؤشر Telesign Trust لعام 2024.

ينتشر خطر التلاعب بالذكاء الاصطناعي في جميع مجالات المجتمع.

متعلق ب:تقرير استراتيجية المرونة السيبرانية لعام 2024: كبار مسؤولي أمن المعلومات يحاربون الهجمات والكوارث والذكاء الاصطناعي … والغبار

إثارة الخوف والشك في المؤسسات العالمية

في يونيو/حزيران، ذكرت شركة مايكروسوفت أن شبكة من الجماعات المرتبطة بروسيا كانت تدير حملات تأثير ضارة ضد فرنسا، واللجنة الأولمبية الدولية، وألعاب باريس. نسبت مايكروسوفت الفضل إلى منظمة معروفة مرتبطة بالكرملين في إنشاء صورة مزيفة لتوم كروز ينتقد فيها اللجنة الأولمبية الدولية. كما ألقوا باللوم على المجموعة في إعداد تقرير إخباري مقنع للغاية لإثارة المخاوف الإرهابية.

من المهم أن نتذكر أن هذه ليست المرة الأولى التي تسعى فيها الجهات الفاعلة السيئة إلى التلاعب بتصورات المؤسسات العالمية. ومن المهم أيضًا التمييز بين المشكلة الحقيقية والرنجة الحمراء.

لا تكمن المشكلة الحقيقية في أن الذكاء الاصطناعي التوليدي قد أضفى طابعًا ديمقراطيًا على القدرة على إنشاء محتوى مزيف يمكن تصديقه بسهولة وبتكلفة زهيدة. بل هو عدم وجود وسائل الحماية الكافية لوقف انتشاره. وهذا هو ما أدى بدوره إلى إضفاء طابع ديمقراطي فعال على القدرة على التضليل أو التعطيل أو الفساد – بشكل مقنع – على نطاق عالمي هائل.

حتى أنت قد تكون مسؤولاً عن توسيع نطاق التزييف العميق

إحدى الطرق التي يمكن من خلالها انتشار التزييف العميق هي من خلال الحسابات المزيفة، والطريقة الأخرى هي ما نسميه في عالم الأمن السيبراني عمليات الاستيلاء على الحسابات.

في 9 يناير، تمكن أحد المتسللين من السيطرة على حساب على وسائل التواصل الاجتماعي مملوك لهيئة الأوراق المالية والبورصة (SEC). وسرعان ما نشر هذا المجرم معلومات تنظيمية كاذبة حول صندوق تداول البيتكوين الذي تسبب في ارتفاع أسعار البيتكوين.

متعلق ب:جولييت أوكافور تسلط الضوء على طرق الحفاظ على المرونة السيبرانية

الآن، تخيل فرضية مختلفة – ولكن ليست بعيدة الاحتمال: ممثل سيء يسيطر على الحساب الرسمي لصحفي وطني موثوق به. يمكن للمحتالين القيام بذلك بسهولة نسبيًا إذا لم يتم اتخاذ إجراءات المصادقة الصحيحة. بمجرد دخولهم، يمكنهم نشر تزييف عميق مضلل لمرشح ما قبل أيام قليلة من فتح صناديق الاقتراع أو لرئيس تنفيذي قبل أن يصدر إعلانًا إخباريًا مهمًا.

ونظرًا لأن التزييف العميق جاء من حساب شرعي، فيمكن أن ينتشر ويكتسب مستوى من المصداقية يمكن أن يغير الآراء، أو يؤثر على الانتخابات، أو يحرك الأسواق المالية. بمجرد ظهور المعلومات الخاطئة، سيكون من الصعب إعادة هذا الجني إلى القمقم.

وقف انتشار التلاعب بالذكاء الاصطناعي؟

ويتم القيام بعمل مهم في القطاعين العام والخاص لحماية الأشخاص والمؤسسات من هذه التهديدات. على سبيل المثال، حظرت لجنة الاتصالات الفيدرالية (FCC) استخدام الأصوات الناتجة عن الذكاء الاصطناعي في المكالمات الآلية واقترحت قاعدة الكشف عن المحتوى الناتج عن الذكاء الاصطناعي والمستخدم في الإعلانات السياسية.

كما أن شركات التكنولوجيا الكبرى تخطو خطوات كبيرة. تعمل Meta وGoogle على تحديد المحتوى الاحتيالي الناتج عن الذكاء الاصطناعي وتصنيفه وإزالته بسرعة. تقوم Microsoft بعمل ممتاز لتقليل إنشاء التزييف العميق.

متعلق ب:ما الذي تطرحه معايير التشفير ما بعد الكمي الخاصة بـ NIST؟

ولكن المخاطر أكبر من أن نجلس مكتوفي الأيدي في انتظار التوصل إلى حل وطني أو عالمي شامل. ولماذا الانتظار؟ هناك ثلاث خطوات حاسمة متاحة الآن ولكنها غير مستغلة إلى حد كبير:

  1. تحتاج شركات التواصل الاجتماعي إلى إعداد أفضل لمنع الحسابات المزيفة. ومع وجود حوالي 1.3 مليار حساب مزيف عبر منصات مختلفة، هناك حاجة إلى مصادقة أكثر قوة. إن طلب رقم هاتف وعنوان بريد إلكتروني، واستخدام التقنيات لتحليل إشارات المخاطر، يمكن أن يحسن اكتشاف الاحتيال ويضمن تجارب أكثر أمانًا للمستخدم.

  2. يمكن نشر الذكاء الاصطناعي والتعلم الآلي في مكافحة الاحتيال المدعوم بالذكاء الاصطناعي. يتفق ثلاثة وسبعون بالمائة من الأشخاص على مستوى العالم على أنه إذا تم استخدام الذكاء الاصطناعي لمكافحة الهجمات الإلكترونية المتعلقة بالانتخابات وتحديد المعلومات الخاطئة المتعلقة بالانتخابات وإزالتها، فمن الأفضل أن يثقوا في نتائج الانتخابات.

  3. وأخيرا، لابد من توفير المزيد من التثقيف العام حتى يتسنى للمواطن العادي أن يفهم المخاطر بشكل أفضل. يعد شهر التوعية بالأمن السيبراني، الذي يتم الاحتفال به في شهر أكتوبر من كل عام في الولايات المتحدة، مثالاً على نوع التعاون بين القطاعين العام والخاص اللازم لرفع مستوى الوعي بأهمية الأمن السيبراني. هناك حاجة أيضًا إلى التركيز بشكل أكبر على بناء ثقافات مكان العمل الواعية بالأمن. حديثة تقرير سايب سيف وجدت أن 38% من الموظفين يعترفون بمشاركة معلومات حساسة دون علم صاحب العمل، و23% يتخطون التدريب على التوعية الأمنية، معتقدين أنهم “يعرفون ما يكفي بالفعل”.

الثقة مورد ثمين وتستحق حماية أفضل في عالمنا الرقمي. درهم وقاية خير من قنطار علاج. لقد حان الوقت لنتناول جميعاً دوائنا. وإلا فإننا نخاطر بصحة بنيتنا التحتية الرقمية وإيماننا بديمقراطيتنا واقتصادنا ومؤسساتنا وبعضنا البعض.





Source link

زر الذهاب إلى الأعلى