الذكاء الاصطناعي يمكن أن يساعد في الدفاع ضد تهديدات الأمن السيبراني: الرئيس التنفيذي لشركة Google ساندر بيتشاي
الرئيس التنفيذي لشركة Google ساندر بيتشاي يتحدث في محادثة مع إميلي تشانغ خلال قمة الرؤساء التنفيذيين لمنظمة التعاون الاقتصادي لآسيا والمحيط الهادئ (APEC) في موسكون ويست في 16 نوفمبر 2023 في سان فرانسيسكو، كاليفورنيا. وتعقد قمة أبيك في سان فرانسيسكو وتستمر حتى 17 تشرين الثاني/نوفمبر.
جاستن سوليفان | جيتي إيمجز نيوز | صور جيتي
ميونيخ، ألمانيا – يمكن للتطورات السريعة في مجال الذكاء الاصطناعي أن تساعد في تعزيز الدفاعات ضد التهديدات الأمنية في الفضاء السيبراني، وفقا لتقرير جديد. جوجل الرئيس التنفيذي ساندر بيتشاي.
وسط مخاوف متزايدة بشأن الاستخدامات الشائنة المحتملة للذكاء الاصطناعي، قال بيتشاي إن أدوات الاستخبارات يمكن أن تساعد الحكومات والشركات على تسريع اكتشاف التهديدات الصادرة عن الجهات المعادية والرد عليها.
وقال بيتشاي للمندوبين في مؤتمر ميونيخ للأمن في نهاية الأسبوع الماضي: “نحن على حق في القلق بشأن التأثير على الأمن السيبراني. ولكن أعتقد أن الذكاء الاصطناعي، على عكس ما هو متوقع، يعزز دفاعنا في مجال الأمن السيبراني”.
تتزايد هجمات الأمن السيبراني من حيث الحجم والتعقيد حيث تستخدمها الجهات الخبيثة بشكل متزايد كوسيلة لممارسة السلطة وابتزاز الأموال.
الهجمات السيبرانية كلفت الاقتصاد العالمي ما يقدر بثمن 8 تريليون دولار في عام 2023 – وهو مبلغ من المقرر أن يرتفع إلى 10.5 تريليون دولار بحلول عام 2025، وفقًا لشركة الأبحاث السيبرانية Cybersecurity Ventures.
يناير تقرير وقال من المركز الوطني للأمن السيبراني في بريطانيا – وهو جزء من GCHQ، وكالة الاستخبارات في البلاد – إن الذكاء الاصطناعي لن يؤدي إلا إلى زيادة تلك التهديدات، وخفض الحواجز أمام دخول المتسللين السيبرانيين وتمكين المزيد من الأنشطة السيبرانية الضارة، بما في ذلك هجمات برامج الفدية.
“يساعد الذكاء الاصطناعي الأشخاص الذين يدافعون بشكل غير متناسب لأنك تحصل على أداة يمكن أن تؤثر عليه على نطاق واسع.
ساندر بيتشاي
الرئيس التنفيذي في جوجل
ومع ذلك، قال بيتشاي إن الذكاء الاصطناعي يعمل أيضًا على تقليل الوقت اللازم للمدافعين لاكتشاف الهجمات والرد عليها. وقال إن هذا من شأنه أن يقلل ما يعرف بمعضلة المدافعين، حيث يجب على المتسللين الإلكترونيين أن ينجحوا مرة واحدة فقط في النظام بينما يجب أن ينجح المدافع في كل مرة من أجل حمايته.
وقال: “الذكاء الاصطناعي يساعد الأشخاص الذين يدافعون بشكل غير متناسب لأنك تحصل على أداة يمكن أن تؤثر عليه على نطاق واسع مقابل الأشخاص الذين يحاولون استغلالهم”.
وأضاف: “لذلك، في بعض النواحي، نحن نفوز بالسباق”.
أعلنت جوجل الأسبوع الماضي عن مبادرة جديدة تقدم أدوات الذكاء الاصطناعي واستثمارات البنية التحتية المصممة لتعزيز الأمن عبر الإنترنت. تهدف أداة مجانية مفتوحة المصدر يطلق عليها اسم Magika إلى مساعدة المستخدمين على اكتشاف البرامج الضارة – البرامج الضارة – الخاصة بالشركة قال في بيان، بينما تقترح الورقة البيضاء التدابير والأبحاث وتضع حواجز حماية حول الذكاء الاصطناعي.
وقال بيتشاي إن الأدوات يتم استخدامها بالفعل في منتجات الشركة، مثل Google Chrome وGmail، بالإضافة إلى أنظمتها الداخلية.
“إن الذكاء الاصطناعي على مفترق طرق نهائي – حيث تتاح لصانعي السياسات ومحترفي الأمن والمجتمع المدني الفرصة لتحويل توازن الأمن السيبراني أخيرًا من المهاجمين إلى المدافعين السيبرانيين.
وتزامن الإصدار مع توقيع الشركات الكبرى على اتفاق في MSC لاتخاذ “احتياطات معقولة” لمنع استخدام أدوات الذكاء الاصطناعي لتعطيل التصويت الديمقراطي في انتخابات 2024. سنة انتخابية غزيرة وما بعدها.
وكانت شركات Adobe وAmazon وGoogle وIBM وMeta وMicrosoft وOpenAI وTikTok وX، المعروفة سابقًا باسم Twitter، من بين الموقعين على الاتفاقية الجديدة، والتي تتضمن إطار عمل لكيفية استجابة الشركات لـ “التزييف العميق” الناتج عن الذكاء الاصطناعي والمصمم لخداع الناخبين. .
يأتي ذلك في الوقت الذي يصبح فيه الإنترنت مجالًا متزايد الأهمية للتأثير لكل من الأفراد والجهات الخبيثة المدعومة من الدولة.
وصفت وزيرة الخارجية الأميركية السابقة هيلاري كلينتون، السبت، الفضاء الإلكتروني بأنه “ساحة معركة جديدة”.
وقالت في ميونيخ: “إن سباق التسلح التكنولوجي قد ارتفع للتو إلى مستوى آخر مع الذكاء الاصطناعي التوليدي”.
“إذا كان بإمكانك الركض بشكل أسرع قليلاً من خصمك، فسوف تقوم بعمل أفضل. وهذا ما يقدمه لنا الذكاء الاصطناعي حقًا في المجال الدفاعي.
مارك هيوز
رئيس الأمن في DXC
أ تقرير وجدت شركة Microsoft التي نشرتها الأسبوع الماضي أن المتسللين المدعومين من الدولة من روسيا والصين وإيران يستخدمون نموذج اللغة الكبير OpenAI (LLM) لتعزيز جهودهم لخداع الأهداف.
وقيل إن المخابرات العسكرية الروسية، والحرس الثوري الإيراني، والحكومتين الصينية والكورية الشمالية اعتمدت جميعها على هذه الأدوات.
وقال مارك هيوز، رئيس الأمن في شركة DXC لخدمات تكنولوجيا المعلومات والاستشارات، لـ CNBC إن الجهات الفاعلة السيئة تعتمد بشكل متزايد على أداة قرصنة مستوحاة من ChatGPT تسمى WormGPT للقيام بمهام مثل كود الهندسة العكسية.
ومع ذلك، قال إنه يرى أيضًا “مكاسب كبيرة” من الأدوات المماثلة التي تساعد المهندسين على اكتشاف الهجمات الهندسية وحجزها بسرعة.
وقال هيوز الأسبوع الماضي: “إنه يمنحنا القدرة على الإسراع”. “في معظم الأوقات في الإنترنت، ما لديك هو الوقت الذي يتمتع به المهاجمون ضدك. وهذا هو الحال غالبًا في أي حالة صراع.
وأضاف: “إذا كان بإمكانك الركض بشكل أسرع قليلاً من خصمك، فسوف تقوم بعمل أفضل. وهذا ما يقدمه لنا الذكاء الاصطناعي دفاعياً في الوقت الحالي”.