ما مدى أمان وتأمين GenAI حقًا؟
إن الخوف من المجهول قد يكون مدمراً ــ في حين أن المخاوف القائمة على الحقائق تشكل جوهر التخفيف من المخاطر بشكل هادف. ولكن عندما يتعلق الأمر بالمناقشات المتعلقة بسلامة الذكاء الاصطناعي، يبدو أن القليل من كليهما حاضر دائماً. وفي بعض الأحيان يكون ذلك عن قصد أو بسبب الراحة وليس الجهل. على سبيل المثال، يمكن استخدام الخوف لإقناع المشرعين بحماية أرباح البائعين التقليديين من صعود الشركات الناشئة المبتكرة، أو لتزويد أنصار نظريات المؤامرة بمصادر دعائية جديدة.
من ناحية أخرى، تكشف المخاوف المشروعة عن المخاطر الحقيقية التي تهدد الذكاء الاصطناعي. على سبيل المثال، في توليد كميات هائلة من المعلومات المضللة والتزييف العميق، وكتابة أكواد ضارة، وإنتاج موجة تسونامي من تسريبات البيانات. والسؤال هو أين نقف وسط التطور السريع للذكاء الاصطناعي؟ هل نحن آمنون أم لا؟ هل نتفاعل مع الخوف أم نستجيب للمخاوف؟
إن الإجابة ليست واضحة على الفور في ضوء حداثة الذكاء الاصطناعي والجنون الذي أحدثته السوق. باختصار، تزداد المسألة تعقيدا بسبب نوع آخر من الخوف: الخوف من تفويت الفرصة.
يقول مات رادوليك، نائب الرئيس للاستجابة للحوادث والعمليات السحابية في شركة فارونيس: “تتسرع الشركات في استخدام الذكاء الاصطناعي رغم أنها لا تغطي حتى الثغرات الأساسية، مثل البيانات المفتوحة على مصراعيها. قد يبدو الأمر قاسيًا، لكنه حريق في مكب النفايات هناك”. بالمناسبة، أعلن رادوليك مؤخرًا ألقى كلمة رئيسية حول كيفية تجنب أول اختراق للذكاء الاصطناعي في مؤتمر RSA في سان فرانسيسكو.
لقد حان الوقت للتراجع عن اندفاع الذكاء الاصطناعي والتحقيق في القضايا.
تحديد مخاطر الذكاء الاصطناعي
سواء كان حريق في حاوية القمامة أم لا، فإن تجنبه أو الذعر منه لن يكون مفيدًا. من الأفضل تحديد أولويات المخاطر وتقييم التهديدات بهدوء.
“عندما يتعلق الأمر بالهجمات الإلكترونية، فإن الدافع الرئيسي هو المال. ولهذا السبب تستمر التقنيات القديمة مثل التصيد الاحتيالي وبرامج الفدية في الازدهار. أما بالنسبة لتطبيق ChatGPT أو تطبيقات الذكاء الاصطناعي التوليدية الأخرى، فلا توجد حقًا العديد من الفرص لكسب المال من خلال القرصنة. في الواقع، لم تكن هناك خروقات أو مشكلات بارزة – حتى الآن،” كما يقول مودو سودهاكار، الرئيس التنفيذي والمؤسس المشارك لشركة Aisera، وهي شركة تقدم الذكاء الاصطناعي، وGPT للمؤسسات، وبرمجيات الذكاء الاصطناعي التوليدي (GenAI).
على الرغم من عدم انتشارها بشكل كبير حتى الآن، إلا أن هناك تقارير عن حدوث خروقات للذكاء الاصطناعي الآن.
“وفقًا لمسحنا لقادة الأمن، أفادت 77% من الشركات بتحديد خروقات لذكائها الاصطناعي في العام الماضي. وكانت الشركات المتبقية غير متأكدة مما إذا كانت نماذج الذكاء الاصطناعي الخاصة بها قد تعرضت لهجوم. وتشمل المصادر الرئيسية لانتهاكات الذكاء الاصطناعي الأفراد أو المجموعات الإجرامية، ومقدمي الخدمات من جهات خارجية، وشبكات الروبوتات الآلية، والمنافسين”، كما يقول مالكولم هاركينز، كبير مسؤولي الأمن والثقة في طبقة مخفية، أحد مقدمي منصة AISEC.
هناك أيضًا مجموعة كبيرة من أنواع التهديدات الأخرى. أحدها هو تسليح الذكاء الاصطناعي لتسهيل وتسريع هجمات التصيد الاحتيالي وبرامج الفدية.
“في عالم الأعمال اليوم مع القوى العاملة الموزعة جغرافيًا، تتيح أدوات الذكاء الاصطناعي طرقًا أكثر مصداقية لتنفيذ هجمات الهندسة الاجتماعية الناجحة. ستصبح الضوابط التي كان من الصعب التحايل عليها، مثل التحقق الصوتي للهوية عند إعادة تعيين كلمة المرور، قديمة. في حين أن أدوات GenAI مثل ChatGPT قد لا تنتج بعد مخرجات تصيد احتيالي مقنعة، إلا أنه يمكن استخدامها لتحسين مشكلات الجودة الأساسية مع معظم حملات التصيد الاحتيالي مثل معالجة القواعد النحوية الرديئة والمعلومات غير الدقيقة بشكل واضح،” كما يقول تشاد ثونبرج، كبير مسؤولي أمن المعلومات في يوبيكو، الشركة المصنعة لجهاز Yubikey، وهو جهاز مصادقة الأجهزة.
وتشمل الأنواع الأخرى من تهديدات الذكاء الاصطناعي تعطيل الانتخابات، وإثارة الشغب العام، والاحتيال على نطاق واسع، وهجمات التزييف العميق.
دفعت هذه الأنواع من التهديدات لجنة الاتصالات الفيدرالية (FCC) إلى أعلن مؤخرا عن حكم وهو ما يجعل المكالمات الآلية باستخدام الأصوات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي غير قانونية.
“هذا ليس مفاجئًا حقًا وكان تصويتًا بالإجماع. في حين يؤثر هذا على ما يسمى بالشركات الشرعية التي تجري مكالمات آلية، فمن المؤسف أنه لن يفعل الكثير لثني الدول القومية والجهات الإجرامية عن الاستمرار في تبني المكالمات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. بعد كل شيء، يعمل الذكاء الاصطناعي كمسرع للقوة، لأنه سيسمح لهؤلاء الجهات الفاعلة في التهديد بالعمل على نطاق واسع دون الحاجة إلى زيادة حجم قوتها العاملة. في الوقت نفسه، ستعمل قدرة الذكاء الاصطناعي على توليد خطاب مقنع بدرجة كافية بلغة أخرى على فتح أسواق جديدة للجهات الفاعلة في التهديد التي ربما وظفت خبراء لغويين في السابق”، كما يقول كاين ماكجلادري، العضو البارز في معهد مهندسي الكهرباء والإلكترونيات.
“نحن ننتقل إلى نقطة حيث لا تكون المكالمات الصوتية الواردة دون مصادقة مناسبة للاتصالات الحساسة، مثل البريد الإلكتروني. بدلاً من ذلك، قد يتعين علينا جميعًا إنشاء “كلمة آمنة” معروفة بين طرفين ويمكن استخدامها للمصادقة على بعضهما البعض في المكالمات”. يضيف ماكجلادري.
كما تخلق عيوب الذكاء الاصطناعي نقاط ضعف مع تسرب البيانات وحصاد البيانات في مرتبة عالية في القائمة. يمكن أن تؤدي تسريبات البيانات إلى تعرضات عالية وطويلة الأمد مثل أول خرق للبيانات في ChatGPT، والتي كشفت بيانات المستخدم لنحو 1.2 مليون مستخدم لـ OpenAI على مدى تسع ساعات. كما أن جمع البيانات يخلق نقاط ضعف جديدة من خلال التعرضات الواسعة النطاق، وبعضها كان بارزًا مثل
حصاد الكود الخاص بشركة سامسونج حيث أصبح الكود الخاص الآن جزءًا من بيانات تدريب ChatGPT ومتاحًا للاستخدام العام.
“ليس من الواضح مدى خصوصية مثيلك الخاص. في Microsoft، ربما يكون الوضع جيدًا. من الناحية المثالية، يمكنك استضافة برنامج LLM الخاص بك خلف جدار الحماية الخاص بك إذا كنت تريد التأكد تمامًا من عدم مشاركة البيانات أبدًا حتى عن طريق الخطأ بواسطة الذكاء الاصطناعي،” كما يقول كيفن سوراس، رئيس الرمز المميز، والد المساعد الافتراضي، ومتحدث متكرر في مجال الذكاء الاصطناعي.
كن على علم بأن خروقات البيانات يمكن أن تأتي من مصادر موثوقة أيضًا.
يقول جوناثان شيمول، مؤسس شركة OpenAI: “من الخطير أن نمنح كل هذه المعلومات لشركة Google وOpenAI. فهذه الشركات المركزية الكبرى لديها نموذج عمل واحد: بياناتك. وكلما قدمت لهم المزيد، كلما عرفوا المزيد عنك”. أليف.يموهو مطور متخصص في تقنية البلوك تشين والذكاء الاصطناعي، يركز عمله وأبحاثه على قضايا خصوصية البيانات واللامركزية حول نماذج أعمال GenAI الحالية.
لكن حتى هذه السيناريوهات المخيفة ليست سوى جزء صغير من جبل الجليد الذي يهددنا بالذكاء الاصطناعي.
تطوير المخاطر
كما يلاحظ الباحثون في مجال الذكاء الاصطناعي والأمن مخاطر متزايدة تلوح في الأفق. على سبيل المثال، يمكن استخدام GenAI لتغذية الجرائم السرية بأشكال مختلفة قد تتجنب القوانين الحالية، على الأقل مؤقتًا. وفي كل الأحوال، فهو جاهز لتسريع العديد من أسوأ الأنشطة الموجودة على شبكة الويب المظلمة.
“ولنضرب مثالاً مخيفاً بشكل خاص: Stable Diffusion هو نموذج تحويل النص إلى صورة الأكثر شهرة في العالم. في ديسمبر 2023، اكتشف بعض الباحثين في جامعة ستانفورد أن إحدى مجموعات البيانات التدريبية التي تم تدريب Stable Diffusion عليها – والتي تسمى LAION-5B – تحتوي على أكثر من 1600 صورة إباحية للأطفال. ولكن لا يوجد لدى أي شركة أو وكالة تقريبًا البنية الأساسية اللازمة لتتبع التطبيقات التي تستخدم أي نماذج، وأي النماذج يتم تدريبها على أي مجموعات بيانات،” كما يقول مارك فرانكل، الرئيس التنفيذي لشركة يظهر، شركة متخصصة في أمن تكنولوجيا سلسلة التوريد.
السيناريو الآخر هو استخدام GenAI لاختراق مواقع الويب على نطاق لم نشهده من قبل.
“يصف المؤلفون كيف يمكن لوكلاء LLM اختراق مواقع الويب بشكل مستقل. على سبيل المثال، عند إعطاء قائمة بأوصاف CVE ذات الخطورة الحرجة، يكون GPT-4 قادرًا بالفعل على استغلال 87% من الثغرات الأمنية مقارنة بـ 0% في النماذج الأخرى التي تم اختبارها بما في ذلك GPT-3.5، وLLMs مفتوحة المصدر. مع زيادة الأطر، مثل طاقم اي اي والذين يعملون محليا استخدام نماذج مفتوحة المصدر“مع توافر برامج مفتوحة المصدر، ونمو برامج ماجستير الحقوق، سينخفض الوقت بين الكشف عن الثغرات الأمنية والاستغلال الآلي الواسع النطاق. ومن خلال الاستفادة من الذكاء الاصطناعي، يمكن للمهاجمين استغلال الثغرات الأمنية التي تظهر ليوم واحد في غضون دقائق من الكشف عنها للعامة”، كما يقول باسكال جينينز، مدير استخبارات التهديدات في شركة رادوير، الذي استشهد بهذه الأرقام والمعلومات من ورقة البحث “يمكن لوكلاء LLM استغلال نقاط الضعف التي يمكن اكتشافها يومًا ما بشكل مستقل.”
ويضيف جينينز: “هذا يعني أن العديد من الأدوات التي تعتمد عليها الشركات لحماية أصولها الرقمية لن تكون كافية بعد الآن. ولكي تكون فعالة، ستحتاج المؤسسات إلى أدوات أكثر تطورًا تستخدم الحماية القائمة على السلوك بالإضافة إلى التعلم الآلي وخوارزميات الذكاء الاصطناعي للكشف عن هذه البرامج النصية الخبيثة الجديدة التي تم إنشاؤها بواسطة الذكاء الاصطناعي والحقن وهجمات الروبوتات والتخفيف من حدتها. والفكرة هي محاربة النار بالنار”.
وتتزايد المخاطر الأخرى النامية بسرعة الذكاء الاصطناعي أيضًا.
وقال الأمين العام للأمم المتحدة أنطونيو غوتيريش في الجلسة الافتتاحية لقمة سيول للذكاء الاصطناعي: “إننا نشهد تقدماً تكنولوجيًا يغير الحياة ومخاطر جديدة تهدد الحياة – من التضليل إلى المراقبة الجماعية إلى احتمال وجود أسلحة قاتلة مستقلة”. تقرير كما ذكرت وكالة أسوشيتد برس أن “جوجل وميتا وأوبن إيه آي كانت من بين الشركات التي قدمت التزامات طوعية بالسلامة في قمة سيول للذكاء الاصطناعي، بما في ذلك سحب القابس من أنظمتها المتطورة إذا لم تتمكن من السيطرة على المخاطر الأكثر تطرفًا”.
في حين يبدو كل هذا جيدًا وجيدًا، كما تشير وكالة أسوشيتد برس، “إنها ليست المرة الأولى التي تقدم فيها شركات الذكاء الاصطناعي التزامات سلامة تبدو نبيلة ولكنها غير ملزمة”. إن علامات تلاشي هذه الوعود بسرعة واضحة في عدة أماكن. على سبيل المثال، يكشف فحص الشركات التي تقول إنها تلتزم بمبادئ الذكاء الاصطناعي المسؤول عادةً عن أكثر من بضع شركات تقدم القليل من الخدمة الشفهية للمفهوم. والأسوأ من ذلك، تم تخفيض فرق سلامة الذكاء الاصطناعي أو إلغاؤها تمامًا. على سبيل المثال، “تعد مايكروسوفت وميتا وجوجل وأمازون وتويتر من بين الشركات التي خفضت أعضاء “فرق الذكاء الاصطناعي المسؤولة”، التي تقدم المشورة بشأن سلامة المنتجات الاستهلاكية التي تستخدم الذكاء الاصطناعي”، وفقًا لصحيفة فاينانشال تايمز. تقرير.
النتيجة
في حين يعمل مجتمع الأمن السيبراني بجد للتخفيف من حدة العديد من هذه المخاطر، فمن الصعب مواكبة التقدم السريع في GenAI. وفي الوقت نفسه، ينشغل مجتمع GenAI بضغوط السوق لإنتاج المزيد من الميزات بشكل أسرع.
يقول جيف شوارتزنتروبر، كبير علماء التعلم الآلي في شركة “إنكوير” (Inc): “لا تركز غالبية كبيرة من مجتمع الذكاء الاصطناعي على أمن الذكاء الاصطناعي مقابل القدرة على توليد القيمة واستخراجها. وهذا لا يعني أن أمن أنظمة الذكاء الاصطناعي لا يتم أخذه في الاعتبار من قبل الباحثين والممارسين، بل إنه يتخلف للأسف”. إيسنتاير، شركة متخصصة في الكشف والاستجابة.
وفي حين يعمل بائعو GenAI أيضًا بجهد على إضافة حواجز الحماية وتدابير السلامة الأخرى إلى نماذجهم، إلا أنها لا تزال بعيدة عن الأمان بشكل عام.
“إن جوهرة تاج نماذج الذكاء الاصطناعي المتطورة هي أوزانها ــ المعلمات القابلة للتعلم والمستمدة من تدريب النموذج على مجموعات بيانات ضخمة. وإذا تمكن أحد المتسللين من الوصول إلى أوزان النموذج، فإنه يمتلك الذكاء الاصطناعي، وبجزء بسيط من التكلفة التي استغرقها إنشائه”، كما يقول دان لاهاف، المؤسس المشارك والرئيس التنفيذي وباحث في مجال أمن الذكاء الاصطناعي في مختبرات الأنماط
نظرًا لمعدلات اعتماد GenAI المرتفعة بشكل جنوني، فإن هذه الثغرات الأمنية والإغفالات يمكن أن تنتشر مثل النار في الهشيم.
يقول شوارتزينتروبر: “من خلال محادثاتي مع مجتمع الذكاء الاصطناعي، فإن العديد من مزودي SaaS غير مستعدين تمامًا للتعرض الإضافي الذي يمكن أن تخلقها هذه الأنظمة، نظرًا لطفولة GenAI والنظام البيئي المتغير بسرعة”.
في الأساس، ينبغي للشركات أن تكون في حالة تأهب قصوى وأن تتعامل مع شركة GenAI بحذر شديد.
“البرمجيات هي الشيء الوحيد الذي نشتريه تقريبًا دون معرفة ما بداخلها. لمدة 100 عام، طلبت إدارة الغذاء والدواء من شركة كيلوجز وضع المكونات على جانب علبة نخالة الزبيب. وتتطلب لجنة التجارة الفيدرالية وضع علامات المكونات على قمصاننا. ولكن عندما يتعلق الأمر بـ Zoom أو Microsoft Word، أو البرامج الموجودة في أجهزة تنظيم ضربات القلب أو السيارات، فقد كنا تاريخيًا نطير بشكل أعمى. والافتقار إلى الشفافية في مجال الذكاء الاصطناعي ليس مختلفًا – في الواقع، يمكن القول إنه أسوأ،” كما يقول فرانكل.
احرص على مواكبة أحدث تقنيات حماية البيانات والذكاء الاصطناعي لأن العديد من منتجات الأمان الحالية قد لا تكون مفيدة بشكل خاص.
يقول فيفيك سينغ، الأستاذ المشارك لعلوم المكتبات والمعلومات في كلية الاتصالات والمعلومات بجامعة روتجرز: “لا يتعلق الأمر كثيرًا بكوننا أكثر خطورة، بل يتعلق بوجود أنواع مختلفة جدًا من المخاطر تتطلب استراتيجيات تخفيف مختلفة”.