إبقاء لوائح الأمن السيبراني في مقدمة أولويات الاستخدام المولد للذكاء الاصطناعي
محتوى هذا المنشور هو مسؤولية المؤلف فقط. لا تتبنى AT&T أو تؤيد أيًا من وجهات النظر أو المواقف أو المعلومات التي يقدمها المؤلف في هذه المقالة.
هل يمكن للشركات أن تظل متوافقة مع اللوائح الأمنية أثناء استخدام الذكاء الاصطناعي التوليدي؟ إنه سؤال مهم يجب مراعاته مع بدء المزيد من الشركات في تطبيق هذه التكنولوجيا. ما هي المخاطر الأمنية المرتبطة بالذكاء الاصطناعي التوليدي؟ من المهم معرفة كيف يمكن للشركات التعامل مع هذه المخاطر للامتثال للوائح الأمن السيبراني.
مخاطر الأمن السيبراني التوليدية للذكاء الاصطناعي
هناك العديد من مخاطر الأمن السيبراني المرتبطة بالذكاء الاصطناعي التوليدي، والتي قد تشكل تحديًا للبقاء متوافقًا مع اللوائح. وتشمل هذه المخاطر الكشف عن البيانات الحساسة، والمساس بالملكية الفكرية، والاستخدام غير السليم للذكاء الاصطناعي.
خطر الاستخدام غير السليم
أحد أفضل التطبيقات لنماذج الذكاء الاصطناعي التوليدية هو المساعدة في البرمجة من خلال مهام مثل تصحيح الأخطاء البرمجية. يمكن لنماذج الذكاء الاصطناعي الرائدة أن تكتب التعليمات البرمجية الأصلية. ولسوء الحظ، يمكن للمستخدمين إيجاد طرق لإساءة استخدام هذه الوظيفة عن طريق استخدام الذكاء الاصطناعي لكتابة برامج ضارة لهم.
على سبيل المثال، أحد الباحثين الأمنيين حصلت على ChatGPT لكتابة برامج ضارة متعددة الأشكال، على الرغم من وسائل الحماية التي تهدف إلى منع هذا النوع من التطبيقات. يمكن للقراصنة أيضًا استخدام الذكاء الاصطناعي التوليدي لصياغة محتوى تصيد مقنع للغاية. يؤدي كلا الاستخدامين إلى زيادة التهديدات الأمنية التي تواجه الشركات بشكل كبير لأنها تجعل إنشاء محتوى ضار أسرع وأسهل على المتسللين.
خطر البيانات والتعرض للملكية الفكرية
يتم تطوير خوارزميات الذكاء الاصطناعي التوليدية باستخدام التعلم الآلي، بحيث تتعلم من كل تفاعل تجريه. تصبح كل مطالبة جزءًا من الخوارزمية وتُعلم المخرجات المستقبلية. ونتيجة لذلك، قد “يتذكر” الذكاء الاصطناعي أي معلومات يدرجها المستخدم في مطالباته.
يمكن أن يؤدي الذكاء الاصطناعي التوليدي أيضًا إلى تعريض الملكية الفكرية للشركة للخطر. تعتبر هذه الخوارزميات رائعة في إنشاء محتوى يبدو أصليًا، ولكن من المهم أن تتذكر أن الذكاء الاصطناعي لا يمكنه إنشاء محتوى مُعاد تدويره إلا من الأشياء التي رآها بالفعل. بالإضافة إلى ذلك، فإن أي محتوى مكتوب أو صور يتم تغذيتها في الذكاء الاصطناعي التوليدي تصبح جزءًا من بيانات التدريب الخاصة به وقد تؤثر على المحتوى الذي يتم إنشاؤه في المستقبل.
وهذا يعني أن الذكاء الاصطناعي الإنتاجي قد يستخدم الملكية الفكرية الخاصة بالشركة في عدد لا يحصى من الكتابات أو الأعمال الفنية التي تم إنشاؤها. طبيعة الصندوق الأسود لمعظم خوارزميات الذكاء الاصطناعي يجعل من المستحيل تتبع منطقهم العمليات، لذلك من المستحيل تقريبًا إثبات استخدام الذكاء الاصطناعي لجزء معين من عنوان IP. بمجرد أن يتمتع نموذج الذكاء الاصطناعي التوليدي بالملكية الفكرية الخاصة بالشركة، فإنه يصبح خارج نطاق سيطرتهم بشكل أساسي.
خطر اختراق بيانات التدريب
أحد مخاطر الأمن السيبراني الفريدة للذكاء الاصطناعي هو مجموعات بيانات التدريب “المسمومة”. تتضمن استراتيجية الهجوم طويلة الأمد هذه تغذية نموذج جديد من بيانات التدريب الخبيثة لنموذج الذكاء الاصطناعي الذي يعلمه كيفية الاستجابة لصورة أو عبارة سرية. يمكن للقراصنة استخدام تسميم البيانات ل إنشاء باب خلفي في النظام، مثل حصان طروادة، أو إجباره على سوء التصرف.
تعتبر هجمات تسميم البيانات خطيرة بشكل خاص لأنه قد يكون من الصعب للغاية اكتشافها. قد يعمل نموذج الذكاء الاصطناعي المخترق تمامًا كما هو متوقع حتى يقرر المتسلل الاستفادة من الوصول إلى الباب الخلفي الخاص به.
استخدام الذكاء الاصطناعي التوليدي ضمن الأنظمة الأمنية
في حين أن الذكاء الاصطناعي التوليدي ينطوي على بعض مخاطر الأمن السيبراني، فمن الممكن استخدامه بفعالية مع الالتزام باللوائح. مثل أي أداة رقمية أخرى، يتطلب الذكاء الاصطناعي ببساطة بعض الاحتياطات والتدابير الوقائية للتأكد من أنه لا يخلق ثغرات أمنية عبر الإنترنت. يمكن لبعض الخطوات الأساسية أن تساعد الشركات على تحقيق ذلك.
فهم جميع اللوائح ذات الصلة
يتطلب البقاء متوافقًا مع الذكاء الاصطناعي التوليدي فهمًا واضحًا وشاملاً لجميع لوائح الأمن السيبراني المعمول بها. يتضمن ذلك كل شيء بدءًا من معايير إطار الأمان العام وحتى اللوائح المتعلقة بعمليات أو برامج محددة.
قد يكون من المفيد رسم خريطة مرئية لكيفية ارتباط نموذج الذكاء الاصطناعي التوليدي بكل عملية وبرنامج تستخدمه الشركة. يمكن أن يساعد ذلك في تسليط الضوء على حالات الاستخدام والاتصالات التي قد تكون معرضة للخطر بشكل خاص أو تشكل مشكلات تتعلق بالامتثال.
تذكر أن المعايير غير الأمنية قد تكون أيضًا ذات صلة بالاستخدام التوليدي للذكاء الاصطناعي. على سبيل المثال، معيار التصنيع ISO 26000 يحدد المبادئ التوجيهية للمسؤولية الاجتماعية، والتي تشمل التأثير على المجتمع. قد لا يكون هذا التنظيم مرتبطًا بشكل مباشر بالأمن السيبراني، ولكنه بالتأكيد ذو صلة بالذكاء الاصطناعي التوليدي.
إذا كانت إحدى الشركات تقوم بإنشاء محتوى أو منتجات بمساعدة خوارزمية الذكاء الاصطناعي التي تبين أنها تستخدم مواد محمية بحقوق الطبع والنشر دون إذن، فإن ذلك يشكل مشكلة اجتماعية خطيرة للشركة. قبل استخدام الذكاء الاصطناعي التوليدي، تحتاج الشركات التي تحاول الامتثال لمعيار ISO 26000 أو المعايير الأخلاقية المماثلة إلى التحقق من أن بيانات تدريب الذكاء الاصطناعي كلها مصدرها قانوني وعادل.
إنشاء إرشادات واضحة لاستخدام الذكاء الاصطناعي التوليدي
إحدى أهم الخطوات لضمان امتثال الأمن السيبراني للذكاء الاصطناعي التوليدي هي استخدام إرشادات وقيود واضحة. قد لا ينوي الموظفون خلق مخاطر أمنية عند استخدامهم للذكاء الاصطناعي التوليدي. يوضح وضع المبادئ التوجيهية والقيود كيف يمكن للموظفين استخدام الذكاء الاصطناعي بأمان، مما يسمح لهم بالعمل بثقة وكفاءة أكبر.
يجب أن تعطي إرشادات الذكاء الاصطناعي التوليدية الأولوية لتحديد المعلومات التي يمكن وما لا يمكن تضمينها في المطالبات. على سبيل المثال، قد يُمنع الموظفون من نسخ الكتابة الأصلية إلى الذكاء الاصطناعي لإنشاء محتوى مماثل. وفي حين أن هذا الاستخدام للذكاء الاصطناعي التوليدي يعد أمرًا رائعًا لتحقيق الكفاءة، فإنه يخلق مخاطر تتعلق بالملكية الفكرية.
عند إنشاء إرشادات إبداعية للذكاء الاصطناعي، من المهم أيضًا التواصل مع البائعين والشركاء الخارجيين. يمكن أن يشكل البائعون خطرًا أمنيًا كبيرًا إذا لم يواكبوا الحد الأدنى من إجراءات ولوائح الأمن السيبراني. في الواقع، خرق البيانات المستهدفة لعام 2013، والذي كشف البيانات الشخصية لـ 70 مليون عميل، كان نتيجة لثغرات أمنية لدى البائع.
تقوم الشركات بمشاركة البيانات القيمة مع البائعين، لذا فهي بحاجة إلى التأكد من أن هؤلاء الشركاء يساعدون في حماية تلك البيانات. استفسر عن كيفية استخدام البائعين للذكاء الاصطناعي التوليدي أو إذا كانوا يخططون لبدء استخدامه. قبل التوقيع على أي عقود، قد يكون من الجيد تحديد بعض إرشادات استخدام الذكاء الاصطناعي المنتجة ليوافق عليها البائعون.
تنفيذ مراقبة الذكاء الاصطناعي
يمكن أن يكون الذكاء الاصطناعي أداة للأمن السيبراني بقدر ما يمكن أن يشكل خطرًا محتملاً. يمكن للشركات استخدام الذكاء الاصطناعي لمراقبة المدخلات والمخرجات من خوارزميات الذكاء الاصطناعي التوليدية، والتحقق بشكل مستقل من أي بيانات حساسة قادمة أو ذاهبة.
تعد المراقبة المستمرة أيضًا أمرًا حيويًا لاكتشاف علامات تسمم البيانات في نموذج الذكاء الاصطناعي. على الرغم من صعوبة اكتشاف تسمم البيانات، إلا أنه يمكن أن يظهر على شكل أخطاء سلوكية غريبة أو نتائج غير عادية. تزيد المراقبة المدعومة بالذكاء الاصطناعي من احتمالية اكتشاف السلوك غير الطبيعي من خلال التعرف على الأنماط.
السلامة والامتثال للذكاء الاصطناعي التوليدي
مثل أي تقنية ناشئة، يمكن أن يمثل التنقل عبر الامتثال الأمني للذكاء الاصطناعي التوليدي تحديًا. لا تزال العديد من الشركات تتعلم المخاطر المحتملة المرتبطة بهذه التقنية. لحسن الحظ، من الممكن اتخاذ الخطوات الصحيحة للبقاء متوافقًا وآمنًا مع الاستفادة من التطبيقات القوية للذكاء الاصطناعي التوليدي.