الأمن السيبراني

استكشاف التقاطع بين الأمن والحوكمة والذكاء الاصطناعي التوليدي


إن تحقيق التوازن بين الين واليانج، أو الفوائد والمخاطر المرتبطة بالذكاء الاصطناعي التوليدي، أمر بالغ الأهمية لتحسين النهج الذي يحتضن الابتكار ويعطي الأولوية للممارسات الأخلاقية والآمنة للذكاء الاصطناعي. إن الحاجة إلى حماية الملكية الفكرية التي يولدها الذكاء الاصطناعي التوليدي ويستخدمها ليست مجرد قضية قانونية أو تجارية؛ بل إنها أيضًا ضرورة أمنية.

في هذه الجلسة الرئيسية المؤرشفة، يناقش سيدني ماديسون بريسكوت، مؤسس ومدير تنفيذي لشركة Mirror and Moonshot Productions، ثنائية الذكاء الاصطناعي التوليدي، مع التركيز على فوائده في أتمتة المهام وتعزيز الإنتاجية، مع معالجة المخاوف بشأن خصوصية البيانات والآثار الأخلاقية.

كان هذا الجزء جزءًا من حدثنا الافتراضي المباشر بعنوان “الذكاء الاصطناعي التوليدي: من أحدث التقنيات إلى التيار الرئيسي، كيف يشكل تكنولوجيا المعلومات في المؤسسات”. تم تقديم الحدث بواسطة InformationWeek وITPro Today في 22 أغسطس 2024.

فيما يلي نص الفيديو، وقد تم إجراء تعديلات طفيفة عليه من أجل الوضوح.

سيدني ماديسون بريسكوت: الآن، نتحدث كثيرًا عن فوائد الذكاء الاصطناعي التوليدي، لكنه في الواقع سلاح ذو حدين. يمكننا حقًا التركيز على أتمتة المهام العادية. كيف نعزز الإبداع؟ كيف نمكن تجارب العملاء الشخصية من خلال الذكاء الاصطناعي التوليدي؟

يتعين علينا أن نكون يقظين بشأن خصوصية البيانات، وخاصة في ضوء الكميات الهائلة من البيانات الحساسة التي تتطلبها هذه الأنظمة للتدريب. وهناك أيضًا إمكانية استبدال الوظائف، على الرغم من أننا نحاول التركيز بشكل أكبر على تحسين الوظائف ورضا الموظفين كفوائد للذكاء الاصطناعي التوليدي.

متعلق ب:نظرة خاطفة على الخطاب الرئيسي: تفاصيل محلل Forrester تتوافق مع التصميم وإمكانية شرح الذكاء الاصطناعي

ولكن هناك بعض التبعات الأخلاقية المترتبة على أتمتة الأدوار التي يؤديها البشر تقليديا. والمفتاح الآخر الذي نود أن نشير إليه هو حقا خطر النتائج المتحيزة والخطوات الأخلاقية الخاطئة. ورغم أننا نركز على السعي إلى تحقيق الكفاءة والنظر في المزايا التنافسية التي توفرها الذكاء الاصطناعي التوليدي، يتعين علينا أيضا تنفيذ ضمانات صارمة لإدارة هذه المخاطر.

لذا، فإن هذه هي الطبيعة ذات الحدين للذكاء الاصطناعي التوليدي. إنها تتطلب حقًا نهجًا متوازنًا. لذا، يجب عليك تبني الابتكار، ولكن يجب عليك أيضًا إعطاء الأولوية للممارسات الأخلاقية والآمنة للذكاء الاصطناعي. الآن، نفكر في المخاطر المرتبطة بالذكاء الاصطناعي، وخاصة الذكاء الاصطناعي التوليدي.

يعد الأمان من الأمور التي تحظى باهتمام بالغ، والمخاطر متعددة الأوجه. فقد نتعرض لاختراقات للبيانات إذا لم يتم تأمين بيانات التدريب الحساسة بشكل صحيح، مما قد يؤدي إلى انتهاكات الخصوصية وإساءة استخدام البيانات. وقد نتعرض لسرقة نماذج الذكاء الاصطناعي.

سواء كان شخص ما يقوم بهندسة عكسية للنموذج أو بوسائل أخرى، فإن ذلك يشكل تهديدًا كبيرًا للملكية الفكرية. ومن المؤسف أن هذا من شأنه أن يسمح للمنافسين أو الجهات الخبيثة إما بتكرار أو إساءة استخدام الأنظمة الملكية.

متعلق ب:نظرة خاطفة على الخطاب الرئيسي: محلل Forrester يريد تمكين العاملين في GenAI من خلال إدارة المعرفة

هناك أيضًا مخاوف بشأن الهجمات المعادية. حيث يتم التلاعب بالمدخلات لخداع الذكاء الاصطناعي التوليدي ودفعه إلى اتخاذ قرارات غير صحيحة أو ضارة، وهو تهديد خطير للغاية. يمكن أن تؤدي هذه الهجمات إلى تقويض موثوقية أنظمة الذكاء الاصطناعي وسلامتها.

كما يمكن أن يؤدي ذلك إلى مخاطر تتعلق بسمعة شركتك، وقد تكون لذلك عواقب وخيمة محتملة. عندما نتحدث عن هذه الأنظمة وتدابير الأمن المتقدمة، مثل التشفير، وضوابط الوصول، والتحقق المنتظم من النماذج، فهذه كلها طرق يمكننا من خلالها التخفيف من المخاطر وحماية أصول الذكاء الاصطناعي التوليدي لدينا من التهديدات الداخلية والخارجية.

الآن، دعونا ننتقل إلى التفكير في المخاطر الأمنية المحتملة المرتبطة باستخدام الذكاء الاصطناعي التوليدي. عندما نتحدث عن الملكية الفكرية على وجه التحديد، فإن حماية الملكية الفكرية التي يتم إنشاؤها واستخدامها بواسطة الذكاء الاصطناعي التوليدي ليست مجرد قضية قانونية أو تجارية.

كما أن هذا الأمر يشكل ضرورة أمنية. فهناك طبقات متعددة من الدفاع يتعين علينا استخدامها لحماية أنظمتنا عندما نبدأ رحلتنا نحو الذكاء الاصطناعي التوليدي. وتعد الاتفاقيات التعاقدية وسيلة رائعة لوضع شروط واضحة لاستخدام الذكاء الاصطناعي التوليدي والسرية.

متعلق ب:كيف يؤثر GenAI على التحليلات المعززة

سيساعد هذا شركتك على الحد من الوصول غير المصرح به وتوزيع البيانات والنماذج الحساسة. هناك طريقة أخرى يمكننا استخدامها وهي التعتيم الفني. هذا يشبه إخفاء البيانات.

يمكنك استخدام التعتيم على التعليمات البرمجية، وهذا يضيف طبقة إضافية من الحماية، مما يجعل من الصعب على الأطراف غير المصرح لها فهم نماذج الذكاء الاصطناعي التوليدية الخاصة بك أو حتى إساءة استخدامها. هناك مكون آخر يمكننا استخدامه وهو تقييم تدابير الأمن السيبراني التي لدينا اليوم.

كيف نحتاج إلى تعديل وتكييف هذه التدابير؟ يمكن أن يكون ذلك في أي شيء بدءًا من مراقبة التهديدات وحتى خطط الاستجابة للحوادث.

ولكننا بحاجة إلى تكييف تدابير الأمن السيبراني الحالية لاحتضان الرحلة التي نواصلها مع الذكاء الاصطناعي التوليدي لمواصلة اكتشاف الهجمات والتخفيف منها في الوقت الفعلي، دون وجود فجوة أثناء انتقالنا إلى هذه التقنيات الجديدة.

والأمر الأخير الذي سأذكره هو الامتثال للقواعد التنظيمية. لدينا بروتوكولات قائمة. والجميع على دراية باللائحة العامة لحماية البيانات، ولكننا بحاجة إلى التأكد من أننا أثناء تصميم أنظمة الذكاء الاصطناعي التوليدية هذه نلتزم بقوانين حماية البيانات الحالية.

هذه أمور غير قابلة للتفاوض من حيث حماية أصول الذكاء الاصطناعي التوليدي. عادةً ما تعمل إمكانية اتخاذ إجراء قانوني كرادع، ولكن فكر في اتخاذ إجراء قانوني باعتباره الملاذ الأخير.

ينبغي أن ينصب تركيزنا حقًا على الوقاية من خلال استراتيجية الحماية القوية ومتعددة الأوجه التي يتم تنفيذها بعدة طرق مختلفة عبر المشهد الأمني ​​الخاص بك.

شاهد الحدث الافتراضي المباشر “الذكاء الاصطناعي التوليدي: من أحدث التقنيات إلى التيار الرئيسي، كيف يشكل تكنولوجيا المعلومات في المؤسسات” عند الطلب اليوم.





Source link

زر الذهاب إلى الأعلى