الأمن السيبراني

ما هي المخاطر الأمنية لجلب الذكاء الاصطناعي الخاص بك؟


منذ إطلاق ChatGPT بواسطة افتح الذكاء الاصطناعي في نوفمبر 2022، الاهتمام بـ الذكاء الاصطناعي التوليدي (GenAI) زادت الأدوات بشكل كبير. لقد أدت قدرتها على إنشاء استجابة بناءً على سؤال أو طلب إلى استخدامها لمجموعة متنوعة من الأغراض، بدءًا من كتابة رسائل البريد الإلكتروني وحتى دعم برامج الدردشة الآلية.

الأخيرة مؤشر اتجاه العمل تقرير بواسطة مايكروسوفت، استنادًا إلى دراسة استقصائية شملت أكثر من 31000 موظف محترف، تظهر أن 75% من العاملين في مجال المعرفة يستخدمون الآن أحد أشكال GenAI في وظائفهم، وأن ما يقرب من نصف الذين شملهم الاستطلاع بدأوا في استخدامه خلال الأشهر الستة الماضية. ومع ذلك، فإن ما يقرب من 80% ممن يستخدمون GenAI يستخدمون الذكاء الاصطناعي الخاص بهم في العمل، وتزداد النسبة قليلاً عند التركيز على الشركات الصغيرة. ومن الجدير بالذكر أن هذا التبني لا يقتصر فقط على المستخدمين الأصغر سنًا، الذين عادة ما يكونون أكثر عرضة لتبني التكنولوجيا الجديدة، ولكن أيضًا من قبل المستخدمين من جميع الأعمار.

ومع توليد المزيد من المعلومات والحاجة إلى معالجتها، فإننا نكافح بشكل متزايد مع ما يعرف بالديون الرقمية. مثال على ذلك هو التحميل الزائد للبريد الإلكتروني. ويشير تقرير مايكروسوفت إلى أن ما يقرب من 85% من رسائل البريد الإلكتروني تتم قراءتها في أقل من 15 ثانية – وهذا يوضح سبب حرص الأشخاص على التوجه نحو الأدوات التي تساعد في تبسيط المهام الدنيوية في حياتهم العملية.

يقول نيك هيدرمان، المدير الأول لمجموعة أعمال العمل الحديثة في شركة مايكروسوفت: “هناك هذا الدين الرقمي الذي تراكم على مدى عقود، لكنه تسارع خلال الوباء”. “قال 68% من الأشخاص الذين تحدثنا إليهم إنهم يعانون من حجم ووتيرة العمل. وقال ما يقرب من 50% إنهم يشعرون بالإرهاق”.

أدوات الذكاء الاصطناعي التوليدية التي يستخدمها المحترفون عادةً هي تلك الموجودة على الهواتف الذكية (مثل جالاكسي الذكاء الاصطناعي) أو على الإنترنت (مثل ChatGPT). لسوء الحظ، لأن هذه الأدوات مفتوح المصدر، فهي خارجة عن رقابة الشركات. علاوة على ذلك، عندما تكون إحدى الأدوات عبر الإنترنت مجانية، فإن المستخدم غالبًا ما يكون هو المنتج لأن معلوماته قابلة للاستخدام من قبل الآخرين.

“إذا كان مجانيًا، فأنت بحاجة إلى التفكير فيه بنفس الطريقة مثل أي موقع تواصل اجتماعي. ما هي البيانات التي يتم التدريب عليها؟ في الجوهر، هل أنت الآن السلعة؟ تقول سارة أرمسترونج سميث، رئيسة الأمن في شركة مايكروسوفت. “مهما كان ما تضعه، هل يدخل في نماذج التدريب؟ كيف يمكنك التحقق من الاحتفاظ بالبيانات بشكل آمن وعدم استخدامها لأغراض أخرى؟

أكثر من أي شيء آخر، فإن استخدام الأدوات التوليدية الخارجية هو أ حوكمة البيانات التحدي، بدلاً من مشكلة GenAI، كما تعتمد عليها تكنولوجيا المعلومات الظل – الأجهزة أو البرامج المستخدمة في مؤسسة لا يشرف عليها قسم تكنولوجيا المعلومات.

“لقد كان لديك دائمًا تطبيقات خاضعة للعقوبات مقابل تطبيقات غير مصرح بها. يقول أرمسترونج سميث: “لقد واجهت دائمًا تحديات تتعلق بمشاركة البيانات عبر الأنظمة الأساسية السحابية”. “إذا كان من السهل قص شيء ما ولصقه من أي نظام مؤسسي ووضعه في تطبيق سحابي، بغض النظر عما إذا كان تطبيقًا ذكاءً اصطناعيًا أو أي تطبيق آخر، فستكون لديك مشكلة في إدارة البيانات وتسرب البيانات. إن القضايا الأساسية المتعلقة بالتحكم في البيانات وإدارة البيانات وكل هذه الأشياء لا تختفي. في الواقع، ما تم تسليط الضوء عليه هو الافتقار إلى الحوكمة والسيطرة.

حوكمة البيانات

مشكلة إدارة البيانات المتمثلة في استخدام أدوات الذكاء الاصطناعي التوليدية الخارجية ذات شقين.

أولا، هناك تسرب البيانات، حيث يقوم المستخدمون بنسخ معلومات يحتمل أن تكون سرية ولصقها في أداة عبر الإنترنت لا يمكنهم التحكم فيها. يمكن للآخرين الوصول إلى هذه البيانات واستخدامها في تدريب أدوات الذكاء الاصطناعي.

إذا أخذت مجموعة بيانات عشوائية لم تقم بالتحقق منها ولا تعرف ما تم التدريب عليه، ثم قمت بإحضار مجموعة البيانات هذه إلى بيئة الشركة أو العكس، فيمكنك تسميم النموذج أو الخوارزمية لأنك تقدم بيانات لم يتم التحقق منها في مجموعة بيانات الشركة

سارة أرمسترونج سميث، مايكروسوفت

هناك أيضًا تسرب إلى المنظمة، إذا تمت إضافة معلومات غير مؤكدة وغير مؤكدة إلى قاعدة معارف المنظمة. يفترض المستخدمون في كثير من الأحيان أن المعلومات المقدمة بواسطة أداة GenAI خارجية صحيحة ومناسبة – فهم لا يدعمون البيانات للتأكد من أنها دقيقة من الناحية الواقعية، وهو ما من المرجح أن يفعلوه عند البحث عن معلومات على الإنترنت.

“يكمن الخطر في أنك إذا أخذت مجموعة بيانات عشوائية لم تتحقق منها ولا تعرف ما تم التدريب عليه، ثم أحضرت مجموعة البيانات هذه إلى بيئة الشركة أو العكس، فيمكنك حتى تسميم النموذج الفعلي أو الخوارزمية لأن يقول أرمسترونج سميث: “إنك تقوم بإدخال بيانات لم يتم التحقق منها في مجموعة بيانات الشركة”.

وهذه الأخيرة هي المشكلة الأكثر خطورة، حيث يتم دمج البيانات غير الصحيحة أو المضللة في قاعدة المعرفة واستخدامها لإرشاد عمليات صنع القرار. ويمكن أيضا مجموعات البيانات السامة التي يتم استخدامها لتدريب الذكاء الاصطناعي داخل الشركة، مما يتسبب في تقديم الذكاء الاصطناعي معلومات مضللة أو غير صحيحة.

لقد رأينا بالفعل حالات لأدوات GenAI المستخدمة بشكل غير صحيح مما أدى إلى نتائج سيئة. يتم تجربة الذكاء الاصطناعي التوليدي في مهنة المحاماة كأداة ممكنة للمساعدة في كتابة المستندات القانونية. وفي إحدى الحالات، أ استخدم المحامي ChatGPT لإعداد ملف، ولكن الذكاء الاصطناعي التوليدي هلوسة القضايا الوهمية التي عرضت على المحكمة.

يقول آرمسترونج سميث: “في بيئة الشركات، عليك أن تضع في اعتبارك حقيقة أنها بيانات تجارية”. “إنه سياق الأعمال، فما هي الأدوات المتاحة لديك اليوم والتي ستوفر كل الحوكمة في مكانها الصحيح؟ سيكون لديها الأمن. سيكون لديها مرونة. سيتم دمج كل هذه الأشياء حسب التصميم.

إذا كانت نسبة كبيرة من الموظفين تعتمد بشكل روتيني على التطبيقات الخارجية، فمن الواضح أن هناك حاجة لهذه الأداة الرقمية. للتأكد من أنسب حلول الذكاء الاصطناعي التوليدي، من الأفضل تحديد حالات الاستخدام. وبهذه الطريقة، يمكن نشر الأداة الأكثر ملاءمة لتلبية احتياجات الموظفين والتوافق بسهولة مع سير العمل الحالي لديهم.

الميزة الرئيسية لاستخدام أداة الذكاء الاصطناعي المؤسسية بدلاً من منصة مفتوحة، مثل ChatGPT، هي ذلك إدارة البيانات يتم الحفاظ عليها طوال عملية التطوير. وبما أن الأداة محفوظة داخل حدود الشبكة، فيمكن حماية بيانات الشركة. وهذا يخفف من التسربات المحتملة من استخدام الأدوات الخارجية.

الحماية المقدمة باستخدام أداة الذكاء الاصطناعي الخاصة بالشركة هي أن النظام الخلفي محمي بواسطة مزود الذكاء الاصطناعي. ومع ذلك، تجدر الإشارة إلى أن حماية الواجهة الأمامية – كما هو الحال في حالات الاستخدام ونماذج النشر – تظل مسؤولية مؤسسة المستخدم. وهنا تظل حوكمة البيانات أمرًا أساسيًا ويجب اعتبارها عنصرًا أساسيًا في أي عملية تطوير عند نشر أدوات الذكاء الاصطناعي التوليدية.

يقول أرمسترونج سميث: “لقد أشرنا إليه دائمًا على أنه نموذج المسؤولية المشتركة”. “يتحمل مقدمو النظام الأساسي المسؤولية عن البنية التحتية والمنصة، ولكن ما تفعله بها فيما يتعلق ببياناتك ومستخدميك هو مسؤولية العميل. يجب أن يكون لديهم الحكم الصحيح. الكثير من عناصر التحكم هذه مدمجة بالفعل بشكل افتراضي؛ عليهم فقط الاستفادة منها.

الوعي بين المستخدمين

بمجرد توفر أدوات الذكاء الاصطناعي التوليدية داخل الشركة، يجب أن يكون الموظفون على دراية بوجودها حتى يتم استخدامها. قد يكون تشجيع اعتمادها أمرًا صعبًا إذا قام الموظفون بتطوير طريقة عمل تعتمد على استخدام منصات GenAI الخارجية.

على هذا النحو، فإن برنامج التوعية الذي يروج لأداة الذكاء الاصطناعي التوليدية من شأنه تثقيف المستخدمين حول إمكانية الوصول إلى الأداة ووظائفها. الاعتدال على الإنترنت يمكن للأنظمة أيضًا إعادة توجيه المستخدمين من الأنظمة الأساسية الخارجية إلى أداة GenAI الداخلية.

الذكاء الاصطناعي التوليدي موجود ليبقى، وعلى الرغم من أن التوقعات قد بلغت ذروتها، فمن المرجح أن تنمو استخداماته وتصبح في كل مكان.

“أعتقد أنه بالنسبة للعديد من الشركات، حيث سترى بالتأكيد أن مايكروسوفت تركز على هذا المفهوم وكيل يقول هندرسون: “الذكاء الاصطناعي التوليدي”. “هذا هو المكان الذي تقوم فيه بإجراء عملية تجارية وتكتشف كيف يمكن للوكيل أن يخدم المؤسسة داخليًا.” يمكن للوكيل العمل ضمن شبكة المؤسسة وتنفيذ وظائف محددة، مثل جدولة الاجتماعات أو إرسال الفواتير.

على الرغم من أن الذكاء الاصطناعي التوليدي يعد تقنية جديدة، يمكنها تخفيف المهام الدنيوية والمستهلكة للوقت، إلا أن حماية البيانات لا تزال تشكل مصدر قلق رئيسي. ولذلك يتعين على المؤسسات توعية الموظفين بالمخاطر التي يفرضها استخدام الأدوات الخارجية والحصول على أدوات الذكاء الاصطناعي التوليدية المناسبة داخل شبكتهم الخاصة لحماية قدسية بياناتهم.

ويختتم أرمسترونج قائلاً: “كما نعلم مع التكنولوجيا، كلما أصبحت أكثر سلعة، سينخفض ​​السعر، مما يعني أن الذكاء الاصطناعي سيكون أكثر انتشارًا في جميع المجالات وسيكون لديك المزيد من الخيارات حول النموذج الذي يجب استخدامه”. سميث.



Source link

زر الذهاب إلى الأعلى