الأمن السيبراني

اهتموا بالفجوة: قادة الذكاء الاصطناعي يتقدمون مع انطلاقة ماجستير إدارة الأعمال


متى انفجر ChatGPT على الساحة، نما إلى 100.000.000 مستخدم في غضون ثلاثة أشهر. أسرع نمو في منتج جديد على الإطلاق، أظهر chatGPT قوة وإمكانات نماذج اللغات الكبيرة، LLMs. وسرعان ما تبعتها شركات جوجل وفيسبوك وأنتروبيك بنماذجها الخاصة.

فالشركات التي تبنت استراتيجيات وتقنيات وعمليات الذكاء الاصطناعي بشكل كامل تتسارع إلى الأمام، في حين تخاطر الشركات المتخلفة بالتخلف عن الركب. إن أقوى محركات الذكاء الاصطناعي حتى الآن هي حاملو شهادات الماجستير في القانون، وتقوم المؤسسات ذات التفكير التقدمي بتطوير استراتيجيات لتطبيق هذه الأداة الثورية.

لكن هل نماذج اللغات الكبيرة آمنة؟ هذا هو السؤال الأكثر شيوعًا الذي يطرحه العملاء. الخوف والارتباك صحيح جدا.

هل تعلم أنك لست بحاجة إلى مشاركة البيانات لتسريب المعلومات؟

إن مجرد طرح سؤال على ChatGPT يمكن أن يكشف عن المعرفة الداخلية حول الخطط المستقبلية لمؤسستك. ونصحت مايكروسوفت موظفيها بتجنب استخدام ChatGPT بسبب المخاطر الأمنية، على الرغم من كونها أكبر مساهم في OpenAI.

كيفية الاستفادة من LLMs بأمان ومسؤولية؟

ماجستير في القانون الخاص هي نماذج يتم تشغيلها داخل البنية التحتية الداخلية لتكنولوجيا المعلومات في المؤسسة دون الاعتماد على أي اتصالات خارجية. ومن خلال الاحتفاظ بهذه النماذج ضمن البنية التحتية الآمنة لتكنولوجيا المعلومات، يمكن حماية المعرفة والبيانات الخاصة بالمؤسسة.

تحتاج النماذج الخاصة إلى موافقة جميع أصحاب المصلحة في المنظمة ويجب إجراء تقييم للمخاطر قبل التنفيذ. وعندما يتم نشرها، يجب أن يكون لدى الشركات سياسات محددة جيدًا لاستخدامها. كما هو الحال مع أي مورد مهم لتكنولوجيا المعلومات، يجب تنفيذ التحكم في وصول الموظفين الرئيسيين خاصة عندما يتعاملون مع معلومات حساسة. تحتاج المنظمات المطلوبة للامتثال للمعايير، مثل ITAR (لوائح التجارة الدولية في الأسلحة)، وGDPR (اللائحة العامة لحماية البيانات) وHIPPA (قانون قابلية نقل التأمين الصحي والمساءلة)، إلى النظر في ما إذا كانت LLMs متوافقة أم لا. على سبيل المثال، تم القبض على محامين غير مدركين وهم يعدون قضايا على ChatGPT، وهو انتهاك واضح لامتياز المحامي وموكله.

باستخدام النماذج الخاصة، يمكن للمؤسسة التحكم في تدريب النموذج، مما يضمن أن مجموعة بيانات التدريب الخاصة بك مناسبة وأن النموذج الذي تقوم بإنشائه سيكون متوافقًا مع المعايير. نظرًا لأن النماذج ستتعامل بأمان مع البيانات الحساسة عند تشغيلها، فلن تحتفظ بأي معلومات في ذاكرتها قصيرة المدى، المعروفة باسم السياق. توفر هذه القدرة على تقسيم المعرفة بين التخزين الدائم والتخزين قصير المدى مرونة كبيرة في تصميم الأنظمة المتوافقة مع المعايير.

هناك ميزة كبيرة أخرى تتمتع بها النماذج الخاصة على ChatGPT وهي أنها تستطيع تعلم “المعرفة القبلية” داخل المؤسسة والتي غالبًا ما تكون مغلقة في رسائل البريد الإلكتروني والمستندات الداخلية وأنظمة إدارة المشاريع ومصادر البيانات الأخرى. يعمل هذا المخزن الغني الذي تم التقاطه في نموذجك الخاص على تعزيز قدرة النموذج على العمل داخل مؤسستك.

وتتسع الفجوة بين “من يملكون الذكاء الاصطناعي” و”من لا يملكون”. ولكن كما هو الحال مع أي تقنية جديدة، من المهم فهم المخاطر والمكافآت عبر المؤسسة قبل الانتقال إلى الحل. من خلال الإدارة الجيدة للمشروع ومشاركة جميع أصحاب المصلحة، يمكن للمؤسسات تنفيذ الذكاء الاصطناعي بشكل آمن وفعال من خلال LLMs الخاصة، مما يوفر الطريقة الأكثر أمانًا لنشر وكلاء الذكاء الاصطناعي المسؤولين.

أوليفر كينج سميث هو الرئيس التنفيذي لشركة SmartR AI، وهي شركة تعمل على تطوير التطبيقات بناءً على تطور التفاعلات والتغيرات السلوكية واكتشاف المشاعر.



Source link

زر الذهاب إلى الأعلى