3 طرق يمكن بها لـ CTO تعزيز المنظمة في عصر GenAI
القليل من التقنيات استحوذت على خيال الجمهور تمامًا مثل الذكاء الاصطناعي التوليدي. يبدو أنه مع مرور كل يوم، يتم إصدار روبوتات محادثة وإضافات وتطبيقات جديدة قائمة على الذكاء الاصطناعي للمستخدمين المتحمسين حول العالم.
وفقا ل استطلاع جارتنر الأخير لقادة تكنولوجيا المعلومات، 55% من المؤسسات إما تقوم بالتجربة أو في وضع الإنتاج باستخدام الذكاء الاصطناعي التوليدي. وهذا مقياس مثير للإعجاب بكل المقاييس، على الأقل بالنظر إلى أن عبارة “الذكاء الاصطناعي التوليدي” كانت بالكاد جزءًا من قاموسنا الجماعي قبل 12 شهرًا فقط.
ومع ذلك، على الرغم من وعد هذه التكنولوجيا بتسريع إنتاجية وكفاءة القوى العاملة لديها، إلا أنها تركت أيضًا حقل ألغام من المخاطر والمسؤوليات المحتملة في أعقابها. ان استطلاع أغسطس بواسطة بلاك بيري وجدت أن 75% من المؤسسات في جميع أنحاء العالم كانت تدرس أو تنفذ حظرًا على ChatGPT وتطبيقات الذكاء الاصطناعي التوليدية الأخرى في مكان العمل، مع الإشارة إلى الغالبية العظمى منها (67%) بالمخاطر التي تهدد أمن البيانات والخصوصية.
تنشأ مثل هذه المشكلات المتعلقة بأمن البيانات لأن مدخلات المستخدم وتفاعلاته هي الوقود الذي تعتمد عليه منصات الذكاء الاصطناعي العامة للتعلم والتحسين المستمر. وبالتالي، إذا شارك المستخدم بيانات الشركة السرية مع برنامج الدردشة الآلي (فكر في: خرائط طريق المنتج أو معلومات العميل)، فسيتم دمج هذه المعلومات في نموذج التدريب الخاص به، والذي قد يكشفه برنامج الدردشة الآلي بعد ذلك للمستخدمين اللاحقين. بالطبع، لا يقتصر هذا التحدي على منصات الذكاء الاصطناعي العامة، فحتى ماجستير إدارة الأعمال الداخلي للشركة الذي تم تدريبه على مجموعات البيانات الخاصة بها قد يجعل المعلومات الحساسة متاحة عن غير قصد للموظفين غير المصرح لهم بمشاهدتها.
ولتقييم هذه المخاطر وتخفيفها بشكل أفضل، اعتمدت معظم الشركات التي بدأت في اختبار مجالات الذكاء الاصطناعي التوليدي في المقام الأول على دورين رئيسيين للتنفيذ: كبير مسؤولي أمن المعلومات (CISO)، المسؤول في النهاية عن تأمين البيانات الحساسة للشركة؛ والمستشار العام، الذي يشرف على وظيفة الحوكمة والمخاطر والامتثال في المؤسسة. ومع ذلك، عندما تبدأ المؤسسات في تدريب نماذج الذكاء الاصطناعي على بياناتها الخاصة، سيكون من الخطأ عدم تضمين دور أساسي آخر في مداولاتها الإستراتيجية: وهو CTO.
أمن البيانات و CTO
في حين أن دور مدير التكنولوجيا التنفيذي سيختلف بشكل كبير اعتمادًا على المنظمة التي يخدمها، فإن كل مدير تكنولوجيا تنفيذي تقريبًا مسؤول عن بناء مجموعة التكنولوجيا وتحديد السياسات التي تملي كيفية استخدام البنية التحتية للتكنولوجيا على أفضل وجه. ونظرًا لهذا، فإن مدير التكنولوجيا التنفيذي لديه وجهة نظر فريدة يمكن من خلالها تقييم كيفية توافق مبادرات الذكاء الاصطناعي هذه على أفضل وجه مع أهدافها الاستراتيجية.
وتزداد أهمية رؤاهم الاستراتيجية مع زيادة عدد المؤسسات، التي قد تكون مترددة في المشاركة في مشاريع الذكاء الاصطناعي العامة، بدلاً من ذلك تختار الاستثمار في تطوير نماذج الذكاء الاصطناعي الخاصة بها والمدربة على بياناتها الخاصة. في الواقع، ركز أحد الإعلانات الرئيسية في مؤتمر DevDay الأخير لـ OpenAI على إصدار نماذج مخصصة، وهي نسخة مخصصة من خدمة ChatGPT الرائدة التي يمكن تدريبها خصيصًا على مجموعات البيانات الخاصة بالشركة. وبطبيعة الحال، من المرجح أن تحذو حذوها شركات ماجستير إدارة الأعمال الأخرى نظرا لحالة عدم اليقين السائدة حول أمن البيانات.
ومع ذلك، فإن مجرد اختيارك للتطوير داخليًا لا يعني أنك قد أحبطت جميع مخاطر الذكاء الاصطناعي. على سبيل المثال، لنأخذ بعين الاعتبار واحدة من أهم جواهر التاج في المؤسسات الرقمية اليوم: كود المصدر. مع قيام المؤسسات بدمج الذكاء الاصطناعي التوليدي بشكل متزايد في عملياتها، فإنها تواجه مخاطر جديدة ومعقدة تتعلق بإدارة التعليمات البرمجية المصدر. في عملية تدريب نماذج الذكاء الاصطناعي هذه، غالبًا ما تستخدم المؤسسات بيانات العملاء كجزء من مجموعات التدريب وتخزنها في مستودعات التعليمات البرمجية المصدر.
يمثل هذا الاختلاط بين بيانات العملاء الحساسة وكود المصدر عددًا من التحديات. في حين تتم إدارة بيانات العملاء عادةً ضمن قواعد بيانات آمنة، باستخدام نماذج الذكاء الاصطناعي التوليدية، يمكن أن تصبح هذه المعلومات الحساسة مدمجة في خوارزميات النموذج ومخرجاته. وهذا يخلق سيناريو حيث يصبح نموذج الذكاء الاصطناعي نفسه مستودعًا للبيانات الحساسة، مما يؤدي إلى طمس الحدود التقليدية بين تخزين البيانات ومنطق التطبيق. ومع الحدود الأقل تعريفًا، يمكن أن تنتشر البيانات الحساسة بسرعة عبر أجهزة ومنصات متعددة داخل المؤسسة، مما يزيد بشكل كبير من خطر التعرض للخطر عن غير قصد من قبل أطراف خارجية، أو في بعض الحالات، من قبل المطلعين الخبيثين.
إذًا، كيف يمكنك أن تأخذ شيئًا تقنيًا ومجردًا مثل نموذج الذكاء الاصطناعي وتحوله إلى شيء مناسب للمستخدمين – كل ذلك دون تعريض بياناتك الأكثر حساسية للخطر؟
3 طرق يمكن أن يساعد بها CTO في تحقيق التوازن
يفهم CTO في كل مؤسسة مبدأ المقايضات. إذا طالب مالك وحدة الأعمال بأداء أسرع لتطبيق معين، فقد يلزم تحويل الموارد أو الميزانية من مبادرات أخرى. نظرًا لرؤيتهم من أعلى إلى أسفل لبيئة تكنولوجيا المعلومات وكيفية تفاعلها مع الخدمات السحابية التابعة لجهات خارجية، فإن CTO في وضع فريد لتحديد استراتيجية الذكاء الاصطناعي التي تبقي أمن البيانات في قمة أولوياتها. فكر في الطرق الثلاث التالية التي يمكن لمسؤول التكنولوجيا التنفيذي من خلالها التعاون مع أصحاب المصلحة الرئيسيين الآخرين وتحقيق التوازن الصحيح:
1. ثقف قبل أن تستأصل: نظرًا للمخاطر الأمنية والتنظيمية العديدة الناجمة عن الكشف عن البيانات عبر الذكاء الاصطناعي التوليدي، فمن الطبيعي أن تقوم العديد من المؤسسات بحظر استخدامها على المدى القصير. ومع ذلك، فإن مثل هذه العقلية قصيرة النظر يمكن أن تعيق الابتكار على المدى الطويل. يمكن لـ CTO المساعدة في ضمان أن سياسة الاستخدام المقبول للمؤسسة تحدد بوضوح الاستخدامات المناسبة وغير المناسبة لتقنيات الذكاء الاصطناعي التوليدي، مع تفصيل السيناريوهات المحددة التي يمكن من خلالها استخدام الذكاء الاصطناعي التوليدي مع التركيز على معايير أمن البيانات والامتثال.
2. عزل وتأمين مستودعات كود المصدر: في اللحظة التي يتم فيها تقديم الملكية الفكرية إلى نموذج الذكاء الاصطناعي، تصبح مهمة غربلتها أكثر صعوبة بشكل كبير. تقع على عاتق CTO مسؤولية التأكد من أن الوصول إلى مستودعات التعليمات البرمجية المصدر يتم التحكم فيه ومراقبته بإحكام. يتضمن ذلك إنشاء الأدوار والأذونات لتحديد من يمكنه الوصول إلى التعليمات البرمجية أو تعديلها أو توزيعها. من خلال فرض ضوابط الوصول الصارمة، يمكن لـ CTO تقليل مخاطر الوصول غير المصرح به أو تسرب البيانات الحساسة بالإضافة إلى إنشاء عمليات تتطلب مراجعة التعليمات البرمجية والموافقة عليها قبل دمجها في المستودع الرئيسي.
3. امنح المستخدمين خيارات لإلغاء الاشتراك: يعد السماح للمستخدمين بإلغاء الاشتراك أمرًا بالغ الأهمية لبناء الثقة والشفافية بين الشركة ومستخدميها – الذين من المرجح أن يتفاعلوا مع تقنيات الذكاء الاصطناعي عندما يشعرون بأن خصوصيتهم محترمة ومحمية. يتمتع CTO بالخبرة الفنية لفهم كيفية جمع البيانات ومعالجتها واستخدامها داخل أنظمة الذكاء الاصطناعي، وهو أمر ضروري في إنشاء آليات إلغاء الاشتراك الفعالة التي تحمي بيانات المستخدم بشكل حقيقي. يمكن أن يلعب CTO أيضًا دورًا رئيسيًا في تحديد الاتجاه الاستراتيجي لكيفية نشر حلول الذكاء الاصطناعي هذه بشكل مسؤول، مما يضمن إعطاء الأولوية لخصوصية المستخدم وأمن البيانات ودمجها في استراتيجية التكنولوجيا للشركة.