معالجة الأسئلة الشائعة حول الذكاء الاصطناعي التوليدي
مع وجود الذكاء الاصطناعي التوليدي (GenAI) في مقدمة أولويات المؤسسة، فإننا نرى القادة عبر مجموعة C-suite يستفسرون عنه أثناء استكشافهم للاستثمارات في هذه التكنولوجيا الجديدة. ومع التركيز على قيمة الأعمال وحالات الاستخدام والتأثير على القوى العاملة والأمن، فإن تأثيرات GenAI لها آثار بعيدة المدى.
فيما يلي بعض الأسئلة الأكثر شيوعًا التي يطرحها قادة المؤسسات حول التكنولوجيا وما هي أحدث التوصيات لمعالجة هذه الأسئلة.
1. كيف تقوم بعض المنظمات بتحديد حالات استخدام GenAI المناسبة وفحصها وتمويلها؟
تعمل المنظمات الأكثر تقدمًا على إنشاء منهج تعليمي مستمر لـ GenAI لبناء الوعي وزيادة المعرفة وتعزيز الإبداع بين موظفيها. يغذي هذا النهج عملية ديناميكية ومتكررة لجمع الأفكار وحالات الاستخدام بطريقة منهجية.
تستخدم الفرق المستهدفة متعددة التخصصات بعد ذلك أطر العمل، مثل مصفوفة قيمة حالة الاستخدام، لفحص الأفكار ومقارنتها بناءً على قيمة الأعمال والجدوى. في هذه المرحلة، يمكن للمديرين التنفيذيين وقادة التكنولوجيا (المسؤولين عن الذكاء الاصطناعي أو التحليلات أو البيانات أو التطبيقات أو التكامل أو البنية التحتية) العمل معًا لتحديد كيفية فحص وتمويل مبادرات الذكاء الاصطناعي المختلفة. ومن أجل القيام بذلك، ينبغي عليهم النظر في التكلفة والقيمة والمخاطر.
2. كيف تقوم المؤسسات بمواءمة مبادرات GenAI مع أهداف العمل وتقييم قيمة الأعمال؟
لتقييم القيمة التجارية لـ GenAI وتحديد ما إذا كانت تتوافق مع أهداف العمل، يجب على المؤسسات إنشاء إطار عمل يحدد هذه الفئات. هناك ثلاث فئات يجب مراعاتها عند إنشاء إطار عمل لاستثمارات GenAI:
-
الدفاع – المكاسب الإضافية والهامشية والابتكارات الصغيرة
-
يمتد — النمو في حجم السوق أو الوصول إليه أو الإيرادات أو الربحية
-
انقلب – خلق أسواق ومنتجات جديدة
يجب على المسؤولين عن الذكاء الاصطناعي، وكذلك القيادة التنفيذية، تقييم الفوائد والتكلفة المحتملة لاستثمارات GenAI الجديدة. يمكن إجراء التجربة بتكلفة زهيدة في معظم حالات الاستخدام.
3. ما هي المخاطر التنظيمية المتعلقة باستخدام LLM؟
اعتمادًا على مواقعها و/أو نطاق عملها، تواجه المؤسسات العديد من القيود المختلفة المحتملة المتعلقة باستخدامها لنماذج اللغات الكبيرة (LLMs). من الضروري التعامل مع المتخصصين القانونيين قبل تصميم أو نشر أو استخدام أي LLM. وتختلف المخاوف بشكل كبير عبر الولايات القضائية، ولا يزال يتعين فهم تأثيرات التشريعات القادمة. أما بالنسبة لـ LLMs ذات الأغراض العامة التي تقدمها أطراف ثالثة، فغالبًا ما يجد المستخدمون النهائيون أنه من المستحيل التحكم في المخاطر المتعلقة بمكان معالجة البيانات أو إرسالها، وشرعية بيانات/طرق التدريب، وموثوقية المخرجات واستصوابها (على سبيل المثال، المعلومات الضارة والكاذبة). )، وشفافية التصميم والتدريب ووظائف النموذج.
قد تأتي مخاوف الامتثال من الملكية الفكرية والخصوصية وحماية البيانات والقوانين التي تركز على التكنولوجيا الخاصة بالذكاء الاصطناعي. قد تكون هناك حاجة للتأكد من أن متطلبات الخصوصية والسرية تمتد إلى ما هو أبعد من المحتوى الفوري وبيانات التدريب/ما قبل التدريب، ويجب أن تغطي سجلات استعلامات المستخدم، وبيانات سياق المؤسسة للهندسة السريعة، وبيانات التدريب للضبط الدقيق.
4. كيف ينبغي للمؤسسات تطوير نموذج حوكمة GenAI لإدارة حلول GenAI؟
هناك حاجة إلى سياسات وإرشادات إضافية لاستخدام GenAI بشكل مسؤول وإدارة القيود والمخاطر المتعلقة بمجالات مثل الثقة والعدالة والملكية الفكرية والأمن.
يجب أن تكون إدارة GenAI مكملة ومتوافقة مع الإدارة الحالية للذكاء الاصطناعي والبيانات وتكنولوجيا المعلومات والمجالات الأخرى. وبالإضافة إلى ذلك، ينبغي أن تكون متوافقة مع القواعد التنظيمية الناشئة، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، فضلا عن القيم الإقليمية والثقافية والأخلاقية.
لكي تكون فعالة، يجب تنفيذ حوكمة GenAI من خلال أدوار ومسؤوليات وإجراءات واتصالات وجلسات توعية وتدريب محددة بوضوح. وينبغي تفعيلها بشكل أكبر من خلال المبادئ التوجيهية العملية ودعم الأدوات لتطوير أنظمة الذكاء الاصطناعي ونشرها ومراقبتها. عادةً ما تقع مسؤولية قيادة وتنسيق حوكمة الذكاء الاصطناعي على عاتق مركز التميز في الذكاء الاصطناعي، والذي تملكه قيادة عليا أو على المستوى التنفيذي وغالبًا ما يدعمه مجلس استشاري.
5. كيف ستتأثر القوى العاملة؟
سيكون تأثير GenAI على المدى القريب هو في المقام الأول زيادة الأنشطة أو المهام المستهدفة. في معظم الحالات، سيكون تخفيض الوظائف أو القضاء عليها محدودًا خلال السنتين أو الثلاث سنوات القادمة. ينصب التركيز الأساسي للعديد من المؤسسات على الملف التعريفي “للساعين إلى الإنتاجية” باستخدام الذكاء الاصطناعي اليومي. لقد شرع عدد محدود من المنظمات في “الذكاء الاصطناعي الذي يغير قواعد اللعبة”. سوف يظهر التأثير الذي ستحدثه GenAI على القوى العاملة على أساس كل حالة على حدة. وسوف تختلف حسب الصناعة والجغرافيا والمهمة والتعقيد التنظيمي. ويعتمد مدى هذا التأثير على الإستراتيجية، والتنفيذ، وإدارة المخاطر، والحوكمة، وخيارات التكنولوجيا، والقدرة على توليد الثقة.
الدور الذي يتم الاستفسار عنه بشكل متكرر هو قائد استراتيجية الذكاء الاصطناعي وتنفيذها، أي رئيس الذكاء الاصطناعي. لا تحتاج معظم المنظمات إلى رئيس تنفيذي للذكاء الاصطناعي. ومع ذلك، فهم بحاجة إلى قائد لتنسيق نهج شامل أو متكامل للذكاء الاصطناعي وGenAI مع حوكمة متعددة التخصصات. يجب أن يكون التركيز على استراتيجية عمل مملوءة بالذكاء الاصطناعي بدلاً من خارطة طريق تكنولوجيا الذكاء الاصطناعي التي تتنكر في شكل استراتيجية.
6. كيف يمكنني الاختيار بين النماذج مفتوحة المصدر والنماذج الخاصة؟
تشمل الفوائد الرئيسية للنماذج مفتوحة المصدر إمكانية التخصيص، والتحكم بشكل أفضل في خيارات النشر، والقدرة على الاستفادة من التطوير التعاوني، وشفافية النموذج، وتعزيز الخصوصية والأمان جزئيًا بسبب الشفافية، وإمكانية تقليل تقييد البائعين. إلى جانب النماذج مفتوحة المصدر ذات الأغراض العامة، سيكون هناك الكثير من برامج LLM الخاصة بمهام مفتوحة المصدر والتي يمكن للمؤسسات الاختيار من بينها.
يمكن لبعض المؤسسات الاستفادة من البنى التحتية السحابية (البنية التحتية كخدمة أو عبر واجهات برمجة التطبيقات) لضبط النماذج مفتوحة المصدر والاستدلال عليها. يمكن للمؤسسات الأخرى اختيار نماذج أصغر مفتوحة المصدر وإجراء ضبط دقيق خفيف الوزن (ضبط التعليمات) ثم استضافتها في مكان العمل. وبالإضافة إلى ذلك، يجب على الشركات أن تأخذ في الاعتبار عوامل أخرى.
7. هل هناك أي مخاوف أمنية فيما يتعلق بحلول LLM؟
تظل المخاوف الأمنية الرئيسية المتعلقة بـ LLM هي تسرب البيانات والحقن السريع. تختلف أسطح الهجوم اعتمادًا على كيفية استهلاك LLMs. أما بالنسبة لتطبيقات مثل ChatGPT، فإن أسطح الهجوم الرئيسية الخاصة بها هي المطالبات، والتي يمكن أن تكون عرضة لإساءة استخدام منطق الأعمال والحقن. يمكن أن تشكل مخرجات LLM خطرًا أيضًا لأنها قد تتضمن روابط ومحتوى ضارًا. عند دمج LLM لجهة خارجية عن طريق بناء طبقة التنسيق الخاصة بها (على سبيل المثال، المطالبات وRAG)، ستشاهد سطح الهجوم يتوسع، خاصة فيما يتعلق بأمان استدعاءات واجهة برمجة التطبيقات (API).
بشكل عام، إذا تمكنت الشركات من معالجة هذه الأسئلة، فيجب أن تكون في طريقها إلى جعل GenAI أداة تمييز لأعمالها.