الأمن السيبراني

كيفية تجنب مقبرة إثبات مفهوم GenAI


الذكاء الاصطناعي التوليدي (GenAI) هو الموضوع الأكثر سخونة في مجال التكنولوجيا اليوم، حيث تسارع الشركات في مختلف الصناعات إلى بناء أدلة مفاهيمية خاصة بها. وتجرب المؤسسات حالات استخدام، حيث تدير الشركات الأكبر العديد من أدلة المفاهيم. وتشير هذه التجارب الواسعة النطاق إلى حرص عالمي على الاستفادة من إمكانات الذكاء الاصطناعي التوليدي لصالح المؤسسة.

إن إنشاء دليل إثبات لـ GenAI ليس بالأمر الصعب. إنها عملية بسيطة تتكون من ثلاث خطوات: اختيار مزود سحابي (مثل Azure أو AWS أو Google)، واختيار نموذج لغة كبير شائع (LLM) من مزود السحابة، وتطوير دليل إثبات باستخدام نمط التوليد المعزز بالاسترجاع (RAG) الشائع لتحسين الناتج.

ومع ذلك، ينتهي الأمر بالعديد من منتجات POC إلى تجميع الغبار في “مقبرة POC”، وتفشل في التقدم إلى الإنتاج.

بناءً على خبرتنا في بناء العديد من مفاهيم GenAI الإثباتية، حددنا أكثر المزالق شيوعًا التي تؤدي إلى فشل POC وكيفية التغلب عليها لضمان نجاح تجارب GenAI.

ما وراء الضجيج: اختيار حالة الاستخدام الصحيحة

أحد الأسباب الرئيسية لفشل إثباتات المفهوم هو أنها تستند إلى حالة استخدام تم اختيارها بشكل سيئ. لا تنجرف وراء الضجيج من خلال بناء إثبات مفهوم لمجرد إنشاء واحد. حدد حالة استخدام يقودها العمل مع عائد واضح على الاستثمار (ROI) وقم بمحاذاةها مع مقاييس أداء عملك الأساسية. ركز على الكفاءة التشغيلية، وتوفير التكاليف، وتدفقات الإيرادات الجديدة، أو تعزيز الابتكار. استخدم عدسة استراتيجية طويلة الأجل بدلاً من التألق قصير الأجل. ركز على سيناريوهات “الفوز الواضح” التي تقدم قيمة عالية ويمكن تحقيقها ضمن قيود الموارد الخاصة بك (الميزانية، والبيانات، والمهارات، والوقت).

متعلق ب:معالجة الأسئلة الشائعة حول الذكاء الاصطناعي التوليدي

مجموعة التقنيات: التركيز على التكامل وليس الهوس

في حين أن مجموعة تقنيات GenAI بأكملها قد تبدو معقدة، فلا تتورط في الإفراط في تحليل اختيار كل مكون من مكونات التكنولوجيا. تقدم معظم شركات الخدمات السحابية خيارات مماثلة لـ LLM، وتتطور التقنيات باستمرار. اختر LLM الأكثر منطقية وشعبية دون التركيز كثيرًا على التقييم العلمي. يتم إصدار نماذج أكبر وأفضل كل أسبوع. تأكد من أن البنية التحتية مرنة بما يكفي للاستفادة من واجهات برمجة التطبيقات واستبدال المكونات الرئيسية بأخرى جديدة.

ركز على التحدي الأكبر المتمثل في جمع كل شيء معًا: دمج البيانات والهندسة السريعة وقابلية التوسع وإمكانية المراقبة وأدوات الأمان والحوكمة الأخرى للتوصل إلى حل فعال.

البيانات هي الملك: الجودة أهم من الكمية

قد تشكل البيانات غير الكافية أو ذات الجودة الرديئة عقبة كبيرة. لذا، قم بتطوير استراتيجية بيانات تعطي الأولوية لجودة البيانات والحوكمة. يجب أن تستهدف جاهزية البيانات البيانات ذات القيمة العالية بدلاً من الاستهداف الشامل. تأكد من أن لديك الحقوق القانونية وحقوق الملكية الفكرية لاستخدام البيانات التي تدعم تطبيق الذكاء الاصطناعي الخاص بك.

متعلق ب:9 مفاهيم لمستقبل العمل تحتاج إلى مزيد من الاهتمام

كبح الهلوسة بالدقة والتحكم

لدى الإدارة العليا مخاوف بشأن قيود الذكاء الاصطناعي مثل الهلوسة والتحيزات، والتي يمكن أن تؤدي إلى نتائج خاطئة أو منحرفة. وفي حين لا يوجد حل مثالي، فإن الجمع بين عدد قليل من التقنيات يمكن أن يخفف من هذه المخاطر.

توفر معظم تطبيقات GenAI المبنية على نمط RAG الشهير سياقًا مؤسسيًا لـ LLMs العامة. يعد بناء RAG أمرًا سهلاً، ولكن بناء RAG عالي الجودة أمر صعب. يمكن لتطبيقات RAG الأساسية إرجاع معلومات غير صحيحة وغير ذات صلة. يمكن أن تعاني أيضًا من ضعف الأداء والاستخدام غير الفعّال للموارد الباهظة الثمن، أو لا يمكنها التوسع إلى أحجام كبيرة من بيانات المؤسسة. يمكنك تحسين RAG خلال دورة حياة التطوير باستخدام التجزئة الذكية واختيار نموذج التضمين واختيار قاعدة بيانات المتجهات والتخزين المؤقت الدلالي وما إلى ذلك.

يمكن للهندسة السريعة أن تحسن الدقة بشكل كبير. أشرك خبراء المجال في هذه العملية لضمان فهم برنامج الماجستير في القانون لسياق مؤسستك بشكل كافٍ. ركز على بيانات التدريب عالية الجودة، وحدد أطوال الاستجابة للتحكم في المخرجات، واطلب الاستشهادات لتحسين الدقة. قم ببناء حواجز أمان لتوجيه الأسئلة المعقدة إلى الخبراء البشريين والحفاظ على الإشراف البشري من خلال مراقبة النموذج وردود فعل المستخدم.

متعلق ب:استخراج أقصى قيمة من الذكاء الاصطناعي التوليدي

خصوصية البيانات: معالجة المخاوف الأمنية

تظل أمان البيانات تحديًا كبيرًا مع GenAI. يعد تأمين بياناتك بشكل صحيح في السحابة باستخدام عناصر تحكم الوصول المناسبة أمرًا بالغ الأهمية. يجب عليك أيضًا تصفية المعلومات الخاصة في البيانات أو من مخرجات LLM. للحصول على مستوى أمان أعلى، ضع في اعتبارك برامج LLM المستضافة ذاتيًا. يتضمن ذلك تنزيل برنامج LLM مفتوح المصدر مثل Llama 3 وتشغيله على البنية الأساسية الخاصة بك. يوفر لك هذا النهج تحكمًا أفضل في خصوصية البيانات وأمانها ولكنه يثقل كاهلك بمسؤولية إدارة البنية الأساسية.

أخلاقيات الذكاء الاصطناعي: بناء الثقة والشفافية

يجب على الإدارة أن تكون واثقة من أن مبادرات الذكاء الاصطناعي الخاصة بها أخلاقية ومسؤولة.

لتوسيع نطاق GenAI في المؤسسة، يجب عليك إنشاء منصة LLMOps مع ممارسات الذكاء الاصطناعي المسؤولة الصحيحة المضمنة في جميع أنحاء عملية التطوير. سيضمن هذا تضمين الاعتبارات الأخلاقية وغيرها، مثل القدرة على التفسير. إن تشكيل مركز التميز GenAI (COE) يمكن أن يدفع هذه الحوكمة عبر المؤسسة.

ما وراء إثبات المفهوم: تقدير التكلفة بشكل واقعي

إن التكاليف غير المتوقعة قد تؤدي إلى تعطيل المشاريع. إن سعر LLM لا يتجاوز 10% إلى 15% من التكلفة الإجمالية. احصل على تقدير شامل لتكاليف البناء والصيانة المستمرة. تشمل تكاليف البناء إعداد البيانات وتخزينها، ونموذج التضمين والتحويل إلى متجهات، وتخزين المتجهات، والأمان والامتثال، والاستضافة السحابية، والتطوير، والاختبار، والهندسة السريعة. تكاليف الصيانة أعلى من تكلفة البناء ويجب أن تشمل دعم التطبيق، وتحديث البيانات، والترقية أو التبديل إلى LLMs جديدة، والمراقبة، والقدرة على الملاحظة، ودعم المستخدم، والتدريب.

إن تجنب مقبرة إثباتات المفهوم يتطلب التخطيط الاستراتيجي، والاختيار الدقيق لحالات الاستخدام المؤثرة، واستراتيجية بيانات قوية، ومعالجة المخاوف المتعلقة بالدقة والخصوصية والأخلاقيات. ومن خلال تجنب الأخطاء الشائعة، يمكن للمؤسسات تحويل إثباتات المفهوم الواعدة إلى حلول GenAI ناجحة وجاهزة للإنتاج والتي تحقق قيمة تجارية كبيرة.





Source link

زر الذهاب إلى الأعلى