أخبار التقنية

كيف لا تنطلق من القضبان مع AIC


كانت الضجيج قوية في الذكاء الاصطناعي (AI) وكانت فوائد العمل المحتملة حقيقية. ومع ذلك ، أكبر استقلال يعني أنه يمكنك الخروج من القضبان دون إدخال الدرابزين من البداية لتقليل المخاطر وتجنب تفجيرات التكلفة.

يقول Ev Kontsevoy ، الرئيس التنفيذي في منصة إدارة الهويات ، إن الخبر السار هو أن لدينا بالفعل التحكم في الوصول النظرية ، المدعومة من الرياضيات الصلبة: “لذلك ، نحن نعرف كيف يجب القيام بذلك ولا نحتاج إلى ابتكار أي شيء جديد.”

على سبيل المثال ، يحتاج وكلاء الذكاء الاصطناعي في مرحلة البيانات إلى قيود على الوصول إلى المعلومات. من منظور الدرابزين ، يمكن أن يكون هذا “مشكلة أكثر فاعلية” مقابل النجاح أو فشل تطبيق الكمبيوتر المحمول من نوع Copilot ، على سبيل المثال.

أولاً ، اكتشف الهوية التي ستحصل عليها الذكاء الاصطناعي: لا يمكن أن تكون مجهولة. في الواقع ، فإن وجهة نظر Kontsevoy هي أن وكلاء الذكاء الاصطناعى يجب أن يكون لديهم نوع الهوية المستخدمة بالفعل للمهندسين البشريين ، والآلات التي تعمل على تشغيل أعباء العمل وتطبيقات البرامج.

يقول كونسيفوي: “عندما تنتهك نظرية التحكم في الوصول ، فهذا بسبب تجزئة الهوية”. “على سبيل المثال ، يخلق تجزئة الهوية في DataCentres فرصة للمتسللين لاستغلالهم ووكلاء الذكاء الاصطناعى لسوء التصرف”.

للإجابة على الأسئلة ، يحتاج Ai Agent إلى الوصول إلى البيانات التي يتم تشغيلها ، ومناسبة ومتاحة. يحتاج إلى التحدث إلى قواعد البيانات وفهم محتوياتها. يجب تطبيق القيود – “أو الدرابزين” – وفقًا لذلك. الموارد البشرية ، على سبيل المثال ، قد تحصل على وصول لطرح أسئلة حول تعويض الموظفين (أو لا ، اعتمادًا على الولاية القضائية). تجزئة الهوية يجعل فرض السياسات والامتثال صراعًا.

الحاجة الثانية هي توحيد كيفية الوصول إلى معلومات الوكلاء. الأنثروبور بروتوكول سياق النموذج (MCP)، أعلن نوفمبر 2024، يعيّن كيفية تقديم التطبيقات السياق إلى نماذج اللغة الكبيرة (LLMs) ، بما في ذلك لوكلاء البناء ، وسير العمل المعقدة في قابلية التشغيل البيني.

يقول كونسيفوي: “لقد تم تبني MCP بسرعة كبيرة”. “وعلى الرغم من [MCP] لم يأت مع تطبيق مرجعي ، فإن المواصفات نفسها مفتوحة بما يكفي لإضافة التحكم في الوصول في الأعلى. “

لذلك ، لا تحتاج الشركات بالضرورة إلى أن يكون لديها خبرة أمنية لتعيين دراسة أمنية. إذا كان وكلاءك “يتحدثون” MCP ، فيمكنهم نشر حل تقني لتعيين تراخيص الدرابزين هذه. تعمل الطريقة أيضًا مع أنواع أخرى من الدرابزين ، بما في ذلك التحكم في التكاليف ، كما يقول كونتسيفوي.

تبني الأيام الأولى

حتى الآن ، هناك أمثلة قليلة تعمل في الإنتاج. بالنسبة للعديد من المنظمات ، لم يتجاوز العميل منظمة العفو الدولية بعد محادثة.

النظر في أن وكلاء الذكاء الاصطناعى قد يدخلون مخرجات نموذج الذكاء الاصطناعى في الآخر ويعملون على تحقيق هدف دون إشراف كامل. وفق IBMسلسلة الفيديو على وكلاء الذكاء الاصطناعى ، يجب النظر في الدرابزين في الطرازات ، أدوات وتنسيق طبقات.

يقول بيتر فان دير ، رئيس مختبر الذكاء الاصطناعي في Pegasystems ، AI Lab Automation ، إن العديد من المؤسسات لا تشعر أنها ستخفف من تحديات الوكلاء مثل الحوكمة والمخاطر هذا العام أو التالي. “البعض يذهب ،” لا يمكنهم حتى تمرير كابتشا “. ثم لديك المؤمنين يقولون ، “قم بإنشاء العديد من الوكلاء كما تريد ودعهم يركضون Amok”. يقول: “كلا المناهجان معيبتين”.

ابدأ بحالات استخدام الوائدين الفردي المحددة ، ومعرفة مدى جودة أدائها ، ووكلاء الأرض في مصنوعات الهندسة المعمارية ، وسير العمل ، وقواعد العمل ، والسياق المناسب والوصول إلى المستخدم وما إلى ذلك.

ثم على النقيض من الواقع – هل يقوم الوكلاء بالشيء الصحيح وهل يحققون أهدافهم؟ هذه هي أنواع الاستراتيجيات التي قد تنطبق عليها شركة لتمكين AIC AI.

“رمي مجموعة من المتطلبات ، والاستخدام عملية التعدين لرؤية العملية الفعلية (مقابل ما يخبرك به الناس أن العملية يجب أن تكون). يقول فان ديرتين: “قم بتنظيف ذلك ، ضع متطلبات أخرى ، ثم أعط ذلك كمدخلات في عوامل التصميم التي يمكن أن تساعدك”.

ثم يكون الإنسان في الحلقة لأنه يمكنك رؤية ما توافق عليه أم لا. عندها فقط تقوم بإنشاء تطبيق يمكن أن يعمل بشكل متوقع في وقت التشغيل. بالطبع ، إذا لم تتمكن من “أتمتة الأشياء بعيدًا” وتحتاج إلى إشراف بشري على كل شيء ، الوكلاء قد لا يكون الإجابة الصحيحة ، يضيف فان دير بوتن.

اختر الوكلاء المناسبين أو LLMs لكل جانب وبناء على ذلك. في التأمين ، قد يقوم أحد الوكلاء بتقييم المخاطر أو مطالبات أخرى ، بينما يتفاعل آخر مع موظفين آخرين أو حتى عميل نهائي. ثم ، هل الوكيل الذي يركز على المبيعات هو الإجابة الصحيحة في هذا الظروف؟ هذا يعتمد أيضًا – تحتاج إلى الوكيل الدقيق للسياق.

بعد ذلك ، قد تعمل طبقة وكيل في الأعلى من خلال “فهم” الخطوات الفردية أو سير العمل المحددة للاتصال – أو لا – في موقف معين ؛ حق واحد في النهاية قد يتحقق من العمل السابق. وعندما تضغط على حاجز على الطريق ، فإنك “تتصاعد إلى الإنسان”.

فقط أسفل المسار قد تفكر في الطبقات أنظمة متعددة الوكلاء في الأعلى حيث يتحدث الوكلاء المتخصصون لمهام معينة مع بعضهم البعض.

يقول فان دير بوتن: “تحتاج الأدوات إلى عمليات واضحة وقواعد وسياسات وربما نماذج تنبؤية غير تنكسية تقوم بتقييم احتمال الاحتيال أو ما شابه ذلك. اسحب السياق ، واحصل على صورة كاملة للوضع والطلب.”

قياس الفوائد

فكر في الأمر باعتباره أتمتة عملية روبوتية أكثر ذكاءً قليلاً (RPA) ، كما يقول سيمون جيمس ، استراتيجية البيانات والمدير الإداري لمنظمة العفو الدولية في Publicis Sapient. ابدأ بعمليات التعيين وتحديد والتي قد تستفيد من وكلاء الذكاء الاصطناعي مقابل الحكم البشري أو الأتمتة التقليدية. يمكن أن يساعد وضع إطار واضح ومتوافق.

كلما زادت الخيارات التي تدمجها ، زاد النطاق منظمة العفو الدولية لديه أن الأمور ببساطة تخطئ وكلما أصبح الأمر أكثر صعوبة في الحكم. ويضيف جيمس: “هناك عجلة من الوفاة تحدث في مكان ما بينما يتحدث العديد من الوكلاء مع بعضهم البعض ، حتى في التعليمات البرمجية القابلة للقراءة بالآلة ، وليس باللغة الإنجليزية ، مضيفًا إلى 20 نظامًا”.

لأن العميل الذكاء الاصطناعي جديد للغاية وغالبًا ما لا يكون لدى الناس مهارات، لا تزال الصناعة تكتشف الأمور. ربما يمكن أن يدير ثلاثة إجراءات أو وظائف مختلفة ، وقد حصلت على خيار بينهما ، ولكن لا يوجد خيار كبير هناك ، يحذر جيمس. “يتعلق الأمر بكيفية اتصال إصدار Salesforce ، على سبيل المثال ، بـ ERP أو CRM أو أي شيء آخر حتى يتمكنوا من تمرير المنطق بين بعضهم البعض ولم يكن التسليم مؤلمًا”.

يكرر دومينيك ويلينجتون ، مدير تسويق منتجات البيانات في منصة Snaplogic ، أن العديد من الأشخاص ما زالوا يكتشفون الأمور “الطريق الصعبة” في AICERIC AI: “يتورط المحامون والامتثال ، ويمكنهم طرح أسئلة صعبة قبل تسجيل الدخول إلى الإنتاج.

في كثير من الأحيان ، لن تعمل المجموعة الفرعية من المعلومات التي تعمل على تشغيل الطيار على النجاح. عندما ترغب في الاتصال بـ “جواهر التاج” – مثل قاعدة بيانات الشركات أو CRM – قد تحتاج إلى إعادة النظر في الوصول إلى تلك البيانات وإنفاذ السياسة والممارسة بشكل أكبر.

“إذا كنت AstraZeneca ، على سبيل المثال ، لا تريد أن ينتهي خط أنابيب الأدوية الخاص بك في بعض النماذج بيانات التدريبيقول: “إن وجود” الحقيقة الأرضية “أمر بالغ الأهمية. لم أضطر أبدًا إلى العودة أكثر من يومين في خلاصة الأخبار الخاصة بي لرؤية مثال لمحامٍ استشهد بسباق غير موجود لأنهم سألوا ChatGPT-وليست محامين فقط. “

بالطبع ، مع زيادة الاسترجاع (RAG) ، على سبيل المثال ، يمكنك تخصيص المعلومات المناسبة في متجر البيانات ، مع استجابة LLM بناءً على ما هو موجود في متجر بيانات معين ، مما يوفر التحكم في ما يراه أو يمكنه الرد عليه. مع إخفاء البيانات ، وجودة الخدمة (QOS) والتحكم في الوصول القائم على الأدوار ، يمكنك الذهاب بعيدًا ، كما يوافق ويلنجتون.

ومع ذلك ، فإن الاعتبارات تدير سلسلة من التحديات الأخلاقية إلى الأخطاء المضاعفة ، ومخاطر الأمن ، قابلية التوسع، شرح القابلية للمساءلة والتحيز للخصوصية ، بكل بساطة ، احتمال وجود عواقب غير مقصودة. العميل الذكاء الاصطناعى يحتاج إلى شفافية ، ولكن ليس من السهل معرفة كيف.

كل هذا يبدو مألوفًا لتبني السحابة في أيام مبكرة-ولكن مع الذكاء الاصطناعي ، تسارعت الدورة من الضجيج إلى خيبة الأمل. ومع ذلك ، هناك من المتبنين الأوائل الذين يمكن تعلمهم من. “يمكن أن تكون الموجة الثانية الأكثر هدوءا التي تشير بالفعل إلى الطريق” ، يضيف ولنجتون.

يقول سونيل أغراوال ، كبير مسؤولي أمن المعلومات (CISO) في منصة AI Glean ، إن الأمر يستحق المعركة. يمكن لوكيل الذكاء الاصطناعى إعادة تشكيل كيفية القيام بالعمل ، والمساعدة في السطح وفهم البيانات المطلوبة. لكن تحجيم هذه الأنظمة بشكل آمن ومسؤولية أمر بالغ الأهمية.

يجب على الوكلاء احترام أدوار المستخدم و حوكمة البيانات السياسات من اليوم الأول ، وخاصة في البيئات الخاضعة للتنظيم للغاية ، وقابلية الملاحظة لما يجري أمر بالغ الأهمية. هذا يغطي البيانات التي يصلون إليها ، وكيف تسبب ونماذج النماذج التي يعتمدون عليها.

يقول Agrawal: “إن عوامل الذكاء الاصطناعى موثوقين فقط مثل البيانات التي يبنيون عليها”. “تتطلبها في المعرفة الداخلية الدقيقة والموحدة. والتهديدات مثل الحقن الفوري ، والانكماش ، والتلاعب النموذجي يتطلب دفاعات مخصصة. يساعد إطار الحوكمة القوي على ضمان عمل الوكلاء بأمان وأخلاقية ومتماشى مع السياسة التنظيمية.”



Source link

زر الذهاب إلى الأعلى