Gartner on Agentic AI: A Computer Weekly تعطل الوقت البودكاست
يعرّف Gartner الذكاء الاصطناعي (AI) بأنه كيانات برمجيات مدفوعة بالهدف منحت حقوقًا من قبل المنظمة للعمل نيابة عنها لاتخاذ القرارات بشكل مستقل. يقول Anushree Verma ، مدير المخرج في Gartner: “يمكن دمجها مع تقنيات الذكاء الاصطناعى التي لديها الذاكرة والتخطيط والاستشعار والأدوات وبعض الدرابزين لإكمال المهمة وتحقيق هدف معين”.
وتقول إن سؤالًا شائعًا يطرحه Gartner هو كيف يختلف Agency AI عن أتمتة العمليات الآلية (RPA) وأتمتة العمليات الآلية الذكية. وجهة نظرها هي أن RPA مكتوبة وله ناتج محدد مسبقا. ومع ذلك ، تقول: “عندما نتحدث عن Agency AI ، فإن هذا يعمل بمستويات مختلفة من الحكم الذاتي. يمكن أن يكون لديه تخطيط استباقي أيضًا ، ولكن تمييزه هو أنه يحتوي على مستوى معين من وكالة الذكاء الاصطناعى ، لذا فهو يعمل بشكل مستقل إلى حد ما ، ويعمل أيضًا على تحقيق هدف معين.”
إنها تعتقد أن أكبر تأثير لأنظمة الذكاء الاصطناعي هو أنها تغير مستقبل اتخاذ القرارات. “إنه لا يحلل مجموعات البيانات المعقدة ، ولكن يمكن أن يحدد نظام AIC AICLESTIC أنماطًا ويتصرف عليها.” بالنسبة إلى Verma ، هذا يعني أن نظام AIGE AICNE AIC يمكن أن يساعد العمل في حل المشكلات بشكل أفضل وتقليل وقت العمل.
بالنظر إلى أن شركات البرمجيات المؤسسية تقوم بتضمين تقنية AI AI Agency في منتجاتها ، فهناك خطر من أن تكون هذه الأنظمة المستقلة وتُنظر بشكل فعال. تقول فيرما إن حالات الاستخدام الأولي كانت حول أنظمة CRM ، حيث يتم استخدامها لتحسين تجربة المستخدم. يتم نشر مثل هذه الذكاء الاصطناعى بشكل عام في نهاية سير العمل بأكمله لتحسين تجربة المستخدم. ومع ذلك ، تقول: “إن القوة الحقيقية للوكيل هي عندما تبدأ في البحث في أتمتة أو تنظيم عملية الأعمال بأكملها ، واتخاذ القرارات بناءً على سير العمل المعقدة وأتمتة.”
يتمثل أحد الحاجز الرئيسي الذي يمنع استخدام أنظمة AICECANIC AI لتنسيق سير العمل المعقدة قرارات غير صحيحة تتم الآلية. سيؤدي هذا عدم الدقة إلى تحسين العمل الإضافي ، ولكن هناك القليل من الأدلة على أن تطبيقات المؤسسات يتم تطويرها مع التسامح مع الأخطاء المحتملة التي أدخلتها أنظمة AICEC AI.
يقول فيرما إن غارتنر شاهد الكثير من يتم التخلي عن مشاريع الذكاء الاصطناعي لأنهم لم يفكروا جيدًا ، بعد اختبار دليل المفهوم. “لم يتم تنفيذها بسبب رديء جودة البيانات أو ضوابط المخاطر غير الكافية، تصاعد التكاليف أو قيمة الأعمال غير الواضحة. ”
نظرًا لأن غالبية مبادرات العوامل من الذكاء الاصطناعى هي دليل على مشاريع المفاهيم ، تعتقد فيرما أن تحمل الخطأ لم يتم تقييمه بشكل كافٍ. وتقول إن سوق AIC AI لا يزال في مرحلة مبكرة جدًا من النضج. من المحتمل ، مع نضوج السوق ، من المحتمل أن تتم معالجة أسئلة التسامح مع الأخطاء.
يشهد Gartner تحولًا نحو نماذج محددة من المجال ونماذج أخف وزناً يمكن ضبطها. بمرور الوقت ، من المحتمل أن تعمل نماذج الذكاء الاصطناعى مثل الخبراء ، وتكمل المزيد من أنظمة AI Agenatic ، والتي قد تساعد في تحسين الدقة.