أخبار التقنية

تستعد شركة كوالكوم لثورة استدلال الذكاء الاصطناعي


رد كوالكوم على نفيديا الهيمنة في سوق التسريع الاصطناعي هي زوج من الرقائق الجديدة لرفوف الخوادم، A1200 وA1250، استنادًا إلى تقنية وحدة المعالجة العصبية (NPU) الحالية.

ومن الجدير بالذكر أن شركة كوالكوم طورت بنية ذاكرة جديدة لجهاز A1250 تعتمد على حوسبة الذاكرة القريبة، والتي تدعي أنها توفر “قفزة أجيال في الكفاءة والأداء لأعباء عمل استدلال الذكاء الاصطناعي”. وهو يفعل ذلك، وفقًا لشركة كوالكوم، من خلال توفير عرض نطاق ترددي فعال للذاكرة أكبر من 10 أضعاف واستهلاك طاقة أقل بكثير.

يتم وضع A1200 بواسطة Qualcomm على أنه مصمم خصيصًا للتشغيل استنتاج الذكاء الاصطناعي باستخدام مجموعة من رفوف الخادم. ادعت الشركة أنها مصممة لتقديم تكلفة إجمالية منخفضة للملكية (TCO). قالت Qualcomm إن A1200 قد تم تحسينه ليناسب نموذج اللغة الكبير (LLM) واستدلال النموذج متعدد الوسائط (MMM) وأعباء عمل الذكاء الاصطناعي الأخرى.

لمرافقة A1200 وA1250، توفر Qualcomm مجموعة من البرامج، والتي قالت إنها توفر “توافقًا سلسًا مع أطر عمل الذكاء الاصطناعي الرائدة” وتمكن المؤسسات والمطورين من نشر ذكاء اصطناعي مولد آمن وقابل للتطوير عبر مراكز البيانات.

كما يشير المحلل Forrester، يبدو أن هذه الرقائق تستهدف Nvidia و AMD من خلال منتجات GPU والمنتجات ذات الحجم الكبير. وفقًا لما ذكره ألفين نجوين، كبير محللي شركة Forrester، فإن عروض Qualcomm منطقية نظرًا لأن سوق استدلال الذكاء الاصطناعي على نطاق الحامل مربح للغاية وأن المزودين الحاليين لأجهزة الاستدلال القائمة على الحامل غير قادرين على تلبية الطلب بالكامل.

وأضاف: “يبدو أن جوهر الذكاء الاصطناعي الخاص بهم يعتمد على تصميمات NPU الحالية، لذا فإن هذا يقلل من حاجز الدخول. ويبدو أيضًا أنهم يقومون بإنشاء وحدات معالجة رسوميات بسعة ذاكرة أكبر من Nvidia أو AMD (768 جيجابايت) مما قد يمنحها ميزة مع أعباء عمل معينة للذكاء الاصطناعي”.

في مقالة نشرت على موقع LinkedIn في شهر مارس، جاك جولدتوقع المستشار الاستراتيجي ومحلل التكنولوجيا في شركة J Gold Associates، أنه في غضون عامين إلى ثلاثة أعوام، ستكون 85% من أعباء عمل الذكاء الاصطناعي للمؤسسات قائمة على الاستدلال، بدلاً من الهيمنة الحالية لأعباء العمل التدريبية. يتطلب التدريب بشكل عام بنية تحتية للخادم عالية الأداء ومُحسّنة للذكاء الاصطناعي والموجودة في مراكز البيانات واسعة النطاق التي توفرها أمثال AWS وAzure وGoogle Cloud Platform.

مثل العديد من مراقبي الصناعة، يعتقد جولد أن معظم أعباء عمل الذكاء الاصطناعي التي تديرها المؤسسات في البنية التحتية واسعة النطاق هي مشاريع تجريبية. تظهر الأدلة المستمدة من العديد من الدراسات الاستقصائية التي أجريت على قادة الأعمال وتكنولوجيا المعلومات أن هذه المشاريع غالبًا ما تفشل في النضج إلى مرحلة الإنتاج. ولكن كما يشير جولد، بمجرد تدريب نموذج الذكاء الاصطناعي، والذي يتطلب أجهزة تسريع الذكاء الاصطناعي لوحدة معالج الرسومات (GPU) عالية الأداء، فيمكن استخدامه بعد ذلك على أجهزة أكثر تواضعًا.

“لا تزال معظم أعباء عمل الذكاء الاصطناعي للمؤسسات التي يتم تشغيلها اليوم تجريبية و/أو صغيرة الحجم. مع تحول الذكاء الاصطناعي إلى الحلول القائمة على الاستدلال على مستوى الإنتاج، فإن الحاجة إلى وحدات معالجة الرسومات المتطورة أقل أهمية وSOCs للخادم القياسي [systems on a chip] قال جولد: “إنها أكثر ملاءمة”.

هذه هي فرصة السوق التي تأمل شركة كوالكوم في معالجتها من خلال أجهزة A1200 وA1250. وقالت دورجا مالادي، نائب الرئيس الأول والمدير العام لتخطيط التكنولوجيا والحلول الطرفية ومركز البيانات في شركة كوالكوم تكنولوجيز، إن المنتجين يوفران طريقة للمؤسسات لتشغيل نماذج الذكاء الاصطناعي لاستدلال الذكاء الاصطناعي بسهولة أكبر.

وأضاف ملادي: “من خلال التوافق السلس لأطر الذكاء الاصطناعي الرائدة ونشر النماذج بنقرة واحدة، تم تصميم Qualcomm AI200 وAI250 لاعتماد سلس والابتكار السريع”.



Source link

زر الذهاب إلى الأعلى