تعمل الشركات المصنعة للخوادم على تكثيف جهود الذكاء الاصطناعي
لقد أدركت الشركات المصنعة للخوادم منذ فترة طويلة مكانة الحوسبة السحابية العامة التي تملأها الخوادم المادية بدقة. لقد تطور هذا الأمر بمرور الوقت ليدرك قادة تكنولوجيا المعلومات والصناعة أن بعض أعباء العمل سيتم تشغيلها دائمًا داخل الشركة؛ قد يتم تشغيل بعضها على السحابة العامة وفي مكان العمل، وقد يكون البعض الآخر قائمًا على السحابة بالكامل.
يعد استنتاج الذكاء الاصطناعي (AI) بمثابة عبء العمل الذي يكتسب الآن قوة جذب بين موفري الخوادم، حيث يتطلعون إلى معالجة المخاوف المتعلقة بفقدان البيانات وسيادة البيانات ومشكلات الكمون المحتملة، عند معالجة بيانات الذكاء الاصطناعي من الأجهزة الطرفية وإنترنت الأشياء (IoT) .
تقنيات ديل قامت الآن بتوسيع نظامها الأساسي لبرامج عمليات NativeEdge Edge من Dell لتبسيط كيفية نشر المؤسسات للذكاء الاصطناعي وتوسيع نطاقه واستخدامه على الحافة.
توفر منصة Dell ما تصفه الشركة بـ “تجهيز الأجهزة على نطاق واسع” والإدارة عن بعد وتنسيق التطبيقات السحابية المتعددة. وفقًا لشركة Dell، توفر NativeEdge إمكانات عالية التوفر للحفاظ على العمليات التجارية الهامة وأحمال عمل الذكاء الاصطناعي، والتي تكون قادرة على الاستمرار في العمل بغض النظر عن انقطاع الشبكة أو فشل الأجهزة. توفر المنصة أيضًا ترحيل الآلة الافتراضية (VM) والتطبيق التلقائي وتجاوز فشل الحوسبة والتخزين، وهو ما يوفر للمؤسسات، كما تقول شركة Dell، موثوقية متزايدة وعمليات مستمرة.
يستخدم أحد عملائها، Nature Fresh Farms، النظام الأساسي لإدارة أكثر من 1000 منشأة تدعم إنترنت الأشياء. قال كيث برادلي، نائب رئيس تكنولوجيا المعلومات بشركة Nature Fresh Farms: “تساعدنا شركة Dell NativeEdge على مراقبة عناصر البنية التحتية في الوقت الفعلي، وضمان الظروف المثالية لمنتجاتنا، والحصول على رؤى شاملة حول عمليات تعبئة المنتجات لدينا”.
بالتزامن مع مؤتمر KubeCon North America 2024، أعلنت Nutanix عن دعمها لـ الذكاء الاصطناعي الهجين ومتعدد السحابات استنادًا إلى منصة Nutanix Enterprise AI (NAI) الجديدة. يمكن نشر ذلك على أي منصة Kubernetes، على الحافة، في مراكز البيانات الأساسية وعلى الخدمات السحابية العامة.
قالت نوتانيكس إن NAI تقدم نموذج تشغيل هجينًا متعدد السحابة متسقًا لأعباء عمل الذكاء الاصطناعي المتسارعة، مما يساعد المؤسسات على نشر وتشغيل وتوسيع نطاق نقاط نهاية الاستدلال بشكل آمن لنماذج اللغات الكبيرة (LLMs) لدعم نشر تطبيقات الذكاء الاصطناعي التوليدية (GenAI) في دقائق، وليس أيام. أو أسابيع.
إنها قصة مماثلة في HPE. خلال يوم الذكاء الاصطناعي الخاص بالشركة في أكتوبر، ناقش أنتوني نيري، الرئيس التنفيذي لشركة HPE، كيف يحتاج بعض عملاء المؤسسات إلى النشر نماذج الذكاء الاصطناعي ذات اللغات الصغيرة.
وقال: “إنهم عادةً يختارون نموذجًا لغويًا كبيرًا يناسب الاحتياجات ويضبطون نماذج الذكاء الاصطناعي هذه باستخدام بياناتهم الفريدة والمحددة للغاية”. “نرى أن معظم هذه الأمور كانت عبارة عن حملات على مقرات العمل والمواقع المشتركة حيث يتحكم العملاء في بياناتهم، نظرًا لمخاوفهم بشأن سيادة البيانات وتنظيمها، وتسرب البيانات وأمن واجهات برمجة التطبيقات السحابية العامة للذكاء الاصطناعي.”
في سبتمبر، كشفت HPE عن تعاون مع Nvidia مما أدى إلى ما وصفه Neri بأنه “مجموعة سحابية خاصة كاملة متكاملة تجعل من السهل على المؤسسات من جميع الأحجام تطوير ونشر تطبيقات الذكاء الاصطناعي التوليدية”.
وقال إنه من خلال ثلاث نقرات فقط وأقل من 30 ثانية للنشر، يمكن للعميل نشر الذكاء الاصطناعي السحابي الخاص من HPE، والذي يدمج شبكة الحوسبة السريعة Nvidia وبرامج الذكاء الاصطناعي مع خادم الذكاء الاصطناعي والتخزين والخدمات السحابية من HPE.
خلال حدث Tech World في أكتوبر، كشفت لينوفو النقاب عن Hybrid AI Advantage مع Nvidia، والتي قالت إنها تجمع بين قدرات الذكاء الاصطناعي الكاملة المُحسّنة للتصنيع والموثوقية.
يتضمن جزء الذكاء الاصطناعي من الحزمة ما تسميه لينوفو “مكتبة من حلول حالات استخدام الذكاء الاصطناعي الجاهزة للتخصيص والتي تساعد العملاء على تجاوز العوائق التي تحول دون عائد الاستثمار [return on investment] من الذكاء الاصطناعي”.
وقد تعاونت الشركتان بشكل وثيق لدمج نماذج الحوسبة والشبكات والبرامج والذكاء الاصطناعي المتسارعة من Nvidia في Lenovo Hybrid AI Advantage المعياري.
حافة الذكاء الاصطناعي مع المقياس الفائق
ال المنصات السحابية العامة توفر جميعها بيئات غنية بالميزات لـ GenAI والتعلم الآلي وتشغيل أحمال عمل الاستدلال. لديهم أيضًا عروض منتجات لتلبية استدلال الذكاء الاصطناعي على إنترنت الأشياء وأجهزة الحوسبة المتطورة.
تقدم Amazon Web Services وكيل SageMaker Edge؛ يعد Azure IoT hub جزءًا من المزيج الذي تقدمه Microsoft؛ وجوجل لديها Google Distributed Cloud. تركز مثل هذه العروض بشكل عام على القيام بالمهمة الثقيلة، وهي التعلم الآلي، باستخدام الموارد المتاحة في السحابة العامة الخاصة بها لبناء نماذج البيانات. ويتم بعد ذلك نشرها لتشغيل أحمال عمل الاستدلال على الحافة.
ما يبدو أنه يحدث مع شركات الخوادم التقليدية هو أنه ردًا على تهديد الذكاء الاصطناعي السحابي، فإنهم يرون عددًا من الفرص. ستستمر أقسام تكنولوجيا المعلومات في شراء ونشر أعباء العمل داخل الشركة، ويعد الذكاء الاصطناعي على الحافة أحد مجالات الاهتمام هذه. العامل الثاني الذي من المحتمل أن يؤثر على مشتري تكنولوجيا المعلومات هو توفر المخططات والقوالب لمساعدتهم على تحقيق أهداف الذكاء الاصطناعي الخاصة بمؤسستهم.
وفقًا للمحلل Gartner، في حين أن مقدمي الخدمات السحابية العامة كانوا جيدين جدًا في إظهار فن الممكن باستخدام الذكاء الاصطناعي وGenAI، إلا أنهم لم يكونوا جيدين بشكل خاص في مساعدة المؤسسات على تحقيق أهداف الذكاء الاصطناعي الخاصة بهم.
تحدث في الآونة الأخيرة ندوة جارتنرحذر داريل بلامر، كبير محللي الأبحاث في شركة جارتنر، من أن مقدمي التكنولوجيا يركزون بشكل كبير على النظر إلى تقدم الذكاء الاصطناعي من وجهة نظرهم، دون أخذ العملاء في رحلة لتحقيق أهداف أنظمة الذكاء الاصطناعي المتقدمة هذه. “لقد ارتكبت Microsoft وGoogle وAmazon وOracle وMeta وOpenAI خطأً كبيرًا – إنهم يوضحون لنا ما يمكننا القيام به، [but] وقال: “إنهم لا يظهرون لنا ما يجب علينا فعله”.
تتعلق الأجزاء المفقودة بخبرة المجال ومنتجات وخدمات تكنولوجيا المعلومات التي يمكن تصميمها وفقًا لمتطلبات العميل الفريدة. يبدو هذا بالتأكيد بمثابة مجال التركيز الذي ستتطلع أمثال Dell وHPE وLenovo إلى النمو فيه الشراكة مع شركات استشارات تكنولوجيا المعلومات.