GTC 2024: يصطف موردو وحدات التخزين لركوب موجة Nvidia AI
الذكاء الاصطناعي (AI) على قمة الموجة في الوقت الحالي. و نفيديا يمكن القول أيضًا. لذلك، في حدث GTC 2024 الأسبوع الماضي، اغتنم الكثير من مشغلي التخزين الفرصة للإعلان عن الارتباطات مع وحدة معالجة الرسومات (GPU) عملاق.
ردود موردي التخزين وقد تركزت على معالجة اختناق الإدخال/الإخراج (I/O). بحيث يمكن تسليم البيانات بكفاءة إلى أعداد كبيرة من وحدات معالجة الرسومات (المكلفة للغاية).
وقد شملت هذه الجهود سلسلة كاملة من عمليات التكامل، عبر خدمات Nvidia الصغيرة – ولا سيما NeMo للتدريب وNIM للاستدلال – إلى التحقق من صحة منتج التخزين مع عروض البنية التحتية للذكاء الاصطناعي لـ Nvidia (مثل BasePOD)، وعروض البنية التحتية للذكاء الاصطناعي بالكامل مثل تلك المقدمة من HPE.
هناك اتجاه آخر واضح في الإعلانات الأخيرة وهو تطوير استرجاع الجيل المعزز (خرقة) خطوط الأنابيب وهندسة الأجهزة. يهدف RAG إلى التحقق من صحة نتائج الذكاء الاصطناعي من خلال دمجها مع المعلومات الخارجية الموثوقة، وذلك جزئيًا لمعالجة ما يسمى الهلوسة.
ما هي رسالة Nvidia الأساسية في GTC 2024؟
جوهر رسالة Nvidia في GTC 2024، التي قدمها الرئيس التنفيذي Jensen Huang، هو التحول في صناعة الكمبيوتر القائم على أعباء عمل الذكاء الاصطناعي واتجاهها نحو توليد البيانات بدلا من استرجاع البيانات. بالطبع، هناك قدر لا بأس به من الاسترجاع في الذكاء الاصطناعي، حيث يتم امتصاص البيانات في عمليات التدريب.
جوهر تطوير المنتجات في Nvidia هو وحدات معالجة الرسومات الأكبر والأكثر قوة ومعالجاتها، بما في ذلك شريحة بلاكويل الجديدة تشغيل ما يصل إلى 200 مليار ترانزستور والقدرة على التعامل مع نماذج اللغات الكبيرة ذات تريليون معلمة (LLMs) بتكلفة واستخدام طاقة أقل بكثير من سابقتها.
تم بناء هذه القوة الحسابية ووحدات معالجة الرسومات بواسطة Nvidia في أنظمة الخادم – OGX وDGX (وOEMed HGX) – وفي البنى المرجعية وعروض البنية التحتية الجاهزة – BasePOD وSuperPOD.
نحن هنا نلقي نظرة على بعض إعلانات موردي وحدات التخزين حول Nvidia GTC 2024.
التماسك
أعلن مزود النسخ الاحتياطي Cohesity أنه سيقدم خدمات Nvidia NIM الصغيرة ودمج Nvidia AI Enterprise في منصة بيانات Gaia متعددة السحابة. التماسك غايا يسمح باستخدام بيانات النسخ الاحتياطي والأرشيف لتكوين مصدر لبيانات التدريب ومن ثم مصدر لذكاء الشركة.
أعلنت Cohesity أيضًا أن Nvidia أصبحت مستثمرًا.
شبكات داتا دايركت
أعلنت شركة DataDirect Networks (DDN) المتخصصة في تخزين الحوسبة عالية الأداء منذ فترة طويلة عن AI400X2 Turbo، الذي يستهدف أعباء عمل الذكاء الاصطناعي ويوفر تحسينًا في عرض النطاق الترددي بنسبة 33٪ مقارنة بـ AI400X2 في نفس عامل الشكل بسبب زيادة الذاكرة وتحسين الأداء. الشبكات.
تعد DDN لاعبًا كبيرًا بين مقدمي الخدمات الذين يقدمون GPU كخدمة. لقد أدت قدرتها على تشبع وحدات معالجة الرسومات إلى انتقالها من مزود تخزين HPC إلى مشغل تخزين رئيسي يعمل بالذكاء الاصطناعي.
يتمتع الطراز AI400X2 Turbo بأقصى عرض نطاق ترددي يبلغ 120 جيجابايت في الثانية مقارنةً بـ 90 جيجابايت في الثانية لـ AI400X2.
ديل
كشفت شركة Dell النقاب عن مصنع Dell AI Factory، الذي يأتي كمجموعة متكاملة تشمل أجهزة الكمبيوتر المكتبية والكمبيوتر المحمول والخادم PowerEdge XE9680 وتخزين PowerScale F710 والبرامج والخدمات التي تم التحقق من صحتها من خلال البنية التحتية للذكاء الاصطناعي من Nvidia ونسيج شبكات Spectrum-X Ethernet.
يمكن شراء Dell AI Factory عبر اشتراكات Apex بنظام الدفع الفوري.
إتش بي إي
أعلنت HPE عن توفر أنظمة الحوسبة الفائقة التوليدية للذكاء الاصطناعي (GenAI) مع مكونات Nvidia وحساب Cray AMD، وأنظمة الحوسبة المؤسسية GenAI مع مكونات Nvidia، وهي بنية مرجعية RAG تستخدم خدمات NeMo الصغيرة من Nvidia، وتخطط لاستخدام خدمات NIM الصغيرة من Nvidia لاستنتاج أعباء العمل والمنتجات المستقبلية القائمة على على منصة بلاكويل من نفيديا.
يركز نظام GenAI للمؤسسات من HPE على ضبط نماذج الذكاء الاصطناعي واستدلالها، وتم تكوينه مسبقًا حول خوادم ProLiant DL380a ووحدات معالجة الرسوميات Nvidia L40S وBlueField-3 DPUs وشبكات Spectrum-X Ethernet، بالإضافة إلى برامج التعلم الآلي والتحليلات من HPE.
تتكون البنية المرجعية لـ RAG من خدمات NeMo Retriever الصغيرة من Nvidia، وبرنامج نسيج البيانات HPE Ezmeral، وGreenLake لتخزين الملفات، وهو جهاز Alletra MP وبرنامج تخزين VAST Data.
هيتاشي فانتارا
أطلقت شركة Hitachi Vantara شركة Hitachi iQ، التي توفر أنظمة ذكاء اصطناعي خاصة بالصناعة تستخدم وحدات معالجة الرسوميات Nvidia DGX وHGX مع مساحة تخزين الشركة.
سيبدأ توفر Hitachi iQ في الربع الثاني من عام 2024 وسيتضمن شهادة Nvidia BasePOD مع مجموعة من خيارات Nvidia GPU، ودعم برنامج Nvidia AI Enterprise، بالإضافة إلى أحدث إصدار من Hitachi Content Software for File (HCFS) – برنامج نظام الملفات WekaFS المعاد تسميته من WekaIO. – مع عقد تخزين متسارعة لأحمال عمل الذكاء الاصطناعي.
نت اب
تم الكشف عن NetApp خدمة Nvidia NeMo Retriever الصغيرة، وهي عبارة عن برنامج RAG يتصل مباشرة بالتخزين السحابي المختلط لعملاء OnTap. وهو متاح لعملاء OnTap المشتركين في النظام الأساسي لبرنامج Nvidia AI Enterprise ويسمح لـ LLM بالوصول إلى البيانات غير المنظمة للمؤسسة دون الحاجة إلى إنشاء مستودع منفصل.
التخزين النقي
أعلنت Pure Storage أنها أنشأت خط أنابيب RAG يستخدم الخدمات الصغيرة المستندة إلى Nvidia NeMo بالتنسيق مع وحدات معالجة الرسومات Nvidia وتخزينها.
وفي منطقة RAG أيضًا، أعلنت Pure Storage عن RAGs لقطاعات صناعية محددة – والتي تستهدف الخدمات المالية فقط في الوقت الحالي، ولكن يتبعها الرعاية الصحية والقطاع العام.
كما أعلنت Pure أيضًا أنها حصلت على التحقق من صحة تخزينها باستخدام البنية التحتية لخادم Nvidia OVX، والتي تضيف إلى التوافق الحسابي الحالي Nvidia DGX BasePod الذي تم الإعلان عنه العام الماضي.
ويكا
أعلنت شركة Weka لصناعة NAS السحابية الهجينة الموازية عن إطلاق جهاز معتمد للعمل مع البنية التحتية لمركز بيانات DGX SuperPod AI من Nvidia.
يستخدم WEKApod أحدث PCIe 5 ويأتي بأرقام أداء تصل إلى 18.3 مليون عملية إدخال/إخراج في الثانية (IOPS) و765 جيجابايت في الثانية في مجموعة واحدة بسعة 1 بيتابايت (بيتابايت) مكونة من ثماني عقد.
Weka هي شريك معتمد لـ Nvidia DGX BasePod وأعلنت في المعرض أنها ستكون جزءًا من التحقق من صحة Nvidia OVX.