يستهدف DDN ثقبًا على شكل مؤسسة في عرض تخزين الذكاء الاصطناعي

إن طفرة الذكاء الاصطناعي (AI) لم تنكسر بعد ، وعندما تفعل ذلك ، ستنفق المؤسسات المليارات عليها ، وفقًا لصناعة صفيف التخزين DDN ، التي لديها خبرة طويلة الأمد في تقديمها التخزين لدعم حساب ضخم مجموعات في الحوسبة عالية الأداء (HPC) ، ومؤخرا ، الذكاء الاصطناعى.
وقال بول بلوتش ، المؤسس المشارك ورئيس DDN ، مضيفًا: “إن مجموعات حساب HPC التي تعتمد بالفعل على تخزين DDN ستعمل على الأرجح أو أوامر رباعية بحلول عام 2027. [Elon Musk’s] مجموعة XAI في ممفيس ، وسيصل هذا الرقم إلى مليون. يؤدي نمو أداء وحدات معالجة الرسومات إلى زيادة متطلبات تخزين البيانات بشكل متزايد ، لأن الطريقة الوحيدة للتعامل معها تتمثل بشكل متزايد في تناول البيانات في الوقت الفعلي. “
خلال اجتماع حديث مع النشر الشقيق Lemagit كجزء من انها جولة الصحافة في وادي السيليكون ، أشار DNN CTO Sven Oehme إلى أن سوق المؤسسات نفسه واعد أيضًا.
وقال Oehme: “لم تحقق الذكاء الاصطناعى إمكاناتها بعد ، لكن يمكن للمؤسسات رؤية التطور المحتمل وما هو ممكن”. “ستأتي الطفرة حقًا عندما تبدأ الشركات بالكامل في الاستدلال وتستغل الذكاء الاصطناعي في جميع قطاعات النشاط.”
تبلغ قيمة DDN 5 مليارات دولار وستدرك مبيعات قدرها مليار دولار في عام 2025. في بداية هذا العام ، حصلت الشركة على 300 مليون دولار من Blackstone مقابل 6 ٪ من رأس المال ومقعد على السبورة.
وفقًا لـ Bloch ، فإن دعم Blackstone سيساعد الشركة على العثور على العملاء خارج قاعدة عملائها التقليدية: “سيحدث استثمار الذكاء الاصطناعي في حدود مليار دولار إلى مليوني دولار من قبل الشركات التي لا نعرفها حتى الآن.
“سيتم اتخاذ هذه القرارات من قبل الإدارة العامة أو إدارة البيانات حول المدخرات المحتملة حول الذكاء الاصطناعى ، وخاصة في التطبيقات الصناعية. في هذا السياق ، ليس بلاكستون مجرد مستثمر ، ولكنه أشبه بالشريك الذي نفتح كتابه الاتصال لدينا.”
أكثر قوة exascaler لعملاء المؤسسة
لتحقيق أهدافها ، قامت DDN بتحديث خط إنتاجها الأساسي. بعد إطلاق Exascaler AI400X2 Turbo العام الماضي ، أعلنت بعد ذلك AI400X3 ، والتي تأتي مع 24 NVME SSD ودعم أرفف SSD إضافية عبر NVME-OVERTCP.
تم تحسين الأداء بنسبة 55 ٪ في القراءات وأكثر من 70 ٪ للكتابة ، مع إنتاجية قدرها 140 جيجابت في الثانية (قراءة) وبين 75 جيجابت في الثانية و 100 جيجابت في الثانية (الكتابة). كسب السرعة هذا يأتي من استخدام أربعة بطاقات Nvidia Bluefield التي تستخدم بروتوكول SPECTRUMX لهذا البائع.
وقال Oehme: “لقد حصلنا بالفعل على بنية مرجعية ل GPU Blackwell الجديد”. “في مكان آخر ، يتم إجراء جميع الاختبارات والتطوير في Blackwell مع معدات DDN.”
وكانت التحسينات الأخرى في الأمن والتجميع. يعالج هذا الأخير احتياجات MSPs للخدمات السحابية التي تحتاج إلى توفير أجزاء ديناميكية من الصفيف لمختلف العملاء في كثير من الأحيان.
من وجهة نظر قاعدة عملاء جديدة بين المؤسسات ، يجلب Exascaler AI400x3 ضغط البيانات الذي يوفر قدرة يمكن استخدامها أكبر بكثير من قدرتها الخام ، كما هو الحال بالفعل مع موردين مثل Dell أو HPE أو NetApp.
“والآن قمنا بتحسين مرونته بشكل كبير” ، قال Oehme. “يمكننا الآن استبدال أي مكون من الأجهزة أو البرامج دون إيقاف الصفيف. يتم تقليل خطر التوقف إلى الحد الأدنى. هذا أمر أساسي لأن المؤسسات لا يمكنها الترفيه عن أي اضطراب. وهذا يختلف عن عملاء HPC الذين يفضلون ، في حالة الحادث ، لتشخيص المشكلة نفسها قبل المجيء إلينا.”
Infinia 2.1: تسارع تخزين الكائنات من أجل الذكاء الاصطناعي
بينما يشارك Exascaler AI400 محتوياته في وضع الملف ، فإن اتجاه مستخدمي AI للمؤسسة هو نحو تخزين الكائنات. هذا أقل سرعة من حيث الوصول ولكنه يوفر السعة والخيارات لتسمية محتويات أو تصفية محتويات ما إذا كان لإعادة التدريب أو للبيانات الخاصة في الاستدلال عبر RAG. من أجل ذلك ، أطلقت DDN منتج تخزين الكائنات Infinia في عام 2024.
وصلت Infinia الآن إلى الإصدار 2.1 ، والتي تدعي DDN أن سرعة مضروبة في 100x. هنا يتنافس مع حلول تخزين الكائنات الأخرى التي تسارعت مؤخرًا الأداء لدعم وحدات معالجة الرسومات ، مثل Hyperstore من Cloudian أو Ring من Scality.
يتناقض DDN مع عرضه مع S3 Express من AWS ، والذي يسمح للمؤسسات بتنفيذ مهام الذكاء الاصطناعي في سحابةها. سيكون Infinia 2.1 أسرع 10x من حيث وقت الوصول وأسرع 25x من حيث الطلبات.
يحتوي منتج DDN على موصلات لمعظم مداخن برامج AI ، مثل TensorFlow و Pytorch و Apache Spark ، بالإضافة إلى وحدات NIM من جناح مؤسسة AI في NVIDIA. كل ما كان موجودًا في الإصدار 2.0. تمت إضافة التحديث 2.1 مع عمليات تكامل مع منصات الملاحظة DataDog و Chronosphere ، ومع تلك التي تعتمد على معيار قياس OpentElemetry مفتوح المصدر. يمكنه الآن الاتصال الآن ببحيرات البيانات المستندة إلى Hadoop.
يأتي Infinia 2.1 على أجهزة DDN أو يمكن استخدامه عبر المثيل الظاهري على منصة Google Cloud.
تقدم DDN أيضًا منتجين آخرين للأجهزة ، Xfususai و Inferno – Xfususai هو exascaler ai400x3 الذي يدير نظام الملفات اللامعة وكذلك Infinia 2.1 ، بحيث يمكنه الوصول إلى نفس البيانات عبر تخزين كائن S3 ، مما يوفر ميزة القدرة على الوصول إلى بيانات التعريف التي تعمل على فهرسة.
يوفر Inferno وكيل شبكة مثبتة بين جهاز Infinia Appliance والخوادم لتسريع الاتصال بين تخزين الكائنات وتخزين الملفات اللامعة. يحتوي الجهاز على مفتاح يعتمد على Nvidia Bluefield ، والذي يستخدمه بروتوكول Spectrumx و gpudirect للتواصل المباشر مع وحدات معالجة الرسومات ، بالإضافة إلى ذاكرة التخزين المؤقت NVME SSD.
11000 عميل ، 4000 في الذكاء الاصطناعي
قالت DDN إنها نشرت سعة تخزين تدعم 700000 وحدة معالجة الرسومات في 7000 عميل ، منهم 4000 مشاركة في أعباء عمل الذكاء الاصطناعي. توظف الشركة 1،100 شخص ، منهم 600 مهندسين ، مع من 200 إلى 250 موظفًا آخر مخططًا لهذا العام.
في أصولها في عام 1998 ، قدمت DDN صفائف تخزين لمراكز الحاسبات الفائقة القليلة ثم في الوجود. إن درايةها الرئيسية تأتي من إطعام العديد من العقد الحسابية بالتوازي ، وهذا ما أقنع Nvidia بالشراكة معها منذ عام 2010.
“تخيل 10000 وحدات معالجة الرسومات” ، قال بلوخ. “إذا كنت ترغب في الحصول على 1 جيجابت في الثانية على قراءات لكل وحدة معالجة الرسومات ، فستحتاج إلى إنتاجية 10 تلي في الثانية للمصفوفة بأكملها. هناك عدد قليل من الأنظمة في العالم القادرة على توفير 10 تريسبايت على القراءات والكتابة. هذا ما أتقنه.”




