Cloudian يطلق منصة تخزين الكائن AI في Corporate LLM

أطلقت Cloudian منصة بيانات AI Hyperscale ، وهي منصة تخزين قائمة على S3 بالإضافة إلى حزمة البنية التحتية للذكاء الاصطناعي (AI) التي تهدف إلى الشركات التي تريد إجابات سريعة من معلومات الشركات.
يستخدم العرض Cloudian تخزين الكائن بالإضافة إلى NVIDIA RTX PRO 6000 وحدات معالجة الرسومات Blackwell (GPUS) في بنية الجيل المعزز للاسترجاع (RAG) لتشغيل وظائف نموذج اللغة الكبيرة (LLM) التي يتم تدريبها على كتلة بيانات الشركات التي غالباً ما لا يتم استغلالها.
تتمثل حالة الاستخدام المستهدف في توفير الاستعلام عن بيانات الشركات الطبيعية للسماح للموظفين بالحصول على إجابات سريعة من البيانات المحتفظ بها ، والتي قد تكون حول إجراءات الشركة ، والبيانات مفيدة للتسويق أو تطوير المنتجات ، وقواعد التعليمات البرمجية السابقة ، وما إلى ذلك. يؤكد Cloudian على أن المنتج يعمل بشكل محترم بالكامل و “يتم” تمويه الهواء “لضمان أمان بيانات المؤسسة.
ويضم ثلاث عقد من تخزين كائن S3، في هذه الحالة ، وتوصيل باستخدام S3 عبر الوصول عن بُعد عن بُعد (RDMA) ، تم تطويره باستخدام NVIDIA. يسمح ذلك بالاتصال السريع بين عقد التخزين ، باستخدام RDMA ، والذي تم تطويره في الأصل للسماح للبيانات بالانتقال من ذاكرة خادم إلى آخر لعمليات الإنتاجية العالية والكذب مع عدم ضرب موارد وحدة المعالجة المركزية (وحدة المعالجة المركزية).
S3 Over RDMA يعزز هذا النهج لقطع الكمون عن طريق تجاوز مكدس TCP/IP. يهدف هذا إلى معالجة الاختناقات التي يمكن أن تحدث بين عقد التخزين أثناء معالجة الذكاء الاصطناعى ، والتي تعد قيدًا رئيسيًا على أداء الذكاء الاصطناعي.
يجلس فوق هذا ، ولكن في قلب المنصة ، هو ما يسمى بمليارات المليار قاعدة بيانات المتجهات. برزت قواعد بيانات المتجهات باعتبارها جوهرًا إلى الذكاء الاصطناعي كما أخذت الصدارة. نظرًا لأن البيانات يتم تناولها في نظام الذكاء الاصطناعي ، يتم إعطاء خصائصه قيمًا رقمية متعددة. يمكن بعد ذلك حساب هذه القيم لحساب التشابه والسياق ، وإعطاء بعض مظاهر المعنى.
في منصة بيانات AI Hyperscale من Cloudian ، يمكن تناول أي معلومات جديدة دون الحاجة إلى إعادة تدريب المجموعة بأكملها ، بينما تدعم الهندسة المعمارية أيضًا الصور والبيانات المنظمة وكذلك النصوص في بيانات غير منظمة حيث يتم استهداف المنتج بشكل رئيسي.
Cloudian هو واحد من عدد من الموردين الذين يقدمون منتجات مخزن كائنات المؤسسة. في الواقع ، هناك 22 لاعبًا لتخزين الكائنات في رادار تخزين كائنات محلل Gigaom 2025. يوجد عدد قليل من هذه الأشياء في منصات تخزين الكائنات التي تهدف إلى حالات استخدام الذكاء الاصطناعي ، مع تصنيف Cloudian من بين أكثرها ابتكارًا.
موجود أيضًا في هذا المساحة مع تخزين الكائنات ، وقدرة قاعدة بيانات المتجهات وقواعد المتجهات على المتخصصين مثل Scalale و Minio ، ومشغلات التخزين العامة مثل تخزين نقي و NetApp.
يأتي تخزين كائن Cloudian تحت عائلة Hyperstore. إنه S3 الأصلي ، ولكنه يسمح أيضًا للوصول إلى ملف SMB و NFS. تأتي العقد Hyperstore في مجموعة من نماذج HDD Disk Disk بالإضافة إلى خيار Flash مع محركات TLC NVME.
يستخدم منصة بيانات Cloudian Hyperscale AI من LLAMA 3.2-3B-instruct LLM. وفي الوقت نفسه ، يتم تخصيص وحدات معالجة الرسومات الأربعة لـ NVIDIA لمراحل مختلفة في عبء العمل ، وهي استدلال LLM ، وعمليات قاعدة بيانات المتجهات ، وإعادة التصنيف والأهمية ، وواحدة مشتركة لتضمين المتجهات والوظائف الأخرى.
يحصل المستخدمون على واجهة مستخدم رسومية سهلة الاستخدام تتيح لهم طرح الأسئلة باللغة الطبيعية ثم تحسينها ، تمامًا كما سيستخدمون أي LLM شهيرة.
تشمل حالات الاستخدام المستهدف تعدين المعرفة للمؤسسات ، وذكاء المستندات الآمن ، وتحليل محتوى الفيديو ، وإنشاء نسب البيانات ومسارات التدقيق لأغراض الامتثال وأغراض الحوكمة.




