تستحوذ شركة Red Hat على التكنولوجيا لخفض تكلفة التعلم الآلي
أعلنت شركة Red Hat عن نيتها الاستحواذ على شركة Neural Magic، المطور الرئيسي لمشروع vLLM مفتوح المصدر.
يتم وضع عملية الاستحواذ كوسيلة لـ Red Hat وشركة IBM الأم لخفض حاجز الدخول للمؤسسات التي ترغب في تشغيلها التعلم الآلي أعباء العمل دون الحاجة إلى نشر خوادم مجهزة بوحدات معالجة الرسومات (GPUs). ويخلق هذا الاعتماد حاجزًا أمام الدخول، مما يعيق التبني الواسع النطاق للذكاء الاصطناعي (AI) عبر مختلف الصناعات ويحد من قدرته على إحداث ثورة في طريقة حياتنا وعملنا.
يصف إدخال GitHub لـ vLLM البرنامج على أنه: “استدلال عالي الإنتاجية وفعال في الذاكرة و محرك الخدمة لـ LLMs [large language models]”.
في مدونة تناقش بعد الصفقة، قال مات هيكس، الرئيس والمدير التنفيذي لشركة Red Hat، إن شركة Neural Magic طورت طريقة لتشغيل خوارزميات التعلم الآلي (ML) دون الحاجة إلى أجهزة خادم GPU باهظة الثمن والتي يصعب الحصول عليها في كثير من الأحيان.
وقال إن مؤسسي شركة Neural Magic أرادوا تمكين أي شخص، بغض النظر عن موارده، من تسخير قوة الذكاء الاصطناعي. وكتب: “تضمن نهجهم الرائد الاستفادة من تقنيات مثل التقليم والتكميم لتحسين نماذج التعلم الآلي، بدءًا من السماح لنماذج التعلم الآلي بالعمل بكفاءة على وحدات المعالجة المركزية المتاحة بسهولة دون التضحية بالأداء”.
وتحدث هيكس عن التحول نحو نماذج الذكاء الاصطناعي الأصغر والأكثر تخصصًا، والتي يمكنها تقديم أداء استثنائي بكفاءة أكبر. وكتب: “هذه النماذج ليست أكثر كفاءة في التدريب والنشر فحسب، ولكنها توفر أيضًا مزايا كبيرة من حيث التخصيص والقدرة على التكيف”.
تروج شركة Red Hat لفكرة التشتت، والتي، وفقًا لهيكس، “تزيل بشكل استراتيجي الاتصالات غير الضرورية داخل النموذج”. وقال إن هذا النهج يقلل من الحجم والمتطلبات الحسابية للنموذج دون التضحية بالدقة أو الأداء. يتم بعد ذلك استخدام القياس الكمي لتقليل حجم النموذج بشكل أكبر، مما يتيح لنموذج الذكاء الاصطناعي العمل على منصات ذات متطلبات ذاكرة منخفضة.
وأضاف: “كل هذا يُترجم إلى تكاليف أقل، واستدلال أسرع، والقدرة على تشغيل أعباء عمل الذكاء الاصطناعي على نطاق أوسع من الأجهزة”.
تتناسب نية Red Hat في الاستحواذ على Neural Magic مع استراتيجية الشركة الأم IBM لمساعدة عملاء المؤسسات على استخدام نماذج الذكاء الاصطناعي.
في أ مقابلة حديثة مع مجلة كمبيوتر ويكليقال كريم يوسف، مدير إدارة المنتجات في مجموعة برامج IBM، إن المورد قد حدد فرصة عمل لدعم العملاء الذين يرغبون في “دمج بياناتهم بسهولة في نموذج اللغة الكبير”. وقال إن هذا يسمح لهم بالاستفادة من نماذج اللغات الكبيرة بطريقة تتيح حماية بيانات المؤسسة والتحكم فيها.
قامت شركة IBM بتطوير مشروع يسمى InstructLab الذي يوفر الأدوات اللازمة لإنشاء ودمج التغييرات في LLMs دون الحاجة إلى إعادة تدريب النموذج من البداية. وهو متاح في مجتمع مفتوح المصدر، إلى جانب IBM Granite، وهو نموذج أساسي للذكاء الاصطناعي لمجموعات بيانات المؤسسة.
قال داريو جيل، نائب الرئيس الأول ومدير الأبحاث في شركة IBM: “بينما يتطلع عملاؤنا إلى توسيع نطاق الذكاء الاصطناعي عبر بيئاتهم المختلطة، ستصبح شهادات LLM الافتراضية والسحابية الأصلية المبنية على أسس مفتوحة هي المعيار الصناعي. إن ريادة Red Hat في المصادر المفتوحة، جنبًا إلى جنب مع اختيار نماذج فعالة ومفتوحة المصدر مثل عروض IBM Granite وNeural Magic لتوسيع نطاق الذكاء الاصطناعي عبر المنصات، تمكن الشركات من التحكم والمرونة التي تحتاجها لنشر الذكاء الاصطناعي عبر المؤسسة.