أخبار التقنية

تكشف Nvidia النقاب عن H200، أحدث شرائحها المتطورة لتدريب نماذج الذكاء الاصطناعي


جنسن هوانغ، رئيس Nvidia، يحمل وحدة المعالجة المركزية ذات الشريحة الفائقة Grace hopper المستخدمة في الذكاء الاصطناعي التوليدي في العرض التقديمي الرئيسي لـ Supermicro خلال Computex 2023.

وليد برازق | صاروخ لايت | صور جيتي

نفيديا كشفت يوم الاثنين النقاب عن H200، وهي وحدة معالجة رسومية مصممة لتدريب ونشر أنواع نماذج الذكاء الاصطناعي التي تدعم طفرة الذكاء الاصطناعي التوليدي.

وحدة معالجة الرسوميات الجديدة عبارة عن ترقية من H100، وهي الشريحة التي استخدمتها OpenAI لتدريب نموذج اللغة الكبير الأكثر تقدمًا، GPT-4. الشركات الكبرى, الشركات الناشئة و حكومة تتنافس جميع الوكالات للحصول على إمدادات محدودة من الرقائق.

تتكلف شرائح H100 ما بين 25 ألف دولار و40 ألف دولار، وفقًا لتقدير ريموند جيمس، وهناك حاجة إلى آلاف منها للعمل معًا لإنشاء أكبر النماذج في عملية تسمى “التدريب”.

الإثارة حول وحدات معالجة الرسومات AI من Nvidia موجودة فائق الشحن وسهم الشركة يرتفع بأكثر من 230% حتى الآن في 2023. نفيديا يتوقع حوالي 16 مليار دولار من الإيرادات للربع المالي الثالث، بزيادة 170٪ عن العام الماضي.

يتمثل التحسين الرئيسي في H200 في أنه يشتمل على 141 جيجابايت من ذاكرة “HBM3” من الجيل التالي والتي ستساعد الشريحة على أداء “الاستدلال” أو استخدام نموذج كبير بعد تدريبها على إنشاء نصوص أو صور أو تنبؤات.

وقالت نفيديا إن H200 سيولد مخرجات أسرع بمرتين تقريبًا من H100. هذا يعتمد على اختبار باستخدام ميتا اللاما 2 ماجستير.

ومن المتوقع أن تتنافس طائرة H200، التي من المتوقع أن يتم شحنها في الربع الثاني من عام 2024، مع وحدة معالجة الرسومات AMD MI300X. أيه إم دي تحتوي الشريحة، المشابهة لـ H200، على ذاكرة إضافية مقارنة بأسلافها، مما يساعد على احتواء النماذج الكبيرة على الأجهزة لتشغيل الاستدلال.

اقرأ المزيد عن تقارير CNBC حول الذكاء الاصطناعي

شرائح Nvidia H200 في نظام Nvidia HGX ذو ثمانية وحدات معالجة رسومية.

نفيديا

وقالت Nvidia إن H200 سيكون متوافقًا مع H100، مما يعني أن شركات الذكاء الاصطناعي التي تتدرب بالفعل على النموذج السابق لن تحتاج إلى تغيير أنظمة الخادم أو البرامج الخاصة بها لاستخدام الإصدار الجديد.

تقول Nvidia إنها ستكون متاحة في تكوينات خادم رباعية أو ثمانية وحدات معالجة رسومات على أنظمة HGX الكاملة للشركة، بالإضافة إلى شريحة تسمى GH200، والتي تربط وحدة معالجة الرسومات H200 مع معالج رسوميات. ذراعالمعالج القائم.

ومع ذلك، قد لا يحمل H200 تاج أسرع شريحة Nvidia AI لفترة طويلة.

في حين أن شركات مثل نفيديا تقدم العديد من التكوينات المختلفة لرقائقها، فإن أشباه الموصلات الجديدة غالبا ما تتخذ خطوة كبيرة إلى الأمام كل عامين تقريبا، عندما تنتقل الشركات المصنعة إلى بنية مختلفة تفتح مكاسب أداء أكثر أهمية من إضافة الذاكرة أو غيرها من التحسينات الأصغر. يعتمد كل من H100 وH200 على بنية Nvidia’s Hopper.

في أكتوبر، أخبرت Nvidia المستثمرين أنها ستنتقل من إيقاع معماري مدته سنتان إلى نمط إصدار مدته عام واحد بسبب ارتفاع الطلب على وحدات معالجة الرسومات الخاصة بها. عرضت الشركة شريحة تقترح وستعلن وتطلق شريحة B100 الخاصة بها، استنادًا إلى بنية بلاكويل القادمة، في عام 2024.

يشاهد: نحن مؤمنون بشدة باتجاه الذكاء الاصطناعي الذي سيبدأ في العام المقبل

يقول كريس كاسو من شركة Wolfe Research:

لا تفوّت هذه القصص من CNBC PRO:



Source link

زر الذهاب إلى الأعلى