أخبار التقنية

تبدأ Microsoft رحلة الرقائق باستخدام مسرعات الذكاء الاصطناعي


في إطار تكثيفها لإستراتيجية الذكاء الاصطناعي (AI)، قامت Microsoft بتطوير أشباه موصلات مخصصة، Maia AI Accelerator، والتي ستستخدمها داخليًا لخدمة Copilot وAzure OpenAI. هناك أيضًا خطط لإتاحة التكنولوجيا لعملاء Azure.

من بين الدوافع الرئيسية لتطوير Maia هو قدر أكبر من الكفاءة والتحسين عندما يتم استخدام الخوادم المستندة إلى أشباه الموصلات الجديدة في مراكز بيانات Microsoft Cloud.

وفقًا لبريان هاري، وهو زميل تقني في Microsoft يقود فريق فريق أزور مايا، تم تصميم Maia 100 AI Accelerator خصيصًا لمجموعة أجهزة Azure. وادعى أن هذا التكامل الرأسي – الذي يربط تصميم الرقائق مع البنية التحتية الأكبر للذكاء الاصطناعي المصممة لأعباء عمل Microsoft – يمكن أن يحقق مكاسب هائلة في الأداء والكفاءة.

وقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI: “منذ الشراكة الأولى مع مايكروسوفت، تعاونا من أجل المشاركة في تصميم البنية التحتية للذكاء الاصطناعي الخاصة بـ Azure في كل طبقة لنماذجنا واحتياجاتنا التدريبية غير المسبوقة. لقد كنا متحمسين عندما شاركت Microsoft لأول مرة تصميماتها لشريحة Maia، وعملنا معًا لتحسينها واختبارها باستخدام نماذجنا. إن بنية الذكاء الاصطناعي الشاملة من Azure، والتي تم تحسينها الآن وصولاً إلى السيليكون باستخدام Maia، تمهد الطريق لتدريب نماذج أكثر قدرة وجعل هذه النماذج أرخص لعملائنا.

جنبًا إلى جنب مع Maia AI، كشفت الشركة أيضًا عن وحدة المعالجة المركزية Microsoft Azure Cobalt، وهو معالج قائم على Arm مصمم لتشغيل أحمال عمل الحوسبة للأغراض العامة على Microsoft Cloud إلى جانب توسيع شراكات الصناعة لتوفير المزيد من خيارات البنية التحتية للعملاء. تتضمن هذه الشراكات سلسلة Virtual Machine Series NC H100 v5 الجديدة المصممة لوحدات معالجة الرسوميات Nvidia H100 Tensor Core وإضافة وحدة معالجة الرسوميات Nvidia H200 Tensor Core إلى أسطولها في العام المقبل لدعم الاستدلال على النماذج الأكبر دون زيادة في زمن الوصول.

أضافت Microsoft أيضًا أجهزة AI التي تعمل بتقنية AMD إلى محفظتها في الأجهزة الافتراضية ND MI300، والتي قالت إنها مصممة لتسريع معالجة أعباء عمل الذكاء الاصطناعي للتدريب على نماذج الذكاء الاصطناعي عالية المدى والاستدلال التوليدي. يستخدم ND MI300 أحدث وحدة معالجة رسومات AMD، وهي AMD Instinct MI300X.

وقال سكوت جوثري، نائب الرئيس التنفيذي لمجموعة Cloud + AI Group من Microsoft: “تعمل Microsoft على بناء البنية التحتية لدعم الذكاء الاصطناعي الابتكار، ونقوم بإعادة تصور كل جانب من جوانب مراكز البيانات لدينا لتلبية احتياجات عملائنا. على النطاق الذي نعمل فيه، من المهم بالنسبة لنا تحسين ودمج كل طبقة من مجموعة البنية التحتية لتحقيق أقصى قدر من الأداء وتنويع سلسلة التوريد لدينا ومنح العملاء خيار البنية التحتية.

هناك أدلة متزايدة على أن القوة الحسابية اللازمة لتشغيل أعباء عمل الذكاء الاصطناعي، وخاصة نماذج اللغات الكبيرة، تستهلك كميات هائلة من الطاقة.

في فبراير، شركة أبحاث SemiAnalys اقترح OpenAI أن يتطلب 3617 خادمًا من خوادم Nvidia HGX A100، مع إجمالي 28936 وحدة معالجة رسومات، لدعم ChatGPT، مما يعني أن الطلب على الطاقة يبلغ 564 ميجاوات في الساعة يوميًا. قدر البحث أن تكلفة تشغيل ChatGPT تبلغ 694.444 دولارًا يوميًا.

حديثا نيويورك تايمز نقل المقال عن باحث يتوقع أن الكهرباء اللازمة لتشغيل الذكاء الاصطناعي يمكن أن تزيد من انبعاثات الكربون في العالم بشكل كبير، ولكن هذا سيعتمد على ما إذا كانت مراكز البيانات مدعومة بالوقود الأحفوري أو موارد الطاقة المتجددة.

وقال ويس ماكولو، نائب رئيس تطوير منتجات الأجهزة بالشركة، إن اختيار تقنية Arm كان عنصرًا أساسيًا في هدف الاستدامة لشركة Microsoft.

وقال: “لقد تم تصميم البنية والتنفيذ مع وضع كفاءة الطاقة في الاعتبار”. “نحن نحقق الاستخدام الأكثر كفاءة للترانزستورات الموجودة على السيليكون. قم بمضاعفة مكاسب الكفاءة هذه في الخوادم عبر جميع مراكز البيانات لدينا، مما يصل إلى رقم كبير جدًا.



Source link

زر الذهاب إلى الأعلى