أخبار التقنية

يهدف مزود السحابة الذي يقع مقره في لوكسمبورغ إلى تحويل مشهد الذكاء الاصطناعي في أوروبا


في الوقت الحالي، تقع معظم البنية التحتية للذكاء الاصطناعي في العالم في الولايات المتحدة. لكن تأمل شركة Gcore في تغيير ذلك – أو على الأقل تحريك الأمور في هذا الاتجاه. تعمل الشركة جاهدة لإحداث ثورة في الابتكار الأوروبي في مجال الذكاء الاصطناعي، في مرحلتي التدريب والاستدلال.

يبدأ دعم التدريب مع مجموعة Gcore Geneative AI Cluster، التي تم الإعلان عنها في أكتوبر 2023. بدعم من وحدات معالجة الرسوميات NVIDIA A100 وH100 Tensor Core، تم تصميم الخدمة الجديدة لتسريع تدريب النماذج لتطبيقات الذكاء الاصطناعي التوليدية (GenAI).

لدى الشركة خطط جريئة لدعم الاستدلال على نطاق واسع جدًا بدءًا من عام 2024. وهذا هو المكان الذي تتوقع فيه بعضًا من أكبر نمو لها. وفي غضون ذلك، تقوم بطرح بنية تحتية جديدة.

خدمات البنية التحتية والمنصات في جميع أنحاء العالم

تمتلك Gcore بالفعل أكثر من 150 نقطة تواجد دوليًا و110 تيرابايت في الثانية من إجمالي سعة الشبكة.

يقول: “نحن نقدم خدمات البنية التحتية والمنصة – سواء السحابية أو حافة الذكاء الاصطناعي – لعملائنا في جميع أنحاء العالم ونساعد في توفير أعمالهم وتطبيقاتهم على نطاق عالمي”. سيفا فاينر، مديرة منتجات الحافة والسحابة والذكاء الاصطناعي في جكور.

“يبدأ الأمر بخدمات البنية التحتية الأساسية، بما في ذلك الحوسبة والتخزين المعدني، والأجهزة الافتراضية، وموازنات الأحمال، والتخزين الخارجي. الآن نرى المزيد والمزيد من العملاء يستخدمون خدمات النظام الأساسي. نحن نقدم المدارة com.kubernetes مع القياس التلقائي والشفاء التلقائي.

على الرغم من أنه يمكن استخدام خدماتها من قبل أي قطاع تقريبًا، إلا أن أنواعًا معينة من التطبيقات تتطلب الأداء العالي والموثوقية التي تستهدفها Gcore، بما في ذلك الألعاب.

“نحن ندعم استضافة العديد من الألعاب وتدفق الخوادم متعددة اللاعبين، بما في ذلك الألعاب السحابية، والتي يزداد الطلب عليها حاليًا“، يقول فاينر. “يستخدم العملاء خدماتنا عبر دورة حياة التطوير الكاملة – بدءًا من العرض والإنتاج وحتى توزيع الألعاب حول العالم، إلى جانب التحليلات وإعادة التشغيل. نحن نعمل أيضًا مع شركات الاتصالات، خاصة فيما يتعلق بتوزيع المحتوى وخدمات 5G.

تحظى صناعة الرعاية الصحية أيضًا بأهمية متزايدة بالنسبة إلى Gcore، وخاصة منصات التطبيب عن بعد وسجلات الرعاية الصحية الإلكترونية. لدى Gcore عملاء في مجال التكنولوجيا المالية يستخدمون خدمات البنية التحتية لتشغيل منصات الدفع الخاصة بهم، ومن ثم هناك شركات إعلامية تدير جلسات تحويل الشفرات في السحابة.

يستخدم معظم العملاء التطبيقات التي تعمل عليها س86 أالهندسة المعماريةس. ولكن هناك عدد متزايد من التطبيقات التي تتطلب الآن هندسة الذراع، مما يوفر أداءً أعلى لحالات استخدام معينة.

يقول فاينر: “يطلب منا العديد من عملائنا، بما في ذلك قطاع الألعاب والصناعات الأخرى، توفير خيار مثيلات Arm”. “لدينا طلبات من العملاء الذين يرغبون في أن تكون البنية التحتية الخاصة بهم مبنية على مثيلات افتراضية أو معدنية عارية تعتمد على بنية Ampere’s Arm.”

آفاق جديدة للذكاء الاصطناعي تبدأ في أوروبا

وقد تم بالفعل إنشاء مجموعات Gcore AI في أوروبا، ومقرها في لوكسمبورغ وأمستردام ونيوبورت في ويلز. كما أنشأت أيضًا موطئ قدم لها في الولايات المتحدة، من خلال مجموعات الذكاء الاصطناعي في ماناساس بولاية فيرجينيا. لدى الشركة خارطة طريق قوية للعمل في المزيد من الأماكن وتقديم المزيد من الخدمات. وفي وقت لاحق من هذا العام، تخطط Gcore للتوسع بإضافة 128 خادمًا إضافيًا مدعومًا بأحدث التقنيات نفيديا وحدة معالجة الرسومات H100 لتعزيز بنيتها التحتية بشكل أكبر.

لكن إحدى التحركات الكبيرة في العمل هي إطلاق الاستدلال على الحافة في الربع الأول من عام 2024. وستوفر الشركة للعملاء خيار نشر نماذج مدربة مسبقًا على الحافة لزمن استجابة منخفض أو نشر جاهز للاستخدام مفتوح المصدر. نماذج مثل Whisper أو Llama استنادًا إلى وحدات معالجة الرسومات Nvidia L40 حول العالم. تم تصميم L40s خصيصًا للاستدلال.

يقول فاينر: “سيكون لدينا عقد استدلالية متاحة في بيئاتنا الطرفية في العديد من البلدان”. “نتوقع أن يكون لدينا ما يصل إلى 100 عقدة حول العالم في عام 2024، والتي سيتم ربطها من خلال التوجيه الذكي وشبكات CDN الخاصة بنا [content delivery network]. سيتم توصيل النماذج المدربة مسبقًا مباشرة بالمستخدم النهائي عن طريق نقل الطلبات بكفاءة إلى أقرب عقدة استدلال.

“يمكن للعملاء بسهولة نشر نماذجهم المدربة مسبقًا وتوزيعها في جميع أنحاء العالم. ستقوم خدمتنا تلقائيًا بتوجيه الطلب إلى أقرب نقطة تواجد، بناءً على الجهاز ونوع الطلب. لدينا أكثر من 150 نقطة تواجد حول العالم، والتي تقوم بعد ذلك بإرسال الطلبات عبر العمود الفقري لشبكتنا إلى أقرب عقدة استدلال.

“لنفترض أن لدينا طلبًا من مستخدم نهائي في أوساكا. سيكون الاتصال الأول بعقدة CDN الخاصة بنا في أوساكا. بعد ذلك، سوف ينتقل إلى عقدة الاستدلال في طوكيو باستخدام معالجات L40s أو Ampere. ستقوم عقدة الاستدلال الخاصة بنا بمعالجة الطلب وإرسال الإجابة مرة أخرى عبر العمود الفقري لشبكتنا إلى عقدة Osaka CDN، والتي تقوم بعد ذلك بتمريرها مرة أخرى إلى المستخدم النهائي. يضمن هذا الترتيب الكمون المنخفض. في النهاية، سوف نقوم بتجميع عقد الاستدلال مع عقد CDN. ستتمكن هذه الخدمة بعد ذلك من توفير التفاعل في الوقت الفعلي مع تعلم الآلة [machine learning] نموذج.”

لتدريب النماذج عالية الكثافة وعالية التحميل، يستخدم Gcore مجموعات GPU مع InfiniBand. ولكن للاستدلال، قد يكون الطلب على وحدات المعالجة المركزية المستندة إلى Arm أكثر من وحدات معالجة الرسومات، لذلك تقدم الشركة معالجات Ampere لمنح العملاء خيارًا أكبر.

يقول فاينر: “نود أن نكون مزودًا سحابيًا محايدًا حيث يمكن للعميل استخدام شرائح x86 أو شرائح Arm”. “نريد توفير أنواع من وحدات المعالجة لمختلف الأسواق والاحتياجات المختلفة.”



Source link

زر الذهاب إلى الأعلى