مقارنة أفضل رقائق الذكاء الاصطناعي


نفيديا تفوقت الشركة على كل التوقعات، حيث سجلت أرباحًا مرتفعة يوم الأربعاء بفضل وحدات معالجة الرسومات التي تتفوق في أعباء عمل الذكاء الاصطناعي. لكن المزيد من فئات رقائق الذكاء الاصطناعي تكتسب المزيد من التقدم.
يتم الآن تصميم دوائر ASIC المخصصة، أو الدوائر المتكاملة الخاصة بالتطبيقات، بواسطة جميع المتوسعين الرئيسيين، من جوجلتي بي يو ل أمازونترينيوم و OpenAI خطط مع برودكوم. هذه الرقائق أصغر حجمًا وأرخص ويمكن الوصول إليها ويمكن أن تقلل من اعتماد هذه الشركات على وحدات معالجة الرسومات Nvidia. صرح دانييل نيومان من مجموعة Futurum لـ CNBC أنه يرى أن أجهزة ASIC المخصصة “تنمو بشكل أسرع من سوق GPU خلال السنوات القليلة المقبلة.”
إلى جانب وحدات معالجة الرسومات وأجهزة ASIC، هناك أيضًا مصفوفات بوابة قابلة للبرمجة ميدانيًا، والتي يمكن إعادة تكوينها باستخدام البرامج بعد أن يتم تصنيعها للاستخدام في جميع أنواع التطبيقات، مثل معالجة الإشارات والشبكات والذكاء الاصطناعي. هناك أيضًا مجموعة كاملة من شرائح الذكاء الاصطناعي التي تعمل على تشغيل الذكاء الاصطناعي على الأجهزة بدلاً من السحابة. كوالكوم, تفاحة وقد دافع آخرون عن شرائح الذكاء الاصطناعي الموجودة على الأجهزة.
تحدثت CNBC مع الخبراء والمطلعين في شركات التكنولوجيا الكبرى لتحليل المساحة المزدحمة والأنواع المختلفة من رقائق الذكاء الاصطناعي الموجودة هناك.
وحدات معالجة الرسومات للحساب العام
بمجرد استخدامها في المقام الأول للألعاب، جعلت وحدات معالجة الرسوميات Nvidia الشركة العامة الأكثر قيمة في العالم بعد أن تحول استخدامها نحو أعباء عمل الذكاء الاصطناعي. قامت Nvidia بشحن حوالي 6 ملايين وحدة معالجة رسوميات Blackwell من الجيل الحالي خلال العام الماضي.
يوضح ديون هاريس، المدير الأول للبنية التحتية للذكاء الاصطناعي في Nvidia، لكاتي تاراسوف من CNBC كيف تعمل 72 وحدة معالجة رسوميات Blackwell معًا كواحدة في نظام خادم على نطاق واسع GB200 NVL72 للذكاء الاصطناعي في مقر Nvidia في سانتا كلارا، كاليفورنيا، في 12 نوفمبر 2025.
مارك جانلي
بدأ التحول من الألعاب إلى الذكاء الاصطناعي في عام 2012 تقريبًا، عندما استخدم الباحثون وحدات معالجة الرسوميات من Nvidia لبناء AlexNet، وهو ما يعتبره الكثيرون لحظة الانفجار الكبير للذكاء الاصطناعي الحديث. كانت AlexNet أداة تم إدخالها في مسابقة بارزة للتعرف على الصور. وفي حين استخدم الآخرون في المسابقة وحدات معالجة مركزية لتطبيقاتهم، فإن اعتماد AlexNet على وحدات معالجة الرسومات قد وفر دقة مذهلة وطمس المنافسة.
اكتشف مبتكرو AlexNet أن نفس المعالجة المتوازية التي تساعد وحدات معالجة الرسومات على تقديم رسومات نابضة بالحياة كانت أيضًا رائعة لتدريب الشبكات العصبية، حيث يتعلم الكمبيوتر من البيانات بدلاً من الاعتماد على كود المبرمج. عرضت AlexNet إمكانات وحدات معالجة الرسومات.
اليوم، غالبًا ما يتم إقران وحدات معالجة الرسومات بوحدات المعالجة المركزية (CPUs) وتباع في أنظمة رفوف الخادم ليتم وضعها في مراكز البيانات، حيث تقوم بتشغيل أعباء عمل الذكاء الاصطناعي في السحابة. تحتوي وحدات المعالجة المركزية على عدد صغير من النوى القوية التي تقوم بمهام متسلسلة للأغراض العامة، بينما تحتوي وحدات معالجة الرسومات على آلاف النوى الأصغر التي تركز بشكل أضيق على الرياضيات المتوازية مثل ضرب المصفوفات.
نظرًا لأن وحدات معالجة الرسومات يمكنها إجراء العديد من العمليات في وقت واحد، فهي مثالية للمرحلتين الرئيسيتين لحساب الذكاء الاصطناعي: التدريب والاستدلال. يُعلم التدريب نموذج الذكاء الاصطناعي كيفية التعلم من الأنماط الموجودة في كميات كبيرة من البيانات، بينما يستخدم الاستدلال الذكاء الاصطناعي لاتخاذ قرارات بناءً على معلومات جديدة.
تعد وحدات معالجة الرسومات بمثابة العمود الفقري للأغراض العامة لشركة Nvidia وأكبر منافسيها، الأجهزة الدقيقة المتقدمة. يعد البرنامج بمثابة تمييز رئيسي بين شركتي GPU الرائدتين. في حين أن وحدات معالجة الرسومات Nvidia تم تحسينها بشكل محكم حول CUDA، منصة البرامج المملوكة لشركة Nvidia، فإن وحدات معالجة الرسوميات AMD تستخدم نظامًا بيئيًا برمجيًا مفتوح المصدر إلى حد كبير.
تبيع AMD وNvidia وحدات معالجة الرسوميات الخاصة بهما إلى موفري الخدمات السحابية مثل Amazon، مايكروسوفت، جوجل، أوراكل و CoreWeave. ثم تقوم هذه الشركات بتأجير وحدات معالجة الرسومات لشركات الذكاء الاصطناعي بالساعة أو الدقيقة. صفقة أنثروبيك بقيمة 30 مليار دولار مع Nvidia وMicrosoft، على سبيل المثال، تتضمن سعة حوسبة تبلغ 1 جيجاوات على وحدات معالجة الرسومات Nvidia. حصلت AMD أيضًا مؤخرًا على التزامات كبيرة من OpenAI و أوراكل.
تبيع Nvidia أيضًا مباشرة إلى شركات الذكاء الاصطناعي، مثل الصفقة الأخيرة لبيع ما لا يقل عن 4 ملايين وحدة معالجة رسومات إلى OpenAI، وإلى الحكومات الأجنبية، بما في ذلك كوريا الجنوبية والمملكة العربية السعودية والمملكة المتحدة.
قالت شركة تصنيع الرقائق لـ CNBC إنها تتقاضى حوالي 3 ملايين دولار مقابل أحد رفوف الخوادم الخاصة بها مع 72 وحدة معالجة رسوميات Blackwell تعمل كواحدة، وتشحن حوالي 1000 كل أسبوع.
قال ديون هاريس، المدير الأول للبنية التحتية للذكاء الاصطناعي في Nvidia، لـ CNBC إنه لم يكن يتخيل هذا القدر من الطلب عندما انضم إلى Nvidia منذ أكثر من ثماني سنوات.
وقال: “عندما كنا نتحدث مع الناس حول بناء نظام يحتوي على ثماني وحدات معالجة رسومية، اعتقدوا أن ذلك مبالغة”.
ASICs للذكاء الاصطناعي السحابي المخصص
لقد كان التدريب على وحدات معالجة الرسومات أمرًا أساسيًا في أيام الازدهار الأولى لنماذج اللغات الكبيرة، لكن الاستدلال أصبح أكثر أهمية مع نضوج النماذج. يمكن أن يحدث الاستدلال على شرائح أقل قوة ومبرمجة للقيام بمهام أكثر تحديدًا. وهنا يأتي دور ASICs.
في حين أن وحدة معالجة الرسومات تشبه سكين الجيش السويسري القادرة على القيام بالعديد من أنواع العمليات الحسابية المتوازية لأعباء عمل مختلفة للذكاء الاصطناعي، فإن ASIC يشبه أداة ذات غرض واحد. إنها فعالة وسريعة جدًا، ولكنها مُصممة لإجراء العمليات الحسابية الدقيقة لنوع واحد من الوظائف.
أصدرت Google الجيل السابع من مادة TPU، Ironwood، في نوفمبر 2025، بعد عقد من إنشاء أول ASIC مخصص للذكاء الاصطناعي في عام 2015.
جوجل
وقال كريس ميلر، مؤلف كتاب “حرب الرقائق”: “لا يمكنك تغييرها بعد أن يتم نحتها بالفعل في السيليكون، وبالتالي هناك مقايضة فيما يتعلق بالمرونة”.
تتميز وحدات معالجة الرسوميات من Nvidia بالمرونة الكافية لاعتمادها من قبل العديد من شركات الذكاء الاصطناعي، لكنها تكلفة تصل إلى 40،000 دولار ويمكن أن يكون من الصعب الحصول عليها. ومع ذلك، تعتمد الشركات الناشئة على وحدات معالجة الرسومات لأن تصميم ASIC مخصص له تكلفة أولية أعلى، تبدأ بعشرات الملايين من الدولارات، وفقًا لميلر.
بالنسبة لأكبر مزودي الخدمات السحابية الذين يمكنهم تحمل تكاليفها، يقول المحللون إن أجهزة ASIC المخصصة تؤتي ثمارها على المدى الطويل.
قال نيوسوم: “إنهم يريدون الحصول على قدر أكبر من السيطرة على أعباء العمل التي يبنونها”. “وفي الوقت نفسه، سيواصلون العمل بشكل وثيق جدًا مع Nvidia وAMD، لأنهم يحتاجون أيضًا إلى القدرة. فالطلب لا يمكن إشباعه.”
كانت جوجل أول شركة تكنولوجيا كبيرة تصنع ASIC مخصصًا لتسريع الذكاء الاصطناعي، وصاغت مصطلح Tensor Processing Unit عندما ظهرت أول ASIC في عام 2015. وقالت جوجل إنها فكرت في صنع TPU منذ عام 2006، لكن الوضع أصبح “عاجلا” في عام 2013 عندما أدركت أن الذكاء الاصطناعي سوف يضاعف عدد مراكز البيانات لديها. وفي عام 2017، ساهم TPU أيضًا في اختراع جوجل للمحول، الهندسة المعمارية التي تعمل تقريبًا على تشغيل جميع أنظمة الذكاء الاصطناعي الحديثة.
بعد مرور عقد من الزمن على أول TPU، جوجل مطلق سراحه الجيل السابع من مادة TPU في نوفمبر. أعلنت الأنثروبيك أنها ستتدرب LLM Claude على ما يصل إلى مليون TPU. وقال ميلر إن بعض الناس يعتقدون أن وحدات معالجة الرسومات (TPU) تتساوى من الناحية الفنية أو تتفوق على وحدات معالجة الرسومات الخاصة بشركة Nvidia.
وقال ميلر: “تقليدياً، استخدمتها جوجل فقط للأغراض الداخلية”. “هناك الكثير من التكهنات بأنه على المدى الطويل، قد تفتح Google إمكانية الوصول إلى وحدات TPU على نطاق أوسع.”
وكانت أمازون ويب سيرفيسز هي مزود السحابة التالي لتصميم شرائح الذكاء الاصطناعي الخاصة به، بعد الاستحواذ على مختبرات أنابورنا الإسرائيلية الناشئة في عام 2015. AWS أعلن Inferentia في عام 2018، وأطلقت Trainium في عام 2022. ومن المتوقع أن تعلن AWS عن الجيل الثالث من Trainium في ديسمبر المقبل.
صرح رون ديامانت، كبير المهندسين المعماريين في Trainium، لـ CNBC أن ASIC من Amazon تتمتع بأداء سعر أفضل بنسبة 30٪ إلى 40٪ مقارنة ببائعي الأجهزة الآخرين في AWS.
وقال ديامانت: “مع مرور الوقت، رأينا أن رقائق Trainium يمكن أن تخدم أعباء عمل الاستدلال والتدريب بشكل جيد للغاية”.
كاتي تاراسوف من CNBC تحمل شريحة Trainium 2 AI من Amazon Web Services التي تملأ مركز بيانات الذكاء الاصطناعي الجديد في نيو كارلايل، إنديانا، في 8 أكتوبر 2025.
ايرين بلاك
في أكتوبر، ذهبت قناة CNBC إلى ولاية إنديانا لحضور المؤتمر أول جولة أمام الكاميرا في أكبر مركز بيانات للذكاء الاصطناعي في أمازون، حيث تقوم Anthropic بتدريب نماذجها على نصف مليون شريحة Trainium2. تقوم AWS بملء مراكز البيانات الأخرى الخاصة بها بوحدات معالجة الرسومات Nvidia لتلبية الطلب منها عملاء الذكاء الاصطناعي يحبون OpenAI.
بناء ASICs ليس بالأمر السهل. ولهذا السبب تلجأ الشركات إلى مصممي الرقائق برودكوم و مارفيل. وقال ميلر إنهم “يوفرون الملكية الفكرية والمعرفة والشبكات” لمساعدة عملائهم في بناء أجهزة ASIC الخاصة بهم.
وقال ميلر: “لقد رأيتم شركة Broadcom على وجه الخصوص واحدة من أكبر المستفيدين من طفرة الذكاء الاصطناعي”.
ساعدت شركة Broadcom في بناء وحدات TPU و ميتامسرع التدريب والاستدلال تم إطلاقه في عام 2023، وقد صفقة جديدة لمساعدة OpenAI في بناء أجهزة ASIC المخصصة الخاصة بها بدءًا من عام 2026.
تدخل Microsoft أيضًا في لعبة ASIC، وأخبرت CNBC بذلك رقائق Maia 100 الداخلية الخاصة بها يتم نشرها حاليًا في مراكز البيانات الخاصة بها في شرق الولايات المتحدة وتشمل الآخرين كوالكوم مع A1200 إنتل مع مسرعات Gaudi AI و تسلا معها شريحة AI5. هناك أيضًا عدد كبير من الشركات الناشئة التي تعمل على شرائح الذكاء الاصطناعي المخصصة، بما في ذلك المخ، والتي تصنع رقائق الذكاء الاصطناعي الضخمة ذات الرقاقة الكاملة، و جروك، مع وحدات معالجة اللغة التي تركز على الاستدلال.
وفي الصين، تعمل شركات هواوي، وبايت دانس، وعلي بابا على تصنيع أجهزة ASIC مخصصة، على الرغم من أن ضوابط التصدير على المعدات الأكثر تقدما وشرائح الذكاء الاصطناعي تشكل تحديا.
حافة الذكاء الاصطناعي مع وحدات NPU وFPGAs
الفئة الكبيرة الأخيرة من شرائح الذكاء الاصطناعي هي تلك المصممة للتشغيل على الأجهزة، وليس في السحابة. عادةً ما تكون هذه الرقائق مدمجة في النظام الرئيسي للجهاز على شريحة SoC. تعمل شرائح Edge AI، كما يطلق عليها، على تمكين الأجهزة من التمتع بقدرات الذكاء الاصطناعي مع مساعدتها على توفير عمر البطارية والمساحة للمكونات الأخرى.
وقال سيف خان، المستشار السابق لسياسة الذكاء الاصطناعي وأشباه الموصلات في البيت الأبيض: “ستكون قادرًا على القيام بذلك مباشرة على هاتفك مع زمن استجابة منخفض جدًا، لذلك لا يتعين عليك الاتصال طوال الطريق للعودة إلى مركز البيانات”. “ويمكنك الحفاظ على خصوصية بياناتك على هاتفك.”
تعد وحدات المعالجة العصبية نوعًا رئيسيًا من شرائح الذكاء الاصطناعي المتطورة. تقوم شركات Qualcomm وIntel وAMD بتصنيع وحدات NPU التي تتيح إمكانات الذكاء الاصطناعي في أجهزة الكمبيوتر الشخصية.
على الرغم من أن شركة Apple لا تستخدم مصطلح NPU، إلا أن شرائح M-series الداخلية داخل أجهزة MacBooks تتضمن محركًا عصبيًا مخصصًا. قامت شركة Apple أيضًا ببناء مسرعات عصبية في أحدث شرائح iPhone A-series.
“إنه فعال بالنسبة لنا. إنه سريع الاستجابة. نحن نعلم أننا نتحكم بشكل أكبر في التجربة،” تيم ميليت، نائب رئيس هندسة منصة Apple، قال لـ CNBC في مقابلة حصرية في سبتمبر.
تحتوي أحدث هواتف Android أيضًا على وحدات NPU مدمجة في شرائح Qualcomm Snapdragon الأساسية سامسونج لديها NPU الخاصة بها على هواتف Galaxy أيضًا. وحدات NPUs من قبل شركات مثل إن إكس بي وNvidia power AI المضمن في السيارات والروبوتات والكاميرات والأجهزة المنزلية الذكية والمزيد.
وقال ميلر: “معظم الدولارات تذهب نحو مركز البيانات، ولكن مع مرور الوقت سوف يتغير ذلك لأنه سيكون لدينا الذكاء الاصطناعي منتشر في هواتفنا وسياراتنا والأجهزة القابلة للارتداء، وجميع أنواع التطبيقات الأخرى بدرجة أكبر بكثير من اليوم”.
ثم هناك مصفوفات البوابة القابلة للبرمجة ميدانيًا، أو FPGAs، والتي يمكن إعادة تكوينها باستخدام البرامج بعد تصنيعها. على الرغم من أنها أكثر مرونة بكثير من وحدات NPU أو ASICs، إلا أن FPGAs تتمتع بأداء أولي أقل وكفاءة أقل في استخدام الطاقة لأحمال عمل الذكاء الاصطناعي.
أصبحت AMD أكبر صانع FPGA بعد ذلك الحصول على Xilinx مقابل 49 مليار دولار في عام 2022، وتحتل إنتل المركز الثاني بفضل 16.7 مليار دولار شراء ألتيرا في عام 2015.
يعتمد هؤلاء اللاعبون الذين يصممون شرائح الذكاء الاصطناعي على شريحة واحدة الشركة لتصنيع كل منهم: شركة تايوان لتصنيع أشباه الموصلات.
تمتلك TSMC مصنعًا عملاقًا جديدًا لتصنيع الرقائق في ولاية أريزونا، حيث التزمت شركة Apple بنقل بعض إنتاج الرقائق. في أكتوبر، قال الرئيس التنفيذي لشركة Nvidia Jensen Huang إن وحدات معالجة الرسومات Blackwell كانت في “الإنتاج الكامل” في أريزونا أيضًا.
على الرغم من ازدحام مساحة شرائح الذكاء الاصطناعي، إلا أن التخلص من Nvidia لن يكون سهلاً.
وقال نيومان: “إنهم يتمتعون بهذا المنصب لأنهم استحقوه وأمضوا السنوات في بنائه”. “لقد فازوا بهذا النظام البيئي للمطورين.”
شاهد الفيديو لمعرفة تفاصيل كيفية عمل جميع شرائح الذكاء الاصطناعي: https://www.cnbc.com/video/2025/11/21/nvidia-gpus-google-tpus-aws-trainium-comparing-the-top-ai-chips.html




