الأمن السيبراني

البنية التحتية وراء سحر الذكاء الاصطناعي


في إحدى المرات، قال كاتب الخيال العلمي آرثر سي كلارك: “إن أي تكنولوجيا متقدمة بما فيه الكفاية لا يمكن تمييزها عن السحر”. وعندما نأمر برنامج ChatGPT بإنشاء صورة أو مقال، فربما نكون في الواقع نلقي تعويذة. ونظراً للسرعة التي تتم بها عملية الإبداع، فإن الصفة “السحرية” للذكاء الاصطناعي أمر لا مفر منه.

لنتأمل خدعة سحرية رائعة قام بها السحرة بن وتيلر، أو سيجفريد وروي، أو ديفيد بلين. لن نرى سوى النتيجة، التي تبدو سهلة، رغم أننا نشك بشكل حدسي في أنها كانت أصعب مما تبدو عليه.

مع هيمنة الذكاء الاصطناعي بقوة على روح العصر بالنسبة للمستهلكين والشركات، فمن الجدير أن نكشف الحقائق المادية التي تدعم بعض القفزات الأخيرة في تكنولوجيا الذكاء الاصطناعي والتي تشهد على ابتكار تكنولوجيا الأجهزة والحوسبة، وتذكير بأن هناك تمكينات مادية ومعوقات تساعد في جعل الذكاء الاصطناعي حقيقة واقعة أو تحد من نموه.

إن ما لا يعتبر سحراً هو أن العديد من خوارزميات التعلم الآلي التي تشكل الأساس للذكاء الاصطناعي التوليدي الحالي تعود إلى ثمانينيات القرن العشرين، وفي كثير من النواحي كانت بداياتها بسيطة، حيث كانت تعتمد على الأساس الاحتمالي الإحصائي والترجيح في جوهرها. والفارق الأكبر هو أن التكنولوجيا الحالية تمكن من تحليل مجموعات بيانات المعلمات التي تزيد عن المليارات والتريليونات مقارنة بأكثر من ألف في تسعينيات القرن العشرين وأكثر من مليون في العقد الأول من القرن الحادي والعشرين.

متعلق ب:10 وظائف الذكاء الاصطناعي الأكثر رواجًا

يبدأ الأمر بشريحة أشباه الموصلات، التي لا يزال تقدمها التكنولوجي مذهلاً وأساسيًا لجعل الكثير من هذا الابتكار ممكنًا. بينما كان حجم الترانزستور الواحد قبل 60 عامًا يجعله مرئيًا للعين البشرية، فإن أحدث الترانزستورات أصبحت الآن أصغر بعشرة آلاف مرة من شعرة الإنسان، ومبنية على المستوى المجهري. وهذا أمر بالغ الأهمية لسبب كون iPhone 15 الحالي قويًا مثل أسرع حاسوب فائق في العالم في عام 1998 مع 19 مليار ترانزستور على شريحة A17 واحدة.

وتدفع وحدات معالجة الرسوميات هذه الكثافة إلى أبعد من ذلك مع 80 مليار ترانزستور على شريحة واحدة من طراز Nvidia H100، و208 مليار ترانزستور على الجيل التالي من شرائح Nvidia Blackwell. وتترجم كثافة الترانزستورات الأكبر إلى قوة حوسبة أكبر، وخاصة عند اقترانها بالتحول إلى الحوسبة المتوازية المتسارعة عبر وحدات معالجة الرسوميات مقابل الحوسبة التسلسلية لوحدات المعالجة المركزية.

يتطلب تطور كثافة الترانزستورات وأحجام شرائح وحدة معالجة الرسوميات متطلبات مادية مباشرة. حيث يتطلب الأمر المزيد من الطاقة لكل شريحة، ويرتفع الطلب بسرعة من 400 واط لكل شريحة Nvidia A100 إلى 700 واط لكل شريحة H100 ومن المتوقع أن يصل إلى 1000 واط لكل شريحة B200 المستقبلية و1200 واط لكل شريحة GB200. وهذا يمثل زيادة كبيرة عن خوادم وحدة المعالجة المركزية التي تبلغ قدرتها 200-400 واط والتي تدعم عادةً بيئة الحوسبة السحابية.

متعلق ب:الذكاء الاصطناعي العام في عام 2025: حظا سعيدا مع ذلك

وباعتبارها شرائح وخوادم فردية، فإن متطلبات الطاقة هذه ليست شاقة للغاية. ومع ذلك، فإن القفزة التطورية في احتياجات الطاقة ترجع إلى حقيقة أن أحدث خوادم Nvidia تتطلب عادةً ما لا يقل عن 8 وحدات معالجة رسومية لكل وحدة، إلى جانب التخزين المرفق ووحدة المعالجة المركزية التي تضيف مضاعفًا يتراوح بين 1.25 و1.5 ضعفًا لمتطلبات الطاقة. في عام 2022، يتطلب نموذج اللغة الكبير GPT4 الذي يحتوي على 1.8 تريليون معلمة والذي يعمل على تشغيل ChatGPT من OpenAI 20000 وحدة معالجة رسومية A100 متصلة بشبكة عالية تعمل لمدة 90 يومًا مع حمل طاقة تكنولوجيا المعلومات يبلغ حوالي 12 ميجاوات في حالة ثابتة و3-6 ميجاوات أخرى من الطاقة لتبريد هذه المجموعة الفائقة.

لننتقل الآن إلى اليوم. في يونيو، أعلنت شركة أوراكل عن مجموعة OCI Supercluster جديدة قادرة على التوسع حتى 64000 شريحة GB200 – وهذا يعني 115 ميجاوات من تكنولوجيا المعلومات مع 29-58 ميجاوات أخرى مطلوبة لتبريدها. في 22 يوليو، أعلن إيلون ماسك أن شركة xAI ستمتلك مجموعة H100 بسعة 100000 وحدة بحلول نهاية عام 2024. وهذا يعني 105 ميجاوات من تكنولوجيا المعلومات مع 26-52 ميجاوات أخرى مطلوبة لتبريدها. ومن المتوقع أن تحتوي GPT5 من OpenAI على 10 تريليون معلمة وأن يتم تدريبها على مجموعة بهذا الحجم.

دعونا نضع هذا في سياقه. بالنسبة لهاتين المجموعتين وحدهما، ستكون هناك حاجة إلى ما يقرب من 150-175 ميجاوات لكل مجموعة لدعم عملية تدريب الذكاء الاصطناعي لمدة 90 يومًا. بالنسبة لمجموعة واحدة، فإن هذا أكبر من الغالبية العظمى من مراكز البيانات العاملة اليوم. مع متوسط ​​حجم محطة الطاقة النووية في الولايات المتحدة عند 1.8 جيجاوات، فإن هذا يمثل ما يقرب من 10٪ من قدرتها لمجموعة واحدة. لا يزال هناك الكثير من المجموعات الأصغر قيد التشغيل بمستويات 5K و10K و20K GPU، لكن الديناميكية تظل مماثلة: هذه مجموعات تتراوح من 10 إلى 40 ميجاوات ولديها القدرة على استخدام كل الطاقة في مركز بيانات نموذجي.

متعلق ب:إعادة تشكيل دليل مديري تكنولوجيا المعلومات لعصر الذكاء الاصطناعي

تظل إمكانية توفر كتل كبيرة من الطاقة الثابتة والموثوقة تشكل عقبة أمام نشر مجموعات وحدات معالجة الرسوميات الأساسية، إلا أن الأمر ليس بهذه البساطة، حيث تتطلب مجموعات التدريب هذه توفرًا عاليًا. وقد يؤدي انقطاع الطاقة في اليوم الخامس والسبعين من دورة تدريبية مدتها 90 يومًا إلى تلف أو إعادة التشغيل تمامًا. وعندما تتعرض أفضل المرافق لأربع إلى ست حالات انقطاع للطاقة (من انقطاع التيار الكهربائي إلى انخفاضه) سنويًا، تظل أهمية تصميم مراكز البيانات عالية التوافر وعملياتها بالغة الأهمية لتمكين الذكاء الاصطناعي.

إن سحر الذكاء الاصطناعي يرتكز على مفاهيم بسيطة ولكن يتم تكراره على نطاق لم يكن من الممكن فهمه من قبل. وفي حين ينشأ تشكك ناشئ حول القيمة الجوهرية للذكاء الاصطناعي، فإن شركات التكنولوجيا الكبرى تضاعف استثماراتها على أساس الوعد باستنتاج الذكاء الاصطناعي، وهي عملية استخدام نموذج التعلم الآلي المدرب لتحليل وتقييم البيانات الجديدة. ومع استمرار الابتكار في الكشف عن طرق ذات مغزى لإطلاق العنان لقوة الذكاء الاصطناعي في الوقت الفعلي، فإن موجة التوسع في البنية الأساسية الأساسية المطلوبة سوف تستمر.





Source link

زر الذهاب إلى الأعلى