صرح Jensen Huang ، الرئيس التنفيذي لشركة Nvidia Corporation (NVDA.US) مؤخرًا أن الذكاء الاصطناعي التوليدي يمثل "لحظة iPhone" جديدة. بينما لا يزال يتعين رؤية التأثير طويل المدى للذكاء الاصطناعي التوليدي ، يبدو أن تأثيره الفوري يغير ، وربما بشكل لا رجوع فيه ، نهج البنية التحتية السحابية. بصفتها موفر تسريع الأجهزة الحصري من Microsoft لخدمات الذكاء الاصطناعي التوليدية ، يجب أن تكون Nvidia المزود المفضل لتسريع الذكاء الاصطناعي السحابي عالميًا. و لماذا؟ نراه أدناه.
منذ إطلاق OpenAI لتطبيق ChatGPT في نوفمبر الماضي ، أصبح هذا التطبيق الأسرع نموًا للمستخدمين ، مع أكثر من 100 مليون مستخدم في يناير. كما تسبب في قيام مزودي الخدمات السحابية بإعادة تقييم ما يمكن أن يفعله الذكاء الاصطناعي. على سبيل المثال ، تبنت شركة Microsoft (MSFT.US) الذكاء الاصطناعي التوليدي ، وهو المصطلح للذكاء الاصطناعي المشابه لـ ChatGPT ، وتستضيف جميع خدمات OpenAI.

الرئيس التنفيذي لشركة Nvidia Jensen Huang
قد يعكس الانخفاض في الإنفاق على مركز البيانات تأثير ChatGPT
في الربع الأول من هذا العام ، زاد مقدمو الخدمات السحابية الرئيسيون Microsoft (MSFT.US) و Alphabet Inc. / Google (GOOG) و Amazon.com، Inc. (AMZN) عائدات الخدمات السحابية بشكل كبير. زاد قطاع Microsoft Azure Intelligent Cloud الإيرادات بنسبة 16٪ على أساس سنوي. زادت Google Cloud الإيرادات بنسبة 28٪ سنويًا. كما زادت Amazon Web Services ("AWS") من الإيرادات بنسبة 16٪ على أساس سنوي.
على الرغم من هذا النمو ، كان هناك انخفاض في الإنفاق على أجهزة الخدمات السحابية ، وعلى الأخص في شركة Intel (INTC.US) ، حيث انخفضت إيرادات مراكز البيانات بنسبة 39٪ على أساس سنوي. بالإضافة إلى ذلك ، تضمنت توقعات إنتل للربع الثاني انخفاضًا أكبر ، وإن لم يتم تحديده بعد ، في الإيرادات السنوية لمركز البيانات. كانت الأمور أفضل في شركة Advanced Micro Devices، Inc. (AMD.US) ، حيث كانت إيرادات مركز البيانات ثابتة على أساس سنوي ، لكن الشركة توقعت انخفاضًا عامًا بعد عام في إيرادات مراكز البيانات في الربع الثاني.
كيف يمكنك مواكبة النمو السحابي المستمر مع الانخفاض الواضح في الإنفاق على البنية التحتية السحابية؟
يمكن للمستثمر دائمًا أن يحذر من رياح معاكسة للاقتصاد الكلي ، ربما مقترنة بالتكاليف وقضايا سلسلة التوريد لإنتاج الأجهزة.
لكن ما نواجهه حقًا هو تغيير تقني معطّل ، شيء أكثر جوهرية ، تسارع مع ظهور الذكاء الاصطناعي التوليدي. وهذا هو التحول في التركيز من وحدات المعالجة المركزية التقليدية (معالجات AMD أو Intel) باعتبارها المحرك الحسابي الرئيسي في مركز البيانات إلى مجموعة من وحدات المعالجة المركزية ومسرعات البيانات ، والتي تعتمد في الغالب على وحدات معالجة الرسومات (معالجات الرسومات أو بطاقات الرسومات). من نفيديا).
هذا هو النهج الذي دعت إليه Nvidia لسنوات ، وهو أمر طبيعي لأنه عملهم ، بحجة أن تسريع GPU هو بطبيعته أكثر كفاءة في استخدام الطاقة وفعالية من حيث التكلفة من وحدات المعالجة المركزية الفردية. كانت الحجة ضد ذلك هي أن وحدات المعالجة المركزية أكثر تنوعًا بينما تقتصر وحدات معالجة الرسومات على مهام معينة تستفيد من التوازي الهائل لوحدات معالجة الرسومات.
لكن نطاق المهام التي تستفيد من وحدة معالجة الرسومات آخذ في الازدياد. أصبحت الحوسبة الفائقة الموفرة للطاقة الآن المجال الحصري تقريبًا لتسريع GPU (أو Nvidia لهذه المسألة). في الخدمات السحابية التجارية ، تعمل وحدات معالجة الرسومات على تسريع كل شيء بدءًا من تدفق الألعاب إلى metaverse. وبالطبع الذكاء الاصطناعي.
وبهذا المعنى ، فإن AMD ، مع مجموعة كبيرة من GPU ، هي في وضع أفضل من Intel ، وهذا قد يفسر جزئيًا نتائج AMD الأفضل لمركز بيانات Q1. ومع ذلك ، أدى ظهور الذكاء الاصطناعي التوليدي إلى قلب سوق تسريع الذكاء الاصطناعي رأساً على عقب.
من المحتمل أن GPT ، وهي اختصار لـ Generative Generative Transformer ، ربما جعلت تسريع GPU التقليدي قديمًا. عندما قدمت Nvidia مسرع مركز البيانات H100 "Hopper" في أبريل 2022 ، تضمن "Transformer Engine" لتسريع أعباء عمل الذكاء الاصطناعي التوليدية. يعتمد محرك Transformer Engine على أنوية Tensor من Nvidia لتوفير تحسين سرعة 6X على محولات التدريب:
في الورقة البيضاء المنشورة جنبًا إلى جنب مع البيانات من الربع السابق ، أوضحت Nvidia دوافع محرك Transformer الذي ، دون الخوض في التفاصيل والمصطلحات الفنية المعقدة للغاية ، فقط للتلخيص ، في عام 2022 ، بدا محرك Nvidia's Transformer Engine وكأنه مجرد تقنية . مثير للاهتمام. لقد كان ابتكارًا مناسبًا بالنظر إلى أن Nvidia أرادت أن تظل ذات صلة بمجتمع أبحاث الذكاء الاصطناعي. لم يكن لدي أي فكرة في ذلك الوقت عن مدى أهمية ذلك بالنسبة لاعتبارات مزودي الخدمات السحابية مثل Microsoft الذين يريدون إتاحة GPT لعامة الناس.
كيف قفزت Microsoft إلى الأمام في تعاون OpenAI
عندما كشفت Microsoft لأول مرة عن متصفحها التكويني ومحرك البحث الذي يعمل بالذكاء الاصطناعي في فبراير ، بدا أن الشركة كانت متقدمة جدًا على Google في دمج GPT في منتجاتها. والآن ، بينما تقدم Microsoft برامج "الطيارين المساعدين" للذكاء الاصطناعي كميزات قياسية ، لا يزال "Bard" المتنافس من Google قيد التجربة.
من الواضح أن Microsoft قد اتخذت خطوة كبيرة في مجال الذكاء الاصطناعي بمساعدة تعاونها مع OpenAI. يتم توفير كل الاستضافة الخاصة بهذا (OpenAI) بواسطة خدمة Azure السحابية من Microsoft ، بما في ذلك ChatGPT وأنظمة الذكاء الاصطناعي التوليدية الأكثر تقدمًا. من الواضح أيضًا أن Microsoft لديها إمكانية الوصول إلى تقنية الذكاء الاصطناعي التوليدية الخاصة بـ OpenAI على مستوى الكود (وهو أمر بالغ الأهمية) ودمجه في العديد من "الطيارين المشاركين" لمنظمة العفو الدولية التي تقدمها الشركة اليوم.
لكن انتظر ، كيف بدأت Microsoft علاقة وثيقة وحصرية على ما يبدو مع مؤسسة بحثية غير ربحية؟
كما اتضح ، فإن OpenAI ليست منظمة غير ربحية بالضبط. في عام 2019 ، أنشأت شركة OpenAI شركة OpenAI LP كشركة تابعة مملوكة بالكامل ومرهقة. يبدو أن هذا تم بهدف وحيد هو توفير متلقي لاستثمار بقيمة مليار دولار من Microsoft كما لو كان تبرعًا.
بعد ذلك ، في يناير 2023 ، استثمرت Microsoft 10 مليارات دولار أخرى في OpenAI LP ، كما ذكرت بلومبرج:
يهدف الدعم الجديد ، المستند إلى مليار دولار استثمرته Microsoft في OpenAI في عام 2019 وجولة أخرى في عام 2021 ، إلى منح Microsoft إمكانية الوصول إلى بعض أنظمة الذكاء الاصطناعي الأكثر شهرة وتقدماً. تتنافس Microsoft مع Alphabet Inc. و Amazon.com Inc. و Meta Platforms Inc. للسيطرة على التكنولوجيا سريعة النمو التي تنشئ النصوص والصور والوسائط الأخرى استجابةً لإشعار قصير.
في الوقت نفسه ، يحتاج OpenAI إلى التمويل وقوة الحوسبة السحابية من Microsoft لمعالجة كميات كبيرة من البيانات وتشغيل النماذج المعقدة بشكل متزايد التي تسمح لبرامج مثل DALL-E بإنشاء صور واقعية استنادًا إلى حفنة من الكلمات ، و ChatGPT لإنشاء صور بشرية مذهلة الصور. - كنص محادثة.
10 مليارات دولار هي الكثير من الملايين التي يجب دفعها مقابل ما يرقى إلى الكثير من التعليمات البرمجية ، لكنها رمز لا يمكن لأي شخص خارج OpenAI و Microsoft الوصول إليه.
استثمار Microsoft الضخم في الذكاء الاصطناعي التوليدي
لتحقيق قفزة إلى Google ، التي ابتكرت نهج الذكاء الاصطناعي التوليدي ، كان على Microsoft أن تقوم باستثمار ضخم ليس فقط في برنامج OpenAI ولكن أيضًا في الأجهزة ، وفي المقام الأول أجهزة Nvidia. ضخم ، لقد بدأنا للتو في التعلم من خلال بعض منشورات مدونة Microsoft.
في عام 2019 ، بدأت Microsoft و OpenAI شراكة ، توسعت هذا العام ، للتعاون في تقنيات الحوسبة الفائقة الجديدة Azure AI التي تسرع التقدم في الذكاء الاصطناعي ، وتفي بالوعد بنماذج لغوية واسعة النطاق ، وتساعد في ضمان مشاركة فوائد الذكاء الاصطناعي على نطاق واسع.
بدأت الشركتان العمل عن كثب معًا لإنشاء موارد حوسبة فائقة على Azure تم تصميمها وتخصيصها لتمكين OpenAI من تدريب مجموعة موسعة من نماذج الذكاء الاصطناعي المتزايدة القوة. تضمنت هذه البنية التحتية الآلاف من وحدات معالجة الرسومات NVIDIA المحسّنة للذكاء الاصطناعي والمتصلة معًا في شبكة عالية الأداء وزمن انتقال منخفض تعتمد على اتصالات NVIDIA Quantum InfiniBand للحوسبة عالية الأداء.
كان حجم البنية التحتية للحوسبة السحابية التي احتاجتها OpenAI لتدريب نماذجها غير مسبوق: مجموعات أكبر بشكل كبير من وحدات معالجة الرسومات المتصلة بالشبكة أكثر من أي شخص في الصناعة حاول بناؤها ، كما قال فيل وايموث ، كبير مديري Microsoft المسؤول عن الشراكات. الاستراتيجيات التي ساعدت في التفاوض على الصفقة مع شركة OpenAI.
على الرغم من الاستثمار الضخم في البنية التحتية ، كانت قاعدة العملاء في هذه المرحلة مقتصرة نسبيًا على باحثي OpenAI وداخل Microsoft. تم تسمية التحول من برنامج البحث إلى الخدمات السحابية التجارية "تصنيع الذكاء الاصطناعي" من قبل الرئيس التنفيذي لشركة Nvidia Jensen Huang وآخرين.
خلال خطابه الرئيسي في مؤتمر تكنولوجيا GPU في مارس 2023 ، أشار الرئيس التنفيذي Huang إلى البنية التحتية الضرورية باسم "مصانع الذكاء الاصطناعي". عند تصميم مصنع الذكاء الاصطناعي الذي تحتاجه OpenAI ، كان لدى Microsoft بالتأكيد فرصة رائعة لتقييم بدائل الأجهزة المختلفة قبل الاستقرار على Nvidia.
Nvidia كمورد حصري تقريبًا لشركة Microsoft
لا يزال بناء مصانع الذكاء الاصطناعي هذه قيد التنفيذ وسيستمر مع زيادة الطلب على خدمات الذكاء الاصطناعي التوليدية. يمكن اشتقاق فكرة عن فرصة العمل لـ Nvidia من منشور مدونة آخر بواسطة Matt Vegas ، Senior Product
مدير Azure HPC. في المنشور ، أعلن أن Microsoft بدأت في تقديم مثيلات الآلة الافتراضية بحد أدنى 8 وحدات معالجة رسومات Nvidia Hopper H100. هذا قابل للتطوير لاستخدام الذكاء الاصطناعي في "الآلاف" من H100s.
بشكل أساسي ، هذا نظام يسمح لنظام اتصال متعدد بالعمل كوحدة معالجة رسومات واحدة. يتصلون ببعضهم البعض عبر روابط الألياف البصرية Nvidia InfiniBand مع عرض نطاق ترددي إجمالي للبيانات يبلغ 3.2 تيرابايت / ثانية.
من الصعب معرفة عدد مسرعات H100 الفعلية التي اشترتها Microsoft ، ولكن يبدو أنها بالآلاف. على الرغم من أنه يمكننا الحصول على فكرة عن عدد الآلاف من خلال تقدير كمية H100 اللازمة لاستضافة خدمات OpenAI.
لقد كان OpenAi شديد السرية بشأن تفاصيل ChatGPT ، لذلك من الصعب تحديد موارد الأجهزة التي يتطلبها مثيل واحد من ChatGPT. يحتوي موقع Tom's Hardware ، وهو موقع متخصص في المراجعات التقنية للأجهزة ، على مقال مثير للاهتمام حيث قام المؤلف بتشغيل GPT أقل قدرة على جهاز كمبيوتر مزود بوحدة معالجة رسومات RTX 4090 (نهاية عالية لبطاقات رسومات Nvidia للمستخدمين) واستخلص الاستنتاجات التالية:
إذا كان بإمكان وحدة معالجة رسومات واحدة بسعة 24 غيغابايت من VRAM تشغيل GPT الثانوي ، فأنا أقدر أن H100 واحد مع 80 غيغابايت من VRAM سيكون كافيًا لتشغيل مثيل واحد من ChatGPT. هذا مجرد تقدير. في الواقع ، يمكن لمثيل ChatGPT توزيع معالجته عبر عدة H100s والوصول إلى أكثر من 80 جيجابايت من VRAM ، اعتمادًا على عبء العمل. قد تتطلب GPTs الأكثر تقدمًا ، سواء من OpenAI أو Microsoft ، المزيد.
وفقًا لهذا التقرير ، تستقبل OpenAI 55 مليون زائر فريد يوميًا بمتوسط وقت زيارة يبلغ 8 دقائق. بافتراض أن كل زائر يحصل على استخدام حصري لـ H100 أثناء الزيارة ، فهذا يعني أنه يجب أن يكون هناك حوالي 300000 H100s في خدمة Azure السحابية للتعامل مع الحمل. هذا من شأنه أن يعادل 37500 من أنظمة H100 DGX ، تبلغ قيمتها حوالي 3.75 مليار دولار من العائدات ، ومن المحتمل أن تنتشر على عدة أرباع.
اعتبارًا من الربع الرابع من السنة المالية 2023 لشركة Nvidia ، من المحتمل أن تكون معظم هذه البنية التحتية قد تم احتسابها بالفعل في الإيرادات من قطاع أعمال مركز بيانات Nvidia. ومع ذلك ، فإن إمكانية التوسع في خدمات الذكاء الاصطناعي الشبيهة بـ GPT على Azure تعني أن هناك المزيد في المستقبل. يتم تقديم خدمة Microsoft المستندة إلى H100 ، والتي تسمى ND H100 V5 ، حاليًا كمعاينة فقط. من المحتمل أن يكون هذا لضمان عدم تحميل الأجهزة المتوفرة بشكل زائد.
هل نواجه الموجة / دورة الابتكار التالية؟ المصدر: معهد إدلسون
الاستنتاجات
يبدو أن كل شيء يشير إلى أن Nvidia لديها كل فرصة لتكون في المرتبة الأولى ومع أكبر عدد من احتياجات الأجهزة في الذكاء الاصطناعي التوليدي.
لاحظ كل بائع أجهزة تقريبًا في المساحة السحابية أن الذكاء الاصطناعي التوليدي يمثل فرصة كبيرة. وهم على حق ، لكن من غير المرجح أن يتم توزيع هذا السوق بالتساوي.
إن القول بأن المعارك يفوز بها الشخص الذي يصل إلى هناك أولاً ومع أكبر قدر من الموارد ينطبق على أعمال تسريع الذكاء الاصطناعي في Nvidia. بينما يتحدث المنافسون فقط عن الفرص المستقبلية ، تحاصر Nvidia السوق الحالية لتسريع الذكاء الاصطناعي التوليدي.
فوجئ المستثمرون بأسهم Nvidia (NVDA.US) حتى ضد شركات التكنولوجيا الكبرى الأخرى مثل Microsoft و Alphabet / Google. تخلف مؤشر S & P500 عن أكبر أسهم التكنولوجيا. المصدر: بلومبرج
مفتاح نجاح Nvidia هو أنه بصرف النظر عن البقاء في شرائحها الحالية ، فقد توقعت بشكل نبوئي الاحتياجات المستقبلية تقريبًا. كانت Nvidia موجودة منذ بداية OpenAI ، عندما سلم Jensen Huang يدويًا أول نظام DGX إلى OpenAI في عام 2016 ، قبل 7 سنوات الآن.
NVDA.US، D1. المصدر: xStation
ستقدم لنا Nvidia Corporation هذا الأسبوع نتائج الربع المالي الأول 2024 (يوم الأربعاء 24 بعد إغلاق السوق الأمريكية). في سياق تقني حيث لم يعد لديها حواجز لاستعادة أعلى مستوياتها على الإطلاق التي تم الوصول إليها في نوفمبر 2021.
داريو غارسيا ، EFA
XTB إسبانيا
الولايات المتحدة 🗽 ارتفاع مؤشر US500 قبل الجلسة الافتتاحية في وول ستريت
عاجل: مبيعات التجزئة الأمريكية تتجاوز التوقعات! سعر صرف اليورو مقابل الدولار الأمريكي يرتفع!
عاجل: تقرير ADP الأمريكي أعلى من المتوقع، وردود فعل مؤشر الدولار الأمريكي
ملخص السوق: الأسهم الأوروبية تنضم إلى موجة الصعود 🚀 مؤشر يورو ستوكس +3%
"لا تشكل المواد الموجودة في هذه الصفحة نصيحة مالية ولا تأخذ في الاعتبار مستوى فهمك أو أهدافك الاستثمارية أو وضعك المالي أو أي احتياجات أخرى معينة. جميع المعلومات المقدمة، بما في ذلك الآراء، وبحوث السوق، والنتائج الرياضية والتحليلات التقنية المنشورة على الموقع الإلكتروني أو المرسلة إليك بوسائل أخرى، يتم توفيرها لأغراض المعلومات فقط، ولا ينبغي بأي حال من الأحوال تفسيرها على أنها عرض أو التماس لمعاملة في أي أداة مالية، ولا ينبغي تفسير المعلومات المقدمة على أنها مشورة ذات طبيعة قانونية أو مالية. أي قرارات استثمارية تتخذها يجب أن تستند حصرا إلى مستوى فهمك، أو أهدافك الاستثمارية، أو وضعك المالي، أو أي احتياجات أخرى معينة. إن أي قرار بالتصرف بناء على المعلومات المنشورة على الموقع الإلكتروني أو المرسلة إليك بوسائل أخرى هو على مسؤوليتك الخاصة تماما. أنت وحدك المسؤول عن مثل هذه القرارات. إذا كنت في شك أو غير متأكد من أنك تفهم منتجا معينا أو أداة أو خدمة أو معاملة معينة ، فيجب عليك طلب المشورة المهنية أو القانونية قبل التداول. الاستثمار في العقود مقابل الفروقات (CFDs) يحمل درجة عالية من المخاطر، لأنها منتجات قائمة على الرافعة المالية وحركات صغيرة في كثير من الأحيان في السوق يمكن أن يؤدي إلى تحركات أكبر بكثير في قيمة الاستثمار الخاص بك، وهذا يمكن أن يعمل ضدك أو لصالحك. يرجى التأكد من فهمك الكامل للمخاطر التي ينطوي عليها الأمر، مع الأخذ في الاعتبار أهداف الاستثمارات ومستوى الخبرة، قبل التداول، وإذا لزم الأمر، اطلب المشورة المستقلة. "