AMD et Nvidia font face à des budgets “serrés” de la part des fournisseurs de services cloud alors même que l’IA se développe

Alors qu’Advanced Micro Devices Inc. fait sa grande percée sur le marché des centres de données IA lors de son événement à San Francisco cette semaine, à la suite de l’événement similaire de Nvidia Corp. fin mars, un analyste voit les deux sociétés se lancer dans un marché plus serré que- marché attendu.

La croissance des produits d’intelligence artificielle, qui s’appuient sur des centres de données massifs gérés par des fournisseurs de services cloud ou des “hyperscalers”, a joué un rôle important dans les performances de Nvidia NVDA,
+2,88%
et AMDAMD,
+1,45%
cette année. Les actions de Nvidia ont augmenté de 187 % depuis le début de l’année, ce qui donne à la société sa première valorisation de 1 000 milliards de dollars à la clôture de mardi, tandis que celles d’AMD ont augmenté de 95 %. En comparaison, le S&P 500 SPX,
-0,12%
est en hausse de 14 % et le PHLX Semiconductor Index SOX,
+0,44%
est en hausse de 46 %.

Alors que l’IA a turbocompressé les stocks de puces et a construit des attentes d’augmentation des dépenses au second semestre 2023 de la part des hyperscalers, l’analyste de BofA Securities Vivek Arya a déclaré dans une note publiée mercredi que les attentes pourraient avoir dépassé la marque.

Arya, qui préfère Nvidia avec une note d’achat – par rapport à sa note neutre pour AMD et sa note de sous-performance pour Intel Corp. INTC,
+3,02%
– a déclaré que sa dernière enquête montre que les dépenses d’investissement totales des fournisseurs de services cloud augmentent de 2,5 % pour atteindre 171,5 milliards de dollars, plutôt que son estimation précédente d’une croissance de 4,7 % pour atteindre 174,5 milliards de dollars.

Cela tient toutefois compte d’un ralentissement de la croissance en Chine. Les dépenses de la Chine devraient baisser de 10 % à 8,5 milliards de dollars. Hors Chine, la croissance des dépenses d’investissement aux États-Unis devrait augmenter de 3,2 % pour atteindre 163 milliards de dollars, contre un gain de 2 % en 2022.

Lire: AMD lance de nouvelles puces IA pour datacenters, des logiciels pour affronter Nvidia et Intel

Les clients d’AMD et de Nvidia comprennent des hyperscalers majeurs tels que AMZN d’Amazon.com Inc.,
-0,58%
AWS, MSFT de Microsoft Corp.,
+0,55 %
Azure, GOOGL d’Alphabet Inc.,
-0,48%

GOOG,
-0.45%
ORCL de Google Cloud et d’Oracle Corp.,
+4,45%
Infrastructure cloud. Pendant ce temps, Amazon propose également des outils d’apprentissage automatique gratuits pour les utilisateurs. Microsoft soutient l’un des plus grands noms de l’IA générative, OpenAI et son produit ChatGPT ; et Google a son produit d’IA générative Bard et ses offres d’entreprise Google Cloud.

Et avoir à la fois l’IA et l’infrastructure sur laquelle elle s’exécute semble avoir un effet multiplicateur. Récemment, l’analyste de Susquehanna Financial, Christopher Rolland, a souligné que le nombre de clients Microsoft Azure OpenAI avait été multiplié par 10 d’un trimestre à l’autre et que Microsoft “augmentait les dépenses d’investissement de manière séquentielle pour faire évoluer son infrastructure d’IA”.

Lors de l’événement sur les centres de données d’AMD mardi, la présidente et directrice générale Lisa Su a déclaré qu’elle prévoyait que le marché adressable total des accélérateurs d’IA des centres de données grimperait à plus de 150 milliards de dollars en 2027, contre 30 milliards de dollars actuellement. Mardi, AMD a lancé une multitude de nouvelles puces de centre de données AI avec son accélérateur Instinct MI300X et son processeur Epyc natif du cloud de Bergame, que Meta Platforms Inc. META,
+0,10 %
a récemment adopté.

Lire: AMD poursuit Nvidia dans l’IA, mais un analyste craint que la société ne soit “un peu en retard”

Pourtant, à mesure que le marché de l’hyperscaler mûrit et que l’IA se développe, Arya de BofA craint que les fabricants de puces ne soient obligés de tailler leurs positions dans des budgets serrés.

“Le dilemme est de savoir comment le ralentissement des dépenses d’investissement peut absorber l’accélération de la croissance des applications basées sur l’IA générative à forte intensité de calcul/capex (genAI) et les grands modèles de langage (LLM) ?” dit Arya. “En effet, les serveurs accélérés contenant plusieurs GPU pourraient coûter 10 fois plus que le prix d’un serveur traditionnel uniquement CPU, avec l’accélérateur TAM (marché total adressable) qui devrait atteindre 100 à 150 $ (milliards) d’ici CY27E, potentiellement 25 à 50 % des investissements dans le cloud. , ce qui semble insoutenable.

Lire: Le PDG de Nvidia s’attend à ce que les revenus de l’IA passent de « minuscules, minuscules, minuscules » à « assez importants » au cours des 12 prochains mois

Les pièces manquantes du dilemme ici pourraient être la capacité des fournisseurs de services cloud à “prolonger le cycle de mise à niveau des processeurs conventionnels, possible maintenant que les calendriers d’amortissement sont étirés” entre cinq et six ans, contre les trois à quatre habituels.

Arya a également noté qu’un autre élément pourrait être que différents CSP ont des allocations de capital différentes, Amazon et Microsoft ne dépensant qu’environ 35% à 40% des investissements en matériel, tandis que Google et Meta dépensent plus près de 60%.

L’analyste a également noté que certaines architectures accélérées pourraient apporter des économies d’énergie et de dépenses d’exploitation.

AMD et Nvidia font face à des budgets “serrés” de la part des fournisseurs de services cloud alors même que l’IA se développe

Leave a Comment

Scroll to Top