L'IA pas rentable de si tôt pour les grands noms de la tech ? C'est ce qu'estime cet analyste

Camille Coirault
Publié le 09 juillet 2024 à 08h17
Les milliards pleuvent depuis l'avènement de l'IA © Anucha Naisuntorn / Shutterstock
Les milliards pleuvent depuis l'avènement de l'IA © Anucha Naisuntorn / Shutterstock

Tandis que les géants de la tech investissent massivement dans les infrastructures IA, il n'y a encore aucune sûreté quant à la rentabilité globale de ces opérations. David Cahn, analyste chez Sequoia Capital tire la sonnette d'alarme.

Nous vivons un véritable effet Spoutnik de l'IA : une prise de conscience massive de l'importance de cette technologie, une course à l'innovation, des investissements et des levées de fonds colossaux de la part des ténors du secteur. Que ce soit la start-up xAI de Musk, les géants américains historiques comme NVIDIA ou Microsoft avec OpenAI ou des jeunes pousses françaises comme Mistral AI, le constat est le même. Les budgets explosent !

Toutefois, selon David Cahn, la rentabilité au long terme de ces investissements n'est pas assurée et selon lui, les chiffres actuels ne corroborent pas les attentes élevées des investisseurs.

Des chiffres astronomiques à justifier

En effet, ses propres calculs révèlent une escalade vertigineuse des coûts d'infrastructure nécessaires pour justifier les investissements colossaux dans ce domaine. Initialement estimé à 200 milliards de dollars annuels en septembre dernier, le seuil de rentabilité a depuis lors triplé, atteignant désormais l'astronomique somme de 600 milliards de dollars. Une somme dépassant largement le PIB de certains pays comme l'Irlande ou l'Autriche.

Ces conclusions reposent sur une analyse des frais d'exploitation des GPU au sein des centres de données, ces infrastructures au coût énergétique déjà démesuré. Selon Cahn, chaque dollar investi dans les processeurs graphiques engendre une dépense énergétique équivalente. À titre d'exemple, pour NVIDIA, dont les revenus anticipés pour le dernier trimestre 2023 avoisinent les 50 milliards de dollars, le coût global s'élèverait désormais à 100 milliards de dollars.

En extrapolant ces données et en tenant compte d'une marge brute de 50 % pour l'utilisateur final, l'analyste estime qu'un chiffre d'affaires de 200 milliards de dollars serait indispensable pour amortir l'investissement initial, sans même prendre en considération la marge des fournisseurs cloud.

Plus inquiétant encore, Cahn prédit qu'à l'horizon de fin 2024, les revenus des centres de données de Nvidia pourraient atteindre 150 milliards de dollars, portant ainsi le besoin en revenu pour assurer la rentabilité à l'astronomique somme de 600 milliards de dollars. Pour Cahn, il est important de savoir si cette demande en IA provient réellement des clients finaux ou si elle est anticipée. En d'autres termes, distinguer la demande effective des simples spéculations.

Les coûts associés à la création et à l'entretien des data centers sont tout simplement exorbitants © rameez126 / Shutterstock
Les coûts associés à la création et à l'entretien des data centers sont tout simplement exorbitants © rameez126 / Shutterstock

L'IA : une simple bulle économique ?

Les analyses perspicaces de Cahn laissent entrevoir une potentielle escalade des revenus nécessaires, notamment avec l'avènement des nouvelles puces Nvidia, notamment la B100. Cette dernière promet des performances 2,5 fois supérieures pour un surcoût modeste de 25 %. « Je m'attends à une ultime vague de demande pour les puces Nvidia », prédit-il. Néanmoins, il demeure circonspect quant à la réalité de la demande du marché. Il établit un parallèle audacieux entre le développement des infrastructures IA et la construction des chemins de fer : les trains finiront inévitablement par circuler, mais à quel prix et vers quelles destinations ?

Les têtes pensantes des leaders de la tech affichent un optimisme certain quant aux perspectives de croissance des revenus générés par l'IA. Microsoft, par exemple, a fait état d'une progression notable de 7 points dans la contribution de l'IA à la croissance d'Azure, atteignant désormais 31 %. Cependant, Cahn met en garde contre une analyse trop simpliste de ces investissements gigantesques.

« Durant les périodes de surconstruction d'infrastructures, il y a toujours des gagnants […] Les fondateurs et créateurs d'entreprises continueront d'investir dans l'IA – et ils auront plus de chances de réussir, car ils bénéficieront à la fois de coûts réduits et des enseignements tirés durant cette période d'expérimentation » continue l'analyste.

La métaphore des trains de Cahn est plutôt intelligente. En effet, l'essor fulgurant des infrastructures ferroviaires au XIXᵉ siècle aux États-Unis et en Europe a été marquée par un optimisme débordant et des spéculations très (trop ?) audacieuses. Bien que cette expansion ait catalysé des mutations économiques et sociales profondes, elle a également laissé dans son sillage des vestiges d'infrastructures délaissées et des fortunes anéanties. Une leçon historique qui nous invite donc à adopter une certaine prudence face à l'euphorie presque aveugle entourant l'IA.

Source : Tech Spot

Par Camille Coirault

La tech est mon terrain de jeu, la science ma maîtresse capricieuse et le jeu vidéo (malgré mes overdoses récurrentes de AAA) mon péché mignon. Voici votre serviteur, explorant la jungle technologique armé d'un simple PC et salivant comme un bouledogue devant la moindre innovation. Transformer le jargon technique en prose savoureuse, traquer les news ultimes avec les neurones toujours à balle de caféine : voilà ma mission.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (2)
Kratof_Muller

La création d’un modèle d’apprentissage coûte très cher, il faut beaucoup de gpu et beaucoup de personnel pour l’apprentissage. Mais pour l’inférence, c’est à dire, l’utilisation du modèle, les NPU sont moins consommateurs, en particulier les puce analo/numériques ( type GROK) dont la conso est en moyenne 30 fois moins consommatrice que des NPU digitaux. Les coûts d’exploitations ne seront pas si élevés, des solutions existent,et si elles n’existent pas encore, un peu ( beaucoup ) de science et d’intelligence y trouveront les solutions.

somoved

L’article entier peut être résumé par : une seule personne pense que.
Son avis est certes pas inutile et digne d’intérêt, mais en tant que journaliste normalement on va voir s’il y a un consensus des experts autour de cette question non ?
Reformuler et vulgariser fait parti de l’exercice d’un journaliste, ce qui est, je pense, bien fait ici. Il manque vraiment que la recherche de l’existence ou non d’un consensus pour que ce billet de blog se transforme en un article de presse.