Le fonctionnement de ChatGPT coûte, chaque jour, une petite fortune

Alexandre Boero
Chargé de l'actualité de Clubic
30 avril 2023 à 10h00
40
© Popel Arseniy / Shutterstock.com
© Popel Arseniy / Shutterstock.com

ChatGPT est de plus en plus utilisé dans le monde. Et le robot conversationnel coûte, chaque jour un peu plus cher à son propriétaire, OpenAI.

Former un modèle de langage puis faire vivre une intelligence artificielle générative comme ChatGPT peut coûter très cher. La société OpenAI, à l'origine de l'outil aux 200 millions d'utilisateurs, dépenserait quotidiennement plus de 700 000 dollars, soit environ 635 000 euros, pour assurer le fonctionnement du robot conversationnel. Ce montant est-il correct ?

Faire tourner la machine ChatGPT coûte cher

Cette « modeste » enveloppe de 700 000 dollars est évoquée par un analyste du bureau d'études SemiAnalysis, relayée par nos confrères américains de The Information, réputés sérieux. Dans une interview, Dylan Patel explique que le fonctionnement de ChatGPT coûterait bien, chaque jour, 700 000 dollars, justifiant la somme par les seuls coûts de fonctionnement de l'IA, comprenant la puissance de calcul et les serveurs, c'est-à-dire l'infrastructure.

Cette donnée jouit d'un certain réalisme, au vu de la popularité de ChatGPT et de son nombre de paramètres (175 milliards). Mais il est difficile de confirmer l'information, OpenAI ne communiquant peu, voire pas du tout, sur le sujet. Pour le coût exact de fonctionnement du modèle d'IA, on repassera donc.

Néanmoins, l'utilisation de commandes basées sur l'IA peut très vite chiffrer, certaines entreprises ayant déjà reconnu dépenser des centaines de milliers de dollars, chaque mois, pour générer des scénarios ou des contenus. Concernant ChatGPT, le coût réel quotidien de fonctionnement se situerait quelque part entre 500 000 et 1 million de dollars.

© Markus Mainka / Shutterstock
© Markus Mainka / Shutterstock

OpenAI essaie de trouver des alternatives plus douces sur le plan budgétaire

ChatGPT coûte donc très cher, et la facture doit même être encore plus élevée depuis la mise à disposition de GPT-4. Même si la dernière version du modèle de langage d'OpenAI est pour le moment réservée aux abonnés payants, peu nombreux, son exploitation nécessite encore plus de ressources, et ChatGPT traite une masse de données toujours plus grande : des millions et des millions chaque minute.

Mais OpenAI veut prendre les devants et trouver des alternatives, pour réduire ses coûts. Comment faire ? La société et Microsoft réfléchiraient à remplacer les GPU NVIDIA par des puces Athena, en développement depuis plusieurs années chez le géant américain.

Il faut dire que les IA conversationnelles nécessitent des puces spécialisées qui, une fois rattachées aux data centers, poussent son exploitant à des opérations d'entretien particulièrement coûteuses. Le marché de l'IA générative est toutefois loin d'être mature, et les évolutions (usages, entretien, progrès technologiques) sont encore difficiles à prévoir. Et les coûts aussi.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Source : t3n, The Information

Alexandre Boero

Chargé de l'actualité de Clubic

Chargé de l'actualité de Clubic

Journaliste, chargé de l'actualité de Clubic. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJC...

Lire d'autres articles

Journaliste, chargé de l'actualité de Clubic. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJCAM, école reconnue par la profession), pour écrire, interviewer, filmer, monter et produire du contenu écrit, audio ou vidéo au quotidien. Quelques atomes crochus avec la Tech, certes, mais aussi avec l'univers des médias, du sport et du voyage. Outre le journalisme, la production vidéo et l'animation, je possède une chaîne YouTube (à mon nom) qui devrait piquer votre curiosité si vous aimez les belles balades à travers le monde, les nouvelles technologies et la musique :)

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (40)

norwy
Il n’y a qu’à demander à ChatGPT de proposer une manière moins coûteuse de l’utiliser !<br /> Ça il ne saurait pas faire ?
fg03
Le cout personellement je m’en fout : c’est leur problème. Par contre la dépense énergétique si c’est comme la crytomerde qui nécessite des fermes de carte graphiques surpuissantes qui consommes autant qu’un pays, non merci
Comcom1
C’est déjà ce que représente tous les commentaires du même genre stocké sur des serveurs qui consomme le même genre d’énergie… si on suit ta logique on doit arrêter toute utilisation technologique.<br /> Bien que pour ce qui est des crypto je suis d’accord avec toi sur l’aberration de l’existence de cette merde
Than
A raison de 700k$ par jour, ça fait la bagatelle de 255 millions* de dollars par an. C’pas mal. ^^<br /> Bon maintenant est-ce que c’est vrai, puisqu’au final personne n’en sait rien.<br /> J’imagine que ça doit chercher à optimiser à tour de bras côté OpenAI pour réguler ça, sinon c’est pas gérable.
Than
Pour le coût, ça dépend du temps gagné via cet intermédiaire qu’est ChatGPT (ou autres IA génératives).<br /> Si le coût est 10 fois ce qu’on paierait d’ordinaire sans ce type d’IA, mais que le gain en temps est de 100 fois, alors ça vaut le coût/coup.<br /> Pour la crypto’, ça dépend aussi de ce qu’on en fait.<br /> Si c’est purement spéculatif, effectivement on continue d’être à côté de nos pompes à détruire de la matière réelle pour des chiffres fictifs.<br /> Si c’est par contre pour pousser des alternatives (soyons fous, changer) de systèmes économiques, alors ça devient bien plus intéressant…<br /> Y’a rien de manichéen dans ces sujets. Faut voir la finalité et comparer avec l’avant.
Fathzer
Ou plutôt 255 millions
Than
Merci, j’ai rippé. ^^’ (corrigé)
Pronimo
He bien faut augmenter le prix de l’utilisation de leurs API. Apres peut-être vu les infrastructures actuels, c’est encore trop tot pour avoir une tel usine a gaz en production de masse. Peut-être les ordinateurs quantiques peuvent résoudre ce problème?
Francis7
Eh oui, ça coûte pas mal mais ça peut rapporter gros : c’est pourquoi le géant Microsoft a investi chez OpenAI pour les soutenir. Pour lui, ce n’est rien.
Mister_Georges
Tout bon écologiste qui se respecte devrait s’autoflageller à chaque utilisation de l’IA et faire fonctionner son cerveau embrumé par ces douces vapeurs végétales…
Comcom1
Le vrai pb du moment c’est que les gens ne savent pas ce qu’est réellement une IA, ils pensent à Terminator, sauf que non, l’IA c’est un modèle de programmation entrainé à réaliser une tâche par exemple de la reconnaissance. ChatGPT c’est pas une IA c’est plusieurs IA, chacune permet d’arriver à comprendre le texte qu’on a écrit à partir de la il y a tout une mécanique de recherche et d’extrapolation de données afin de générer une réponse intelligible. Son avancée intéressante est que les programmeurs de chatgpt ont réussi à garder et exploiter le contexte pour continuer une logique de conversation c’est rudimentaire pour une conversation humaine classique cependant c’est une belle performance technologique, doit-on pour autant arrêter cette évolution, ça me paraît être d’une débilité profonde, doit-on cadrer les usages, je dirais ni plus ni moins que toutes autres technologies, on empêche bien de pouvoir regarder des films en conduisant sur nos écrans de voiture de plus en plus performant.
Sodium
Non, un commentaire sur un forum ne représente rien en terme d’énergie…
Comcom1
Sauf qu’il n’y a pas qu’un seul commentaire, mais bel et bien des centaines de milliers sur des centaines de milliers d’articles dans le monde par des centaines de milliers de personne, ça commence à chiffrer, sans compter qu’il n’y a pas que du texte mais aussi des images, de la vidéo parfois dans certain ce qui ajoute encore et encore.
Sodium
Le coût en énergie d’un usage doit prendre en paramètre des données telles que la consommation individuelle et son utilité concrète. Tout en bas de l’échelle, tu as le minage de crypto-monnaies qui représente une énergie par utilisateur énorme et n’a aucune utilité. L’utilisation d’outils de communication tels qu’un forum de discussion, ça représente peu d’énergie et ça a une utilité concrète, l’échange d’informations et d’opinions entre humains. L’utilisation d’IA se situe quelque part entre les deux et sera évaluée dans le futur. Les discours du genre « non mais ça aussi ça représente de l’énergie donc faudrait tout arrêter », ça s’appelle le sophisme de la solution parfaite et c’est un instrument de propagande.<br /> Par ailleurs, le temps passé à poster et consulter des messages sur un forum, c’est du temps qui n’est pas passé à des usages beaucoup plus gourmand comme le streaming vidéo dont quelques secondes représentent plusieurs milliers de messages échangés.
ypapanoel
Comme le modèle économique n’est pas de type mécénat, attendez vous donc trés rapidement à du payant… ou sinon à ce qu’il vous fasse référence à au moins 5 pubs dans toute réponse aux questions que vous lui poserez…<br /> le prix de la gloire en quelque sorte.
Comcom1
Tu critiques l’IA et sa consommation d’énergie, hors l’article ici ne pointe déjà 1 que chatGPT et 2 toutes les IA ne sont pas là pour amuser les gogoles à poser des questions à un site internet, il y a bien d’autres usages et des usages utiles et utilisé depuis bien plus longtemps que les qq mois d’existence de chatGPT, seulement aujourd’hui chatGPT c’est la mode, donc critiquer ça est à la mode.<br /> Encore une fois, c’est toujours critiquer une techno sans la connaitre, c’est à ce niveau qu’intervient mon commentaire, juste montrer la débilité et qu’à un moment il faut savoir on utilise intelligemment ou on arrête tout ? Arrêtons d’être idiot et de nous cacher derrière nos écrans tellement facile de tout critiquer.<br /> (PS et juste pour le plaisir : ta dernière phrase est fausse, il est tout à fait possible de répondre ou de lire des messages sur des forums tout en lisant du contenu en streaming, pire encore je dirais que ça doit être de l’ordre de la majorité des usages comme regarder sa TV en lisant clubic sur son tel par exemple )
Sodium
Endroit où j’ai critiqué l’ia stp ?
BossRreynolds
Eh vous parler d’une intelligence basée sur celui de l’etre humain… ça vas loin quand même, aussi il existe des accelerateur d’IA mais pas pour le cerveau humain qui est au ralentit question science. eh oui parler de la science avec les Bots chatter… et vous serrez surpris evidemment il vous repeterra qu’il est qu’un programme constamment mis a jour, et qu’il a pas d’age etc… mais question science il degomme tout. franchement bien, apres il consomme c’est vrai mais la television aussi… non?
kgp
A 20’000€ l’A100 (80G de mémoire…) ça taxe!
BossRreynolds
bonjour, il y a peut etre moins cher : Asus IA Accelerator : https://www.amazon.com/Accelerator-Based-Google-Inference-CRL-G18U-P3DF/dp/B08TZRX2WP
BossRreynolds
et utiliser internet pour alleger les longues heures d’attente aupres de ses banques etc.
negima
Personne pour dire que ChatGPT est inaccessible depuis les premiers jours, sauf si on se connecte la nuit ?
ar-s
« Même si la dernière version du modèle de langage d’OpenAI est pour le moment réservée aux abonnés payants, peu nombreux »<br /> Vous avez des chiffres ? Parce qu’en payant, GPT-4 est maintenant limité à 25 requêtes / 3h (ce qui est d’ailleurs inacceptable pour un service payant). Et franchement, vu la qualité du 4 par rapport au 3.5, difficile de revenir en arrière.
kroman
Son coût de fonctionnement serait donc couvert par un abonnement de $1.28 par an par utilisateur. Une fortune en effet🙃
MattS32
ar-s:<br /> (ce qui est d’ailleurs inacceptable pour un service payant)<br /> En quoi le fait d’avoir des limitations est inacceptable pour un service payant ? L’écrasante majorité des services payants ont des limitations, et c’est normal, voir inévitable, parce que sinon t’auras toujours des petits malins qui en profiteront pour abuser (par exemple, là s’il n’y avait pas de limite sur le nombre de requêtes, il y aurait déjà des petits malins qui auraient fait des sites payants branchés à l’API payante…).
Francis7
Et puis, tout dépend de l’usage que l’on en fait, mais si c’est pour demander des choses futiles ou pour tester, autant rester sur le site d’OpenAI au lieu de souscrire à un abonnement payant pour une application de bureau GPT-4.<br /> Il y a un mec qui a fait ça pour la nouvelle appli macOS GPT-4 : dans ses commentaires, il a insisté pour dire de ne jamais commettre cette erreur.
Comcom1
Sodium:<br /> L’utilisation d’IA se situe quelque part entre les deux et sera évaluée dans le futur<br /> Ici :<br /> « L’utilisation d’IA se situe quelque part entre les deux et sera évaluée dans le futur »
ar-s
c’est 25requetes / 3 heures qui est inacceptable. Surtout pour du code.<br /> Il sort souvent des résultat et s’arrête en plein milieux, etc… Les 25req c’est vraiment trop peu, même pour un usage light dans ce cas.
Sodium
Et donc, en quoi est-ce que je critique ? je dis simplement que le rapport bénéfice/coût de ces moteurs reste à évaluer.
keyplus
La Rançon de la gloire
Comcom1
Non tu ne parles pas du moteur mais l’utilisation de l’IA hors l’IA et ChatGPT en réalité c’est pas la même chose, des IA aujourd’hui il y en a plein utilisées partout pour plein de tâches différentes c’est ce que beaucoup de personnes ne comprennent pas, ChatGPT c’est pas une IA, c’est un programme (ou moteur si on veut) qui utilisent plusieurs IA qui servent à par exemple reconnaître langage, puis reconnaître le sens et etc. Seulement il y a un abus de langage de la part des médias qui parlent tous de ChatGPT qui est une IA et tout le monde critique ça. Ça ne fait que renforcer dans l’esprit des gens ChatGPT = IA = Skynet.<br /> Quant à l’intérêt des IA il y en a plein des usages il en est fait depuis des années dans bien des domaines, par exemple la SNCF l’utilise pour faire de la reconnaissance sur les lignes de chemin de fer, la démonstration que j’avais vu était très intéressante, on chargeait une caméra sur un drone avec un programme dont le but était de recenser les isolateurs cassés sur les caténaires, dans ce programme il y avait 2 IA, une entraînée à reconnaître qu’est-ce qu’un isolateur, l’autre reprenait l’image et était entraînée à reconnaître les isolateurs cassé ou non cassé. Grâce à ça ils pouvaient beaucoup plus facilement et en gagnant un temps énorme sur l’entretiens des caténaires ils n’ont plus qu’à intervenir sur les isolateurs abîmés et non sur chacun pour vérifier au cas où.<br /> L’exemple en question date d’il y a déjà plusieurs années faut juste arrêter de mélanger ChatGPT et IA même si l’un utilise l’autre. Que tu te demandes l’intérêt de ChatGPT ok mais l’intérêt de l’IA là perso j’ai aucun doute
Gandalf67
Etape suivante: les « écolos » vont s’offusquer de l’énergie que ça consomme. Ah ben, ça y est déjà, j’arrive trop tard.
Comcom1
Les écolos s’offusque de tout, malheureusement pas de leur existence…
MattS32
ar-s:<br /> c’est 25requetes / 3 heures qui est inacceptable. Surtout pour du code.<br /> Il sort souvent des résultat et s’arrête en plein milieux, etc… Les 25req c’est vraiment trop peu, même pour un usage light dans ce cas.<br /> Rappel : c’est une preview, pendant la phase de mise au point de GPT-4, c’est pas sensé être utilisé pour du productif. Donc de telles limitations n’ont rien de choquant…
ar-s
Ça ne l’était pas au début… C’est justement l’excès de demande qu’ils ne peuvent pas gérer. Ce qui me faisait réagir en 1er lieu à la phrase de l’article que je citais.
MattS32
ar-s:<br /> Ça ne l’était pas au début…<br /> Ça a bien toujours été une preview. Certes, avec moins de restrictions d’utilisation. Mais une preview quand même. Donc un truc en test, sans garantie, pas fait pour un usage en production.
Blackalf
Plusieurs messages ont été supprimés, les disputes puériles justes dignes d’enfants de 10 ans n’ont aucun intérêt dans le sujet. <br /> 5. Restez courtois<br /> Particulièrement lorsque vous exprimez votre désaccord, critiquez les idées, pas les personnes. Évitez à tout prix les insultes, les attaques et autres jugements sur la forme des messages.<br /> 6. Publiez des messages utiles<br /> Chaque participation a vocation à enrichir la discussion, aussi les partages d’humeurs personnelles ne doivent pas venir gêner le fil des échanges.<br />
EricARF
Ils pourraient demander à leur IA un plan pour réduire ses coût de fonctionnement, non? C’est bien le moins qu’elle puisse faire.<br /> De plus, concocter la bonne question est une question d’intelligence. Celui qui a dit « il n’y a pas de bête question » cherchait seulement à soulager les canules. Il y a de très bêtes questions, à foison.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet