Les chatbot comme ChatGPT vont coûter beaucoup plus cher que les moteurs de recherche

23 février 2023 à 14h15
8
ChatGPT

Les IA telles que ChatGPT pourraient coûter beaucoup plus cher à faire fonctionner que les moteurs de recherche.

Microsoft a réussi un joli coup avec l'intégration rapide à son moteur de recherche d'un chatbot dérivé de ChatGPT. Mais si le public voit maintenant la firme de Redmond comme le numéro 1 dans ce domaine d'avenir, la question du coût de fonctionnement de la technologie va rapidement se poser.

Ça coûte 10 fois plus cher

Google a, pour une fois, un train de retard dans le développement de l'IA, et voit Microsoft prendre le large. Mais si le géant de la tech presse fortement ses équipes pour rapidement rattraper la firme fondée par Bill Gates, il devrait à l'avenir rencontrer d'autres problèmes, plus prosaïques. Des problèmes qui peuvent se résumer en un mot qui parle à tout le monde : argent.

En effet, faire fonctionner un chatbot coûte cher, comme l'avait déjà fait remarquer le patron d'OpenAI Sam Altman. Une affirmation que vient de confirmer le président du conseil d'administration d'Alphabet, John Hennessy. D'après ce dernier, l'utilisation d'une IA pour une recherche coûterait 10 fois plus cher qu'une même activité utilisant des mots clés sur un moteur de recherche. Une explosion des coûts qui ne pourrait pas être compensée par les revenus publicitaires.

Plus de puces électroniques et d'électricité

La banque Morgan Stanley a, de son côté, essayé de quantifier les coûts supplémentaires potentiellement induits par la mise en place d'un chatbot comme ChatGPT chez Google. Ces frais augmenteraient en fonction du nombre de mots produits par l'IA pour une réponse, mais aussi selon le pourcentage de recherches effectuées sur Google qui seraient traitées par le chatbot, et non par le moteur de recherche traditionnel. Et ces dépenses supplémentaires monteraient facilement à plusieurs milliards de dollars.

© Morgan Stanley/Reuters
© Morgan Stanley/Reuters

La raison ? L'IA, contrairement au moteur de recherche et son index, travaille par « inférence ». En reproduisant avec son réseau de neurones le fonctionnement du cerveau humain, elle infère la réponse à une question en faisant appel à un entraînement précédent. Une méthode qui exige beaucoup plus de puissance de calcul, et qui demande donc des investissements additionnels très coûteux en puces électroniques, tout en allongeant la facture électrique. Et le souci devrait, « au pire » selon John Hennessy, durer encore quelques années.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Source : Reuters

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

Space_Boy
aha…bon article ! je n’ai pas pensé à cet aspect quand j’utilise ces bots…
Loposo
Sauf que faire une recherche et utiliser chatgpt est différent. Au début tout le monde va s amuser à écrit tout et n importe quoi mais ça va ralentir.
lulu1980
Tant mieux ça va calmer tout le monde.
pascalbart
Faire une recherche sur Google dépense autant d’énergie que nécessaire pour faire cuire un oeuf mais tout le monde s’en fout en réalité …
kast_or
Source ?
pascalbart
Je ne trouve plus la comparaison avec la cuisson de l’oeuf, il faut dire que l’info doit dater de 2005 et des débuts de Google, mais il est fort probable que je l’avais lu sur Clubic à l’époque.<br /> Autrement tu as cet article qui traite de la question https://www.lemonde.fr/technologies/article/2009/01/12/une-recherche-google-a-un-cout-energetique_1140651_651865.html<br /> Tout comme les mails non supprimer et les spams ont un impact très important sur la consommation électrique des datacenter, etc.
Ezeta
Je pense que c’est en partie faux: sur Google on peut souvent faire 5 recherches différentes, surfer sur une 10aines de sites, avant de trouver la reponse.<br /> Avec une IA, on a besoin d’une ou deux questions pour avoir notre réponse.<br /> Donc unitairement ça coûte plus, mais pour une recherche donnée je pense que ça peut coûter moins… ou pareil.
pinkfloyd
« Avec une IA, on a besoin d’une ou deux questions pour avoir notre réponse. »<br /> a laquelle tu n’as aucune source et donc aucun moyen de confirmé qu’elle est juste…<br /> @pascal, attention aux calculs biaisés, par exemple le coup de la sauvegarde d’un mail qui serai sur 5000 boites utilisateurs, un novice pense qu’on sauvegarde 5000 fois, donc autant d’énergie, sauf que non, avec la save ganulaire on ne le sauvegarde qu’une fois.<br /> et pareil pour les conso ram et cpu, vu qu’on parallélise, faire 20 calculs sur un serveur ne consomme pas 20x un seul calcul, c’est bien plus subtile que ca !
Voir tous les messages sur le forum
Haut de page

Sur le même sujet