Rédaction, calcul... Les abonnés à ChatGPT vont avoir accès à une version de GPT-4 Turbo encore plus performante

12 avril 2024 à 18h01
7
GPT-4 affiché sur un smartphone © Shutterstock
GPT-4 affiché sur un smartphone © Shutterstock

GPT-4 Turbo est encore meilleur grâce à une mise à jour que vient de déployer OpenAI. ChatGPT excellera maintenant un peu plus dans plusieurs domaines d'importance.

ChatGPT est un outil très intéressant à utiliser au quotidien. Mais si les ressources déjà exceptionnelles offertes par le chatbot ont de quoi contenter le plus grand nombre, ceux qui ont opté pour une des versions payantes de l'IA, comme ChatGPT Plus, ont droit au meilleur de ce que peut offrir OpenAI. Ils ont ainsi depuis longtemps droit à GPT-4, et depuis aujourd'hui, à la dernière version de GPT-4 Turbo.

Un GPT-4 Turbo pour l'excellence

ChatGPT est aujourd'hui meilleur encore, dans sa dernière version GPT-4 Turbo, qu'OpenAI rend dorénavant disponible pour tous ceux qui payent un abonnement. Meilleur d'abord en ce qu'il sait plus de chose, l'itération précédente ne connaissant que ce qu'il s'était passé jusqu'à avril 2023, alors que le nouveau GPT-4 Turbo voit son savoir courir jusqu'à l'état du monde en décembre 2023.

Mais ça n'est pas là seulement ce qui change. La firme de Sam Altman a aussi tenté d'améliorer les qualités des réponses produites par le chatbot. Il serait ainsi, selon OpenAI, « plus direct, moins verbeux et userait plus souvent du langage familier. » De quoi effacer l'aspect « robotique » de certaines de ses réponses ?

GPT-4 Turbo, au sommet du code

D'après les premiers utilisateurs de cette nouvelle version de GPT-4 Turbo, le chatbot se situerait au sommet des IA dans le domaine du code, devant des concurrents tels que claude ou l'IA de Mistral. Une amélioration confirmée par des spécialistes sur X, qui ont comparé les codes produits par la version précédente et l'actuelle, et indiqué que cette version produisait un code plus rationalisé.

À noter enfin que la fenêtre de contexte, soit la quantité d'information que peut ingurgiter l'IA afin de répondre à une demande, a elle aussi été revue à la hausse. Elle est ainsi passée à 128 000 tokens, ce qui correspond à peu près à un livre de 300 pages. ChatGPT n'est toujours pas le meilleur dans ce domaine (celle de Claude 3 atteignant les 200 000 tokens), mais la performance reste de haut niveau.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (7)

Rainforce
Rédaction, calcul… Les abonnés à ChatGPT vont avoir accès à une version de GPT-4<br /> Parlons en des calculs de GPT-4 … Copilot GPT-4 =&gt;<br /> Copilot Simple Multiplication Problème824×675 111 KB<br />
Goodbye
Les deux sont juste en fait, c’est l’arrondi qui change.<br /> Test avec python, test de façon manuel, et retest avec ta calculette, tu auras 3 résultats différent <br /> @Rainforce
Rainforce
Goodbye:<br /> Les deux sont juste en fait, c’est l’arrondi qui change.<br /> Test avec python, test de façon manuel, et retest avec ta calculette, tu auras 3 résultats différent<br /> Bonsoir,<br /> Pas compris ! dsl<br /> Quel arrondi ? 328,90% = 3.289 pile, ce n’est pas infini.<br /> Arrondi ça fait 52 045 pas 52 074.<br /> Je n’ai pas Python, mais j’ai Excel :<br /> Enfin si il y’a une explication je veux bien la prendre.<br /> Merci
Goodbye
Hello,<br /> Tu as pas python, mais tu peux faire le calcule manuel, essaie !<br /> Le résultat est différent (l’arrondi uniquement), ou alors j’ai perdu mes notions de multiplications, c’est possible aussi
Rainforce
Salut,<br /> Je n’ai rien a essayer car tu as pour l’instant parlé mais rien prouvé.<br /> Les seules preuves sont c’elles que j’ai mis en capture et elles prouvent ce que j’ai dis.<br /> Un conseil :<br /> Update ton python, en attendant de voir ton calcul manuel qui donne :<br /> 15 824 x 3.289 = 52 073,536<br /> On attend …<br /> Je pense qu’on ne le verra pas.
Goodbye
Je suis pas du genre à ne pas répondre même si je me suis tromper.<br /> J’avoue que j’ai de la peine à comprendre le raisonnements de Python, pourtant c’est utilisé massivement.<br /> Le calcule manuel te donne raisons :<br /> J’ai refait le test avec GPT, qui utilise python, avec un assistant Math, il calcule juste, sans l’assistant, c’est effectivement très étranges les résultat obtenu.<br /> Mea culpa, en revanche, cela souligne l’importance du modèle choisis, le LM de base, étant trop générique pour l’instant apparemment.<br /> C’est un peu le même constats qu’on c’est fait sur tout les domaines (histoire, informatique etc.), et c’est bien dommage.<br /> Gemini fais un peu mieux sans assistant, par contre il arrondis… 52,045.14<br /> Bon weekend
Adrift
Hum eh bien c’est super mais pas autant transcandant qu’on nous l’avait annonce ; peut etre que la techno - bien que fabuleuse et jeune qu’elle soit - est deja mature!
Rainforce
Goodbye:<br /> Le calcule manuel te donne raisons :<br /> On va dire qu’il donne raison à la Calculette et a Excel surtout.<br /> Goodbye:<br /> Gemini fais un peu mieux sans assistant, par contre il arrondis… 52,045.14<br /> Pourquoi «&nbsp;un peu mieux&nbsp;» puisqu’il répond juste.<br /> Goodbye:<br /> J’ai refait le test avec GPT, qui utilise python<br /> Je ne sais pas.<br /> Goodbye:<br /> avec un assistant Math<br /> Je ne sais pas faire ça.<br /> Goodbye:<br /> en revanche, cela souligne l’importance du modèle choisis, le LM de base, étant trop générique pour l’instant apparemment.<br /> Perso ça me dépasse qu’un ordinateur fasse encore des calculs faux.<br /> Goodbye:<br /> Mea culpa<br /> Pas de souci , au moins vous avez répondu.<br /> Je pensais honnêtement que vous me faisiez marcher …
MattS32
Rainforce:<br /> Perso ça me dépasse qu’un ordinateur fasse encore des calculs faux.<br /> Sur des entiers, un ordinateur fait toujours des calculs exact (limité par contre à des nombres entiers ne dépassant pas une certaine valeur, sauf à utiliser une lib spécialisée dans les calculs sur les grands nombres). Si ça ne l’est pas, c’est un bug, ce n’est pas le fonctionnement normal.<br /> Par contre en flottants, par conception, ça fait par défaut obligatoirement des arrondis à chaque étape du calcul (un nombre flottant ayant une précision limitée), ce qui peut donner quelques résultats pouvant parfois sembler aberrants, et d’autant plus flagrants que la formule de calcul est complexe (puisque potentiellement à chaque étape tu augmentes l’erreur).<br /> Par exemple, dans Excel, il ne sera pas rare qu’en faisant des simple additions et soustractions sur des nombres à 2 décimales te retrouves avec un résultat avec des valeurs non nulles au delà de la 10ème décimale (pour éviter de propager et amplifier l’erreur au fil des calculs, il est préférable d’arrondir explicitement à 2 décimales les opérations dont le résultat n’est pas censé en avoir plus…).<br /> Voir cet article sur le sujet : How to deal with Floating-Point Rounding Error | by Nisal Pubudu | Medium<br /> Il y a des libs pour faire du calcul flottant avec plus de précision, mais c’est beaucoup plus lent, donc utilisé que quand c’est absolument nécessaire.<br /> Après, pour le cas particulier de l’erreur de calcul de ChatGPT que tu as repéré, ce n’est pas un problème de précision des calculs flottants. Ce n’est même sans doute pas une erreur de calcul, au sens «&nbsp;technique&nbsp;» du terme. C’est probablement plutôt une erreur du modèle qui n’interprète pas correctement le calcul et effectue au final un calcul différent de celui qui lui a été demandé. Il faut garder à l’esprit qu’à la base, les maths ne font pas partie de ce que fait un LLM (qui ne fait que de la prédiction statistique… et en intégrant une petit part d’aléatoire). Lui faire faire des maths, c’est un «&nbsp;hack&nbsp;», via une surcouche qui va tenter de détecter les opérations mathématiques et les faire traiter par un composant dédié. Ou pire, parfois ce n’est en fait même pas géré du tout, et c’est la réponse par génération statistique qui est donnée, ce qui forcément donne des résultats mauvais.<br /> Je pense que c’est le cas avec GPT 3.5 d’ailleurs, parce que si je lui demande plusieurs fois de suite 15824*3289 (donc des entiers, ce qui théoriquement permet un calcul exact à un ordinateur), j’obtiens à chaque fois un résultat différent et plus ou moins faux. Mais avec quand même des points communs qui me font penser qu’on est bien dans la génération statistique avec une petite part d’aléa : tous les résultats se terminent par 36.
Rainforce
MattS32:<br /> C’est probablement plutôt une erreur du modèle qui n’interprète pas correctement le calcul<br /> Ok.<br /> MattS32:<br /> Je pense que c’est le cas avec GPT 3.5 d’ailleurs, parce que si je lui demande plusieurs fois de suite 15824*3289 (donc des entiers, ce qui théoriquement permet un calcul exact à un ordinateur), j’obtiens à chaque fois un résultat différent et plus ou moins faux. Mais avec quand même des points communs qui me font penser qu’on est bien dans la génération statistique avec une petite part d’aléa : tous les résultats se terminent par 36.<br /> Il n’est vraiment pas très doué pour détecter un calcul alors, ç’est pourtant pas ce qui me parait des plus compliqué mais bon, je ne bosse pas là-dedans.<br /> Il serait temps qu’ils se penchent un peu sur la question, tu vas me dire qu’ils le font déjà.<br /> J’espère, parce que pour le moment ça fait un peu tâche !<br /> Merci à toi pour ces explications.
Mr_Electro84
Rainforce:<br /> Il n’est vraiment pas très doué pour détecter un calcul alors, ç’est pourtant pas ce qui me parait des plus compliqué mais bon, je ne bosse pas là-dedans.<br /> La technologie à la base de ChatGPT est un modèle de langage, c’est à dire une technologie qui établit la suite de mots la plus probable (parmi une gigantesque base de conaissances) en fonction ce qu’a saisi l’utilisateur. Donc les calculs à proprement parler, il sait pas faire (il met bout a bout les calculs selon ce qu’on lui a appris) !
IgorGone
Chatgpt 4 fait appel à une bibliothèque de calculs lorsque c’est nécessaire.<br /> C’était pas le cas avec got 3.5 il me semble.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet