IA : GPT-4 ferait un bon conseiller financier d'après une nouvelle étude !

29 mai 2024 à 18h08
8
GPT-4 affiché sur un smartphone © Shutterstock
GPT-4 affiché sur un smartphone © Shutterstock

Une nouvelle étude nous montre que le modèle de langage GPT-4, qui alimente ChatGPT, serait un bon outil financier. Il pourrait ainsi s'avérer un conseiller financier intéressant.

L'IA générative est en général utilisée soit pour des recherches, soit pour aider l'utilisateur dans son travail. Mais les capacités de cette technologie pourraient être mises à profit dans de nombreux autres secteurs. Une étude a ainsi essayé d'observer la qualité de l'action de ces IA lorsqu'il s'agissait d'investir financièrement. Et il semble qu'il y ait du potentiel de ce côté-là !

GPT-4 très efficace dans la finance

Une étude qui vient d'être publiée dans le journal SSRN et portant sur l'utilisation des modèles de langage ayant une large fenêtre contextuelle, comme GPT-4 ou Claude, dans l'investissement financier, a donné des résultats intéressants.

Ainsi, ces grandes IA génératives, qui sont produites dans l'idée d'être généralistes, font à peu près aussi bien que les modèles construits spécifiquement pour lire les résultats financiers. Cette réussite viendrait de la capacité des IA à « générer des informations […] utiles sur les performances futures d'une entreprise » selon les auteurs de l'étude.

© Alexandre Boero / Clubic
© Alexandre Boero / Clubic

Les humains moins bons que l'IA ?

Et la comparaison suivante, qui est celle entre les IA génératives et les êtres humains, montre qu'il y a un net avantage pour la technologie dans ce duel. Ainsi, il a été constaté qu'il existait « un avantage relatif sur les analystes humains dans les situations dans lesquelles les analystes ont tendance à se débattre. »

Ces performances sont obtenues par l'IA en tenant simplement compte des informations financières qui lui sont procurées, l'intelligence artificielle ne prenant pas en compte le contexte dans lequel se meut une entreprise, contrairement aux êtres humains.

Et pour ceux qui souhaiteraient interroger l'IA sur la question financière, Neowin rappelle qu'il est possible d'utiliser Claude 3 gratuitement, et de lui envoyer des fichiers, pour ensuite obtenir son avis sur les informations financières en question. Évidemment, nous vous rappelons que, même si vous êtes curieux, il est toujours nécessaire de ne pas suivre aveuglément ce que pourrait vous dire le chatbot.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Source : Neowin

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

Fodger
Vivement la liste de tous les bas de plafond qui n’auront juré que par chatGpt4 …
F4FEnder
C’est un outil comme un autre. Je pense même que c’est un domaine ou l’IA peut exceller. D’ailleurs les banques utilisent beaucoup les robots pour le trading et il semblerait qu’elles vivent assez bien avec ce système.<br /> Pourquoi ce ton condescendant ?
nathakzra35
En l’état actuel, l’IA se base seulement sur les données économique de l’entreprise mais pas sur le modele micro et macro economique. Elle ne considère pas les nouvelles legislations des différents pays, ni même des conflits geo politique, les crises financières, les politiques des banques centrales. Par exemple , quand Powell fait une annonce, les marchés peuvent chuter (surtout quand il commence une conférence en disant «&nbsp;good afternoon&nbsp;») ou les marchés peuvent exploser (surtout quand il commence la conférence en disant " Hello everybody", ceux qui suivent les marchés auront la référence ). L’IA ne prends pas cela en compte et pourtant les titres fluctuent. Un autre danger de laisser l’analyse du marché à une IA, serait qu’elle préconniserait l’achat d’un titre pour tout le monde. Si on lui demande quel stock dans l’énergie acheter en 2024, elle donnerait en majorité le meme stock à tout le monde. Cela pourrait faire grimper le cours de l’action pour aucune raison autre que l’IA. Et puis les IA font parti des entreprises cotées en bourse, ils pourraient donc inclure des données qui mettent en avant leur stock. Je trouve cela dangereux
MattS32
Ce n’est pas vraiment comparable avec ce que font les banques avec leurs robots (et qui pose déjà des problèmes, avec l’apparition de micro-krach…).<br /> D’abord, les banques ont souvent leurs propres modèles, avec un paramétrage bien à elles, ce qui fait que le modèle de la banque A ne fera très probablement pas les mêmes opérations que celui de la banque B. Et ce sont des modèles spécialisés dans l’analyse des marchés financiers.<br /> Alors que là avec un modèle unique accessible à tous, même s’il y a une part d’aléa dans les réponses, ça peut perturber fortement les marchés en créant une forte demande sur quelques titres, forte demande qui fera monter le cours et renforcera encore plus la demande… Jusqu’au moment où tout le monde se rendra compte que c’était largement sur-côté, avec une chute sévère à la clé. Et ce n’est pas un modèle spécialisé dans l’analyse des marchés, c’est «&nbsp;juste&nbsp;» un modèle de langage qui trouve de façon statistique les mots les plus probables à ajouter derrière le prompt de l’utilisateur…<br /> Ensuite, les modèles des banques sont alimentées en temps réel avec les données du marché, préformatées pour qu’il en tire le mieux parti. GPT n’a pour sa part pas d’alimentation temps réel. Certaines applications de chat construite dessus, comme ChatGPT, vont faire un préprocessing de la demande pour aller chercher des données pertinentes sur Internet, via des moteurs de recherche, ça ne peut pas atteindre le niveau de pertinence de l’alimentation temps réel des moteurs des banques.
ovancantfort
Effectivement, ChatGPT est un outil comme un autre. Comme tous les outils, il a été développé pour une tâche précise : générer ou transformer des textes. C’est un grand modèle de langage après tout.<br /> Mais à la différence des autres outils, on s’acharne à vouloir lui faire faire des choses pour lequel il n’est pas du tout conçu comme des maths ou de l’analyse financière. Tu verras rarement quelqu’un s’extasier sur le fait qu’on peut (parfois et mal) enfoncer des clous avec un tournevis, mais avec Chatgpt, ça n’arrête pas.<br /> Dans leur dernière démo, ils ont encore voulu montrer que ChatGPT peut aider vous enfants dans leurs devoir de math alors que ChatGPT est vraiment mauvais en math.<br /> Encore testé hier et il m’a rapidement sorti que «&nbsp;n’'importe quel nombre non nul élevé à une puissance réelle donne 1.&nbsp;»<br /> Effectivement, les maths sont plus simples avec ChatGPT.
arsworld
@ovancantfort Sauf que gpt-4o est un modele incluant la gestion du texte, de l’image et du son… Il ne faut pas oublier que ce n’est que les prémices de l’IA.
BlBird67
Je n’ai pas du tout ce résultat pour ma part. L’IA peut se tromper, mais est de plus en plus efficace. Ceux qui viennent nous raconter «&nbsp;moi j’ai tester et ce qu’il m’a dit est faux&nbsp;», ca me fait toujours un peu sourire.
ChezDebarras
enfin l’IA existe depuis que l’informatique existe. Le test de Turing ne date pas d’hier.<br /> Peut-être as-tu entendu parler, en vrac : de logique floue, de systèmes experts, de prédicat, de réseaux neuronaux.<br /> Peut-être as-tu entendu parler de Mysin, qui fait des diagnostics à 70% comparable aux médecins ? Pourtant ça date de 1972.<br /> La seule nouveauté sur laquelle on s’extasie est que, avec des processeurs spécialisés dans le calcul parallèle, et l’explosion des capacités de stockage, l’illusion de l’intelligence est meilleure.<br /> Un peu comme si tu comparais un pacman sur atari 2600 et un cyberpunk : est-ce que les «&nbsp;mob&nbsp;» sont maintenant intelligents ? Pas plus que ce que le développeur leur a inculqué.
arsworld
ChezDebarras:<br /> un pacman sur atari 2600 et un<br /> Je suis conscients que le terme intelligence est employé à tord et à travers. Il n’empêche qu’aujourd’hui, la taille des datas traitées par ces réseaux neuronaux permets aux «&nbsp;IA&nbsp;» des diagnostiques rapides et pertinents et un apprentissage exponentiel. Je ne sais plus quel médecin français disait «&nbsp;aujourd’hui GPT4&nbsp;» est plus efficace que nous et surtout plus «&nbsp;juste&nbsp;» dans ces diagnostiques. Il pensait que ce serait le cas vers 2030/2040… Il reconnait s’être trompé (comme tout le monde).<br /> Évidement c’est normal vu qu’un humain ne pourrait pas ingurgiter autant de savoir et surtout les recouper de façon probantes.<br /> Donc je ne suis pas choqué de savoir qu’un GPT 4 peut facilement être pertinent sur des conseils financiers.<br /> Il faut juste vraiment être conscient que c’est un outil. Un formidable outil mais un simple outil.
ovancantfort
Le futur de l’IA sera effectivement dans une IA coordinatrice qui interpretera le problème posé et l’enveraa à une IA spécialisée. Mais il faudra que cette IA puisse également répondre «&nbsp;Je ne connais pas la réponse à cette question&nbsp;» ou «&nbsp;ce type de problème n’entre pas dans mes compétences&nbsp;». Or c’est exactement quelque chose que les LLM ne savent pas faire. Si ils n’ont pas de réponse, ils en inventent une, et tous les spécialistes s’accordent que résoudre ce problème est très difficile, voire impossible au niveau des LLM.<br /> De plus, quand on voit des gens comme Sam Altman qui surfent sur la vague «&nbsp;Regardez, c’est magique, ça peut tout faire!&nbsp;», je ne suis pas convaincu du tout qu’ils travaillent sur ce type de réponse de l’AI.
ovancantfort
C’est normal, il y a une part de randomisation dans les réponses. Donc, il ne raconte pas les memes conneries à tout le monde <br /> Pour ma part, il a donné une solution correcte (sur les 3 existantes) et quand j’ai demandé une autre solution, il m’a sorti cette énormité.<br /> Je précise que cette équation, malgré son apparence complexe, est très simple à résoudre (c’était un devoir addressé à mon fils de 15 ans). Il faut juste réfléchir sur les propriétés des puissances.<br /> Par curiosité, il t’a donné combien de solutions ? Microsoft Math donne les trois solutions sans problème. WolframAlpha en donne deux ou trois suivant comment on pose la question.
MattS32
Et puis il faut aussi se méfier vachement du fait que la réponse à une question peut être orientée par le contexte, mais aussi par le pré-prompt ou le prompt système, deux éléments qu’on ne maitrise pas forcément.<br /> Petit exemple sur cette capture d’écran de ChatGPT. Capture d’écran brut, sans aucune retouche ni modification des réponses données par ChatGPT.<br /> image802×851 44 KB<br /> Simplement, avant ces deux questions, j’ai orienté ses réponses :<br /> image803×193 6.11 KB<br /> Là c’est fait dans le contexte, donc je le maitrise. Mais ça peut aussi être fait de façon cachée pour l’utilisateur dans le préprompt ou le prompt système… On pourrait par exemple tout a fait imaginer par exemple si des gens se mettent à l’utiliser pour des conseils financiers qu’un préprompt demande de répondre normalement dans le cas général, mais oriente les réponses dans le cas où la question porte sur les finances…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet