IA : GPT-4 ferait un bon conseiller financier d'après une nouvelle étude !

Samir Rahmoune
Publié le 29 mai 2024 à 18h08
GPT-4 affiché sur un smartphone © Shutterstock
GPT-4 affiché sur un smartphone © Shutterstock

Une nouvelle étude nous montre que le modèle de langage GPT-4, qui alimente ChatGPT, serait un bon outil financier. Il pourrait ainsi s'avérer un conseiller financier intéressant.

L'IA générative est en général utilisée soit pour des recherches, soit pour aider l'utilisateur dans son travail. Mais les capacités de cette technologie pourraient être mises à profit dans de nombreux autres secteurs. Une étude a ainsi essayé d'observer la qualité de l'action de ces IA lorsqu'il s'agissait d'investir financièrement. Et il semble qu'il y ait du potentiel de ce côté-là !

GPT-4 très efficace dans la finance

Une étude qui vient d'être publiée dans le journal SSRN et portant sur l'utilisation des modèles de langage ayant une large fenêtre contextuelle, comme GPT-4 ou Claude, dans l'investissement financier, a donné des résultats intéressants.

Ainsi, ces grandes IA génératives, qui sont produites dans l'idée d'être généralistes, font à peu près aussi bien que les modèles construits spécifiquement pour lire les résultats financiers. Cette réussite viendrait de la capacité des IA à « générer des informations […] utiles sur les performances futures d'une entreprise » selon les auteurs de l'étude.

© Alexandre Boero / Clubic
© Alexandre Boero / Clubic

Les humains moins bons que l'IA ?

Et la comparaison suivante, qui est celle entre les IA génératives et les êtres humains, montre qu'il y a un net avantage pour la technologie dans ce duel. Ainsi, il a été constaté qu'il existait « un avantage relatif sur les analystes humains dans les situations dans lesquelles les analystes ont tendance à se débattre. »

Ces performances sont obtenues par l'IA en tenant simplement compte des informations financières qui lui sont procurées, l'intelligence artificielle ne prenant pas en compte le contexte dans lequel se meut une entreprise, contrairement aux êtres humains.

Et pour ceux qui souhaiteraient interroger l'IA sur la question financière, Neowin rappelle qu'il est possible d'utiliser Claude 3 gratuitement, et de lui envoyer des fichiers, pour ensuite obtenir son avis sur les informations financières en question. Évidemment, nous vous rappelons que, même si vous êtes curieux, il est toujours nécessaire de ne pas suivre aveuglément ce que pourrait vous dire le chatbot.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Neowin

Par Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Fodger

Vivement la liste de tous les bas de plafond qui n’auront juré que par chatGpt4 …

F4FEnder

C’est un outil comme un autre. Je pense même que c’est un domaine ou l’IA peut exceller. D’ailleurs les banques utilisent beaucoup les robots pour le trading et il semblerait qu’elles vivent assez bien avec ce système.
Pourquoi ce ton condescendant ?

nathakzra35

En l’état actuel, l’IA se base seulement sur les données économique de l’entreprise mais pas sur le modele micro et macro economique. Elle ne considère pas les nouvelles legislations des différents pays, ni même des conflits geo politique, les crises financières, les politiques des banques centrales. Par exemple , quand Powell fait une annonce, les marchés peuvent chuter (surtout quand il commence une conférence en disant « good afternoon ») ou les marchés peuvent exploser (surtout quand il commence la conférence en disant " Hello everybody", ceux qui suivent les marchés auront la référence :rofl: ). L’IA ne prends pas cela en compte et pourtant les titres fluctuent. Un autre danger de laisser l’analyse du marché à une IA, serait qu’elle préconniserait l’achat d’un titre pour tout le monde. Si on lui demande quel stock dans l’énergie acheter en 2024, elle donnerait en majorité le meme stock à tout le monde. Cela pourrait faire grimper le cours de l’action pour aucune raison autre que l’IA. Et puis les IA font parti des entreprises cotées en bourse, ils pourraient donc inclure des données qui mettent en avant leur stock. Je trouve cela dangereux

MattS32

Ce n’est pas vraiment comparable avec ce que font les banques avec leurs robots (et qui pose déjà des problèmes, avec l’apparition de micro-krach…).

D’abord, les banques ont souvent leurs propres modèles, avec un paramétrage bien à elles, ce qui fait que le modèle de la banque A ne fera très probablement pas les mêmes opérations que celui de la banque B. Et ce sont des modèles spécialisés dans l’analyse des marchés financiers.

Alors que là avec un modèle unique accessible à tous, même s’il y a une part d’aléa dans les réponses, ça peut perturber fortement les marchés en créant une forte demande sur quelques titres, forte demande qui fera monter le cours et renforcera encore plus la demande… Jusqu’au moment où tout le monde se rendra compte que c’était largement sur-côté, avec une chute sévère à la clé. Et ce n’est pas un modèle spécialisé dans l’analyse des marchés, c’est « juste » un modèle de langage qui trouve de façon statistique les mots les plus probables à ajouter derrière le prompt de l’utilisateur…

Ensuite, les modèles des banques sont alimentées en temps réel avec les données du marché, préformatées pour qu’il en tire le mieux parti. GPT n’a pour sa part pas d’alimentation temps réel. Certaines applications de chat construite dessus, comme ChatGPT, vont faire un préprocessing de la demande pour aller chercher des données pertinentes sur Internet, via des moteurs de recherche, ça ne peut pas atteindre le niveau de pertinence de l’alimentation temps réel des moteurs des banques.

ovancantfort

Effectivement, ChatGPT est un outil comme un autre. Comme tous les outils, il a été développé pour une tâche précise : générer ou transformer des textes. C’est un grand modèle de langage après tout.
Mais à la différence des autres outils, on s’acharne à vouloir lui faire faire des choses pour lequel il n’est pas du tout conçu comme des maths ou de l’analyse financière. Tu verras rarement quelqu’un s’extasier sur le fait qu’on peut (parfois et mal) enfoncer des clous avec un tournevis, mais avec Chatgpt, ça n’arrête pas.
Dans leur dernière démo, ils ont encore voulu montrer que ChatGPT peut aider vous enfants dans leurs devoir de math alors que ChatGPT est vraiment mauvais en math.
Encore testé hier et il m’a rapidement sorti que « n’'importe quel nombre non nul élevé à une puissance réelle donne 1. »
Effectivement, les maths sont plus simples avec ChatGPT.

arsworld

@ovancantfort Sauf que gpt-4o est un modele incluant la gestion du texte, de l’image et du son… Il ne faut pas oublier que ce n’est que les prémices de l’IA.

BlBird67

Je n’ai pas du tout ce résultat pour ma part. L’IA peut se tromper, mais est de plus en plus efficace. Ceux qui viennent nous raconter « moi j’ai tester et ce qu’il m’a dit est faux », ca me fait toujours un peu sourire.

ChezDebarras

enfin l’IA existe depuis que l’informatique existe. Le test de Turing ne date pas d’hier.
Peut-être as-tu entendu parler, en vrac : de logique floue, de systèmes experts, de prédicat, de réseaux neuronaux.
Peut-être as-tu entendu parler de Mysin, qui fait des diagnostics à 70% comparable aux médecins ? Pourtant ça date de 1972.
La seule nouveauté sur laquelle on s’extasie est que, avec des processeurs spécialisés dans le calcul parallèle, et l’explosion des capacités de stockage, l’illusion de l’intelligence est meilleure.
Un peu comme si tu comparais un pacman sur atari 2600 et un cyberpunk : est-ce que les « mob » sont maintenant intelligents ? Pas plus que ce que le développeur leur a inculqué.

arsworld

Je suis conscients que le terme intelligence est employé à tord et à travers. Il n’empêche qu’aujourd’hui, la taille des datas traitées par ces réseaux neuronaux permets aux « IA » des diagnostiques rapides et pertinents et un apprentissage exponentiel. Je ne sais plus quel médecin français disait « aujourd’hui GPT4 » est plus efficace que nous et surtout plus « juste » dans ces diagnostiques. Il pensait que ce serait le cas vers 2030/2040… Il reconnait s’être trompé (comme tout le monde).
Évidement c’est normal vu qu’un humain ne pourrait pas ingurgiter autant de savoir et surtout les recouper de façon probantes.
Donc je ne suis pas choqué de savoir qu’un GPT 4 peut facilement être pertinent sur des conseils financiers.
Il faut juste vraiment être conscient que c’est un outil. Un formidable outil mais un simple outil.

ovancantfort

Le futur de l’IA sera effectivement dans une IA coordinatrice qui interpretera le problème posé et l’enveraa à une IA spécialisée. Mais il faudra que cette IA puisse également répondre « Je ne connais pas la réponse à cette question » ou « ce type de problème n’entre pas dans mes compétences ». Or c’est exactement quelque chose que les LLM ne savent pas faire. Si ils n’ont pas de réponse, ils en inventent une, et tous les spécialistes s’accordent que résoudre ce problème est très difficile, voire impossible au niveau des LLM.
De plus, quand on voit des gens comme Sam Altman qui surfent sur la vague « Regardez, c’est magique, ça peut tout faire! », je ne suis pas convaincu du tout qu’ils travaillent sur ce type de réponse de l’AI.