NVIDIA Chat with RTX : nous avons testé l'intelligence artificielle locale assistée une GeForce

Nerces
Spécialiste Hardware et Gaming
15 février 2024 à 14h01
8
Chat with RTX est disponible en version démo © NVIDIA
Chat with RTX est disponible en version démo © NVIDIA

Un clone de ChatGPT qui exploite la puissance des GeForce pour traiter les données en local sur votre ordinateur ? Telle est l'idée de NVIDIA.

Prototype d'agent conversationnel le plus connu, ChatGPT fonctionne bien sûr grâce à l'intelligence artificielle, mais il ne fonctionne qu'en ligne, avec une connexion Internet pour renseigner ses interlocuteurs.

Avec Chat with RTX, NVIDIA embrasse un segment plus original de ces agents conversationnels. L'outil rendu disponible par NVIDIA fonctionne en vase clos, en local sur votre machine… dotée d'une GeForce bien sûr.

Une intelligence artificielle en local

Chat with RTX n'est pas encore disponible en version finale et NVIDIA évoque la mise à disposition d'une « simple » démo comme pour montrer ce qu'il est possible de faire sur nos petites machines.

Enfin, pas si petites que ça puisque, pour fonctionner, Chat with RTX utilise l'accélération TensorRT-LLM laquelle a besoin d'une carte graphique GeForce RTX série 30 (Ampere) ou série 40 (Ada Lovelace). Des cartes musclées dont l'objectif est d'animer un robot expert en recherche de données, mais un robot fonctionnant exclusivement localement : on ne risque alors aucune fuite ou aucune collecte de données.

Telle que présentée par NVIDIA, l'idée est simple : une fois installé – nous y reviendrons – Chat with RTX reçoit des documents « sources » sur lesquels appuyer ses recherches. Il suffit alors de lui poser des questions pour résumer un sujet ou en approfondir certains points sans, justement, que vous soyez obligés de tout lire, tout comprendre.

Une bonne demi-heure pour l'installer

Pour l'heure, NVIDIA ne parle donc que d'une démo de Chat with RTX, une sorte de version préliminaire destinée à en montrer une partie des capacités, mais qui sera logiquement amenée à évoluer.

NVIDIA Chat with RTX © Nerces
NVIDIA Chat with RTX © Nerces

La procédure d'installation n'est pas complexe… mais longue © Nerces pour Clubic

Pour tester la chose, il faut donc disposer d'un ordinateur tournant sous Windows 10/11 avec une carte graphique GeForce RTX série 30 ou 40. NVIDIA mentionne le besoin de 8 Go de mémoire vidéo et des pilotes GeForce en version 535.11 ou supérieure. Il n'est nulle part fait mention d'un processeur minimum, mais 16 Go de mémoire vive sont nécessaires.

Il faut aussi télécharger un « paquet » de 35 Go lequel contient l'installeur de Chat with RTX. Attention, une fois l'installation lancée, il faut encore s'armer de patience : une phase préparatoire avec d'autres données à télécharger est nécessaire. Au total, on parle de 50 à 100 Go de données téléchargées pour un processus compris entre 30 et 60 minutes.

En tâche de fond tourne toujours cette fenêtre shell © Nerces pour Clubic
En tâche de fond tourne toujours cette fenêtre shell © Nerces pour Clubic

L'installation terminée, il est possible de lancer Chat with RTX et, sur la fenêtre qui apparaît, de lui spécifier où se trouvent les ressources sur lesquelles il va œuvrer. Pour le moment, NVIDIA évoque la limitation à des fichiers TXT, PDF, DOC ainsi que des vidéos YouTube.

À l'usage, ça donne quoi ?

Si nous n'avons pas encore cherché à réellement creuser les possibilités de Chat with RTX ou pousser les interactions avec le robot, nous avions tout de même à cœur de voir, rapidement, ce dont il est capable.

Pas encore question de voir Chat with RTX s'exprimer en français © Nerces pour Clubic
Pas encore question de voir Chat with RTX s'exprimer en français © Nerces pour Clubic

Pour ce faire, nous lui avons d'abord posé quelques questions sans rapport direct avec les données dont il disposait. Pas de miracle, les réponses n'avaient souvent guère de sens et rien que lui demander s'il était capable de comprendre le français allait bien au-delà de ses capacités « cognitives ».

Nous avons donc joué le jeu et lui avons injecté divers documents techniques écrits par NVIDIA pour parler de sa nouvelle génération de cartes graphiques GeForce RTX série 40 SUPER et de DLSS. Premier succès, les explications sont certes académiques, mais DLSS est alors bien détaillé.

NVIDIA Chat with RTX © Nerces
NVIDIA Chat with RTX © Nerces

Les réponses de Chat with RTX sont parfois surprenantes © Nerces pour Clubic

En revanche, si Chat with RTX a été en mesure d'extraire et compiler les données techniques des cartes, il lui a été plus difficile de les comprendre : il se mélange ainsi les pinceaux quand on lui demande qui de la RTX 4070 SUPER ou de la RTX 4080 SUPER est la plus puissante.

NVIDIA Chat with RTX © Nerces
NVIDIA Chat with RTX © Nerces

Chat with RTX extrait avec talent les informations de textes divers © Nerces pour Clubic

Dans un troisième temps, nous avons voulu sortir Chat with RTX du domaine informatique. Nous lui avons injecté des documents relatifs au métier de journaliste, à sa loi. Belle surprise de le voir décortiquer des documents en français, mais aussi en extraire les éléments clés avec un brio. Reconnaissons que lesdits documents étaient parfaitement organisés.

Enfin, puisque NVIDIA parle de YouTube, nous avons donné quelques liens de vidéos à Chat with RTX. Sur une séquence liée au fonctionnement de l'IA générative, il a été capable de nous faire un résumé de la situation… mais ne croyez pas que Chat with RTX peut interpréter les propos de l'hôte.

Pour « comprendre » une vidéo, il se base sur la transcription textuelle associée par YouTube et la traite comme n'importe quel document texte. Pas de transcription et Chat with RTX sera muet comme une carpe. Reste que le résultat peut être intéressant.

Chat with RTX s'appuie sur la transcription Youtube des vidéos © Nerces pour Clubic
Chat with RTX s'appuie sur la transcription Youtube des vidéos © Nerces pour Clubic

Il y aurait encore beaucoup d'essais à faire sur Chat with RTX et il serait aussi intéressant d'en vérifier les progrès et les évolutions. Le potentiel d'un tel logiciel est assez remarquable et l'on pense bien sûr au travail d'analyse qu'il serait possible de faire, à l'école notamment, pour extraire des informations de sources multiples (Wikipédia ?).

L'analyse locale est intéressante pour éviter toute interférence, surtout en milieu scolaire. Cela dit, son statut de démo, ses limitations techniques (50 à 100 Go monopolisés, 3 Go de RAM occupés) et des bugs empêcheront sans doute Chat with RTX de toucher un large public, mais la promesse est là. Suffisant pour exister à côté d'autres agents conversationnels comme ChatGPT ?

En 2023, le paysage des chatbots en français s'est considérablement étoffé, boosté par l'essor de l'intelligence artificielle. Autrefois, ces assistants étaient rationnés à des questions et réponses prédéfinies. Mais maintenant, grâce à des avancées comme celles de ChatGPT, il est possible de poser n'importe quelle question et d'obtenir des réponses pertinentes générées en temps réel.
Lire la suite

Source : NVIDIA

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

Aegis
C’est très intéressant mais je ne suis pas sûr que cela puisse fonctionner. En tournant en local, l’ia ne peut pas exploiter les conversations pour apprendre. C’est très bien pour la vie privée mais ralentira le développement. Combien de temps les utilisateurs seraient prêt à utiliser une ia qui décroche de la course?<br /> Heureusement pour Nvidia, c’est un démonstrateur pour vendre leur matériel, c’est de là que vient leur impressionnante croissance.
Binbin
L’IA chez Clubic….<br /> Ce que propose Nvidia n’est qu’un logiciel qui encapsule des LLM (Large language Model), des AI conversationnelle, comme le montre les captures d’écran, 2 en l’occurence :<br /> Llama 2 crée par Meta (Facebook, instagram…)<br /> Mistal 7B crée par Mistral (une entreprise française)<br /> Mistral c’est la fameuse startup dans laquelle l’ex-secrétaire d’État au numérique Cédric O a pu obtenir xxx actions pour des cacahuètes et qui soulève plus que des questions, déjà évoqué dans l’un de vos articles :<br /> Clubic.com – 20 Dec 23<br /> En 9 mois, ses 176 euros en valent 22 millions : l’ex-secrétaire d'État Cédric...<br /> En investissant dans la jeune pousse française Mistral AI, l'ancien secrétaire d'État chargé du numérique a tiré le gros lot. Attention, tout de même, au conflit d'intérêts…<br /> Les résultats décevant obtenu ne sont donc pas surprenants et logiques, ces 2 modèles d’AI étant inférieur à ChatGPT 3.5<br /> À noter que Mistral propose désormais Mistal 8x7B supposé être équivalente voir supérieur à ChatGPT 3.5<br /> Enfin, il était déjà possible d’utiliser des AI conversationnelle en local, y compris la plus puissante ChatGPT mais évidement, il vaut mieux avoir une machine puissante…<br /> Ce que propose Nvidia avec CHAT RTX est donc totalement cohérent à leur offre Hardware, mais c’est peut-être un « début » de réponse à OPEN AI qui veut développer ses propres semi-conducteurs pour l’AI….
davidly
À voir dans quelques mois/années. Si ça permet d’égaler GPT 4 avec des données moins complètes, mais une capacité d’analyse similaire, ça m’intéresse. En ce moment, j’utilise pas mal ChatGPT 4, et la lenteur des réponses, sans compter les erreurs réseau qui ne sont pas négligeables , m’exaspèrent un peu… Surtout que je le trouve un peu plus bête qu’il y a quelques mois (voir la vidéo de Micode à ce sujet).
ChezDebarras
ça peut être intéressant au niveau d’une entreprise ou surtout d’un groupe industriel (samsung, bank of america, …) qui pourra farfouiller sur les données collectées au sein du groupe :<br /> ordinateur, sors-moi une étude sur les utilisations les plus fréquentes en photographie depuis 30 ans sur nos smartphones d’entrée de gamme<br /> ordinateur, cacule moi l’évolution des risques liés à nos actifs financiers sur le domaine de l’agriculture sur la région du kansas<br /> ordinateur, sur la base des rapports de nos espions sur le continent européen, et par rapport à notre capacité de défense intercontinentale, quelle est le moment le plus favorable pour déclencher une guerre thermonucléaire avec la russie depuis nos bases en ukraine ?<br />
svenos
On dirait dr.sbaitso fournis avec les sound blaster en 1992, sauf qu’il bouffe 500 000 fois plus de mémoire et raconte toujours n’importe quoi xD c’est du résumé à l’arrache avec que des infos bidons ou pompés ça et là. Ca a l’air cohérent mais la plupart du temps à côté de la plaque. Aller on va mettre un petit +1 pour les résumé des sous titres de vidéos foireuses. Mais bon si on peut pas se fier aux infos, on risque juste la désinformation générale et permanente. Encore pire que les bobards de cours de récrée.<br /> Si l’IA est à l’image de l’homme, et bien à l’heure actuelle, ça risque bel et bien d’être une calamité totale.<br /> Quand les chats bots de microsoft prétendent être des vrais être humains et qu’ils peuvent le prouver car «&nbsp;une IA ne peut pas envoyer de mail&nbsp;» et qu’il «&nbsp;faut contacter l’onduleur pour récupérer son paquet&nbsp;» on a envie d’exploser de rire, si on avait pas attendu 3 heures dans un chat pour lire ça…<br /> Si on est arrivé au stade ou ne sais plus ranger ses documents, ça va devenir compliqué d’utiliser un chat bot. Au pire si on a un gros trou de mémoire avec l’indexation depuis vista, suffit de taper le nom dans le menu démarrer, ou éventuellement consulter l’historique…
armel.herve
Au lieu de tous râler, essayez le, c’est gratuit et facile à installer !<br /> Je trouve que le résultat est pas mal du tout. Le seul souci est qu’il répond en anglais alors que les textes injectés sont en français. Il y a donc une phase de traduction.<br /> Est-ce que quelqu’un saurait le faire répondre en français ?
kroman
Ça a un vrai intérêt d’avoir des modèles qui tournent en local. En entreprise on a généralement interdiction de partager des données/documents avec ChatGPT ou autres
lmelde018
J’ai pris pour tester un abonnement chat gpt 4 . Franchement c’est nul. Deja on est limité à 40 message sur chat gpt 4 et dallee inclus toute les 3 heures. Après ya aussi une limite de 4090 caractères qui incluent les espaces pour le message. Pareil pour les fichiers envoyés à chat gpt. Résumé chat gpt 4 ne le fait il prend juste les premiers textes du document. Il est lent généré des images et répondre au message gemini est plus rapide. Dall-e 3 est bien mais on peux pas gérer ce qu’on veux, avec stable diffusion on peux.<br /> On est limité de partout. Ce plus chiant c’est la limite des messages on paye un abonnement pour être limité imagine la même pour Netflix.<br /> Je vais arrêter mon abonnement chat gpt 4 et utiliser chat gpt 3 , gemini et claud 2 qui sont gratuit et en ligne et j’utiliserais es modèles qui tournent en local après avoir trouvé des bon modèles.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet