NVIDIA GT300 : premiers détails sur la nouvelle puce

27 avril 2009 à 13h11
0
000000A001933580-photo-nvidia-logo.jpg
Alors que NVIDIA n'est pas nécessairement au mieux de sa forme, avec une architecture graphique GT200 qui n'a pas forcément brillé, la firme au caméléon étant obligé de renommer des produits qui ont pratiquement deux ans d'âge pour occuper le terrain, la relève se prépare tranquillement. Les ingénieurs de la firme de Santa Clara travaillent en effet sur le GT300, la puce graphique de nouvelle génération de NVIDIA. Celle-ci aura pour première caractéristique de prendre en charge DirectX 11, mais ce n'est pas l'objet de cette brève.

Avec le GT300, NVIDIA opterait pour une architecture largement différente des architectures graphiques connues jusqu'à présent. C'est du moins ce que rapporte Bright Side of News. Et le changement est radical puisque NVIDIA laisserait de côté le mode de fonctionnement SIMD (Single Instruction Multiple Data) pour adopter un fonctionnement similaire au MIMD ou Multiple Instruction, Multiple Data. Toutes les unités de la puce travailleraient alors en mode MPMD, Multiple Program, Mutltiple Data. L'idée étant de permettre l'exécution simultanée de plusieurs types de calcul au sein de la puce, chose possible aujourd'hui mais pas nécessairement exploitée dans les meilleures conditions.

Techniquement la puce GT300 devrait compter 16 groupes de 32 coeurs chacun soit un total de 512 coeurs d'exécution (une information qu'il faudra naturellement vérifier). Comparativement, les puces GT200 offraient au mieux 216 coeurs d'exécution : en admettant que la fréquence de fonctionnement de la puce GT300 soit identique à celle des GT200, la puissance brute du GT300 serait au bas mot deux fois supérieure. De plus, les performances de calcul en double précision, une sévère lacune des GeForce GT200, devrait être bien supérieure.

Naturellement, ces changements ne sont pas les seuls opérés par NVIDIA puisqu'il est question de faciliter tout ce qui concerne l'utilisation de la puce en tant que co-processeur de calcul et nous aurons l'occasion d'en parler à nouveau. Dans tous les cas, la possibilité d'exécuter des programmes différents et indépendants sur chacun des processeurs de la puce, devrait ouvrir de nouvelles possibilités dans le domaine du GPGPU.

Julien Jay

Passionné d'informatique depuis mon premier Amstrad 3086 XT et son processeur à 8 MHz, j'officie sur Clubic.com depuis ses presque débuts. Si je n'ai rien oublié d'Eternam, de MS-DOS 3.30 et de l'inef...

Lire d'autres articles

Passionné d'informatique depuis mon premier Amstrad 3086 XT et son processeur à 8 MHz, j'officie sur Clubic.com depuis ses presque débuts. Si je n'ai rien oublié d'Eternam, de MS-DOS 3.30 et de l'ineffable Aigle d'Or sur TO7, je reste fasciné par les évolutions constantes en matière de high-tech. Bercé par le hardware pur et dur, gourou ès carte graphique et CPU, je n'en garde pas moins un intérêt non feint pour les produits finis, fussent-ils logiciels. Rédacteur en chef pour la partie magazine de Clubic, je fais régner la terreur au sein de la rédaction ce qui m'a valu quelques surnoms sympathiques comme Judge Dredd ou Palpatine (les bons jours). Mon environnement de travail principal reste Windows même si je lorgne souvent du côté de Mac OS X.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires

Haut de page

Sur le même sujet