Commentaires : Les futures cartes graphiques Intel Xe DG1 ne font pas exploser 3DMark ; loin de là

Si Intel développe toujours activement son premier GPU dédié, le Xe DG1, les Radeon d’AMD et GeForce de NVIDIA n’ont vraisemblablement pas trop de souci à se faire. D’après un premier Benchmark supposé, la carte graphique d’Intel serait dotée de performances pour le moins mollassonnes.

1 J'aime

" Si Intel développe toujours activement son premier GPU dédié, le Xe DG1, les Radeon d’AMD et GeForce de NVIDIA n’ont vraisemblablement pas trop de souci à se faire. "

" Notons néanmoins … il y a de forte chances qu’il ne s’agisse que d’un exemplaire non définitif… Et donc peu représentatif des performances finale du premier GPU dédié qu’Intel nous prépare "

Comme dire tout et son contraire ! On en sait donc autant avant qu’après avoir lu l’article ! Welcome at Clubic the future of news !! :wink:

6 J'aime

Une gtx 1050 ce n’est quand même pas ridicule : si on prend les scores 3dmarks, une 1050 fait mieux que 56% des autres résultats alors mêmes que ces tests sont surtout fait par des gamers… https://www.3dmark.com/3dm11/11956889

C’est supposé être l’entrée de gamme, donc pas trop mal.
Reste à voir la qualité des pilotes, à la fois sous Windows (pas trop ça) et Linux (bon support jusqu’ici).

2 J'aime

et que une majorité font des bench sur leur laptop ou pc non DIY

Ton teste est dépassé, maintenant c’est time spy (dx12), la gtx 1050 c’est vraiment le minimum pour jouer maintenant en 1080p je dirais meme que le minimum c’est une gtx 1050ti, si Intel prévoit de mettre sur le marché une carte aussi faible que déjà AMD et NVIDIA ont saturé, vaut mieux laisser tomber, le gpu embarqué dans leur cpu a pratiquement les meme performance :wink::mask:

Un peu chipoteur aujourd’hui? :smiley:
Moi ça ma va. On a une puce que l’on sait bas de gamme, mais qui pourrait gagner quelques % voir quelque dizaines de % au mieux en version définitive. Mais de tout façon pas de quoi inquiéter une 2080ti, non?

Pour les gamers oui. Une appli pro qui a besoin de ressources 3D est vite limitée par les HD graphics (pas assez de mémoire, mémoire trop lente et en concurrence avec le CPU, débit de triangles et shaders pas constants). Je sais de quoi je parle :-), je travaille sur un appli comme ça (visualisation de données) depuis quelques mois. Mais une petite carte dédié, même moins performante qu’une 1050 fait très bien l’affaire si on a « juste » à afficher quelques millions de triangles à 30fps.

Je sais que c’est pas l’idéal mais ça fais le taf:

2 J'aime

Pour un premier jet c’est pas pire, la 1050 est une carte qui permet déjà de jouer dans des conditions correctes en 1080p (1600x900 étant selon moi le meilleur compromis pour cette carte), en medium et même high sur certains jeux c’est pas pire, si ils nous avaient sorti une permière carte capable de rivaliser avec une 1060 perso j’aurai été sur le cul si je peux m’exprimer ainsi, merci pour cet article :wink:

Et tout dépend du prix, si cette carte intel est beaucoup moins cher qu’une 1050 ?

1 J'aime

En fait, ça ne dit pas grand chose puisqu’on ne sait encore pas grand chose de ce GPU.
Il est parfaitement possible que ce soit le segment visé par intel avec un GPU à faible nombre de transistors.
Cela peut paraître surprenant pour les joueurs qui sont habitués à la « stratégie de la couronne » menée depuis la nuit des temps par les fabricants de GPU. Stratégie qui consiste à passer par des « produits d’image » pas forcément rentables.
Mais Intel est déjà un grand industriel qui dispose des canaux de distribution nécessaire pour attaquer directement le cœur de cible sans passer par des produits d’image.
Et je pense aussi que c’est aussi plus dans la culture d’Intel d’attaquer un marché par le bas que par le haut.
Mais bon, a ce stade ce n’est que pur spéculation sur pas grand chose.

Larrabee sors de ce corps! Ça fait combien d’années qu’ils nous font le coup chez Intel?

C’est clair à 50€ c’est pas mal, mais je n’y crois pas !

A priori, bien que la carte testée soit bien une carte dédiée, il semble que le chip d’intel est avant tout prévu pour équiper des portables, donc sous forme de carte dédiée, mais aussi de chip intégré. Dans le cas d’un chip intégré, ça serait intéressant. Il visent les 25W, qui comparé au 75W d’une 1050, est bien plus intéressant si on peut obtenir une puissance presque équivalente. Mais j’ai bien dit qu’ils visent les 25W… je crois qu’en ce moment ils sont plus proche des 50W…
A suivre.