Là dessus, je suis d’accord, et c’est justement cela que je voulais dire. Ca permettrai de mettre en avant l’architecture tel qu’elle est (moins de « transistor de calcul » comme tu dis).
La dessus, je ne suis pas d’accord. La mémoire cache fait parti de l’architecture. Les proportions interne aussi (TMUs vs Shaders vs ROP vs bus etc…). Si une mémoire cache occupe trop de place, l’architecture sera mauvaise, et si pas assez de cache également. Idem pour un bus trop petit ou trop large (il ne faut pas que ça occupe trop de place, mais il ne faut pas non plus brider les perfs des unités Shader/TMU/ROP).
Ensuite, on ne peut pas comparer un CPU et un GPU à cause de la difficulté de monter en performance sur des calculs effectué en série. Le gain en perf des CPU monocore de génération en génération est médiocre. La mémoire cache sur un CPU peut jouer un rôle dans certains jeux vidéos ou dans certains logiciels comme WinRAR, mais c’est assez spécifique à seulement quelques jeux pour lequel le gain peut être élevé.
Donc pour moi, la mémoire cache est un critère d’optimisation, la largeur du bus aussi, et tout le reste (proportions interne).
Mais c’est pas pour autant qu’une architecture avec plus de cache est plus mal optimisée…
Si ça occupe trop de place, si. Car le TDP est proportionnel au carré de la fréquence. En doublant la taille de die (sans changer l’architecture et les proportions) et en baissant la fréquence de 40%, tu peut augmenter les perfs de 40% à TDP constant, hors une mémoire cache qui occuperait trop de place et qui n’apporterait que 10% de perf sur une architecture massivement parallèle serait indirectement de la perte d’efficacité.
Tu parle à TDP constant pour 2 finesses de gravure différente ? Si oui, il y a des exemples.
En revanche, c’est vrai qu’avoir 2,8x plus de transistors en passant de 8 nm à 4 nm ne permet pas d’avoir une efficacité énergétique même 2,8x plus grande par exemple à taille de GPU égale et à TDP égal.
La dessus, je reconnait une erreur de ma part.
Pour l’efficacité pure, il faudrait baisser la fréquence de plus de 1,8x pour diviser le TDP par plus que 3 et ainsi obtenir cette efficacité supérieur à 2,8x (sur 3DMark GPU score uniquement. Dans les jeux, c’est plus beaucoup plus faible). Dans ce cas, ça serait à « performance égale » par rapport à la génération précédente plutôt qu’à « TDP égal ».