Oui, c’est parce qu’on peut considérer qu’il y a 2 types d’efficacité, une qu’on pourrait appeler extrinsèque (ou physique) et qui concerne TSMC ou le fondeur en générale et une deuxième qu’on pourrait appeler intrinsèque (ou logique) et qui concerne l’architecture et qui concerne Nvidia de sorte que l’on pourrait écrire :
Augmentation efficacité globale = augm. efficacité « architectural » (Nvidia) x aug. efficacité « physique » (TSMC)

L’efficacité par TSMC augmente de génération en génération tandis que c’est l’inverse coté Nvidia (ou AMD), elle diminue d’année en année.
Si en passant de 55 nm à 28 nm, l’efficacité théorique par TSMC est multiplié par plus que 4 (loi de Moore en gros), en pratique, on ne les retrouvent pas sauf lorsque l’architecture ne change pas, justement.

Ici, on aurait pu avoir à TDP constant et à surface de die constante, (2,52 GHz/1,86 GHz) x (76/26) = 4x d’augmentation en efficacité sans changement d’architecture par rapport à la RTX 3090 Ti et donc avoir des perfs de folies.

En gros :
Efficacité globale = efficacité Nvidia x efficacité TSMC = 4
Efficacité globale = 1 x 4 = 4 sans changement d’architecture
hors, on a plutôt:
Efficacité globale = 0,45 x 4 = 1,8 avec changement d’architecture Lovelace

Voilà comment je vois les choses en tout cas.

Nota : Les perfs ne peuvent se vérifier en pratique qu’avec des logiciels comme 3DMark via le GPU score par exemple.