Non. Diviser la taille de gravure par 2 n’a jamais multiplié l’efficacité énergétique par 4 (ou en tout cas pas depuis très longtemps). Et surtout, depuis un paquet d’années, les gains d’efficacité lié au processus de gravure sont relativement marginaux… Regarde déjà du temps du tick-tock d’Intel, les gains de consommation lors des die shrink n’étaient plus faramineux, et plus on grave fin, plus les gains deviennent faibles, parce qu’il y a de plus en plus de courants de fuite qui provoquent des pertes importantes. Au point qu’l arrive même parfois qu’une gravure plus fine mais pas aussi bien maitrisée donne au final une consommation supérieure…
Tu penses bien que si le changement de finesse de gravure faisait gagner un facteur 4 et que le changement d’architecture faisait ensuite perdre plus de la moitié de ce gain, les concepteurs de puces dépenseraient pas des milliards pour concevoir de nouvelles architectures, ils se contenteraient de faire des die shrink de leurs anciennes architectures, ça leur coûterait moins cher tout en pouvant être vendu plus cher, puisque les gains pour l’utilisateur seraient plus grands…