Interview : Justin Rattner évoque Windows 8, Wintel et ARM

09 novembre 2012 à 17h24
0
0000010E05404497-photo-intel-idf-2012-justin-rattner.jpg
Nous avons retrouvé Justin Rattner, actuel Chief Technology Officer d'Intel, à l'occasion de l'édition 2012 de la conférence European Research & Innovation (voir Les labs Intel avancent dans leurs recherches : mémoire non volatile et MIC). L'occasion d'interroger l'intéressé sur l'actualité du moment, la sortie de Windows 8, sur le paysage concurrentiel et d'évoquer ensemble l'avenir technologique du processeur ou de la mémoire.

Justin Rattner, bonjour. Microsoft vient tout de juste de lancer Windows 8 après trois années de développement. Quels seront, selon vous, les impacts de cette nouvelle version de Windows sur le marché du PC ?

Il y a évidemment, comme à chaque version de Windows, une certaine attente. Nous avons déjà vu que les cycles de vente sont impactés alors que les gens se disent : « Tiens, je devrais attendre pour voir ce à quoi ces machines Windows 8 ressemblent ». Je pense que l'intégration du tactile dans l'interface graphique impose de nouvelles caractéristiques techniques du côté de la plate-forme. Je crois aussi que dans un certain sens la plate-forme doit rattraper certaines lacunes et nous nous sommes assurés que notre circuit logistique était à la hauteur.

Pensez-vous que Windows 8 soit un point d'inflexion pour l'industrie du PC ?

Je pense que Windows 8 a certainement le potentiel pour cela. S'il est capable de se retrouver au cœur de plusieurs types de périphériques, et que l'on arrive à dépasser la notion du « il s'agit d'un OS tablette, d'un OS pour smartphone ou d'un OS pour PC et Ultrabook », c'est une chose très importante. Nous mettrons encore un certain temps à obtenir la réponse à cette question, mais je pense que le potentiel est bien là.

Cela signifie que vous êtes raccord avec la stratégie de Microsoft ?

Oui, je veux dire probablement pas plus, ou pas moins que nous ne l'avons jamais été. C'est intéressant : les gens ont tendance à penser historiquement que les deux compagnies évoluent de concert. Ayant fait partie de cette relation depuis un certain nombre d'années, ce n'est pas aussi bien coordonné que les médias l'ont représenté. Il s'agit de deux entreprises importantes, chacune avec sa propre stratégie, et nous nous retrouvons parfois et nous nous coordonnons de la meilleure façon possible. Il n'y a jamais eu de vision unifiée comme il a parfois été suggéré ou de réunion secrète quelque part dans le nord ouest du Pacifique !

En parlant de Windows 8, il y a aussi Windows RT, une version de Windows qui pour la première fois s'exécute sur processeur ARM. N'est ce pas justement un signe de la fin du couple Wintel ?

Comme je l'ai dit, je ne suis pas sûr que Wintel ait jamais existé de la façon dont les médias l'ont décrit. Si l'on prend la téléphonie, Microsoft conçoit des produits pour des plates-formes non Intel depuis quelque temps déjà. Mais clairement il y a une proposition de valeur très différente entre Windows RT et Windows 8. Il s'agit là d'une autre expérimentation intéressante : voir si RT réussit à se construire une base indépendante de clients qui s'avère distincte de la version de Windows 8 que je qualifierai de « compatible ».

L'an dernier, vous nous disiez regretter le fait qu'Intel ait laissé trop de trimestres d'avance à ARM (voir Interview : les prochains enjeux technologiques d'Intel). Comment la situation a-t'elle évoluée depuis ?

Et bien je pense que j'ai dit, et si ce n'est pas le cas c'était une inexactitude de ma part, que quand nous arriverions avec la plate-forme Medfield nous aurions alors essentiellement rattrapé l'écosystème ARM. Je pense, pour avoir lu un certain nombre de critiques, que Medfield s'avère plutôt bien positionné en terme de performance et de consommation électrique. Je crois que nous avons réussi à chasser une bonne part des mythes autour de l'architecture ARM, à savoir sa meilleure efficacité énergétique ou l'impossibilité pour Intel de s'en approcher. Vous avez probablement vu la comparaison entre les deux smartphones Motorola où celui équipé d'une puce Intel a une autonomie supérieure au modèle avec un processeur ARM.

Donc j'ai affirmé que tout l'avantage technologique d'Intel, notamment nos transistors supérieurs à ceux auxquels la communauté ARM à accès, nous permettrait de maintenir une certaine avance sur les processeurs basés sur ARM, alors que nous exploitons au mieux notre processus de fabrication. À la seule exception bien sûr de ne pas avoir un modem LTE, qui sera du reste certifié avant la fin de l'année pour l'intégrer à des produits dès le premier semestre de l'année prochaine... Vous ne pouvez toujours pas acheter ce téléphone aux Etats-Unis parce que ni AT&T ni Verizon ne veulent qualifier un téléphone sans LTE mais cela se produira certainement.

Une fois que le modem LTE sera là, la plate-forme entière, au delà du simple SoC, deviendra pour la première fois vraiment compétitive avec ce que vous pouvez avoir en ARM. C'est ce que nous voulions. Cela nous a pris plus longtemps que ce que nous avions pu imaginer pour arriver là mais je pense que nous y sommes et l'équipe de Mike Bell est vraiment bien positionnée pour gagner des parts de marché significatives.

0226000004724656-photo-intel-justin-rattner-cto-idf-2011.jpg


En parlant d'ARM comment réagissez-vous à la menace de retrouver des processeurs ARM dans des machines de type ordinateur portable ou Ultrabook ?

Et bien ma position ne diffère pas par rapport à ce que nous avons dit par le passé. Il n'y a pas eu de cas récent comme celui-ci. Mais si vous remontez à l'initiative ACE, quand nous pensions que MIPS serait de la partie, nous en tant qu'Intel nous concentrons et nous nous assurons de proposer le meilleur produit possible quel que soit le format. Haswell s'annonce d'ailleurs comme extrêmement compétitif pour les Ultrabook notamment.

Dadi Perlmutter a pu présenter lors de son keynote à l'IDF de septembre des améliorations significatives. Une bonne partie des choses sur lesquelles nous avons travaillé pendant des années dans nos laboratoires, notamment au niveau de l'efficacité énergétique de la plate-forme, sont maintenant au cœur de Haswell. Nous sommes parvenus à implémenter la gestion de l'alimentation ou la régulation du voltage tels que nous le voulions.

Je pense que les gens seront surpris par ce moteur incroyablement puissant qui vous procurera des jours d'autonomie en veille. Il s'agira de machines extrêmement compétitives et c'est de loin notre meilleure puce à ce jour.

J'ajouterais que j'ai toujours eu le sentiment qu'Intel était meilleur lorsque la concurrence est à son niveau le plus sérieux. Nous répondons, comme tant d'autres compagnies, de la meilleure façon possible à ce genre de challenge. L'écosystème ARM met Intel à l'épreuve d'une façon très saine et cela nous rend aussi compétitif que nous devons l'être.

Quel est pour vous l'avenir du processeur ? Nous sommes passé d'un cœur à plusieurs cœurs ces dernières années, mais quel est l'avenir pour les architectures?

Il y a un nombre de directions intéressantes. A l'époque des SoC, je pense que les architectes doivent se demander quelles sont les méthodes les plus efficaces en terme d'efficacité énergétique pour réaliser une fonction donnée. Ce qu'on voit est une augmentation significative du nombre de fonctions spécifiques capables de répondre à des besoins variés, comme la lecture vidéo par exemple, et ce à un niveau de consommation électrique extrêmement réduit, le but étant de vous permettre de lire des vidéos sans mettre votre autonomie à mal.

Le besoin de créer des architectures très efficaces qui mélangent des architectures spécialisées avec d'autres plus généralistes, sans se limiter au CPU/GPU, est manifeste et s'étend maintenant à toute une gamme de fonctions spécialisées. Nous avons passé un temps fou à s'assurer par exemple que la lecture vidéo pouvait se faire efficacement sur CPU. Maintenant que les standards vidéo sont relativement établis et stables, vous pouvez intégrer cette fonctionnalité simplement dans un bloc dédié de la puce car vous savez que c'est bien plus efficace sur le plan énergétique que d'utiliser des cycles CPU pour arriver au même résultat.

Il y a cette hétérogénéité, avec différents types d'architectures, qui se combine à cette notion d'asymétrie où vous utilisez un mélange de petits et de gros cœurs. En utilisant les gros cœurs quand vous en avez besoin vous augmentez la vitesse, et vous utilisez les petits cœurs pour les opérations de routine sans requérir de réécriture des applications.

On parle toujours de cœurs x86 bien sûr ?

Oui bien sûr, nous parlons de cœurs x86 ! Du côté des serveurs, la même théorie est à l'œuvre dans notre famille Knights qui s'adresse au HPC. Nous sommes impatients de savoir comment les gens acceptent cette architecture car nous avons maintenant un certain nombre de preuves de la facilité, notamment, à déplacer directement du code depuis des systèmes Xeon purs vers des systèmes Xeon Phi.

Des petits cœurs, des grosses unités vectorielles en virgule flottante : voilà un choix pertinent pour certaines tâches très gourmandes en terme de puissance de calcul. Je pensais que cette notion de gros cœur avec plein de petits cœurs autour constituait probablement un choix raisonnable entre les deux...

Mais lorsque nous avons fait nos études avec divers codes on s'est aperçu que le bénéfice d'avoir un grand cœur est bien plus réduit qu'on le pensait. Il semble qu'avec des petits problèmes on voit le bénéfice mais quand vous commencez à gérer les problèmes qui se manifestent habituellement dans ces systèmes, vous êtes tellement submergés par les composants parallèles que la contribution des gros cœurs est bien moins significative. On peut imaginer sans difficulté que dans ces systèmes, les processeurs Knight Family s'occupent du calcul intensif alors que les gros cœurs traditionnels seront plutôt en charge de la gestion du système ou des entrées/sorties notamment. Cela m'a surpris.

Vous prévoyez de regrouper gros cœurs et petits cœurs dans de futures architectures ?

Oui nous nous sommes amusés un moment avec cette idée. Mais d'un point de vue technique, et sans commenter sur de futurs produits, celle-ci est de moins en moins attractive. Les avantages semblent bien moins évidents que nous le pensions avec les divers codes que nous avons analysés.

Avec un nombre de cœurs accru au sein de nos processeurs, le stockage devient un élément critique notamment au niveau de la mémoire et de sa rapidité. Quelles améliorations voyez-vous dans ce domaine ?

Il y a un peu plus d'un an j'ai évoqué la technologie Hybrid Memory Cube, que nous avons montrée à l'IDF. On explore toujours cette technologie ainsi que le Fast Wide I/O et un certain nombre d'architectures mémoire. Il y a pas de mal de travaux en cours à ce sujet du côté de nos équipes de recherche.

Pour les serveurs notamment, alors que nous passons de la flash NAND à de nouvelles architectures de stockage comme le changement de phase ou le Spin torque, la question est de savoir comment intégrer ces nouvelles mémoires non volatiles à la hiérarchie du stockage. Aller au-delà des SSD, au point où ils ne sont plus simplement une solution de stockage mais une partie intégrante de la mémoire principale. Comment faire pour s'accommoder de leurs caractéristiques uniques dans la hiérarchie mémoire ?

Nous avons d'ailleurs une démonstration avec le client mail Thunderbird et comment il se comporte en terme de performance lorsque nous introduisons un niveau de stockage non volatile dans la hiérarchie mémoire. Les améliorations sont incroyables, une réécriture triviale nous apporte un gain de performance d'un facteur compris entre 3 et 5x, et une approche plus agressive nous donne un gain compris entre 5 et 7x. En éliminant le besoin d'utiliser des fichiers pour le non volatile, puisque maintenant la non volatilité est intégrée dans la mémoire principale, il y a une réduction significative de l'overhead.

J'ai toujours été fasciné par Outlook : l'action la plus triviale peut rendre votre disque totalement fou... Même sans rien faire ! Toute cette activité disque se produit pour qu'en cas de perte du courant vous ne perdiez pas d'email. Quand la non volatilité devient une propriété de la mémoire principale, une bonne partie de ces tâches devient redondante et inutile... du coup il y a à la clé des gains de performance majeurs. Et d'ailleurs, cela apporte aussi des améliorations très nettes en terme d'efficacité énergétique : vous avez donc à la fois des gains de performance, puisque vous n'avez plus besoin d'écrire des fichiers, ainsi qu'une réduction de la consommation.

Quand pensez-vous que ces technologies verront le jour pour l'utilisateur final ?

Certains annoncent qu'ils livreront Spin torque dès maintenant. Je n'ai pas suivi cela de près, mais d'un point de vue de la recherche nous sommes plutôt sur un calendrier 2015/2016 pour l'une de ces technologies. Vous avez HP Memristor, et le Spin torque qui est l'objet de pas mal d'attentions. Du côté de la recherche Intel, il y a pas mal d'activités intéressantes autour de Spin torque et nous travaillons bien sûr depuis de nombreuses années sur la technologie mémoire à changement de phase.

Nous essayons actuellement de voir laquelle de ces technologies s'impose, et pas seulement celle qui est notre préférée d'un point de vue architectural, mais aussi sur le plan de la fabrication. Arrivé à un certain stade, il ne s'agit pas tant de savoir si cette technologie dispose d'une ou de plusieurs caractéristiques qui la rendent attractive mais de savoir si on peut la fabriquer en volume, avec un bon rendement, et si on peut espérer conserver un coût faible par octet, etc.

La prochaine génération de technologie mémoire non volatile se doit d'être meilleure en terme de coût par octet que la génération actuelle. Il n'est pas possible d'augmenter subitement le prix, ou alors vous ne remplacerez pas les technologies existantes. Et l'on s'aperçoit que le travail que nous avons fait avec la technologie photonique appliquée au silicium est finalement motivée par la question de savoir si on peut créer des solutions optiques compétitives en terme de coûts avec leur équivalent électrique.

Et vous-vous en rapprochez ?

On espère bien sûr ! Je parle de photonique parce que c'est vraiment devenu un problème industriel. Nous avons dévoilé cette liaison 50 gigabits/seconde il y a quelques années (NDLR : voir notamment Le premier laser silicium hybride chez Intel) mais certaines parties du processus de fabrication ne peuvent se faire qu'en laboratoire. Nous essayons de prouver que nous pouvons tout faire en usine, en volume, et en obtenant le genre de rendement et de fiabilité auquel nous sommes habitués. Si on y arrive, je suis très optimiste au sujet de la photonique. Si cela se révèle difficile ou impossible, son emploi risque d'être retardé pour un certain temps encore.

0000015E05404499-photo-intel-idf-2012-justin-rattner-wafer.jpg
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page