VMware : « La virtualisation ? En première ligne pour réduire l’empreinte carbone » (Interview)

Alexandre Boero
Par Alexandre Boero, Journaliste-reporter, responsable de l'actu.
Publié le 29 octobre 2019 à 17h35


La société de virtualisation des serveurs, sur le marché depuis 1998, a évolué au fil des années, et se distingue aujourd'hui du cloud, qui offre des garanties moindres. Ghaleb Zekri, architecte sécurité chez VMware, a accordé une interview à Clubic pour en parler.

Connue historiquement pour sa solution de virtualisation des serveurs et pour permettre d'héberger plusieurs charges applicatives VM (machines virtuelles) dans un data center, la société américaine VMware a évolué avec le temps. Aujourd'hui, sa stratégie est de délivrer une infrastructure qui permet aux entreprises et aux utilisateurs de faire tourner toute application, sous n'importe quelle forme, sur n'importe quel type de cloud, en utilisant n'importe quel terminal.

Pour en savoir plus sur la façon dont virtualisation et cloud peuvent aujourd'hui cohabiter, nous avons rencontré Ghaleb Zekri, architecte sécurité chez VMware, lors des Assises de la sécurité 2019 à Monaco, le 10 octobre.

VMware_logo.jpg

La virtualisation offre une agilité dont les entreprises veulent profiter

Clubic : Est-ce qu'aujourd'hui, la virtualisation permet de réaliser une économie d'énergie, outre une économie d'argent ?

Ghaleb Zekri : Absolument. En fait, l'économie d'énergie, c'est le vecteur principal qui a amené la virtualisation chez les entreprises. Lorsqu'on devient une entreprise éco-responsable, on s'attaque essentiellement à l'impact énergétique. La virtualisation est en première ligne des solutions qui permettent de réduire l'empreinte carbone. La réduction de coûts est une conséquence directe à cette réduction d'empreinte carbone puisqu'en gros, j'achète moins de serveurs, j'ai la possibilité de construire un data center qui héberge plus de ressources, ce qui est mieux que d'en construire trois ou quatre. Très vite, les entreprises ont tiré profit de cette virtualisation, qui apporte une certaine agilité. La modernisation, la transformation digitale passe essentiellement par cette capacité à maintenir une agilité de l'infrastructure. Dans la stratégie de VMware, c'est ce que l'on appelle le software-defined, dont vous allez beaucoup entendre parler. Nous faisons en sorte que le data center soit carrément software-defined, de façon à ce que l'entreprise, aujourd'hui, n'a rien à envier à du AWS ou à du Azure pour construire une infrastructure aussi agile que le cloud. Cela représente une optimisation de coûts conséquente par rapport à une approche classique.


Rappelons aussi qu'en cas de panne de serveur, les applications et données de l'utilisateur, de l'entreprise, ne sont pas affectées...

Exactement, et c'est aussi dans la stratégie de sécuriser ce que l'on appelle le data protection : il y a une notion de résilience persistante pour que la data soit disponible pour les applications, et une intégrité et confidentialité. Nous avons beaucoup travaillé sur la protection de la donnée et sur le fait que la donnée stockée sur la partie storage ne soit pas impactée par un serveur. L'un des points importants : c'est la confidentialité. La virtualisation apporte cette couche d'abstraction entre l'application et le matériel. Nous profitons de cette couche pour ajouter du chiffrement sur ce que l'on appelle le data at rest (quand la donnée réside sur le disque lui-même, et le chiffrement quand on transfère la donnée d'un endroit à un autre). Lorsque la donnée bouge d'un serveur à un autre, ce flux est chiffré, et la personne qui intercepterait ce flux ne sera pas capable d'extraire la donnée. C'est important pour donner confiance aux entreprises.

« Avec le cloud, il y a cette problématique de ne jamais être totalement propriétaire des données qu'on y héberge »



Quel est le premier argument que vous évoquez, que ce soit pour un utilisateur lambda ou pour un professionnel, pour le convaincre d'adopter la virtualisation, à l'heure où beaucoup se tournent vers des solutions cloud tels AWS, Google Cloud, Azure ou Alibaba ?

Le premier argument d'importance, c'est la rapidité avec laquelle la virtualisation va leur permettre de mettre en place des applications, de les exécuter, de les manager, de les connecter, de les interconnecter et de les sécuriser. Si nous faisons ça dans un monde purement physique, cela prendrait des jours, des mois, en étant tributaire sur un plan sécuritaire de ce que l'on a construit sur le réseau physique, que l'on ne change pas tous les jours. Avec la virtualisation, on crée cette couche d'abstraction par rapport aux ressources physiques. Elles deviennent des ressources de traitement ou de transfert de l'information. L'intelligence est construite de façon software dans la couche de virtualisation. C'est exactement ce que font AWS, Google ou Microsoft quand ils proposent des services cloud : on ne sait pas sur quoi atterrit notre application, on sait tout simplement qu'elle fonctionne et qu'elle est interconnectée.

Ghaleb Zekri (VMware)
Ghaleb Zekri (© Alexandre Boero pour Clubic)

Le cloud est extraordinaire. Les entreprises le consomment parce qu'il facilite et donne satisfaction. L'application n'est pas hébergée au sein de son infrastructure. On la loue. Mais les contrats peuvent changer, la data n'est pas chez soi, donc il y a cette problématique de ne jamais être totalement propriétaire des données que l'on héberge dans le cloud.


« Les objets connectés, qui représentent une masse conséquente d'appareils, posent une problématique de traitement de la donnée »


Comment peut-on s'imaginer la sécurisation d'une plateforme de virtualisation ? :

Nous transformons la façon avec laquelle nous délivrons la sécurité. La sécurité doit être intrinsèque par rapport à l'infrastructure. Le meilleur endroit qui se positionne entre les ressources physiques et les applications posées au-dessus, c'est la couche de virtualisation. Nous ne sommes pas dans la machine virtuelle, au risque de désactiver les mécanismes de sécurité si elle est compromise, et nous ne sommes pas trop loin dans l'infrastructure physique, au risque que si l'application bouge d'un environnement à un autre, on perde le contexte de sécurité. La couche de virtualisation apporte donc ce que l'on appelle la zone habitable pour intégrer la sécurité.

Les législations nationales peuvent compliquer les activités des acteurs de la virtualisation et du cloud

Un mot de l'IoT, qui se développe rapidement, et de la 5G, qui commence à être commercialisée un peu partout dans le monde. Comment peut-on raccrocher la virtualisation à ces deux mondes ?

L'un des vecteurs qui va permettre à l'IoT de se généraliser et de générer le boom vécu sur d'autres technologies, c'est bien la 5G. La 5G va être la locomotive qui va permettre aux domaines d'exploitation de l'IoT de se développer à grande vitesse. Cela implique un certain nombre de technologies. Les objets connectés, qui représentent une masse conséquente d'appareils, posent une problématique de traitement de la donnée.

« Répondre à toutes les régulations extraterritoriales est devenu un vrai challenge »


Par exemple, beaucoup se posent la question de la voiture autonome. Celle-ci est équipée d'un nombre important d'objets connectés. Et tous ses capteurs vont récupérer des informations envoyées dans un module de traitement, qui doit prendre la décision pour réagir. Ces objets connectés ont un système d'exploitation et doivent être mis à jour, gérés. Le centre de traitement ne peut pas être trop éloigné de l'objet connecté. Nous parlons donc aussi de l'edge computing, qui apporterait une proximité à l'objet connecté en termes de communication, et qui serait capable de rejoindre très rapidement, et avec les bons débits, l'objet connecté. D'où l'importance de la 5G.

Ensuite, construire de la technologie et de l'edge computing nécessite de construire une infrastructure qui pourrait être la plus homogène possible. La virtualisation joue un rôle très important. Chez VMware, nous avons travaillé sur les deux volets : celui de la partie IoT, avec une solution, Pulse, qui permet de gérer ces objets connectés et d'appliquer les bonnes mises à jour.

Que pensez-vous du Cloud Act, et en opposition, quel est votre avis sur l'idée de Bruno Le Maire de bâtir un cloud européen souverain ?

C'est un débat porté à différentes échelles : politique, industrielle et commerciale. VMware est une multinationale qui répond aux lois des pays où elle exerce. Notre rôle est d'aider les entreprises à construire leur solution cloud. Nous n'avons pas de préférence particulière. Nous apportons aux clients la capacité d'innovation. Ensuite, dire que l'on va construire une technologie cloud souveraine européenne devient une décision stratégique. Une TPE/PME, qui va devoir consommer du service cloud parce que son métier n'est pas de faire de l'informatique, va devoir supporter le coût du cloud. Elle aura aussi à supporter la régulation : celle de savoir où placer ses données et dans quel cloud, par rapport aux différences entre les réglementations par exemple.

Concernant le Cloud Act, nous ne nous prononçons pas pour ou contre, ce n'est pas notre rôle. Notre rôle, c'est d'aider les organisations, car répondre à toutes les régulations extraterritoriales est devenu un vrai challenge.

Merci d'avoir répondu à nos questions sur la virtualisation et le cloud. Bonne chance pour la suite.

Merci, à vous également.

Alexandre Boero
Par Alexandre Boero
Journaliste-reporter, responsable de l'actu

Journaliste, responsable de l'actualité de Clubic. En soutien direct du rédacteur en chef, je suis aussi le reporter et le vidéaste de la bande. Journaliste de formation, j'ai fait mes gammes à l'EJCAM, école reconnue par la profession, où j'ai bouclé mon Master avec une mention « Bien » et un mémoire sur les médias en poche.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
TNZ

Ils sont bien gentils chez vmware, mais la virtualisation ne règle pas le problème de fond. Les utilisateurs sont des gros gougnafiers qui ne savent gérer leur parc informatique correctement.
Avec du vmware partout, on a l’impression que c’est plus propre, mais c’est faux et cela ne coupe pas les pattes à la fuite en avant des clients. Pour faire un parallèle automobile, ce genre de client (pour pas dire quasi tous) sont ce genre de conducteurs qui ne savent plus conduire dès lors qu’on leur change la couleur du volant.

kellog89

Pas compris, c’est quoi le « problème de fond » et la « fuite en avant » dont tu parles?
Ne vois aucune animosité. Ça m’intéresse de comprendre.

mrassol

C’est pour ca qu’il existe des sysadmin et des netadmin … C’est nous les pilotes de ces outils, l’utilisateur lui, a juste a se mettre aux places arrières et a profiter.

drozdi

Les révolutions Carbone du numérique n’existent pas, il ne faut pas vendre du rêve avec ce titre. Prenez la courbe d’évolution du Carbone et cherchez « la révolution numérique » numérique dedans et une moindre baisse, il n’y en a pas. On virtualise plus donc il y a aura plus de serveurs virtuels qu’il y en aurait eu de physiques, on ne fait qu’augmenter en sortie donc il n’y aura rien sur le Carbone. Ça a toujours été comme ça et ça le restera. Faire plus avec moins, ça reste faire plus.

backbone

Clairement. On rationalise effectivement au niveau des infrastructures, on consomme donc de façon plus rationnelle (les machines qui consomment peu coûtent donc moins, à tous points de vue), et la densité fait tout de même que l’on est plus efficient au niveau énergétique et refroidissement (AMHA).

Dit le mec qui sort de formation vSAN :wink:

Cygace

toi tu as rien compris je pense …

TNZ

Pas de soucis, je vais tenter de clarifier tout ça.

Le problème de fond est que les clients (grosses entreprises) ont plein de logiciels pour exécuter leur processus métier. Afin d’avoir une ligne de production fiable, ils ont leur logiciels présents en plusieurs exemplaires (instances) : production, préproduction, homologation, recette, intégration, formation, développement … etc. Suivant l’architecture de ces logiciels, cela peut aller d’un serveur à plusieurs dizaines de serveurs par instance de l’application. Là, on a une photo instantanée de ce que le client utilise.

Maintenant, on introduit la notion de temps qui amène avec elle les évolutions fonctionnelles, l’obsolescence matérielle et logicielle … et les opérations de migration adhoc. Tout ça est piloté par des responsables très souvent fonctionnels ayant une culture informatique proche du zéro absolu (cliché de l’utilisateur windows de base).
Résultat des courses, les vieux environnements sont conservés au delà du raisonnable. Au lieu de libérer des ressources, ils les gardent et obligent, de par ce comportement piloté par les angoisses, les services informatiques à acquérir des plateformes vmware supplémentaires au lieu de les renouveler. Ici, on touche du doigt le « problème de fond » c’est à dire que les migrations ne sont jamais emmenées jusqu’au bout. Les responsables de projet mettent en place les évolutions et s’arrêtent là. Ils ne font pas le « ménage » sous prétexte que « ça pourrait servir un jour » ou que « ce n’est pas leur problème ».

Après plusieurs itérations de ce type, je te laisse imaginer la cour des miracles que devient le parc de serveurs global de l’entreprise. Ce que j’appelle la « fuite en avant » est la collectionnite morbide pilotée par des incompétents notoires.

Avant VMWare, on avait plein de serveurs physiques dans les salles machines. L’ajout / suppression / renouvellement de serveurs prenaient plus de temps qu’avec des VM. Du coup, les projets étaient obligés à être plus propre dans leur approche de migration … et le décommissionnement était un passage obligé parce que les « restes de migration » étaient moins discrets qu’avec des VM.
Il faut quand même garder à l’esprit que VMWare a été utilisé à la base à cause des piètres capacités des Windows à pouvoir multi-instancier des applications et/ou à gérer proprement le partage de ressources système entre plusieurs applications (au final, on avait un serveur Windows par instance d’application).

TNZ

En théorie, tu as raison.
En pratique, on te colle un impératif business et c’est à toi de t’aligner sur les « caprices » de « ménagère de moins de 50 ans ».

TNZ

Ben, tu penses mal …

stefane

C’est toujours le cas, on a toujours 1 serveur virtuel = 1 appli dans 90% des cas