VMware : « La virtualisation ? En première ligne pour réduire l’empreinte carbone » (Interview)

29 octobre 2019 à 17h35
10


La société de virtualisation des serveurs, sur le marché depuis 1998, a évolué au fil des années, et se distingue aujourd'hui du cloud, qui offre des garanties moindres. Ghaleb Zekri, architecte sécurité chez VMware, a accordé une interview à Clubic pour en parler.

Connue historiquement pour sa solution de virtualisation des serveurs et pour permettre d'héberger plusieurs charges applicatives VM (machines virtuelles) dans un data center, la société américaine VMware a évolué avec le temps. Aujourd'hui, sa stratégie est de délivrer une infrastructure qui permet aux entreprises et aux utilisateurs de faire tourner toute application, sous n'importe quelle forme, sur n'importe quel type de cloud, en utilisant n'importe quel terminal.

Pour en savoir plus sur la façon dont virtualisation et cloud peuvent aujourd'hui cohabiter, nous avons rencontré Ghaleb Zekri, architecte sécurité chez VMware, lors des Assises de la sécurité 2019 à Monaco, le 10 octobre.

VMware_logo.jpg

La virtualisation offre une agilité dont les entreprises veulent profiter

Clubic : Est-ce qu'aujourd'hui, la virtualisation permet de réaliser une économie d'énergie, outre une économie d'argent ?

Ghaleb Zekri : Absolument. En fait, l'économie d'énergie, c'est le vecteur principal qui a amené la virtualisation chez les entreprises. Lorsqu'on devient une entreprise éco-responsable, on s'attaque essentiellement à l'impact énergétique. La virtualisation est en première ligne des solutions qui permettent de réduire l'empreinte carbone. La réduction de coûts est une conséquence directe à cette réduction d'empreinte carbone puisqu'en gros, j'achète moins de serveurs, j'ai la possibilité de construire un data center qui héberge plus de ressources, ce qui est mieux que d'en construire trois ou quatre. Très vite, les entreprises ont tiré profit de cette virtualisation, qui apporte une certaine agilité. La modernisation, la transformation digitale passe essentiellement par cette capacité à maintenir une agilité de l'infrastructure. Dans la stratégie de VMware, c'est ce que l'on appelle le software-defined, dont vous allez beaucoup entendre parler. Nous faisons en sorte que le data center soit carrément software-defined, de façon à ce que l'entreprise, aujourd'hui, n'a rien à envier à du AWS ou à du Azure pour construire une infrastructure aussi agile que le cloud. Cela représente une optimisation de coûts conséquente par rapport à une approche classique.


Rappelons aussi qu'en cas de panne de serveur, les applications et données de l'utilisateur, de l'entreprise, ne sont pas affectées...

Exactement, et c'est aussi dans la stratégie de sécuriser ce que l'on appelle le data protection : il y a une notion de résilience persistante pour que la data soit disponible pour les applications, et une intégrité et confidentialité. Nous avons beaucoup travaillé sur la protection de la donnée et sur le fait que la donnée stockée sur la partie storage ne soit pas impactée par un serveur. L'un des points importants : c'est la confidentialité. La virtualisation apporte cette couche d'abstraction entre l'application et le matériel. Nous profitons de cette couche pour ajouter du chiffrement sur ce que l'on appelle le data at rest (quand la donnée réside sur le disque lui-même, et le chiffrement quand on transfère la donnée d'un endroit à un autre). Lorsque la donnée bouge d'un serveur à un autre, ce flux est chiffré, et la personne qui intercepterait ce flux ne sera pas capable d'extraire la donnée. C'est important pour donner confiance aux entreprises.

« Avec le cloud, il y a cette problématique de ne jamais être totalement propriétaire des données qu'on y héberge »



Quel est le premier argument que vous évoquez, que ce soit pour un utilisateur lambda ou pour un professionnel, pour le convaincre d'adopter la virtualisation, à l'heure où beaucoup se tournent vers des solutions cloud tels AWS, Google Cloud, Azure ou Alibaba ?

Le premier argument d'importance, c'est la rapidité avec laquelle la virtualisation va leur permettre de mettre en place des applications, de les exécuter, de les manager, de les connecter, de les interconnecter et de les sécuriser. Si nous faisons ça dans un monde purement physique, cela prendrait des jours, des mois, en étant tributaire sur un plan sécuritaire de ce que l'on a construit sur le réseau physique, que l'on ne change pas tous les jours. Avec la virtualisation, on crée cette couche d'abstraction par rapport aux ressources physiques. Elles deviennent des ressources de traitement ou de transfert de l'information. L'intelligence est construite de façon software dans la couche de virtualisation. C'est exactement ce que font AWS, Google ou Microsoft quand ils proposent des services cloud : on ne sait pas sur quoi atterrit notre application, on sait tout simplement qu'elle fonctionne et qu'elle est interconnectée.

Ghaleb Zekri (VMware)
Ghaleb Zekri (© Alexandre Boero pour Clubic)

Le cloud est extraordinaire. Les entreprises le consomment parce qu'il facilite et donne satisfaction. L'application n'est pas hébergée au sein de son infrastructure. On la loue. Mais les contrats peuvent changer, la data n'est pas chez soi, donc il y a cette problématique de ne jamais être totalement propriétaire des données que l'on héberge dans le cloud.


« Les objets connectés, qui représentent une masse conséquente d'appareils, posent une problématique de traitement de la donnée »


Comment peut-on s'imaginer la sécurisation d'une plateforme de virtualisation ? :

Nous transformons la façon avec laquelle nous délivrons la sécurité. La sécurité doit être intrinsèque par rapport à l'infrastructure. Le meilleur endroit qui se positionne entre les ressources physiques et les applications posées au-dessus, c'est la couche de virtualisation. Nous ne sommes pas dans la machine virtuelle, au risque de désactiver les mécanismes de sécurité si elle est compromise, et nous ne sommes pas trop loin dans l'infrastructure physique, au risque que si l'application bouge d'un environnement à un autre, on perde le contexte de sécurité. La couche de virtualisation apporte donc ce que l'on appelle la zone habitable pour intégrer la sécurité.

Les législations nationales peuvent compliquer les activités des acteurs de la virtualisation et du cloud

Un mot de l'IoT, qui se développe rapidement, et de la 5G, qui commence à être commercialisée un peu partout dans le monde. Comment peut-on raccrocher la virtualisation à ces deux mondes ?

L'un des vecteurs qui va permettre à l'IoT de se généraliser et de générer le boom vécu sur d'autres technologies, c'est bien la 5G. La 5G va être la locomotive qui va permettre aux domaines d'exploitation de l'IoT de se développer à grande vitesse. Cela implique un certain nombre de technologies. Les objets connectés, qui représentent une masse conséquente d'appareils, posent une problématique de traitement de la donnée.

« Répondre à toutes les régulations extraterritoriales est devenu un vrai challenge »


Par exemple, beaucoup se posent la question de la voiture autonome. Celle-ci est équipée d'un nombre important d'objets connectés. Et tous ses capteurs vont récupérer des informations envoyées dans un module de traitement, qui doit prendre la décision pour réagir. Ces objets connectés ont un système d'exploitation et doivent être mis à jour, gérés. Le centre de traitement ne peut pas être trop éloigné de l'objet connecté. Nous parlons donc aussi de l'edge computing, qui apporterait une proximité à l'objet connecté en termes de communication, et qui serait capable de rejoindre très rapidement, et avec les bons débits, l'objet connecté. D'où l'importance de la 5G.

Ensuite, construire de la technologie et de l'edge computing nécessite de construire une infrastructure qui pourrait être la plus homogène possible. La virtualisation joue un rôle très important. Chez VMware, nous avons travaillé sur les deux volets : celui de la partie IoT, avec une solution, Pulse, qui permet de gérer ces objets connectés et d'appliquer les bonnes mises à jour.

Que pensez-vous du Cloud Act, et en opposition, quel est votre avis sur l'idée de Bruno Le Maire de bâtir un cloud européen souverain ?

C'est un débat porté à différentes échelles : politique, industrielle et commerciale. VMware est une multinationale qui répond aux lois des pays où elle exerce. Notre rôle est d'aider les entreprises à construire leur solution cloud. Nous n'avons pas de préférence particulière. Nous apportons aux clients la capacité d'innovation. Ensuite, dire que l'on va construire une technologie cloud souveraine européenne devient une décision stratégique. Une TPE/PME, qui va devoir consommer du service cloud parce que son métier n'est pas de faire de l'informatique, va devoir supporter le coût du cloud. Elle aura aussi à supporter la régulation : celle de savoir où placer ses données et dans quel cloud, par rapport aux différences entre les réglementations par exemple.

Concernant le Cloud Act, nous ne nous prononçons pas pour ou contre, ce n'est pas notre rôle. Notre rôle, c'est d'aider les organisations, car répondre à toutes les régulations extraterritoriales est devenu un vrai challenge.

Merci d'avoir répondu à nos questions sur la virtualisation et le cloud. Bonne chance pour la suite.

Merci, à vous également.

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
10
8
TNZ
Ils sont bien gentils chez vmware, mais la virtualisation ne règle pas le problème de fond. Les utilisateurs sont des gros gougnafiers qui ne savent gérer leur parc informatique correctement.<br /> Avec du vmware partout, on a l’impression que c’est plus propre, mais c’est faux et cela ne coupe pas les pattes à la fuite en avant des clients. Pour faire un parallèle automobile, ce genre de client (pour pas dire quasi tous) sont ce genre de conducteurs qui ne savent plus conduire dès lors qu’on leur change la couleur du volant.
kellog89
Pas compris, c’est quoi le « problème de fond » et la « fuite en avant » dont tu parles?<br /> Ne vois aucune animosité. Ça m’intéresse de comprendre.
mrassol
C’est pour ca qu’il existe des sysadmin et des netadmin … C’est nous les pilotes de ces outils, l’utilisateur lui, a juste a se mettre aux places arrières et a profiter.
drozdi
Les révolutions Carbone du numérique n’existent pas, il ne faut pas vendre du rêve avec ce titre. Prenez la courbe d’évolution du Carbone et cherchez « la révolution numérique » numérique dedans et une moindre baisse, il n’y en a pas. On virtualise plus donc il y a aura plus de serveurs virtuels qu’il y en aurait eu de physiques, on ne fait qu’augmenter en sortie donc il n’y aura rien sur le Carbone. Ça a toujours été comme ça et ça le restera. Faire plus avec moins, ça reste faire plus.
backbone
Clairement. On rationalise effectivement au niveau des infrastructures, on consomme donc de façon plus rationnelle (les machines qui consomment peu coûtent donc moins, à tous points de vue), et la densité fait tout de même que l’on est plus efficient au niveau énergétique et refroidissement (AMHA).<br /> Dit le mec qui sort de formation vSAN
Cygace
toi tu as rien compris je pense …
TNZ
Pas de soucis, je vais tenter de clarifier tout ça.<br /> Le problème de fond est que les clients (grosses entreprises) ont plein de logiciels pour exécuter leur processus métier. Afin d’avoir une ligne de production fiable, ils ont leur logiciels présents en plusieurs exemplaires (instances) : production, préproduction, homologation, recette, intégration, formation, développement … etc. Suivant l’architecture de ces logiciels, cela peut aller d’un serveur à plusieurs dizaines de serveurs par instance de l’application. Là, on a une photo instantanée de ce que le client utilise.<br /> Maintenant, on introduit la notion de temps qui amène avec elle les évolutions fonctionnelles, l’obsolescence matérielle et logicielle … et les opérations de migration adhoc. Tout ça est piloté par des responsables très souvent fonctionnels ayant une culture informatique proche du zéro absolu (cliché de l’utilisateur windows de base).<br /> Résultat des courses, les vieux environnements sont conservés au delà du raisonnable. Au lieu de libérer des ressources, ils les gardent et obligent, de par ce comportement piloté par les angoisses, les services informatiques à acquérir des plateformes vmware supplémentaires au lieu de les renouveler. Ici, on touche du doigt le « problème de fond » c’est à dire que les migrations ne sont jamais emmenées jusqu’au bout. Les responsables de projet mettent en place les évolutions et s’arrêtent là. Ils ne font pas le « ménage » sous prétexte que « ça pourrait servir un jour » ou que « ce n’est pas leur problème ».<br /> Après plusieurs itérations de ce type, je te laisse imaginer la cour des miracles que devient le parc de serveurs global de l’entreprise. Ce que j’appelle la « fuite en avant » est la collectionnite morbide pilotée par des incompétents notoires.<br /> Avant VMWare, on avait plein de serveurs physiques dans les salles machines. L’ajout / suppression / renouvellement de serveurs prenaient plus de temps qu’avec des VM. Du coup, les projets étaient obligés à être plus propre dans leur approche de migration … et le décommissionnement était un passage obligé parce que les « restes de migration » étaient moins discrets qu’avec des VM.<br /> Il faut quand même garder à l’esprit que VMWare a été utilisé à la base à cause des piètres capacités des Windows à pouvoir multi-instancier des applications et/ou à gérer proprement le partage de ressources système entre plusieurs applications (au final, on avait un serveur Windows par instance d’application).
TNZ
En théorie, tu as raison.<br /> En pratique, on te colle un impératif business et c’est à toi de t’aligner sur les « caprices » de « ménagère de moins de 50 ans ».
TNZ
Ben, tu penses mal …
stefane
C’est toujours le cas, on a toujours 1 serveur virtuel = 1 appli dans 90% des cas
kellog89
Belle analyse. Pour le décommissionnement, tu as raison. Certains managers sont frileux, et ne prennent pas le risque bien que, dans la plupart des cas, il suffit de faire un p2v et de stocker l’image de la VM sur un stockage bon marché. Mais je peux comprendre la frilosité. Certaines applis historiques ne sont pas ou peu documentées et le reverse engineering pas forcément possible ou trop coûteux donc difficilement « migrables ». Après, il y a les éditeurs (d’applications) qui ne « supportent » que telle ou telle version d’OS, de BD, voire d’hyperviseur, « Ça fonctionne mais ce n’est pas supporté », donc on multiplie les instances, ne trouvant pas de dénominateur commun. Et on a un parc hétéroclite, qui coûte cher à gérer, à patcher…<br /> Autre point : les « Migrations ». Parfois des projets qui peuvent durer plusieurs années. Souvent imposées par les éditeurs, non pas pour des raisons fonctionnelles (il y a toujours un petit + par ci, par là, pour « vendre » le produit) mais pour des raisons financières. Business is money. De plus les « évolutions » (parfois rétrogradations) fonctionnelles ne sont pas, la plupart du temps, demandées par les clients mais imposées par l’éditeur.<br /> L’application X ne sera plus compatible avec l’OS Y mais Z minimum, qui nécessitera des licences (serveurs, peut-être aussi clients), une augmentation des besoins physiques (même virtualisés), de stockage, de redondance, SPF…<br /> Vastes sujets
TNZ
Effectivement, ces sujets sont bien vastes.<br /> Au fond, l’élément commun à toutes les histoires de migration partielles et de décomissionnement inexistants est le manque de maîtrise de l’outil informatique. Non pas que les gars derrière les claviers soient des billes (et c’est souvent le contraire) mais que les demandes formulées sont faites par des personnes ayant une culture informatique proche de pas beaucoup.<br /> Ce n’est pas tant qu’ils n’ont pas les capacités de faire les choses proprement, mais ils ont des directives de pilotage de projet orientés rentabilité … et « passer le balai » pour faire propre, à leur yeux, ça coûte à court terme. Le long terme, une fois les choses bien gangrénées, coûte encore plus cher à nettoyer, mais bon, ils ne seront plus là pour y faire. C’est un « cadeau » qu’ils laissent sous le tapis pour le suivant.<br /> VMWare aura beau expliquer en long, en large et en travers que les VM c’est bien pour tout le monde y compris la planète, le vrai problème à traiter est le manque de professionnalisme chronique dans la gestion des environnements applicatifs.<br /> Pour ma part, afin de mieux exploiter les capacités de traitements des serveurs physiques actuels (ce que j’appelle le rendement applicatif), je suis partisan d’alléger les couches logicielles en transformant les plateformes ESX en serveur Docker / Kubernetes.
Voir tous les messages sur le forum

Actualités du moment

Bon plan VPN : les promotions CyberGhost et ZenMate spéciales Halloween !
Transition énergétique : Total ambitionne une capacité de production d'électricité bas carbone de 25 GW
Le Solar Roof de Tesla, moins coûteux qu’un toit neuf avec panneaux solaires
La montre connectée Mi Watch de Xiaomi est une copie conforme de l'Apple Watch
Huawei Mate 30 Pro : il pourrait finalement sortir en France dès le 15 novembre
Forfait mobile Free : dernier jour pour profiter de 60Go à 9,99€ par mois
La rumeur se confirme : les jeux EA seront bientôt disponibles sur Steam
Souveraineté numérique : la France et l'Allemagne posent les bases d'une infrastructure commune
En pleine guerre commerciale avec les États-Unis, Huawei signe un partenariat avec la Russie
Haut de page