"Virtualisation : les étapes essentielles", une tribune de Trevor Dearing

31 mars 2009 à 14h45
0
02004278-photo-trevor-dearing.jpg
Pour toute une génération dont l'évolution professionnelle s'est faite sous les auspices du mainframe, le concept de virtualisation n'a rien de nouveau. L'approche consistant à maximiser les ressources sur une plateforme unique au moyen de machines virtuelles a fait ses preuves. Pendant des années, les aspects économiques de l'informatique personnelle ont favorisé l'adoption d'un modèle réparti.

Peu coûteux, les ordinateurs personnels promettaient de faire disparaître les traitements centralisés, s'il était possible de mobiliser la totalité de ces équipements. La réalité a malheureusement démenti ce bel idéal : ce volume considérable d'informations, réparti de manière totalement incontrôlée au sein d'une entreprise, est devenu un véritable cauchemar pour la sécurité. Parallèlement, le coût de la gestion des applications et des licences pour un tel nombre de postes de travail est devenu prohibitif. C'est pourquoi le développement de la technologie du Web nous a amenés à revenir à un modèle mieux contrôlé et plus centralisé.

Malheureusement, la plupart des fermes de serveurs sont basées sur une technologie traditionnelle de PC : une application est associée à une machine, voire à plusieurs, ce qui conduit à une utilisation superflue d'espace, des ressources et d'énergie. Première démarche efficace pour résoudre ce problème, la technologie « blade » permet la consolidation d'un certain nombre de serveurs isolés dans une armoire moins encombrante et qui consomme également moins d'énergie. Il est ainsi possible de cumuler les réductions de coûts, mais aussi de maîtriser les délais d'extension ou d'actualisation des centres informatiques. À plus long terme, toutefois, de nouvelles techniques de virtualisation permettront à la fois d'optimiser l'exploitation des ressources et de réduire l'encombrement et l'énergie absorbée. À cet effet, ces techniques peuvent s'appuyer sur des serveurs individuels, à base de technologie « blade », ou plus probablement, en adoptant une nouvelle génération de super serveurs.

Toutefois, l'objectif consiste bien, in fine, à mettre en place la virtualisation, bien au-delà d'une simple consolidation.

La virtualisation apporte la capacité à déployer, déplacer ou cloner une application d'une plateforme à une autre au sein d'un réseau, y compris en cours d'exploitation. Les migrations d'applications en cours d'exploitation, avec cette réactivité et à cette échelle, exigent des niveaux inédits de performances, de fiabilité et de standardisation des réseaux. Ce qui explique pourquoi la planification soigneuse des architectures réseau constitue une étape initiale d'une démarche de virtualisation véritablement créatrice de valeur.

Fort heureusement, les besoins en matière de virtualisation évoluent, et se placent dans la droite ligne des extensions naturelles des capacités que les fournisseurs de solutions de mise en réseau développent depuis de nombreuses années. Toutefois, les actions de virtualisation à grande échelle doivent maîtriser précisément leurs réseaux très en amont du processus de planification, pour s'assurer qu'ils disposent des capacités suivantes :

Agrégation de liens et châssis virtuel -L'agrégation de liens, ou « trunking », permet de rassembler un ensemble de liens pour disposer d'une bande passante plus importante et d'une disponibilité plus élevée. Utilisée de longue date comme méthode de construction de réseaux dorsaux Ethernet internes à moindre coût, l'agrégation de liens constitue une alternative attractive au changement de matériel lorsqu'un réseau exige de la bande passante pour répondre à de nouveaux besoins.

Malheureusement, l'agrégation de liens basée sur la norme IEEE 802.3ad ne peut fonctionner que si les ports appartiennent à un même commutateur, une restriction qui complique considérablement la topographie des réseaux et introduit retards de mise en œuvre, complexité et risques. Les nouvelles techniques de virtualisation de réseau, comme par exemple l'approche du châssis virtuel, permettent l'agrégation de liens entre deux commutateurs, même implantés dans des lieux différents. Il est donc possible d'obtenir de la bande passante lorsque c'est nécessaire, sans les contraintes d'implantation physique des commutateurs, ce qui constitue un complément idéal à la virtualisation des serveurs.

Commutation centrale à haute densité et bande passante élevée -Au cœur même d'un centre informatique, la virtualisation des serveurs peut accroître la demande en bande passante et en latence réseau. Les performances d'un réseau à bande passante élevée permettent de traiter un trafic intense et structuré en rafales, sans perte de paquets, ce qui évite les retransmissions TCP qui influent sur le temps de latence des applications.

L'architecture est déterminante pour un réseau principal, et des ports 10 gigabits Ethernet haute densité et à bande passante élevée permettent d'éliminer de nombreuses couches de commutation. Hormis dans le cas des très grands réseaux d'entreprise, elle conduit même à supprimer intégralement la couche d'agrégation. La simplification du réseau central permet de réduire le temps de latence, la complexité et les coûts, mais aussi d'améliorer la fiabilité : autant d'éléments déterminants pour la réussite d'une initiative de virtualisation.

La sécurité sans les temps de latence -Les fournisseurs de systèmes de virtualisation ont largement pris en compte les problèmes de sécurité des utilisateurs, qui considèrent, en majorité, que leurs machines virtuelles ne sont pas moins protégées que les machines physiques sur lesquelles leurs applications sont exécutées. Toutefois, la migration en cours d'exploitation de machines virtuelles et des applications qu'elles contiennent crée de nouvelles contreparties pour la sécurité des réseaux. Les pare-feu qui protègent les branches de réseau ou sous-réseaux sensibles peuvent introduire des temps de latence susceptibles de bloquer une application exécutée sur une machine virtuelle, même si ces délais pourraient passer inaperçus sur un serveur physique. Et le risque de défaillance incite à supprimer la protection, avec des risques manifestes.

À ce stade, il n'y a tout simplement pas d'alternative aux enjeux de performances. Plutôt que de s'engager dans un jeu dangereux visant à tenter de pondérer la disponibilité et la sécurité pour différer un achat de matériel, il est préférable de mettre à niveau les systèmes pare-feu stratégiques, en se concentrant sur des critères mesurables de temps de latence et de taux de transfert (débit).

Cohérence de l'environnement d'exploitation du réseau -Les administrateurs système réfléchissent peu aux systèmes d'exploitation de leurs infrastructures réseau. Le sujet est pourtant riche d'enseignements. La plupart des réseaux de centres informatiques possèdent aujourd'hui entre six et dix systèmes d'exploitation de réseau différents, ce qui ajoute à la complexité, aux incohérences et aux délais pour valider de nouvelles fonctionnalités.

L'optimisation des performances d'un réseau pour les environnements virtuels est suffisamment difficile sans y ajouter la difficulté d'utiliser un système d'exploitation différent sur chaque commutateur, routeur, appliance VPN, pare-feu, entre autres. Standardiser un système d'exploitation unique (et non une « famille » de systèmes d'exploitation) pour piloter les équipements réseau permet d'accélérer la réalisation d'un projet, d'obtenir de meilleures performances réseau et d'assurer un fonctionnement plus fiable des applications au sein des environnements virtuels.

Au-delà de la virtualisation

L'approche de la virtualisation justifie amplement la mise à niveau des performances et de la fiabilité des réseaux d'entreprise, sans toutefois se suffire à elle seule. Des réseaux actualisés et optimisés apportent à l'entreprise l'avantage de pouvoir intégrer les technologies les plus récentes, mais également de libérer des capacités importantes pour l'entreprise :

  • rester dans la course, avec des réseaux qui permettent de disposer de services informatiques élémentaires, dotés d'une fiabilité de base, et capables de prendre en charge les utilisateurs métier, de répondre aux obligations définies par les organismes de régulation, et de satisfaire les clients ;
  • dépasser la concurrence, avec des technologies qui permettent d'améliorer la productivité, de réduire les coûts et de contrer vos concurrents en les obligeant à une confrontation permanente pour rester à votre niveau ;
  • renverser le jeu, grâce à des technologies innovantes destinées à créer de nouveaux services capables de redéfinir l'environnement concurrentiel.

La décision de votre entreprise d'adopter la démarche de virtualisation est un signe de sa détermination à adopter une attitude concurrentielle et à remporter la confrontation, en utilisant les technologies les plus évoluées du marché. Cependant, même une approche nouvelle et puissante comme la virtualisation ne peut exercer son effet sans point d'appui. Vous devez prendre en considération avec soin la bande passante, les temps de latence, la sécurité et la cohérence de votre environnement réseau, ce qui vous permettra de franchir les obstacles et de résoudre les retards de réalisation de vos objectifs de virtualisation. Il s'agit, en fin de compte, de créer un réseau capable de prendre en charge ces objectifs, de mieux garantir votre qualité de service et vos engagements de disponibilité et de dépasser les besoins les plus exigeants de l'entreprise de demain.

Trevor Dearing, directeur marketing produit Juniper Networks.
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires

Haut de page

Sur le même sujet