La virtualisation

Les ressources processeurs, mémoires et réseaux des serveurs physiques de l’infrastructure virtuelle sont agrégées dans le même ensemble nommé cluster pour être partagées entre les machines virtuelles. On dispose alors de mécanismes de répartitions de charge et de tolérances aux pannes dynamiques garantissant une haute disponibilité des services délivrés. La flexibilité dans la gestion des ressources attribuées aux machines virtuelles assure l’évolutivité et la scalabilité du système d’information. Les principaux acteurs de la virtualisation sont VMWare, Microsoft avec leur produit Hyper V et Xen pour les environnements Linux.

Les principes de la virtualisation :

    En exécutant de nombreuses machines virtuelles sur un même serveur physique et en centralisant les tâches d’administration, la virtualisation a pour objectif de :

  • rationaliser les parcs serveurs,
  • diminuer les coûts d’exploitation.

L’organisation des datacenters avant la virtualisation :

Avant que la virtualisation ne soit utilisée en entreprise, chaque nouveau projet métier bénéficiait généralement de ses propres serveurs physiques afin de ne pas impacter la production existante. Le nombre de serveurs physiques et les coûts de maintenance associés augmentaient donc en fonction de la réalisation des projets métiers. C’est ainsi que le patrimoine informatique des entreprises s’est constitué au fil des années de façon plus ou moins maîtrisé…

La virtualisation et les serveurs :

Comme la virtualisation permet de créer des machines virtuelles à la demande, de nouvelles perspectives pour la gestion du parc serveurs des datacenters apparaissent. Au niveau du parc existant, on peut ainsi rationaliser un certain nombre de serveurs physiques en les migrant vers cette plateforme. Même si le principe de sandbox assure l’isolation des systèmes virtuels entre eux, il est conseillé pour les services critiques d’avoir des systèmes dissociés physiquement des autres services métiers.

    Les services non exigeant en ressources peuvent être migrés vers une architecture virtuelle comme :

  • les serveurs d’impression,
  • les serveurs de fichiers,
  • les plateformes de développement et d’intégration…

La virtualisation et les postes de travail :

Sur un simple poste de travail, il est aussi possible d’exécuter plusieurs systèmes d’exploitation en parallèle. Il faut vérifier au préalable que l’on dispose de suffisamment de ressources matérielles.

    Il peut être intéressant de faire des images virtuelles pour :

  • réaliser des maquettes techniques,
  • tester des environnements de développement,
  • convertir des anciens postes de travail en images virtuelles,
  • utiliser des versions de logicielles métiers différentes dans des systèmes distincts…

Les problématiques de la virtualisation :

  • Le dimensionnement de l’infrastructure virtuelle doit être réalisée suivant le nombre de serveurs virtuels déployé, les contraintes de haute disponibilité supportées et les ressources matérielles consommées.
  • L’accès aux données doit se faire via un réseau de stockage performant de type SAN garantissant la concurrence des accès à un volume partagé à l’ensemble des serveurs virtuels hôtes.
  • Un système virtuel sera par définition moins performant qu’un système natif de part la couche d’abstraction logique contrôlée par le système hôte virtuel.

Conclusion :

Depuis l’apparition du premier processeur dual-core lançé par Intel en 2006, la multiplication du nombre de cœurs des processeurs n’a cessé de progresser pour arriver aujourd’hui à des processeurs destinés aux serveurs intégrant jusqu’à 10 cœurs par processeur, soit 40 cœurs et 80 threads par serveurs quadri-processeurs (pour plus d’informations, voici un lien vers la fiche technique du processeur Intel Xeon E7-4870). Compte tenu du besoin constant en ressources informatiques, de la volonté des directions informatiques de maîtriser les coûts d’exploitation et du développement du cloud computing, les solutions de virtualisation vont continuer leur essor.