Virtualisation

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 3

1/Présentation

La virtualisation est un logiciel qui permet de virtualiser sur une machine un ou plusieurs ordinateurs
sur une seul machine

2/Historique

La virtualisation remonte aux années 1960. A l’époque, c’est la firme IBM qui créé le premier système
de virtualisation de serveur. Dans ce contexte, l’informatique est peu présente et les rares sociétés
qui possèdent des systèmes informatiques sont équipées de gros calculateurs, les Mainframe.

Déjà à cette époque, les soucis d’optimisation des ressources matérielles d’une machine se posent.
En effet, les supers calculateurs sont parfois sous utilisés. IBM développe alors un produit VM/CMS
(Virtual Machine / Conversational Monitor System), un système de virtualisation serveurs.

Au cours des années 80-90 apparaît l’architecture x86 et les PC se déploie auprès d’un grand nombre
d’utilisateurs. Le besoin de virtualiser pour optimiser les machines se fait moins sentir. Mais, dans les
années 90-2000, VMware réussi à virtualiser un poste x86. Ceci ouvre la porte à plus de possibilité et
relance l’envie pour les sociétés informatiques de développer de nouvelles fonctionnalités pour
optimiser et offrir plus de flexibilité.

A l’heure actuelle, la virtualisation est très connue. On entend parler de virtualisation de serveur, de
Virtualbox, de baremetal, mais aussi de virtualisation de poste de travail, de VDI, et de virtualisation
dans les jeux-vidéos avec les émulateurs.

3/Avantages et Inconvenients

Avantages :

 utilisation optimale des ressources d'un parc de machines (répartition des machines virtuelles
sur les machines physiques en fonction des charges respectives),
 installation, déploiement et migration facile des machines virtuelles d'une machine physique
à une autre, notamment dans le contexte d'une mise en production à partir d'un
environnement de qualification ou de pré-production, livraison facilitée,
 économie sur le matériel par mutualisation (consommation électrique, entretien physique,
surveillance, support, compatibilité matérielle, etc.)
 installation, tests, développements, cassage et possibilité de recommencer sans casser le
système d'exploitation hôte
 sécurisation et/ou isolation d'un réseau (cassage des systèmes d'exploitation virtuels, mais
pas des systèmes d'exploitation hôtes qui sont invisibles pour l'attaquant, tests
d'architectures applicatives et réseau)
 isolation des différents utilisateurs simultanés d'une même machine (utilisation de type site
central)
 allocation dynamique de la puissance de calcul en fonction des besoins de chaque
application à un instant donné,
 diminution des risques liés au dimensionnement des serveurs lors de la définition de
l'architecture d'une application, l'ajout de puissance (nouveau serveur etc) étant alors
transparent.
Inconvenients :

 L'accès aux ressources des serveurs hôtes via la HAL (couche d'abstraction matérielle) nuit
aux performances, et l'exécution de n'importe quel logiciel "virtualisé" consommera
davantage de ressources qu'en mode natif.
 En cas de panne d'un serveur hôte, l'ensemble des machines virtuelles hébergées sur celui-
ci seront impactées. Mais la virtualisation est souvent mise en œuvre avec des redondances,
qu'elle facilite.

4/Type de virtualisation

Type isolateur :

Un isolateur est un logiciel permettant d'isoler l'exécution des applications dans ce qui est appelé
des contextes, ou bien zones d'exécution. L'isolateur permet ainsi de faire tourner plusieurs fois
la même application dans un mode multi-instance (plusieurs instances d’exécution) même si elle
n’était pas conçue pour ça. Cette solution est très performante, du fait du peu d'overhead (temps
passé par un système à ne rien faire d'autre que se gérer), mais les environnements virtualisés
ne sont pas complètement isolés. La performance est donc au rendez-vous, cependant on ne
peut pas vraiment parler de virtualisation de systèmes d’exploitation. Uniquement liés aux
systèmes Linux, les isolateurs sont en fait composés de plusieurs éléments et peuvent prendre
plusieurs formes.

Type Noyau en mode utilisateur :

Un noyau en espace utilisateur (user-space) tourne comme une application en espace utilisateur
de l'OS hôte. Le noyau user-space a donc son propre espace utilisateur dans lequel il contrôle
ses applications. Cette solution est très peu performante, car deux noyaux sont empilés et
l’isolation des environnements n’est pas gérée et l’indépendance par rapport au système hôte est
inexistante. Elle sert surtout au développement du noyau.

Type Hyperviseur de type 1 :

Un hyperviseur de type 1 est comme un noyau système très léger et optimisé pour gérer les
accès des noyaux d'OS invités à l'architecture matérielle sous-jacente. Si les OS invités
fonctionnent en ayant conscience d'être virtualisés et sont optimisés pour ce fait, on parle alors
de para-virtualisation (méthode indispensable sur Hyper-V de Microsoft et qui augmente les
performances sur ESX de VMware par exemple). Actuellement l’hyperviseur est la méthode de
virtualisation d'infrastructure la plus performante mais elle a pour inconvénient d’être
contraignante et onéreuse, bien que permettant plus de flexibilité dans le cas de la virtualisation
d'un centre de traitement de données.
Type Hyperviseur de type 2 :

Un hyperviseur de type 28 est un logiciel (généralement assez lourd) qui tourne sur l'OS hôte. Ce
logiciel permet de lancer un ou plusieurs OS invités. La machine virtualise ou/et émule le matériel
pour les OS invités, ces derniers croient dialoguer directement avec ledit matériel. Cette solution
est très comparable à un émulateur, et parfois même confondue. Cependant l’unité centrale de
calcul, c'est-à-dire le microprocesseur, la mémoire système (RAM) ainsi que la mémoire de
stockage (via un fichier) sont directement accessibles aux machines virtuelles, alors que sur un
émulateur l’unité centrale est simulée, les performances en sont donc considérablement réduites
par rapport à la virtualisation.
Cette solution isole bien les OS invités, mais elle a un coût en performance. Ce coût peut être
très élevé si le processeur doit être émulé, comme cela est le cas dans l’émulation. En échange
cette solution permet de faire cohabiter plusieurs OS hétérogènes sur une même machine grâce
à
Une isolation complète. Les échanges entre les machines se font via les canaux standards de
communication entre systèmes d’exploitation (TCP/IP et autres protocoles réseau), un tampon
d’échange permet d’émuler des cartes réseaux virtuelles sur une seule carte réseau réelle.

Vous aimerez peut-être aussi