Você está na página 1de 158

Haute Ecole de Gestion de Genve (HEG)

La virtualisation
des systmes
dinformation
Mmoire de Bachelor

Ralis par : Lionel Berger


Directeur de mmoire : Peter Daehne, professeur HES

Genve, le vendredi 28 septembre 2012

Mmoire de Bachelor

La virtualisation des systmes dinformation

Dclaration
Ce mmoire de Bachelor est ralis dans le cadre de lexamen final de la Haute Ecole de
Gestion (HEG) de Genve, en vue de lobtention du titre de Bachelor of Science HES-SO en
informatique de gestion. Ltudiant accepte, le cas chant, la clause de confidentialit.
L'utilisation des conclusions et recommandations formules dans le travail de Bachelor, sans
prjuger de leur valeur, n'engage ni la responsabilit de l'auteur, ni celle du conseiller au
travail de Bachelor, du jur et de la HEG.
Jatteste avoir ralis seul le prsent travail, sans avoir utilis dautres sources que celles
cites dans la bibliographie.

Fait Genve, le vendredi 28 septembre 2012

Dclaration

Lionel Berger

2
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Remerciements
En premier lieu, je souhaiterais remercier ma compagne, Arielle Moro, qui ma soutenu
inconditionnellement durant les huit semaines que jai consacres ce mmoire de
Bachelor. Son aide a t fort prcieuse, tant sur le plan moral quau niveau de lappui quelle
na pas hsit me confrer pour laborer ce document.
Jadresse galement de vifs remerciements M. Peter Daehne, professeur la Haute cole
de Gestion de Genve, qui a cru en ce projet et qui a dcid de lencadrer. Sa disponibilit
sans gale et ses conseils particulirement prcieux mont t dun grand soutien.
Je souhaite, par ailleurs, remercier mes collgues la Clinique Gnrale-Beaulieu, MM.
Jean-Marc Barone, Cyril Ackermann et Jacques Grillet, pour les conseils quils ont pu me
promulguer et pour avoir toujours fait preuve de comprhension lorsque jai eu consacrer
du temps ce mmoire.
Mes remerciements sadressent aussi M. Paul Santamaria, de Dell Genve, qui a eu la
gentillesse de consacrer une partie de son temps rpondre mes questions.

Remerciements

Enfin, je tiens galement remercier ma famille et mes amis auprs desquels jai t moins
prsent durant cette priode et qui cependant nont pas hsit mapporter leur appui.

3
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Rsum
En 1999, VMware dmocratisait la virtualisation des environnements x86 avec la sortie de
son premier produit, WMware Workstation. Deux ans plus tard, la mme socit entrait sur
le march des serveurs. Lengouement pour cette technologie ne faiblira ds lors plus,
rvolutionnant linfrastructure du centre de donnes. Aujourdhui, la virtualisation est au cur
dune rflexion dores et dj engage par les professionnels de linformatique, portant sur
les modles potentiels darchitecture du systme dinformation au 21e sicle.
Ce mmoire de Bachelor est destin en premier lieu aux administrateurs systmes et aux
directeurs des systmes dinformation qui, conscients des enjeux auxquels ils seront
prochainement confronts, dsirent approfondir leur connaissances en matires de
virtualisation. Ces derniers trouveront au sein de ce document, qui sinscrit dans une
approche gnraliste de la virtualisation, les bases ncessaires leurs rflexions ultrieures.
Lhistorique de la virtualisation est aborde de manire concise, et ce, dans lunique but de
conforter le lecteur quant au fait que cette technologie nest pas rcente au point dtre
immature.
Aprs un bref tat des lieux des principales spcificits dun environnement virtuel, nous
dressons la liste des principaux bnfices offerts par la virtualisation. Nous voquons ensuite
les diffrentes techniques de virtualisation et leur mise en uvre au sein dun certain nombre
dapplications commerciales.

Rsum

Enfin, nous dcrivons les diffrents domaines au sein desquels la virtualisation peut tre
mise en place, avant de faire rfrence un certain nombre de critres et de bonnes
pratiques auxquels il convient dtre attentif lors de la construction dune infrastructure
virtualise. Le document sachve sur des considrations relatives la scurisation de
lenvironnement, sa rcupration en cas de sinistre et sa prennisation.

4
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Table des matires

Introduction .................................................................................................................................... 12
1.1

Concept en quelques mots .................................................................................................... 13

1.2

Historique de la virtualisation................................................................................................. 13

1.2.1

lorigine, la virtualisation des mainframes .................................................................. 14

1.2.2

Ncessit dune virtualisation x86 ................................................................................. 15

1.2.3

VMware ........................................................................................................................ 16

1.3

Candidats la virtualisation................................................................................................... 17

1.4

Feuille de route ...................................................................................................................... 18

Spcificits dun environnement virtualis .................................................................................... 20


2.1

volution du modle de centre de donnes .......................................................................... 20

2.2

Machines virtuelles ................................................................................................................ 20

2.3

Provisioning instantan ......................................................................................................... 21

2.4

Regroupement des ressources en clusters ........................................................................... 21

2.5

Qualit de service (QoS) ....................................................................................................... 21

Bnfices de la virtualisation ......................................................................................................... 22


3.1

Rduction des cots CAPEX/OPEX ...................................................................................... 23

3.1.1

Diminution du nombre de serveurs................................................................................ 24

3.1.2

Diminution du matriel rseau ....................................................................................... 25

3.1.3

Rduction de la consommation lectrique .................................................................... 25

3.1.4

Diminution des besoins en climatisation ....................................................................... 27

3.1.5

Diminution de la consommation despace ..................................................................... 27

3.1.6

Agrgation des charges dinactivit ............................................................................... 27

3.1.7

Optimisation de la restauration ...................................................................................... 27

3.1.8

Optimisation de la sauvegarde ...................................................................................... 29

3.1.9

Amlioration de la scurit ............................................................................................ 30

3.2

Simplification du dploiement ................................................................................................ 30

3.3

Simplification de ladministration ........................................................................................... 31

3.4

Optimisation de la gestion de lobsolescence matrielle ....................................................... 32

3.5

Amlioration de la gestion du changement ........................................................................... 33

3.6

Optimisation de lvolution des capacits physiques ............................................................ 33

3.7

Amlioration de lquilibre des charges (load balancing) ...................................................... 34

3.8

Simplification des tests de logiciels ....................................................................................... 36

Fondamentaux technologiques de la virtualisation ....................................................................... 37


4.1

Notions lmentaires ............................................................................................................. 38

4.1.1

Composants et principes de fonctionnement dun ordinateur ....................................... 38

4.1.2

Systme dexploitation ................................................................................................... 52

Table des matires

5
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

4.1.3

Application ..................................................................................................................... 52

4.2

La gense de la virtualisation ................................................................................................ 52

4.2.1

Ide originelle ................................................................................................................ 52

4.2.2

Exigences lies la virtualisation (Popek et Goldberg, 1974) ...................................... 54

4.2.3

Trap-and-emulation ....................................................................................................... 57

4.2.4

Performance dans la pratique ....................................................................................... 57

4.2.5

Virtualiser larchitecture x86 .......................................................................................... 58

4.3

Techniques de virtualisation .................................................................................................. 59

4.3.1

Virtualisation logicielle ................................................................................................... 59

4.3.2

Virtualisation au niveau noyau....................................................................................... 66

4.3.3

Assistance matrielle ..................................................................................................... 66

4.4

Mise en uvre ....................................................................................................................... 75

4.4.1

Virtualisation des systmes dexploitation ..................................................................... 75

4.4.2

Virtualisation des processus ( noyau partag) ............................................................ 79

Domaines dapplication ................................................................................................................. 81


5.1

Serveurs ................................................................................................................................ 81

5.2

Stations de travail .................................................................................................................. 82

5.2.1

Concept ......................................................................................................................... 82

5.2.2

Avantages ...................................................................................................................... 83

5.2.3

Solutions ........................................................................................................................ 85

5.3

Applications ........................................................................................................................... 85

5.3.1

Concept ......................................................................................................................... 85

5.3.2

Avantages ...................................................................................................................... 86

5.3.3

Solutions ........................................................................................................................ 87

5.4

5.4.1

Concepts ........................................................................................................................ 88

5.4.2

Architecture symtrique ................................................................................................. 89

5.4.3

Architecture asymtrique ............................................................................................... 90

5.4.4

Thin Provisioning ........................................................................................................... 91

5.4.5

Fonctionnalits avances .............................................................................................. 93

5.5

Stockage ................................................................................................................................ 87

Rseau .................................................................................................................................. 95

5.5.1

VLAN ............................................................................................................................. 96

5.5.2

Commutateur ................................................................................................................. 97

5.5.3

Autres lments du rseau ............................................................................................ 98

Construction de linfrastructure virtuelle ...................................................................................... 101


6.1

Planification ......................................................................................................................... 102

6.1.1

Capacits ncessaires ................................................................................................ 102

6.1.2

Dimensionnement des serveurs .................................................................................. 105

Table des matires

La virtualisation des systmes dinformation

6
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

6.1.3

Dimensionnement du stockage ................................................................................... 117

6.1.4

Choix du rseau de stockage ...................................................................................... 126

6.1.5

Paramtres de performances ...................................................................................... 133

6.2
7

La virtualisation des systmes dinformation

Choix des fournisseurs ........................................................................................................ 136

Gestion de linfrastructure virtuelle .............................................................................................. 137


7.1

Scurisation ......................................................................................................................... 137

7.1.1

Rplication ................................................................................................................... 140

7.1.2

Protocole de rplication ............................................................................................... 141

7.1.3

Protection continue ...................................................................................................... 141

7.1.4

Dduplication ............................................................................................................... 142

7.1.5

Snapshot ...................................................................................................................... 143

7.2

Postproduction ..................................................................................................................... 144

7.2.1

Prservation dune infrastructure fonctionnelle ........................................................... 144

7.2.2

Rcupration aprs catastrophe ................................................................................. 145

7.2.3

Planification budgtaire ............................................................................................... 146

7.2.4

Perspectives ................................................................................................................ 147

Conclusion ................................................................................................................................... 150

Glossaire...................................................................................................................................... 151
Bibliographie ............................................................................................................................ 154

Table des matires

10

7
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 3-1 : volution de la consommation lectrique au sein des centres de donnes aux USA
(Source : tude de Jonathan G. Koomey, Stanford University, aot 2011
http://www.analyticspress.com/datacenters.html) ......................................................................... 26
TM
Figure 3-2 : VMware vCenter Converter (Source : www.vmware.com) ............................................. 28
TM
Figure 3-3 : Console d'administration de la plateforme VMware vSphere ......................................... 31
Figure 3-4 : Migration d'un serveur obsolescent vers un nouveau serveur (Source : Virtualisation des

systmes d'information avec VMware de P. Gillet) ..................................................................... 33


Figure 3-5 : Charge des serveurs, scnario 1 (Source : Virtualisation en pratique de Kenneth Hess et
Amy Newman) ............................................................................................................................... 34
Figure 3-6 : Charge des serveurs, scnario 2 (Source : Virtualisation en pratique de Kenneth Hess et
Amy Newman) ............................................................................................................................... 35
Figure 3-7 : Charge des serveurs, scnario 3 (Source : Virtualisation en pratique de Kenneth Hess et
Amy Newman) ............................................................................................................................... 35
Figure 3-8 : Charge des serveurs, scnario optimal (Source : Virtualisation en pratique de Kenneth
Hess et Amy Newman) .................................................................................................................. 36
Figure 4-1 : Pagination (Source : fr.wikipedia.org/wiki/Mmoire_virtuelle) ........................................... 44
Figure 4-2 : Table des pages (Source : fr.wikipedia.org/wiki/Mmoire_virtuelle) .................................. 45
Figure 4-3 : Anneaux de protection (Source : fr.wikipedia.org/wiki/Anneau_de_protection) ................ 48
Figure 4-4 : Systme de base microprocesseur (Source : Accs direct en mmoire de R. Beuchat)49
Figure 4-5 : Principe des signaux de requte et quittance d'interruption (Source : Accs direct en
mmoire de R. Beuchat) ................................................................................................................ 50
Figure 4-6 : Schma de principe de liaison dun contrleur DMA avec un microprocesseur et une
interface programmable (Source : Accs direct en mmoire de R. Beuchat) ............................... 51
Figure 4-7 : Couches dune machine physique (Source : Virtualization de Steve Gribble) .................. 53
Figure 4-8 : Couches et interfaces avec VMM (Source : Virtualization de Steve Gribble) ................... 53
Figure 4-9 : Traitement d'une instruction sensible (Source : Concept de machine virtuelle d'Alain
Sandoz) ......................................................................................................................................... 57
Figure 4-10 : Virtualisation totale correspondant une mise en uvre de type virtualisation
hberge (Source : Les diffrents types de virtualisation : La virtualisation totale par Antoine
Benkemoun - http://www.antoinebenkemoun.fr/2009/07/les-differents-types-de-virtualisation-lavirtualisation-totale) ....................................................................................................................... 60
Figure 4-11 : Anneaux de protection avec ou sans virtualisation (Source : Les anneaux de protection
systme par Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/les-anneaux-deprotection) ...................................................................................................................................... 60
Figure 4-12 : Virtualisation laide de la technique de la traduction binaire, du point du vue des
anneaux de protection (Source : La virtualisation des serveurs x86 par John Marcou - http://rootlab.fr/2011/06/04/la-virtualisation-de-serveurs-x86) ...................................................................... 61
Figure 4-13 : Mutualisation de lanneau 3 sur architecture 64 bits (Source : Les anneaux de protection
systme dans le cas du 64-bit par Antoine Benkemoun http://www.antoinebenkemoun.fr/2009/08/les-anneaux-de-protection-systeme-dans-le-cas-du-64bit) .................................................................................................................................................. 61
Figure 4-14 : Ajout dun anneau supplmentaire, destin lhyperviseur (Source : Les anneaux de
protection systme dans le cas du 64-bit par Antoine Benkemoun http://www.antoinebenkemoun.fr/2009/08/les-anneaux-de-protection-systeme-dans-le-cas-du-64bit) .................................................................................................................................................. 62
Figure 4-15 : Virtualisation complte avec traduction binaire (Source : Questions actuelles
dinformatique, La virtualisation de Franois Santy et Gatan Podevijn) ...................................... 62

Liste des figures

Liste des figures

8
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Liste des figures

Figure 4-16 : Virtualisation laide de la paravirtualisation, du point de vue des anneaux de protection
(Source : La virtualisation de serveurs x86 par John Marcou - http://root-lab.fr/2011/06/04/lavirtualisation-de-serveurs-x86) ...................................................................................................... 64
Figure 4-17 : Paravirtualisation base sur lexistence dun hyperviseur (Source : La paravirtualisation
par Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/la-paravirtualisation) ......... 65
Figure 4-18 : Technologie VMX et anneaux de protection (Source : La paravirtualisation par Antoine
Benkemoun - http://www.antoinebenkemoun.fr/2009/08/la-paravirtualisation) ............................. 67
Figure 4-19 : Partage bas sur lusage de logiciel (Source : PCI-SIG SR-IOV Primer, An Introduction
to SR-IOV Technology de lIntel LAN Access Division) .............................................................. 70
Figure 4-20 : Affectation direct (Source : PCI-SIG SR-IOV Primer, an Introduction to SR-IOV
Technology de Intel LAN Access Division) ................................................................................. 72
Figure 4-21 : Comparaison de lunit de gestion de la mmoire des entres/sorties (IOMMU) et de
lunit de gestion de la mmoire (MMU) (Source : en.wikipedia.org/wiki/IOMMU) ....................... 73
Figure 4-22 : Association des VF avec leur espace de configuration (Source : PCI-SIG SR-IOV Primer,
An Introduction to SR-IOV Technology de Intel LAN Access Division) ...................................... 75
Figure 4-23 : Hyperviseur bare metal (Source : fr.wikipedia.org/wiki/Hyperviseur) .............................. 76
Figure 4-24 : Hyperviseur de type 2 (Source : fr.wikipedia.org/wiki/Hyperviseur) ................................ 77
TM
Figure 5-1 : Interactions avec un poste de travail virtuel (Source : VMware View , fiche produit) ..... 82
TM
Figure 5-2 : Client zro Dell Wyse P20 (Source : http://www.wyse.com/products/cloud-clients/zeroclients/P20) .................................................................................................................................... 83
Figure 5-3 : Principe de virtualisation dapplications (Source : http://pro.01net.com/editorial/324015/lavirtualisation-dapplications) ........................................................................................................... 86
Figure 5-4 : Symtrique ou In-Band (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot) ........... 90
Figure 5-5 : Asymtrique ou Out-Band (Source : Bonnes pratiques, planification et dimensionnement
des infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot) .... 91
Figure 5-6 : Thin Provisionning (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot) ........... 92
Figure 5-7 : Regroupement des blocs dans un centre de donnes (Source : www.vmware.com) ....... 93
Figure 5-8 : Virtualisation des fonctionnalits dun adaptateur Fibre Channel (Source :
http://www.emulex.com/solutions/data-center-virtualization/lightpulse-virtual-hba-technology.html)
..................................................................................................................................................... 100
Figure 6-1 : Principe de fonctionnement du balloon driver (Source :
http://wattmil.dyndns.org/vmware/19-gestionmemoiresousesx4?start=2) .................................. 112
Figure 6-2 : Comparaison entre compression mmoire et swapping (Source :
http://www.vmware.com/files/pdf/techpaper/vsp_41_perf_memory_mgmt.pdf) ......................... 113
Figure 6-3 : Principe de fonctionnement du Transparent Page Sharing (Source :
http://wattmil.dyndns.org/vmware/19-gestionmemoiresousesx4?start=1) .................................. 114
Figure 6-4 : Exemple de configuration actif/passif (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel de
Cdric Georgeot) ......................................................................................................................... 119
Figure 6-5 : Attachement direct au stockage avec mise en uvre de linterconnexion de ports
(Source : Bonnes pratiques, planification et dimensionnement des infrastructures de stockage et
de serveur en environnement virtuel de Cdric Georgeot) ......................................................... 120
Figure 6-6 : Topologie base sur deux commutateurs FC (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel de
Cdric Georgeot) ......................................................................................................................... 120

9
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Liste des tableaux

Liste des tableaux

Tableau 3-1 : Comparaison de cots de machines physiques et virtuelles (1) ..................................... 25


Tableau 3-2 : Comparaison de cots de machines physiques et virtuelles (2)..................................... 25
Tableau 4-1 : Hirarchie des mmoires (Source : Systmes dexploitation Gestion de la mmoire de
Pilot Systems 2007 par Gal Le Mignot) ....................................................................................... 40
Tableau 5-1 : Bonnes pratiques, en termes de pourcentage de la capacit par niveau et de type de
disques dans un rseau de stockage (Source : Paul Santamaria, Storage Solution Architect chez

DELL ) ........................................................................................................................................... 94
Tableau 6-1 : Bonnes pratiques quant au nombre de VM par cur pouvant tre dployes en fonction
de lutilisation du processeur (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot) ......... 107
Tableau 6-2 : Capacit mmoire disponible, ainsi que consommation moyenne et lors des pics
(Source : inspir de Bonnes pratiques, planification et dimensionnement des infrastructures de
stockage et de serveur en environnement virtuel de Cdric Georgeot) ...................................... 110
TM
Tableau 6-3 : Nombre de cartes ncessaire pour Hyper-V (Source : Bonnes pratiques, planification
et dimensionnement des infrastructures de stockage et de serveur en environnement virtuel par
Cdric Georgeot). ........................................................................................................................ 115
TM
Tableau 6-4 : Nombre de cartes ncessaire pour vSphere (Source : Bonnes pratiques, planification
et dimensionnement des infrastructures de stockage et de serveur en environnement virtuel par
Cdric Georgeot). ........................................................................................................................ 115
Tableau 6-5 - Performances des diffrentes topologies en fonction des types d'accs. (Source :
Bonnes pratiques, planification et dimensionnement des infrastructures de stockage et de
serveur en environnement virtuel par Cdric Georgeot) ............................................................. 129

10
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Guide de lecture
Afin que ce mmoire de Bachelor puisse tre lu en tout aisance, nous vous invitons
prendre bonne note des indications suivantes :

Guide de lecture

Les mots en gras savrent particulirement importants et sont mis en vidence par
ce biais ;
Les guillemets ne sont pas utiliss pour mettre en relief des citations (ce document
nen contient pas) mais ont plutt vocation souligner un usage particulier dun terme
ou dune expression. Toutefois, les noms des articles qui sont cits dans le corps du
texte sont entre guillemets ;
Certains mots ou expressions sont mis en italique pour souligner leur appartenance
une langue trangre. Toutefois les solutions ou technologies, rfrences au sein
de ce document, qui sont commercialises par des diteurs ou autres fabricants sous
des appellations anglaises, ne sont pas mis en italique. Les noms des ouvrages cits
dans le corps du texte sont, quant eux, en italique. Quant aux articles cits dans le
corps du texte, dont le nom est en anglais, ils sont uniquement mis entre guillemets ;
Les mots en bleu sont dfinis dans le glossaire la fin du document.

11
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

1 Introduction
Le prsent document sadresse aux professionnels de linformatique, tels que les
administrateurs systmes, mais galement aux membres de la Direction des Systmes
dInformation (DSI), seuls habilits se prononcer sur les budgets relatifs linfrastructure
informatique.
Ce document vise combler les connaissances lacunaires en matire de virtualisation des
systmes dinformation dont pourraient faire preuve ces acteurs prpondrants. Il vise les
aider comprendre limpact de la virtualisation de linfrastructure informatique dont ils ont la
charge. Pour ladministrateur systmes, il sagit plus prcisment de la diminution des
ressources dvolues la maintenance, au profit de lefficacit et de linnovation. Pour la DSI,
il convient doptimiser les moyens financiers, de rorienter les ressources humaines et de
prserver la plante en diminuant la consommation nergtique.
Les DSI se trouvent en effet confronts au dilemme consistant devoir fournir chaque anne
plus de services avec des budgets se rduisant dautant. Linformatique dentreprise se doit
dtre suffisamment flexible et ractive pour tre mme de pouvoir rpondre avec efficacit
aux exigences des mtiers qui sont la source des revenus de lentreprise.
La quantit de donnes gnres crot par ailleurs sans cesse, alors que les contraintes
lgales, sagissant des plans de continuit dactivit et de protection des donnes viennent
alourdir la charge de travail des quipes informatiques. De nombreux centres de donnes
(Datacenters) se voient affects par un manque chronique de place dbouchant sur de
nouvelles difficults lorsque des machines supplmentaires sont exiges par les mtiers qui
font face de nouveaux besoins. Lnergie constitue lheure actuelle un autre sujet de
proccupation, les entreprises ne pouvant parfois pas obtenir de nouvelles augmentations de
puissance lectrique ou ne le dsirant pas pour des raisons cologiques.

Le prsent document fait donc office de guide destin la prise de dcision lie ladoption
dune telle technologie. Il ne sagit pas dun manuel technique sy rapportant, le degr de
granularit y relatif tant limit la comprhension gnrale des concepts abords.
Au sein du chapitre 1, nous aborderons rapidement lhistorique de la virtualisation,
sagissant tout dabord des travaux dIBM lis la mise au point dune solution offrant des
capacits optimales de temps partag. Cette dmarche aboutira finalement llaboration du
concept de virtualisation.

Chapitre n1 : Introduction

Dans ce contexte, nous comprenons que les mthodes habituelles en vigueur aujourdhui au
sein des services informatiques doivent voluer et quune transformation du systme
dinformation est ds lors ncessaire. La virtualisation des serveurs est souvent prsente
comme tant la solution permettant de mettre en uvre un socle technique efficace pour
accompagner les besoins du mtier cits prcdemment, et ce, tout en rduisant les cots,
aussi bien au niveau de lacquisition de dispositifs quau niveau nergtique. Cette
technologie, associe la virtualisation des rseaux et du stockage, permet de disposer dun
datacenter virtuel de nouvelle gnration.

12
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Cet historique na pas pour vocation dtre absolument exhaustif. Les travaux dIBM sont
abords car essentiels la gestation du concept. Nous traiterons ensuite de larchitecture
x86 et du portage de la technologie sur cette plateforme, et ce, parce que cette
architecture occupe une place prpondrante dans le modle dinfrastructure informatique
que nous connaissons aujourdhui.
Enfin, nous pensons quvoquer les dispositifs candidats la virtualisation fait office de
passage oblig dans une introduction. Nous jugeons en effet que le lecteur doit savoir
demble si la lecture dun tel document correspond ses attentes.
Une feuille de route clturera finalement cette introduction, en offrant au lecteur une vue
densemble du contenu disponible dans ce document, par souci de clart et au vu dviter
toute perte de temps inutile au lecteur.

1.1 Concept en quelques mots


En informatique, la virtualisation consiste crer une version virtuelle dun dispositif ou dune
ressource, comme un systme dexploitation, un serveur, un dispositif de stockage ou une
ressource rseau. Nous pouvons donc considrer la virtualisation comme labstraction
physique des ressources informatiques. En dautres termes, les ressources physiques
alloues une machine virtuelle sont abstraites partir de leurs quivalents physiques.
Chaque dispositif virtuel, quil sagisse dun disque, dune interface rseau, dun rseau local,
dun commutateur, dun processeur ou de mmoire vive, correspond une ressource
physique sur un systme informatique physique. Les machines virtuelles hberges par
lordinateur hte sont donc perues par ce dernier comme des applications auxquelles il est
ncessaire de ddier ou distribuer ses ressources.
Il existe de nombreux domaines dapplication la virtualisation, sagissant gnralement de
la virtualisation de serveur, de poste de travail, dapplication, de stockage et du rseau.

Lordinateur hte dispose bien videmment de suffisamment de ressources matrielles pour


garantir ses invits une puissance de calcul optimale et un espace disque adquat. Un
systme hte se compose gnralement de plusieurs processeurs multi-curs, de plusieurs
giga-octets (Go) de RAM (Random Access Memory), de plusieurs traoctets (To) despace
disque ou dun accs un stockage en rseau (NAS), voire un rseau de stockage (SAN).

1.2 Historique de la virtualisation


La virtualisation voit conceptuellement le jour dans les annes soixante avec pour but le
partitionnement de la vaste gamme de mainframes alors disponibles, au vu doptimiser

Chapitre n1 : Introduction

Lorsque nous voquons la virtualisation, il est gnralement fait rfrence la virtualisation


des serveurs, et ce, pour des raisons historiques. Il sagit en effet du premier domaine
dapplication avoir t touch par cette technologie. La virtualisation des serveurs consiste
allouer, laide dun logiciel ad hoc, une partie du matriel composant un serveur
chacune des machines virtuelles que nous souhaitons y voir hberges simultanment.
Chaque machine virtuelle est un environnement virtuel cohrent pilot par un systme
dexploitation et fonctionnant indpendamment des autres machines.

13
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

lutilisation de ces derniers. Les mainframes taient en effet confronts des problmes de
rigidit et de sous-utilisation. De nos jours, les ordinateurs bass sur larchitecture x86 font
face au mme paradigme.

1.2.1 lorigine, la virtualisation des mainframes


La virtualisation nest pas un concept particulirement rcent puisque sa premire
implmentation a t mise en uvre pour la premire fois il y a plus de 40 ans par IBM. Il
sagissait alors de partitionner logiquement les mainframes prcdemment voqus, en
plusieurs machines virtuelles distinctes, rendant possible un traitement multitche 1. Ces
systmes reprsentaient lpoque de coteuses ressources. Il tait ds lors impratif
dutiliser ce partitionnement pour tirer pleinement parti de linvestissement matriel ralis.
IBM cherchait en effet lpoque maintenir sa domination sur linformatique scientifique
alors que des projets tels que le Project MAC ou le Compatible Time-Sharing System, axs
sur le temps partag (time-sharing), taient mens par le MIT et suscitaient normment
denthousiasme. Lnorme projet li au System/360 2 avait alors eu pour consquence
dloigner IBM des notions de temps partag.
La socit prendra finalement conscience de son retard en la matire, en grande partie
grce la dception exprime alors par la communaut au sujet du fait que le System/360
navait jamais t pens comme un environnement temps partag. Cest alors que le
Cambridge Scientific Center (CSC) dIBM, li au MIT et initialement dvolu au soutien du
Projet MAC, fut mis contribution, sous lgide de Robert Creasy, dans le but de rehausser
la crdibilit dIBM ce niveau en dveloppant un systme dexploitation adquat pour le
System/360.
Parmi les systmes proposs, lIBM System/360-67 offrait des fonctionnalits de temps
partag, tandis que le TSS/360 tait un systme dexploitation mettant pleinement en uvre
ladite notion. Le second na cependant jamais vritablement t commercialis. Lalternative
au System/360-67 existait nanmoins et visait utiliser la virtualisation pour parvenir
atteindre les objectifs en matire de temps partag. Il sagissait du CP/CMS (Control
Program/Console Monitor System ou initialement Cambridge Monitor System).

CP faisait office de programme de contrle (Control Program) en crant lenvironnement


de la machine virtuelle (il sagit donc dun VMM), chaque utilisateur disposant ds lors de la
simulation dun ordinateur de la gamme System/360 autonome, faisant office dordinateur
personnel. La version du CP la plus largement utilise a t la CP-67.

Excution simultane de plusieurs applications et processus.

Le System/360 dIBM tait un ordinateur de la famille des systmes de type mainframe, mis sur le march par

IBM entre 1965 et 1978.

Chapitre n1 : Introduction

Ce dernier, mis au point en 1967, diffrait grandement tant des systmes dexploitation
existant cette poque que des travaux issus des autres grands projets dIBM. Il sagissait
dun systme dont le code source tait libre et auquel tous les clients dIBM avaient
gratuitement accs.

14
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

CMS (Console Monitor System) tait un systme dexploitation mono-utilisateur lger,


conu pour une utilisation interactive partage. Eu gard aux caractristiques prcites, une
grande quantit de copies de ce systme dexploitation pouvaient tre utilises
simultanment sur chaque machine virtuelle de type CP sans prtriter pour autant la
performance de chacune dentre elles.
Le concept de machine virtuelle CP/CMS peut tre considr comme une importante
progression dans la conception de systme dexploitation, et ce, diffrents titres :
En isolant les utilisateurs les uns des autres, CP/CMS a grandement amlior la
fiabilit du systme en question, ainsi que la scurit y relative ;
En simulant un ordinateur autonome pour chaque utilisateur, CP/CMS tait en
mesure de faire fonctionner chaque application prvue pour le System/360 dans un
environnement en temps partag et non uniquement les applications conues
lorigine pour un tel usage ;
En utilisant CMS comme interface utilisateur primaire, CP/CMS parvenait atteindre
des performances sans prcdent en termes denvironnement en temps partag.
De plus, il tait parfaitement possible doffrir plusieurs systmes dexploitation diffrents,
simultanment sur une unique machine.
Les diffrentes versions de CP/CMS ayant vu le jour sont les suivantes :
CP-40/CMS qui permettra dtablir larchitecture de la machine virtuelle de CP/CMS ;
CP-67/CMS, nouvelle implantation du CP-40/CMS prvue pour les IBM System/36067 ;
CP-370/CMS, nouvelle implantation du CP-67/CMS prvue pour lIBM System/370.
Cette version na jamais t commercialise en tant que telle mais servira de base
la mise sur le march du systme dexploitation VM/370 en 1972, le System/370
ayant lpoque t dot de mmoire virtuelle (cf. section 4.1.1.2, Principe de la
mmoire virtuelle).
VM peut donc tre considr comme le premier VMM ou hyperviseur (cf. section 4.4.1.1,
Hyperviseur) jamais cr. Sa version actuelle, z/VM, est largement utilise comme solution
de virtualisation pour le march des mainframes.

1.2.2 Ncessit dune virtualisation x86

Vers 1988, IGC International 4, une socit sise San Jose en Californie, met au point un
systme dexploitation multi-utilisateurs, connu sous le nom de VM/386. Un PC pouvait ainsi
hberger plusieurs stations de travail virtuelles, chacune dentre elles tant capable
dexcuter plusieurs programmes DOS ou Windows simultanment. Le VM/386 peut donc
3

La famille x86 regroupe des microprocesseurs compatibles avec le jeu dinstructions de lIntel 8086. Cette srie

est nomme IA-32 (pour Intel Architecture 32 bits) par Intel pour ses processeurs partir du Pentium.
4
http://www.igcinc.com/company.htm.

Chapitre n1 : Introduction

Durant les annes 1980 et 1990, les architectures x86 3 prennent peu peu la main sur les
mainframes. La technologie de virtualisation est ds lors de moins en moins utilise,
lexception de quelques solutions destines principalement aux ordinateurs personnels.

15
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

tre considr comme le premier VMM capable de crer des machines virtuelles pour un
processeur de la famille x86, sagissant en loccurrence du premier dentre eux, soit le
80386.
la fin des annes 1990, la Stanford University, lquipe de recherche de Mendel
Rosenblum cherche comprendre plus prcisment les spcificits des architectures x86
afin de pouvoir contourner les difficults qui leur sont lies, ces dernires prsentant, malgr
leur succs, de nombreuses limites. Pour se faire, ladite quipe se servait du simulateur de
systme SimOS5 coupl une sonde qui permettait danalyser les appels processeurs, les
appels mmoires et les entres/sorties. Un tel simulateur tant capable de modliser un
systme complet, cette technologie sapparente de trs prs au concept de la virtualisation
et positionne demble lquipe de Mendel Rosenblum en bonne place dans domaine de la
virtualisation.
Lquipe de Mendel Rosenblum parvient finalement mettre au point un procd en 1998,
permettant de transposer aux environnements x86, le concept de virtualisation des serveurs
prcdemment mis au point par IBM (cf. section 1.2.1, lorigine, la virtualisation des
mainframes) qui tait conforme aux critres de Popek et Goldberg (cf. section 4.2.2,
Exigences lies la virtualisation), notamment en ce qui concernait le System/370, puisque
dans son cas, toutes les instructions sensibles taient considres comme privilgies (cf.
section 4.2.2.2, Classification des instructions processeur).
Ce procd consiste, en rsum, en la dcouverte dun moyen de grer un certain nombre
dinstructions processeur critiques susceptibles de causer des plantages du systme. La
famille x86 tant omniprsente sur le march des processeurs, tre capable de virtualiser
cette architecture constituait vritablement une avance capitale.
Mendel Rosenblum, sa compagne Diane Green, Edouard Wang, Edouard Bugnion et Scott
Devine sunissent dailleurs par la suite pour fonder la socit VMware. Cre lanne
mme, cette socit ralisa un coup de force en mettant la virtualisation porte de tous.
Cest en effet partie des annes 2000 que lensemble des acteurs du march finit par
sintresser la virtualisation, soit un an aprs le lancement du premier produit de VMware,
VMware WorkstationTM 1.0. Cette socit est donc indissociable de la virtualisation, en
grande partie pour avoir mis au point une solution optimale de virtualisation des
environnements x86.

1.2.3 VMware

En 2001, les trois premiers prcits et HP rejoignent le programme partenaire de VMware.


La mme anne, le produit aujourdhui phare de lditeur, lhyperviseur ESXTM, voit le jour.

Simulateur de systme dvelopp la Stanford University la fin des annes 1990 au sein du groupe de
recherche de Mendel Rosenblum. Il permettait de simuler une architecture informatique un tel niveau de dtail
que la pile logicielle complte dun systme rel pouvait fonctionner sur ce dernier sans aucune modification.

Chapitre n1 : Introduction

Lentreprise se prsente au march en 1999 avec la sortie de VMware WorkstationTM 1.0


pour LinuxTM et Windows. De gros acteurs simpliquent rapidement dans le projet VMware.
Compaq, IBM, Dell, Intel aident la jeune entreprise sous diffrentes formes.

16
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

La notorit de lentreprise stend et lanne suivante elle compte plus dun million
dutilisateurs.
2003 est un tournant pour VMware avec lextension de son portefeuille de produits et
larrive de vMotionTM, un logiciel qui permet de transfrer les machines virtuelles dune
machine physique une autre. La mme anne, EMC26 achte VMware qui prserve
toutefois une certaine indpendance organisationnelle et une division R&D qui le demeure
galement.
2007 reprsente une tape importante pour lentreprise avec son introduction en bourse.
Cisco7 et Intel8 prennent des parts dans VMware, liens capitalistiques qui renforceront les
partenariats technologiques par la suite.
En 2010, VMware rachte Zimbra9 Yahoo et sengage ainsi rsolument dans le monde
de linformatique en nuage.

1.3 Candidats la virtualisation


Lorsque nous abordons le sujet de la virtualisation, les intresss se demandent souvent ce
qui peut tre virtualis et ce qui ne peut pas ltre. Nous pouvons considrer que tout ce qui
sous-utilise la charge matrielle disponible peut tre virtualis avec succs. Il en va
ainsi, notamment, des serveurs web, des serveurs de messagerie, des diffrents serveurs
rseau (DNS, DHCP, NTP), des serveurs dapplications (Tomcat, etc.), sans oublier les
serveurs de base de donnes. Les serveurs constituent ainsi le cur de linfrastructure
virtuelle mais ne sont pas les uniques dispositifs pouvoir tre virtualiss.
Il nexiste par ailleurs aucune restriction quant aux systmes dexploitation que nous
pourrions utiliser sur les machines invites. Tant les systmes Windows que les LinuxTM,
SolarisTM ou autres font parfaitement laffaire.
Nous prcisons qui si les dispositifs susmentionns font de parfaits candidats, les fondations
de linfrastructure doivent tre sciemment planifies. En effet, les besoins doivent tre
clairement identifis et le primtre tabli avec circonspection. Pour se faire, un audit
prliminaire, tant au plan technique quoprationnel doit tre envisag.

EMC est une entreprise amricaine de logiciels et de systmes de stockage fonde en 1979 Newton
(Massachusetts). Lentreprise est leader mondial du stockage.

7
Cisco est une entreprise informatique amricaine spcialise, lorigine, dans le matriel rseau (routeur et
commutateur Ethernet).

8
Intel Corporation est une entreprise amricaine produisant des microprocesseurs - elle est lorigine du
premier microprocesseur x86 -, des cartes mres, des mmoires flash et des processeurs graphiques
notamment.

9
Zimbra est une solution Open Source pour messagerie et partage de calendrier.

Chapitre n1 : Introduction

Ce dernier nous aidera faire le bon choix en matire de dimensionnement des serveurs et
du stockage, mais galement en termes de rseau de stockage, de paramtres de
performances ou de scurisation des donnes.

17
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Nous aborderons ces diffrents lments en dtails la section 6.1.1, Capacits


ncessaires.

Le prsent document est structur de la manire suivante :


Le chapitre 2, Spcificits dun environnement virtualis, met en vidence de
manire succincte les aspects fondamentaux dune infrastructure virtualise, et ce,
afin que le lecteur puisse se faire une rapide ide de ce quoi il serait confront sil
faisait le choix de la virtualisation ;
Le chapitre 3, Bnfices de la virtualisation, voque les diffrents bnfices qui
peuvent tre obtenus par le biais de la virtualisation de tout ou partie du systme
dinformation. Ces dits bnfices sont grandement lis la virtualisation des serveurs
ou des stations de travail. ce titre, la liste figurant au chapitre 2 en rfrence un
nombre substantiel. Cette dernire nest toutefois pas consacre qu ce domaine
dapplication en particulier ;
Le chapitre 4, Fondamentaux technologiques de la virtualisation, a pour objectif
initial de permettre au lecteur de se rapproprier certaines notions relatives des
lments cls intervenant dans la composition dun ordinateur, ainsi que des
mcanismes ou principes qui rgissent ces derniers. Ainsi, le lecteur disposera de
toutes les bases ncessaires la bonne comprhension des techniques de
virtualisation. Ces dernires seront galement abordes dans ce chapitre, ainsi que
certaines applications commerciales qui en dcoulent ;
Le chapitre 5, Domaines dapplication, constitue une vue densemble des domaines
dune infrastructure physique qui contiennent des priphriques susceptibles dtre
virtualiss, au-del de la virtualisation des serveurs abondamment voques au
cours du chapitre 4 en particulier ;
Le chapitre 6, Construction de linfrastructure virtuelle, est destin
accompagner le lecteur tant dans les choix quil aura faire en termes dachat de
serveurs et dlments de stockage que dans le choix du rseau de stockage quil
devra mettre en place. Il sagit principalement dune succession de bonnes pratiques
et de quelques notions techniques de base, destines avant tout faire en sorte que
le lecteur ne nglige rien dans son valuation de lensemble des lments
ncessaires la construction de linfrastructure virtuelle. Enfin, ces informations,
destines la construction de linfrastructure virtuelle portent principalement sur le
cur de cette dernire, savoir la virtualisation des serveurs et le stockage partag
(les lments propres la virtualisation du stockage ne sont pas abords dans ce
chapitre) ;
Nous terminerons ce document par le chapitre 7, Gestion de linfrastructure
virtuelle, qui met laccent sur certains points essentiels prendre en compte une fois
linfrastructure virtuelle en place. Les grands principes de la scurit des systmes
dinformation sont rappels et mis en relation avec les particularits de ce type
dinfrastructure. Certains mcanismes permettant dassurer la disponibilit de
linfrastructure et lintgrit des donnes y sont dcrits. Certaines notions destines
accompagner le lecteur dans la mise en place dun plan de reprise dactivit qui
tienne compte des particularits propres la virtualisation y sont galement
abordes. Nous y voquerons galement la planification budgtaire relative lusage
de linfrastructure virtuelle et les moyens dvaluer les cots rels des machines

Chapitre n1 : Introduction

1.4 Feuille de route

18
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Chapitre n1 : Introduction

virtuelles. Enfin, certaines perspectives lies lvolution de la virtualisation au sein


des centres de donnes, et leurs impacts sur le systme dinformation sont
voques.

19
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

2 Spcificits dun environnement virtualis


Ce chapitre a t conu pour faire en sorte daider le lecteur prendre conscience des
aspects fondamentaux dune infrastructure virtuelle. Le niveau de dtails choisi pour
mettre en exergue les lments contenus dans ce chapitre est volontairement faible, de telle
sorte que le lecteur puisse bnficier rapidement dune vue densemble. Chacun des
lments figurant dans ce chapitre sera toutefois abord en dtails ultrieurement.
Aprs avoir attir lattention du lecteur sur les candidats la virtualisation, nous voulions
nous assurer que ce dernier puisse demble se faire une ide de linfrastructure quil aurait
grer, une fois prise la dcision dvoluer vers la virtualisation.

2.1 volution du modle de centre de donnes


Le remplacement des serveurs physiques par des instances virtuelles encapsules dans des
fichiers modifie notablement le modle habituel du centre de donnes. Avec la virtualisation,
le modle distribu comprenant un nombre important de petits serveurs physiques fait place
un modle centralis et consolid sur un mme site. Le stockage, puisquil hberge les
machines virtuelles, devient la pice matresse de linfrastructure et doit donc tre
capable de hautes performances et fournir des solutions mme de scuriser les donnes.
Ce changement pousse les entreprises redfinir compltement leurs infrastructures
existantes.

2.2 Machines virtuelles

Dans ce type dinfrastructure, aucun problme de portabilit nest prvoir, une machine
virtuelle tant absolument identique une machine physique. Un administrateur dispose
dune telle granularit de configuration quil lui est permis de fournir une machine virtuelle
les ressources dont elle a besoin de faon trs fine.
Le fait que les machines virtuelles soient totalement isoles les unes des autres (systmes
dexploitation, registre, application et donnes), les immunise dans le cas dune infection
dune dentre elles par un virus. Il en va de mme avec le crash dun systme dexploitation.
Cette protection entre machines virtuelles na jamais t mise en doute ce jour.
Ltat complet dune machine virtuelle est contenu dans des fichiers. Cest ce que nous
entendons par encapsulation. Cette dernire autorise une grande souplesse dutilisation en
simplifiant les sauvegardes, les copies et les plans de reprises dactivit.
Il convient galement de prciser quune machine virtuelle est totalement indpendante de la
machine qui lhberge. Il nexiste ds lors plus aucune contrainte matrielle, facilitant
dautant la migration vers de nouvelles plateformes de virtualisation. Ainsi, lors du
renouvellement du serveur hte de machines virtuelles, il suffit de dplacer la machine

Chapitre n2 : Spcificits dun environnement virtualis

Il va de soi que dans un environnement virtuel, ladministrateur gre des machines virtuelles.
Une machine virtuelle reprsente lensemble de ltat dune machine physique (i.e. le
systme dexploitation, appel systme dexploitation invit, avec les applications et les
donnes).

20
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

virtuelle sur ce dernier, en toute simplicit. Il nest aucunement ncessaire de procder une
nouvelle installation sur le nouveau dispositif.

2.3 Provisioning instantan


Grce la virtualisation, les mthodes habituelles de gestion des serveurs est rvolutionne.
Par provisioning instantan, nous entendons la possibilit de mettre en service un nouveau
serveur facilement, en quelques minutes, alors quil fallait parfois plusieurs semaines pour le
faire en environnement physique.
Lchelle du temps en est durablement modifie, ce qui a pour effet de permettre aux
entreprises de sadapter trs rapidement aux changements et volutions lis aux affaires :
fusion/acquisition, cration de nouveaux services, mise en place de nouveaux projets, etc.
Le service fourni aux utilisateurs est ds lors grandement amlior, les besoins spcifiques
tant rapidement traits.

2.4 Regroupement des ressources en clusters


Les serveurs htes de machines virtuelles peuvent tre regroups dans une entit appele
cluster, autorisant une gestion globale et non unitaire de linfrastructure. Des fonctionnalits
volues de haute disponibilit sont ainsi fournies, au mme titre quune rpartition de la
charge sur lensemble des serveurs du cluster en cas de forte activit. La tche des
administrateurs est simplifie par ce fonctionnement qui, par ailleurs, garantit des niveaux de
services pour les applications.

2.5 Qualit de service (QoS)

Chapitre n2 : Spcificits dun environnement virtualis

La qualit de service peut tre mise en place dans les infrastructures virtuelles, et ce, pour
garantir que chaque machine virtuelle dispose des ressources dont elle a besoin en fonction
de la criticit du service quelle hberge. La QoS peut tre paramtre tant au niveau de la
machine virtuelle elle-mme quau niveau de lhyperviseur ou du cluster.

21
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

3 Bnfices de la virtualisation
Le multi-cur, le 64 bits, tout comme la gestion dune quantit trs importante de mmoire,
sont autant dvolutions dans la technologie des serveurs ces dernires annes. Installer un
seul systme dexploitation sur un serveur qui serait susceptible den supporter plusieurs
dizaines est devenu aujourdhui totalement injustifiable.
La virtualisation savre tre une des technologies la mieux mme de tirer parti des
processeurs multi-curs, puisquelle offre un haut niveau de consolidation, soit la
possibilit dhberger un nombre important de machines invites sur un serveur hte.
Un serveur est actuellement considr comme tant dix douze fois plus puissant en termes
de performances quun de ses homologues dil y a quatre ans. Ds lors, il devient mme
possible denvisager la virtualisation de serveurs hbergeant des applications considres
comme stratgiques, telles quOracle ou SAP, moyennant toutefois quelques
configurations spcifiques.
Les fabricants ont embarqus certaines technologies au niveau du matriel qui permettent
de grer nativement la virtualisation, sagissant notamment de ladaptation des processeurs
(cf. section 4.3.3, Assistance matrielle).
Les baies de stockage sont capables de sinterfacer avec les API (Application Programming
Interface ou interface de programmation) fournies par les constructeurs afin de dcharger le
serveur hte de machines virtuelles de certaines tches lies au stockage.
Certains commutateurs permettent de simplifier la gestion rseau en environnement
virtualis, linstar du Nexus 1000vTM10 de Cisco (cf. section 5.5.2, Commutateur).

Nous avons choisi loption daborder les bnfices octroys par cette technologie avant
dvoquer les aspects techniques y relatifs, la mise en uvre, les domaines dapplication ou
mme la construction dune infrastructure virtuelle.
Nous jugeons en effet indispensable que le lecteur soit convaincu de la pertinence de la
technologie en question avant de poursuivre sur les aspects susmentionns.
Il convient de prciser que les avantages lists dans le prsent chapitre ne constituent pas
une liste exhaustive. Pour des raisons pratiques, certains dentre eux sont explicits au
sein dautres chapitres, afin den conserver la cohrence. Il en va ainsi de certains avantages
lis la virtualisation du stockage ou des applications, abords au chapitre 5.

10

http://www.cisco.com/en/US/products/ps9902/index.html.

Chapitre n3 : Bnfices de la virtualisation

Au vu de ces lments, la virtualisation peut tre considre comme une alternative non
seulement viable mais particulirement pertinente aux architectures classiques en vigueur au
sein de bon nombre de socits lheure actuelle. Le prsent chapitre vise mettre en
exergue les bnfices octroys par cette technologie et leurs impacts sur lentreprise.

22
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

3.1 Rduction des cots CAPEX/OPEX


Quoiquessentiel la bonne marche dune socit, le systme dinformation, ou plus
prcisment linfrastructure y relative, est bien souvent peru comme un centre de cot par
les dirigeants. Ces derniers exigent des responsables informatiques quils garantissent un
certain niveau de service malgr le fait que les demandes voluent constamment la
hausse. Les budgets doivent par contre rester identiques, voire voluer la baisse.
Or, au sein dune infrastructure physique, le taux dutilisation moyen des serveurs dun
centre de donnes est estim moins de 10% pour 80% dentre eux. Quant au centre de
donnes eux-mmes, ils arrivent la limite de leur capacits en matire demprise au sol,
dalimentation et de climatisation.
La raison fondamentale de ce gaspillage rsulte du fait que les socits ont massivement
investi dans des serveurs x86 destins pour chacun dentre eux nhberger quune seule
application, et ce, pour limiter les interruptions au niveau de la production en cas de panne.
Cette prolifration de serveurs physiques augmente trs fortement, pour ne pas dire de
manire astronomique, le cot dexploitation.
Nous estimons dailleurs 70% le temps consacr par les administrateurs systmes des
oprations de support ou de maintenance, ces dernires napportant aucune valeur ajoute
lentreprise.
Les cots indirects, tels que les cots de gestion, dadministration et de consommation
lectrique atteignent des montants minemment suprieurs ceux lis lacquisition des
serveurs eux-mmes, tel point quils peuvent reprsenter jusqu trois fois le cot initial du
matriel composant linfrastructure.

Dans un tel contexte, la virtualisation permet aux responsables informatiques de consentir


la modernisation du systme dinformation de lentreprise, tout en rduisant les cots et en
satisfaisant aux exigences mentionnes plus haut.
Les entreprises distinguent en principe deux types de cots :
CAPEX (Capital Expenditures), sagissant des dpenses lies aux investissements et
immobilisations (i.e. matriel divers, logiciels, etc.) ;
OPEX (Operational Expenditures), sagissant des dpenses lies au fonctionnement
de la socit (i.e. expertise, prestation, conseil, gestion de projets, etc.).
La virtualisation fait rsolument partie des leviers permettant de rduire les cots
CAPEX/OPEX.

Chapitre n3 : Bnfices de la virtualisation

Les entreprises perdent des sommes substantielles en raison du cot lev du maintien en
condition oprationnelle (MCO) de linfrastructure. Une inefficacit oprationnelle est
engendre, pesant sur linnovation et la gestion de nouveaux projets, pourtant capitaux pour
lvolution de la socit.

23
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

3.1.1 Diminution du nombre de serveurs


La virtualisation permet en tout premier lieu dviter davoir acheter du matriel chaque
fois quun nouveau systme doit tre dploy. Cette affirmation se vrifie aisment lorsquil
sagit de mettre en place un nouveau serveur. Il est en effet possible de crer un certain
nombre de machines virtuelles par serveur, le taux de consolidation y relatif dpendant des
ressources qui doivent tre effectivement alloues chacune des machines en question.
En tenant compte du fait que, conformment aux bonnes pratiques, chaque serveur doit tre
ddi une application (afin dviter un arrt complet de la production en cas dintervention
sur la machine concerne par une panne ventuelle), nous pouvons facilement prendre
conscience de lavantage dont il est question. Ceci est dautant plus vrai selon que la socit
concerne fera le choix dun mode de licence adapt au contexte de la virtualisation 11.
Pour sen convaincre, tudions le scnario suivant :
Considrons un serveur rack dot dun processeur double-cur, comportant 2 Go de RAM
et un disque dur dune taille de 80 Go, ce systme valant environ CHF 1'500.-. Partons du
principe que ce serveur est dot dune technologie RAID 12 (Redundant Arrays of Inexpensive
Disks) dont le cot slve plus ou moins CHF 200.- CHF 300.-, le prix de notre serveur
slevant ds lors CHF 1'800.- environ.

11

TM

TM

Il est par exemple possible, en faisant le choix dune licence Windows Server 2008 R2 ou Windows Server
2012, dinstaller autant de machines virtuelles que dsires, la licence ntant ncessaire que pour le hardware
qui est, dans ce cas prcis, lhyperviseur
(http://www.google.ch/url?sa=t&rct=j&q=2008%20r2%20licence%20%2B%20virtualisation&source=web&cd=1&v
ed=0CCUQFjAA&url=http%3A%2F%2Fdownload.microsoft.com%2Fdocuments%2FFrance%2FServeur%2F2011
%2Fwindows-server-2008r2%2FWindows_Server_2008_R2_virtualisation_mode_de_licence.pdf&ei=0AVBUKvnMnP4QT8v4GgCg&usg=AFQjCNGDvhkX8hWT16cxT_G7hdAjgld8zw).
12
Techniques permettant de rpartir des donnes sur plusieurs disques durs afin d'amliorer soit la tolrance aux
pannes, soit la scurit, soit les performances de l'ensemble, ou une rpartition de tout cela.
13
Qui peut tre mont dans un chssis prvu cet effet (un peu la manire des serveurs rack) mais qui est
plus compact quun serveur rack. Il sagit du serveur permettant doccasionner le plus faible encombrement
possible. Les chssis ad hoc fournissent gnralement lalimentation lectrique, le refroidissement, laccs au
rseau, la connectique pour lcran, le clavier et la souris. Plusieurs serveurs lame peuvent ainsi tre mutualiss
dans le mme chssis.

Chapitre n3 : Bnfices de la virtualisation

Considrons ensuite un serveur lame 13 destin la virtualisation, dot de deux processeurs


quadruple-cur, comportant 32 Go de RAM, ainsi que trois disques de 400 Go monts en
RAID 5, pour un prix denviron CHF 14'500.-. Le tableau 3-1 ci-dessous met en exergue tant
la consommation lectrique du serveur en question que la place utilise au sein du rack ou
les interfaces ncessaires.

24
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

Spcification

Cot
Unit de rack
Puissance (watts)
Interfaces rseau

La virtualisation des systmes dinformation

Serveur destin la
virtualisation
(physique)
14'500.- CHF
4U
1570
2*

Serveur (physique)

Serveur virtuel

1'800 CHF
1U
670
2

0 CHF
0
0
0**

Tableau 3-1 : Comparaison de cots de machines physiques et virtuelles (1)


* Minimum pour ce type de serveur
** En utilisant des connexions partages sur la machine hte

Considrons maintenant les mmes donnes mais avec une infrastructure comprenant dix
serveurs :
Spcification

Cot
Unit de rack
Puissance (watts)
Interfaces rseau

Serveur destin la
virtualisation
(physique)
14'500.- CHF
4U
1570
2 + 10*

Serveur (physique)

Serveur virtuel

18'000 CHF
8U
6700
20

0 CHF
0
0
10**

Tableau 3-2 : Comparaison de cots de machines physiques et virtuelles (2)


* Deux pour le serveur hte et une par serveur virtuel
** Les mmes dix interfaces physiques que sur le serveur hte

La rduction du nombre de machines au sein de linfrastructure, rendue possible par la


virtualisation, est donc lorigine dconomies substantielles, comme nous pouvons le
constater dans le tableau 3-2.

3.1.2 Diminution du matriel rseau

De plus, les machines virtuelles peuvent tre configures pour tre prsentes sur la mme
carte rseau ou regroupes au sein dune mme interface, ce qui permet l aussi de
diminuer le nombre de composants rseau.

3.1.3 Rduction de la consommation lectrique


Si la virtualisation permet de diminuer le nombre de machines prsentes au sein de
linfrastructure, elle permet galement de rduire drastiquement la consommation dnergie
lectrique, sagissant probablement de lconomie la plus frappante.
Il est avr quun petit nombre de serveurs physiques consomment plus dnergie quun
unique gros systme (i.e. le serveur hte de machines virtuelles ou VMM), comme illustr au
tableau 3-2 plus haut. La virtualisation rduit de facto le nombre dalimentations, de
processeurs et de disques. Or, une quantit importante de chaleur est gnre et dissipe
par ces lments, tant prcis que la consommation lectrique est troitement lie au

Chapitre n3 : Bnfices de la virtualisation

La virtualisation permet galement de limiter lachat de composants rseau puisque les


machines virtuelles sont capables de communiquer au sein dun mme hte physique, elles
nont nul besoin de dispositifs tels que routeur ou commutateur.

25
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

refroidissement et la circulation dair. En diminuant le nombre des lments prcits, nous


diminuons dautant la puissance ddie au refroidissement les lieux.
La souplesse offerte par la virtualisation du stockage permet daffiner au mieux ses besoins
en capacits de stockage, en agissant ainsi sur la quantit de baies ncessaire. Une
rduction du nombre de baies quivaut galement une diminution de la consommation
lectrique.

Comme nous pouvons le voir dans la figure 3-1, la courbe correspondant la croissance de
la consommation dlectricit (Scnario oprationnel amlior) utilise par les centres de
donnes entre 2000 et 2010 a t inflchie partir de 2006-2007, tant prcis que si cette
consommation a doubl entre 2000 et 2005 (de 30 60 milliards de kWh/an), elle na
progress que de 56% au lieu du double entre 2005 et 2010. Trois facteurs expliquent
cette dcroissance :
La crise conomique avec pour corollaire la rduction des investissements ;
Une meilleure gestion de la consommation lectrique au sein des centres de
donnes ;
Une adoption massive de la virtualisation avec pour consquence une rduction
drastique du nombre de serveurs.
Il convient toutefois de tenir compte du fait que lorsquune machine virtuelle est en fonction,
elle consomme de la mmoire, elle utilise le processeur et le rseau et elle sollicite les
disques, augmentant ds lors la consommation lectrique totale de lhte, cette
consommation tant toutefois sans commune mesure avec celle dune machine physique
indpendante.
Ainsi, lheure o les considrations cologiques font galement parties des priorits, de
telles conomies dnergie savrent tre un argument supplmentaire lorsquil sagit de la
dfense du budget octroy la direction du systme dinformation.

Chapitre n3 : Bnfices de la virtualisation

Figure 3-1 : volution de la consommation lectrique au sein des centres de donnes aux USA (Source :
tude de Jonathan G. Koomey, Stanford University, aot 2011
http://www.analyticspress.com/datacenters.html)

26
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

3.1.4 Diminution des besoins en climatisation


Si le nombre de machines (serveurs comme baies de stockage) prsentes dans le
datacenter est rduit grce la virtualisation, limitant ds lors la consommation lectrique, il
en ira de mme pour les besoins en climatisation, ces derniers tant lis ladite
consommation. De nouvelles conomies dnergie seront de facto gnres.

3.1.5 Diminution de la consommation despace


Les datacenters ne sont pas extensibles linfini et leur entretien reprsentent une somme
substantielle. Les entreprises doivent faire la part des choses entre les locaux dvolus aux
employs et ceux prvus pour linformatique, les premiers au dtriment des seconds.
La virtualisation, en autorisant une rduction du nombre de machines serveurs comme
baies de stockage , permet par consquent une diminution consquente de lespace qui
dordinaire aurait t destin aux serveurs.
Il convient toutefois de tenir compte du fait que la virtualisation augmente la criticit des
serveurs, au sens o ces derniers vont tre concentrs dans un mme lieu, avec pour
corollaire le risque de tout perdre lors dun incident majeur. Cette problmatique sera
voque en dtails dans la section 7.1, Scurisation, relative la scurit.

3.1.6 Agrgation des charges dinactivit

Les oprations de consolidation ont le mrite dviter aux administrateurs systmes de


consacrer un temps considrable la gestion des serveurs, tout en ngligeant la veille
technologique pourtant indispensable la prennisation du systme dinformation. En effet,
crer de nouvelles machines virtuelles bases sur des modles ne ncessite que quelques
clics et limitent drastiquement la manutention. Il nest nul besoin de commander et de
rceptionner du matriel, de le mettre en rack et de procder par la suite au remplacement
de certains composants, de calculer de nouveaux besoins en puissance lectrique ou en
refroidissement.

3.1.7 Optimisation de la restauration


La virtualisation permet de facto de diminuer le temps ncessaire pour la restauration. Par
temps de restauration, nous entendons le temps moyen ncessaire pour faire en sorte quun
systme rendu indisponible par une panne quelconque puisse tre nouveau exploit par
les utilisateurs. Nous faisons habituellement rfrence la notion de RTO dans ce cas (cf.
section 7.1, Scurisation).
La virtualisation rduit considrablement ce temps en faisant bnficier ladministrateur
systmes dinstantans (snapshots) ou de sauvegardes de machine virtuelle complte pour

Chapitre n3 : Bnfices de la virtualisation

La virtualisation offre la possibilit de consolider les serveurs, avec pour consquence une
rduction du nombre des machines physiques, les charges tant combines sur du matriel
plus rcent et par consquent plus fiable. Le nombre de machines virtuelles ncessaires la
gestion de ces charges peut galement tre optimis. En rsum, le matriel est utilis de
manire plus efficace, la consommation dnergie rduite et les services plus simples
grer. Les cots de maintenance peuvent tre rduits dautant puisque le nombre de
machines physiques est moindre.

27
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

procder efficacement la restauration. En effet, une restauration par copie directe de


systme savre nettement plus rapide que linstallation dun nouveau systme qui, de
surcroit, obligera ladministrateur systmes fouiller dans un lot de sauvegardes
incrmentales pour que le systme restaur soit jour.
Cette technologie est particulirement efficace pour peu que les donnes exploites par la
solution prsente sur le serveur ne soient pas stockes sur le mme disque logique que
lenvironnement restaur, sans quoi ces dernires ne seraient plus jour (en particulier si la
sauvegarde de la VM en question date de plusieurs jours). Il convient donc de fournir au
serveur virtuel un emplacement logique supplmentaire sur le SAN qui contiendrait les
donnes et qui pourrait tre exploit sans problme par la machine restaure, une fois cette
dernire oprationnelle.
Il convient galement de prciser quune machine virtuelle peut tre considre comme trs
fiable car elle ne repose sur aucun matriel physique susceptible de tomber en panne. En
consquence, une sauvegarde de machine virtuelle sera toujours un point de restauration
stable et fiable pour le matriel physique sous-jacent.

TM

Figure 3-2 : VMware vCenter Converter


14

Chapitre n3 : Bnfices de la virtualisation

Certains produits, tels que VMware vCenter ConverterTM14, permettent la rcupration de


copies de machines physiques pour une conversion en machines virtuelles (cf. figure 3-2).
Cette mthode, gnralement qualifie de sauvegarde P2V (physique vers virtuelle, cf.
section 6.1.2.6, Conversion P2V), permet ladministrateur systmes de mettre en
production une machine virtuelle en remplacement dun serveur physique dfectueux, et ce,
rapidement, en toute fiabilit, pour un cot insignifiant et en limitant considrablement les
interruptions de services.

(Source : www.vmware.com)

http://www.vmware.com/fr/products/datacenter-virtualization/converter/overview.html.

28
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

3.1.8 Optimisation de la sauvegarde


Les experts considrent gnralement la sauvegarde comme un projet complexe, dpendant
fortement des systmes dexploitation prsents sur les machines, des applications
hberges et de loutil de sauvegarde slectionn. Des licences supplmentaires sont
gnralement vendues aux entreprises par les commerciaux officiant pour le compte des
diteurs. Une fois loutil de sauvegarde choisi, il devient trs difficile dopter pour une autre
solution, lentreprise tant contrainte dacqurir de nouvelles licences ncessaires
lutilisation de certains agents (par exemple pour ExchangeTM, Microsoft SQL ServerTM,
Oracle, SharePointTM, etc.).
Les projets de sauvegarde sont donc de forts consommateurs de ressources financires qui
sont trs difficilement justifiables auprs des dcideurs comme un directeur financier
notamment.
tant donn quun systme dexploitation est peru comme un simple fichier par une
application de virtualisation, sa sauvegarde consistera galement ne traiter quun fichier.
Toute licence supplmentaire, toute contrainte systme ou toute mise jour dagents
deviennent ds lors caduques. Une telle opration se rsume en quelque sorte un copiercoller.
Il convient cependant de tenir compte du fait que si, au sein dune machine virtuelle, les
donnes figurent sur le mme disque virtuel que le systme dexploitation, il est impossible
de les distinguer. Lusage de produits tels que WMware vSphere Data ProtectionTM permet
toutefois de restaurer une image complte ou uniquement un fichier.
VMware vSphere Data Protection T M

VDP nest autre quune appliance virtuelle intgre VMware vSphereTM, lhyperviseur de la
socit ponyme. Cette solution a t spcialement dveloppe pour viter toute perte de
donnes au sein de lenvironnement virtuel, en assurant des sauvegardes rapides sur disque
et en permettant une restauration complte et tout aussi rapide des donnes. VDP sappuie
sur la dduplication (cf. section 7.1.4, Dduplication), le traitement parallle et lutilisation du
mode CBT 16 (Changed Block Tracking ou suivi des blocs modifis).
Le recours un algorithme de dduplication bloc de taille variable (cf. section 7.1.4.2, Bloc
variable) limite considrablement lespace disque ncessaire, limitant ainsi la croissance
continue du volume consacr aux sauvegardes. La dduplication des donnes est
effectues sur lensemble des machines virtuelles associes lappliance virtuelle VDP.

15
16

http://www.vmware.com/solutions/datacenter/business-continuity/data-protection.html.

Mthode mise au point par VMware permettant de faciliter les sauvegardes incrmentales.

Chapitre n3 : Bnfices de la virtualisation

VMware vSphere Data ProtectionTM15 (VDP) est un bon exemple des solutions de
sauvegarde et de restauration de machines virtuelles actuellement disponibles sur le
march. Cest ce titre que nous lvoquons brivement ce stade du document.

29
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

En outre, VDP rduit la charge des htes et la bande passante ncessaire sur le rseau. En
effet, en sintgrant troitement vStorageTM APIs for Data ProtectionTM17 (VADP), VDP
exploite pleinement le mode CBT, en limitant les transmissions sur le rseau aux
modifications effectue durant la journe en cours uniquement. Le processus est totalement
transparent, entirement automatis et peut assurer la sauvegarde de huit machines
virtuelles simultanment. VDP tant hberg dans une appliance virtuelle, les processus de
sauvegarde ne sont plus situs au sein des VM en production.
Les stratgies de sauvegarde peuvent tre dfinies de manire centralise, depuis le client
vSphereTM, soit linterface dadministration de lhyperviseur, sans avoir utiliser une autre
console. En effet, VDP est troitement intgr vCenter ServerTM18.

3.1.9 Amlioration de la scurit


Au sein dune infrastructure virtuelle, la scurit peut tre efficacement renforce, pour peu
quun certain nombre de bonnes pratiques soient respectes. Dans le cas contraire, la
scurit peut rapidement sen trouver compromise. Eu gard limportante de lenjeu y
relatif, nous y avons consacr une section part entire, sagissant de la section 7.1,
Scurisation.

3.2 Simplification du dploiement

En effet les prrogatives des uns ne correspondent que trs rarement celles des autres.
Lutilisateur est soucieux de pouvoir utiliser le logiciel dont il a besoin au plus vite. Le chef de
projet se voit forc de passer par les experts systmes et rseaux pour lintgration. Ces
derniers, dbords, fournissent les spcifications ncessaires concernant lachat du serveur
prvu pour lhbergement de ladite application plusieurs semaines aprs la demande du chef
de projet. Le gestionnaire du centre de donnes souhaite connaitre les caractristiques du
nouveau serveur pour lintgrer au sein de ses locaux. Il prendra galement plusieurs
semaines pour donner son accord, le temps de procder lexamen de lespace disponible
et aux calculs relatifs lalimentation nergtique et la climatisation. Le directeur financier,
quant lui, dcide de faire patienter le fournisseur durant quelques semaines, le temps que
ce dernier rvise ses prix la baisse.
Mme si ce scnario est quelque peu exagr, il rsume parfaitement le processus
dintgration prcdemment voqu.
La virtualisation permet de faciliter grandement ce processus. En premier lieu, il nest
nullement ncessaire dacqurir du matriel supplmentaire puisquil suffit de crer une

17

API de stockage permettant aux clients et aux diteurs de logiciels indpendants doptimiser et dtendre les
TM
fonctions de lhyperviseur vSphere dans les domaines de la dtection de stockage, de lintgration des baies,
du Multipathing et de la protection des donnes.
18
TM
VMware vCenter Server, soit une plate-forme utilise pour la gestion de la virtualisation (anciennement
TM
appele VMware VirtualCenter ).

Chapitre n3 : Bnfices de la virtualisation

Lorsque de nouveaux serveurs ou de nouvelles applications doivent tre dploys au sein


des moyennes ou grandes structures, les diffrents acteurs concerns contribuent bien
souvent (sans forcment le vouloir) ralentir le processus dintgration.

30
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

nouvelle machine virtuelle. Il nest nul besoin de mettre en rack, de cbler, de brancher, ni de
se proccuper des capacits de refroidissement pour le matriel supplmentaire.
Ensuite, ce procd peut tre mis en uvre rapidement et de manire automatise. Dans le
cas o plus dune machine virtuelle tait ncessaire, il suffirait den crer une, puis de la
cloner autant de fois que dsir.
De plus, lespace disque dvolu tout nouveau serveur peut tre facilement mis
disposition partie du SAN, par le biais de la virtualisation du stockage. Un disque virtuel
(donc logique) peut tre cr en quelques clics de souris partir dun LUN quelconque du
pool de stockage.
Une intgration peut ds lors se rsumer quelques heures en lieu et place des quelques
semaines, voire des quelques mois quelle aurait exig auparavant.

3.3 Simplification de ladministration


Dune manire gnrale, les produits disponibles sur le march de la virtualisation disposent
tous dune console de gestion des machines virtuelles accessible partir dune interface
unique. Cette interface de gestion centralise prend tout son sens lorsquil sagit de prendre
en charge une infrastructure compose de systmes dexploitation htrognes.
Linterface en question permet dinteragir avec la console de ce dernier comme si nous nous
trouvions devant le systme physique.

Chapitre n3 : Bnfices de la virtualisation

De plus, un certain nombre doutils de monitoring y sont disponibles, permettant aux


administrateurs systmes de suivre en temps rel la consommation ou les performances des
diffrentes machines virtuelles ou la capacit despace de stockage disponible dans le pool y
relatif, parmi bien dautres fonctionnalits. La figure 3-3 montre un chantillon des outils
disponibles par le biais du client VMware vSphereTM pour effectuer le monitoring des
serveurs (ici, un certain nombre de diagrammes de performances).

TM

Figure 3-3 : Console d'administration de la plateforme VMware vSphere

31
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Les oprations de maintenance programmes, les phases de migration ou de mise jour


des logiciels, qui sont gnralement considres comme des oprations dlicates au sein
dun environnement physique, sont grandement simplifies par les fonctionnalits inhrentes
la virtualisation, avec pour corollaire une augmentation de lefficacit oprationnelle.

3.4 Optimisation de la gestion de lobsolescence matrielle


La constante volution technique du matriel et des applications que nous connaissons dans
le domaine des systmes dinformation, nous oblige, en tant quadministrateur systmes,
veiller constamment mettre jour notre infrastructure.
Nous estimons lesprance de vie dune infrastructure matrielle trois, voire cinq ans au
maximum. La garantie offerte par le constructeur sur le produit en question est gnralement
dune telle dure, ce qui ne trompe pas sur les dlais prcits.
Une application, quant elle, peut avoir t dveloppe pour fonctionner sur une plateforme
plus rcente que celle disponible sur le serveur sens lhberger. A contrario, ce dernier doit
ventuellement tre dot dun systme dexploitation correspondant aux standards en
vigueur plusieurs annes auparavant, pour que lapplication puisse y fonctionner.
La migration dune telle application sur un environnement virtuel adquat permet de rsoudre
de telles problmatiques. Bien que le systme dexploitation en question ne soit plus
support par son diteur, lapplication peut continuer y fonctionner. Les problmes de
mises jour de lenvironnement ou de support de ce dernier par lditeur ne sont pas rsolus
mais lentreprise peut ainsi donner un sursis lapplication concerne et viter davoir se
prcipiter dans de nouveaux dveloppements dapplications ou dans lachat de ces
dernires, lui pargnant ainsi une fortune.

La virtualisation des serveurs permet de grer au mieux la problmatique de lesprance de


vie du matriel puisque si le systme hte devient obsolte, ce ne sera pas le cas des
machines virtuelles. Nous pourrons ajouter de la RAM, des processeurs, de lespace disque,
des interfaces rseau ou tout autre priphrique ces dernires indpendamment du
matriel physique sous-jacent. Leur systme dexploitation pourra mme tre mis jour une
fois que le matriel physique qui les hberge laura galement t.
De plus, remplacer un serveur obsolescent par du nouveau matriel peut se faire de manire
tout fait transparente pour les clients dudit serveur. Les machines virtuelles clientes sont
simplement migres sur un nouveau systme physique, et ce, en court de production, tel
quillustr la figure 3-4.

Chapitre n3 : Bnfices de la virtualisation

De plus, la virtualisation des applications elles-mmes permet de faire fonctionner ces


dernires dans des bulles applicatives qui ne dpendent plus du systme dexploitation
sous-jacent, offrant les mmes bnfices que dcrits au paragraphe prcdent, et ce, malgr
le fait que le systme dexploitation ait t mis jour (cf. section 5.3, Applications).

32
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 3-4 : Migration d'un serveur obsolescent vers un nouveau serveur (Source : Virtualisation des

systmes d'information avec VMware de P. Gillet)

3.5 Amlioration de la gestion du changement


La virtualisation permet une application plus souple de la gestion du changement. Nous
rappelons que la gestion du changement est un des six processus de la partie Soutien des
services des bonnes pratiques ITIL (Information Technology Infrastructure Library).

Le cycle de vie dune machine virtuelle est beaucoup plus facilement contrlable. Ce type de
matriel peut galement tre limin de manire totalement transparente, ce qui
contribue du mme coup optimiser la gestion du cycle de vie du matriel.

3.6 Optimisation de lvolution des capacits physiques


Les capacits dun systme physique sont limites, tant donn quelles ne peuvent tre
modifies. Un systme monoprocesseur restera toujours un systme monoprocesseur. Si la
limite de prise en charge de la mmoire vive par notre systme se situait 4 Go, nous ne
pourrions en ajouter plus. Par opposition, les machines virtuelles ne sont pas affectes par
de telles limites. Pour autant que le systme hte dispose de capacits matrielles
suffisantes et que le logiciel de virtualisation le permette, de nouvelles ressources peuvent
tre alloues aux machines virtuelles sans autre forme de procs.

Chapitre n3 : Bnfices de la virtualisation

Un changement consiste modifier ou supprimer un des composants de linfrastructure du


systme dinformation (logiciel, application, quipement, matriel, configuration,
documentation, procdure, etc.). Il peut galement sagir de la cration dun nouveau
composant.

33
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

3.7 Amlioration de lquilibre des charges (load balancing)


Au sein dune configuration visant lquilibrage des charges (par exemple au sein dun
cluster de serveurs Web), les machines virtuelles contribuent la mise en place dune
mthode peu onreuse mais cependant efficace de rpartition du trafic rseau sur plusieurs
systmes. En effet, le trafic rseau peut tre facilement rparti entre plusieurs systmes, tant
virtuels que physiques, et ce, grce un rpartiteur de charge rseau 19.
Supposons ds lors que nous dsirions virtualiser nos services Web afin de supprimer notre
dpendance aux systmes physiques. Considrons que notre trafic Web (port 80) est
redirig vers une unique adresse en .ch, servie par trois serveurs physiques (cf. figure 3-5).

Figure 3-5 : Charge des serveurs, scnario 1 (Source : Virtualisation en pratique de Kenneth Hess et Amy
Newman)

Linconvnient dun tel scnario rside dans le fait quil contrevient sa raison dtre initiale,
savoir lquilibrage des charges. En effet, un trafic Web important dgraderait les
performances de cet unique hte.
Afin dattnuer laltration de performances lie aux entres/sorties sur un disque unique de
lhte partag, nous allons utiliser du stockage rseau auquel toutes les machines virtuelles
sont susceptibles de pouvoir se connecter (cf. section 5.4, Stockage) afin den obtenir le
contenu dsir.

19

Cette rpartition de charge rseau peut se faire par un logiciel ventuellement contenu au sein dune image
virtuelle prvue pour les solutions de virtualisation des principaux diteurs du march (par exemple ALOHA Load
Balancer Virtual Appliance), elle-mme disponible partir dune appliance d1U pouvant tre mise en rack.

Chapitre n3 : Bnfices de la virtualisation

La figure 3-6 illustre une configuration similaire mais comportant des machines virtuelles la
place des machines physiques. Dans ce cas, le nombre de machines physiques na pas
chang, eu gard au fait que les charges ainsi quilibres doivent tre isoles un certain
degr. Les trois machines virtuelles pourraient cependant cohabiter sur le mme serveur
physique car chacune dentre elles possde sa propre adresse IP. Il est galement possible
dallouer chaque machine virtuelle sa propre interface rseau associe son interface
virtuelle.

34
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 3-6 : Charge des serveurs, scnario 2 (Source : Virtualisation en pratique de Kenneth Hess et Amy
Newman)

Figure 3-7 : Charge des serveurs, scnario 3 (Source : Virtualisation en pratique de Kenneth Hess et Amy
Newman)

La figure 3-8 illustre par contre le mme service Web correctement quilibr, faisant appel
au stockage rseau mentionn plus haut.

Chapitre n3 : Bnfices de la virtualisation

La figure 3-7 illustre le cas dun hte unique hbergeant trois serveurs Web virtuels. Si les
trois machines virtuelles sont quilibres en charge, tant les capacits de traitement que la
scurit de linfrastructure sont, quant elles, nullement garanties.

35
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 3-8 : Charge des serveurs, scnario optimal (Source : Virtualisation en pratique de Kenneth Hess
et Amy Newman)

Notons que dans un centre de donnes rel, chacun des htes prsents sur la figure 3-8
hbergerait plus dune machine virtuelle.

3.8 Simplification des tests de logiciels


Utiliser une machine virtuelle pour effectuer des tests de logiciels fut lune des premires
raison pour laquelle la virtualisation des environnements x86 a t mise en uvre.

Si certains de ces problmes venaient apparaitre, la copie de travail pourrait servir de


plateforme de dbogage. Si cette dernire venait tre irrmdiablement corrompue, il
suffirait de la supprimer et den crer une nouvelle partir de la machine originale. Cette
manire de faire vite davoir rinstaller chaque fois le systme dexploitation, les
applications et les correctifs, avec pour corollaire un gain substantiel de temps.
Lorsque le systme est parfaitement fonctionnel, la copie de travail de la machine virtuelle
peut tre mise en production en remplacement de lancienne mouture, en la copiant dans le
cluster des machines de production prsent sur le VMM. Le processus de test, le dbogage
et le dploiement sont donc clairement rationnaliss.

Chapitre n3 : Bnfices de la virtualisation

Une fois la copie de travail cre (cration de la machine virtuelle, dmarrage, application de
correctifs, attribution dun nom et dune adresse IP), une sauvegarde de cette dernire est
ralise (snapshot). Cette copie de travail est par la suite utilise pour linstallation, la
modification ou la suppression de paquetages logiciels. Cette mthode permet ainsi dviter
tout conflit ou problme potentiel (plantage, crans bleus, vidages de mmoire, etc.) qui
pourraient survenir au moment de la mise en production desdits logiciels.

36
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

4 Fondamentaux technologiques de la virtualisation


Nous lavons vu au chapitre 1, la virtualisation consiste en une abstraction physique des
ressources informatiques. Les serveurs et, par extension, les systmes dexploitation, ne
sont ds lors pas les seuls lments du systme dinformation pouvoir tre virtuels.
Ces derniers constituent toutefois la pierre angulaire dune infrastructure virtuelle, les
serveurs tant gnralement les premiers dispositifs tre virtualiss lorsquune telle
dcision stratgique est prise. Cest une des raisons pour lesquelles nous avons dcid
daborder laspect technologique de la virtualisation en nous intressant tout particulirement
ce domaine dapplication.
Nous prcisons galement que, si dcision tait prise de virtualiser les stations de travail, un
hyperviseur serait ncessaire, tout comme dans le cas de la virtualisation des serveurs. Les
lments techniques relatifs ces deux domaines dapplication savrent donc similaires.
Ceci constitue une raison supplmentaire daborder les aspects techniques relatifs la
virtualisation sous langle de la virtualisation des serveurs.

Ce chapitre est en effet ddi aux avances techniques significatives ayant historiquement
permis lavnement de la virtualisation. Or, il se trouve que les premires recherches
menes dans ce domaine ont eu pour objectif de virtualiser des serveurs dapplications.
Aborder les fondements techniques de la virtualisation du stockage, des rseaux ou des
applications dans ce chapitre ou, a fortiori, dans ce document, aurait pour consquence
dalourdir passablement ce dernier, la mthode dabstraction de ce type de ressources
informatiques tant passablement diffrente de celle utilise pour la virtualisation des
serveurs ou des stations de travail.
Aussi, nous nous contenterons dvoquer ces sujets sous un angle plutt pratique au sein du
chapitre 5, dvolu aux domaines dapplications et sous un aspect plutt stratgique au sein
du chapitre 6, consacr la construction de linfrastructure virtuelle.
Avant dentrer dans le vif du sujet, soit la virtualisation, nous reviendrons, la section 4.1,
Notions lmentaires, sur un certain nombre de notions relatives aux lments matriels
composant un ordinateur, ainsi quaux mcanismes ou principes qui les rgissent. Nous
souhaiterions en effet nous assurer que le lecteur maitrise les bases ncessaires la
comprhension des notions abordes plus avant dans ce chapitre. En effet, la virtualisation
peut avoir un impact sur ces lments ou dpendre de ces derniers.
la section 4.2, La gense de la virtualisation, nous aborderons la gense de la
virtualisation en voquant les principes labors pour lencadrer et la premire mthode qui
fut mise au point.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Ainsi, mme si voquer la notion dhyperviseur, nous oblige sous-entendre galement


lexistence dun ou plusieurs serveur(s) physique(s) ddi(s) cette tche, ainsi que la
prsence dun rseau de stockage, nous naborderons pas les aspects techniques lis la
virtualisation du stockage et du rseau dans le prsent chapitre, et ce, dans le but de rester
le plus synthtique possible. Il en ira dailleurs de mme pour la virtualisation des
applications.

37
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Nous procderons lexamen des diffrentes techniques de virtualisation la section 4.3,


Techniques de virtualisation. Cependant, mme si certaines mthodes sappliquent des
architectures de processeur diverses, nous insisterons sur la virtualisation des
environnements x86. En effet, ladoption gnralise de Windows et lmergence de
LinuxTM comme systmes dexploitation serveurs dans les annes 1990 ont fait de cette
architecture la norme de lindustrie. Il est ds lors impensable de ne pas lui rserver une
place de choix dans le prsent chapitre.
Nous terminerons, la section 4.4, Mise en uvre, par un aperu des mises en uvre
possibles des techniques voques prcdemment ou, en dautres termes, des applications
commerciales y relatives.

4.1 Notions lmentaires


4.1.1 Composants et principes de fonctionnement dun ordinateur
4.1.1.1 Processeur

Lensemble des instructions et des donnes forme un programme.


Ces instructions sont dfinies dans le jeu dinstructions que possde chaque type de
processeur et reprsentent les oprations que ce dernier est capable dexcuter. Le
processeur possde galement ses propres registres, soit des emplacements de mmoire
au meilleur temps daccs qui sont en quelque sorte disponibles pour son jeu dinstructions.
Le processeur gre galement les interruptions, soit des arrts temporaires de lexcution
dun programme, et dfinit les privilges (cf. section 4.1.1.6, Mode d'adressage protg
(protected mode) et section 4.1.1.7, Niveaux de privilges).

4.1.1.2 Principe de la mmoire virtuelle


Ce mcanisme, reposant sur lutilisation dune mmoire de masse (i.e. disque dur), permet
en premier lieu de partager la mmoire en processus ou, en dautres termes, augmenter le
taux de multiprogrammation. La mmoire virtuelle permet galement la mise en place des
mcanismes de protection de la mmoire, puisquun programme ne peut plus accder la
mmoire au travers des adresses physiques (comme en mode rel) mais uniquement au
moyen dadresses virtuelles.
Avant de considrer le modle thorique gnral de la mmoire virtuelle, ainsi que les
manires de le mettre en pratique, examinons les diffrents problmes quil doit rsoudre.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Le processeur, ou lunit centrale de traitement, est un microprocesseur dont le rle


fondamental consiste excuter une srie dinstructions stockes appeles programmes.
Les instructions et les donnes transmises au processeur sont exprimes en langage
machine (binaire) et sont gnralement stockes dans la mmoire. Le squenceur (ou unit
de contrle de commande), dont le rle consiste commander le chemin de donnes et
rguler les interactions de ce dernier avec la mmoire vive, ordonne la lecture du contenu de
cette dernire et se charge de la constitution des mots prsents par la suite lunit
arithmtique et logique, soit lorgane charg deffectuer les calculs.

38
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

4.1.1.2.1 Diffrents problmes rsoudre


Relocation
Un programme contient gnralement un certain nombre de rfrences des variables, des
fonctions ou des zones du code. Ces rfrences sont parfois relatives mais souvent
absolues. Dans un contexte de multiprogrammation, les rfrences absolues ne sont plus
valables lorsque le programme y relatif est charg un endroit diffrent de la mmoire que
lesdites rfrences.
La relocation dynamique au dmarrage du programme est une des solutions disponibles
pour pallier ce problme. Chaque adresse se voit rcrite suivant lendroit prcis o le
programme a t charg. Il est possible denvisager galement la relocation dynamique lors
de chaque accs, moyennent un cot non ngligeable.
SWAP
Un certain nombre de zones mmoires doivent pouvoir tre cres sur le disque dur, une
fois que la mmoire centrale est pleine.
Protection de la mmoire
Il est ncessaire de mettre en uvre un mcanisme qui empche un processus daccder
(en lecture comme en criture) lemplacement de la mmoire dvolu un autre processus,
voire au systme dexploitation lui-mme.
Mmoire partage
Il est ncessaire, afin que la communication soit suffisamment rapide entre deux processus,
de prvoir un mcanisme qui leur permette de partager de la mmoire, sans toutefois
compromettre la protection de la mmoire voque ci-dessus.

Il est utile de pouvoir fournir aux programmes la capacit de projeter un fichier en mmoire,
en lutilisant directement, comme si ce dernier faisait office de donnes en mmoire. Ce
mcanisme, appel mmap (pour Memory Map en anglais), offre au programme la flexibilit
et la rapidit de donnes en mmoire, tout en bnficiant de la persistance.
4.1.1.2.2 Hirarchie des mmoires
Il se trouve que la mmoire est soit rapide et trs chre, soit bon march mais
particulirement lente. De plus, la mmoire rapide nest jamais persistante.
Afin quun ordinateur soit mme de nous offrir des performances satisfaisantes, nous
sommes dans lobligation dutiliser diffrentes mmoires, certaines tant trs rapides mais
limites en quantit (par exemple, les registres), dautres tant lentes mais disponibles en
grande quantit (en particulier les disques durs). Les diffrents types de mmoire en
question, ainsi que leur taille courante et la vitesse daccs quelles offrent habituellement
sont mentionns dans le tableau 4-1, ci-dessous.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Fichiers mmaps

39
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

Type de mmoire
1. Registres
2. Cache L1
3. Cache L2
4. Mmoire centrale
5. Disque dur

La virtualisation des systmes dinformation

Taille typique
256 octets
16 Ko
2 Mo
2 Go
300 Go

Vitesse typique
0.5 ns
1 ns
2 ns
10 ns
10 ms

Tableau 4-1 : Hirarchie des mmoires (Source : Systmes dexploitation Gestion de la mmoire de Pilot
Systems 2007 par Gal Le Mignot)

Cette hirarchie de mmoires peut tre considre comme une hirarchie de caches, les
registres servant de cache au cache L1, le cache L1 faisant de mme pour le cache L2, qui
lui-mme sert de cache la mmoire centrale, cette dernire ntant quun cache pour le
disque dur.
Si le systme dexploitation na que peu de contrle sur les caches grs automatiquement
par le matriel (L1 et L2) ou sur les registres (qui sont grs par le compilateur), il intervient
sur la gestion de la mmoire centrale. Cest en effet lui quincombe de dcider ce qui doit
tre gard en mmoire et ce qui doit ltre uniquement sur le disque dur.
4.1.1.2.3 Backing Store

Chaque zone mmoire, en fonction de son utilisation (bibliothque partage, excutable,


donnes, cache disque), est associe un backing store qui se trouve tre la zone du
disque qui permet de stocker son contenu en cas de ncessit.
4.1.1.2.4 MMU
Lunit de gestion mmoire (MMU pour Memory Management Unit en anglais) est un
composant responsable de laccs la mmoire lorsque le processeur lexige. Effectuer des
traitements logiciels sur chaque accs mmoire serait en effet bien trop coteux en temps,
et, de surcroit, difficile raliser (puisque le logiciel a lui-mme besoin daccder la
mmoire).
Ce dispositif fait intgralement partie de lunit centrale et accde, de ce fait, ses registres.
Les attributions de ce dispositif sont :
La traduction dadresses logiques en adresses linaires, par le biais de son unit de
segmentation (cf. section 4.1.1.3, Segmentation) ;
La traduction dadresses linaires en adresses physiques par le biais de son unit de
pagination (cf. section 4.1.1.4, Pagination) ;
Le contrle de tampon ;
Larbitrage du bus ;
La protection de la mmoire, assure par le MPU, soit le Memory Protection Unit.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Pour tout systme de gestion de la mmoire un tant soit peu volu, les notions de swap et
de cache disque sont fusionnes. La mmoire est utilise comme cache pour le disque.
Dans un premier cas, nous pouvons librer de la mmoire en crivant sur le disque. Dans un
second cas, nous pouvons utiliser la mmoire disponible pour viter les accs disque.

40
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Cette unit effectue donc une traduction entre ladresse virtuelle demande par le
processeur et ladresse physique, au sens o lentend le matriel.
Nous explicitons les notions de segmentation et de pagination dans les sous-chapitres y
relatifs (voir plus bas), ces dernires tant lies la notion de mmoire virtuelle, le MMU
faisant partie intgrante de ce processus.
Le principe de protection de la mmoire consiste, quant lui, empcher un programme
donn daccder lespace mmoire utilis par un autre programme, voire par le systme
dexploitation lui-mme. Il sagit donc dallouer chaque programme une zone mmoire
protge, laquelle aucun autre programme na accs (en lecture comme en criture). Il va
de soi que cette caractristique savre cruciale pour la stabilit du systme.
Dans le cas o un programme tenterait daccder une zone mmoire situe hors de la
plage qui lui avait t rserve, une interruption est leve par le MMU. Cette dernire est
intercepte par le processeur qui fait ds lors parvenir une instruction au processus
concern, ayant pour effet de le stopper.

4.1.1.3 Segmentation
La segmentation est une technique gre par lunit de segmentation du MMU, utilise par
les systmes dexploitation pour diviser la mmoire physique (segmentation pure) ou de la
mmoire virtuelle (segmentation avec pagination) en segments.

La segmentation simple, comme celle utilise dans le mode rel (cf. section 4.1.1.5, Mode
d'adressage rel (real mode)) des processeurs x86, consiste spcifier, lors de chaque
accs la mmoire, un registre de segment. Ce dernier contient une valeur qui dtermine
partir do ladresse mmoire est spcifie.
titre dexemple, si un segment est indiqu comme commenant ladresse physique
0x1000 et que nous demandons ladresse 0x42, nous utiliserons en ralit ladresse 0x1042.
Ladresse spcifie en complment du segment est gnralement appele offset.
Le x86 possde un registre spcifique la pile et un autre spcifique au code (l o sont
charges les instructions), ce qui lui permet de dterminer parfois automatiquement le
registre de segment utiliser.
4.1.1.3.2 Segmentation avance
Dans le cadre de la segmentation avance, le registre de segment ne contient pas
directement ladresse physique de base du segment mais indique une entre dans une table
appele table de descripteurs de segments.
Cette dernire contient, pour chacun des segments, ladresse de dbut et de fin du segment,
ainsi que des informations de protection (i.e. lecture seule, utilisable uniquement par le
noyau, etc.).

Chapitre n4 : Fondamentaux technologiques de la virtualisation

4.1.1.3.1 Segmentation simple

41
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Lors dun accs mmoire, les oprations suivantes sont ralises :


1. Le descripteur de segment est charg depuis la table ;
2. Les modes de protection sont vrifis ;
3. Ladresse du dbut (appele base) du segment est ajoute loffset ;
4. Une comparaison est effectue pour vrifier que cette somme ne dpasse pas le
sommet du segment.
partir de larchitecture i386 et suprieure, plusieurs tables de descripteurs de segment sont
disponibles. Il existe une GDT (Global Descriptor Table) qui contient les segments communs
tous les processus, et une LDT (Local Descriptor Table) qui contient ceux qui sont
spcifiques chaque processus.
4.1.1.3.3 Utilisation de la segmentation
La vocation premire de la segmentation est de rgler le problme de la relocation. Il suffit
en effet de positionner les registres de segments aux bonnes valeurs et le programme peut
tre charg nimporte quel endroit au sein de la mmoire.
La segmentation peut tre utilise pour implmenter du swap. Le contenu complet dun
segment peut tre parfaitement transfr sur le disque dur, ce segment tant ensuite marqu
comme non valide. Ds lors quun accs sera initi sur ce segment, le MMU (cf. section
4.1.1.2.4, MMU) signalera lerreur au systme dexploitation, lequel devra recharger le
segment en question.

Les descripteurs de segments contiennent en gnral des informations spcifiques aux


modes de protection, un segment pouvant tre dclar en lecture seule, par exemple. La
protection entre espace noyau et espace utilisateur peut tre configure au niveau des
segments : un segment marqu noyau (ou superviseur) ne pourra tre utilis que par le
noyau, alors quun segment marqu utilisateur le sera par les deux.
La segmentation peut enfin tre utilise pour implmenter de la mmoire partage en crant
un segment spcifique, disponible pour plusieurs processus.
4.1.1.3.4 Avantages et limites de la segmentation
La segmentation prsente lnorme avantage dtre trs simple et efficace implmenter au
niveau matriel, ce dernier sachant grer trs rapidement addition et comparaison.
Plusieurs dsavantages caractrisent toutefois la segmentation, dont trois dentre eux en
particulier.
La segmentation fournit malheureusement une faible granularit. Il est ncessaire, par
exemple, pour le swap de dplacer un segment entier vers le disque, ce qui est susceptible
de coter trs cher.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Dans le cas o seul le noyau est habilit spcifier les descripteurs de segments, la
segmentation permet dinstaurer une premire forme de protection de la mmoire. En effet,
toute zone mmoire qui ne se trouve par dans un segment configur pour lapplication ne
pourra pas tre utilis.

42
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

tant donn quun segment doit tre continu en mmoire physique, le risque de
fragmentation constitue ds lors un problme. Partons du principe quau sein dune mmoire
dune taille de 256 Ko, il existe un espace disponible de 96 Ko entre 32 Ko et 128 Ko et un
autre espace disponible de 64 Ko entre 192 Ko et 256 Ko. Il ne sera pas possible de loger un
segment de 128 Ko en mmoire, alors que cette dernire possde pourtant bien un espace
rsiduel de 160 Ko, les deux zones prcdemment voques tant respectivement trop
petites pour accueillir ces donnes.
Enfin, la segmentation nest pas parfaitement transparente pour le programme qui lutilise, en
particulier lorsquon utilise de la mmoire partage. Dans ce cas de figure, le programme doit
ncessairement tre conscient du fait quil utilise un segment. Or, les langages dun
niveau plus lev que lassembleur (comme par exemple le C) ne connaissent pas le
concept de segment.

4.1.1.4 Pagination
Le principe de la pagination, ou plus exactement de mmoire pagine (Expanded Memory
en anglais), consistait faire utiliser par les programmes une partie de la mmoire
initialement rserve aux priphriques, lpoque des architectures dadressage rel (cf.
section 4.1.1.5, Mode d'adressage rel (real mode)), au sein desquelles les programmes
ntaient autoriss qu 1 Mo dadressage dont uniquement 640 Kio 20 taient disponibles
pour la mmoire vive normale (appele galement mmoire conventionnelle).
Nous aborderons plus prcisment dans ce sous-chapitre, le principe de mmoire virtuelle
pagine qui nous intresse plus directement dans le contexte du prsent document.

Les adresses mmoires mises par le processeur savrent tre des adresses virtuelles, ces
dernires indiquant la position dun mot dans la mmoire virtuelle (cf. section 4.1.1.2,
Principe de la mmoire virtuelle).
Cette mmoire virtuelle est forme de zones de taille similaire, appeles pages. Une adresse
virtuelle peut donc tre considre comme un couple {numro de page, dplacement dans la
page}.
La mmoire vive se compose galement de zones de mme taille, appeles cadres (frames
en anglais), dans lesquelles les pages peuvent prendre place (taille dun cadre = taille dune
page).
Un mcanisme de traduction 21 assure la conversion des adresses virtuelles en adresses
physiques, en se basant sur une table des pages (Pages Table en anglais) qui permet
dobtenir le numro du cadre qui contient la page recherche. Ladresse physique obtenue
est le couple form par le numro de cadre et le dplacement.
20

10

Le symbole Kio correspond kibioctet qui est un prfixe binaire. Sa valeur est de 2 , tout comme un ko (kilooctet) en usage traditionnel.
21
Translation en anglais ou gnration dadresse.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La pagination a pour but de rgler les principaux problmes de la segmentation (cf. section
4.1.1.3, Segmentation).

43
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 4-1 : Pagination (Source : fr.wikipedia.org/wiki/Mmoire_virtuelle)

La table des pages est indexe par le numro de page. Les lignes qui y sont contenues sont
appeles entres dans la table des pages (Pages Table Entry, abrg PTE en anglais) et
contient le numro de cadre. Cette table tant susceptible dtre situe nimporte quel
emplacement de la mmoire, un registre spcial est destin conserver son adresse,
sagissant de la Page Table Register ou PTR.
Le mcanisme de traduction prcit fait partie du MMU, lequel contient galement une partie
de la table des pages stocke dans une mmoire associative forme de registres rapides. La
table des pages situe en mmoire na donc pas tre consulte lors de chaque accs
mmoire.
La figure 4-2 illustre lexemple dune machine dont le processeur gnre des adresses
virtuelles sur 32 bits qui lui permettent ainsi daccder 4 Gio de mmoire. Les pages ont
une taille de 4 Kio. Nous pouvons dduire que le champ de dplacement occupe les 12 bits
de poids faible et le champ numro de page les 20 bits de poids fort. Nous pouvons
galement noter la prsence dun champ spcial appartenant chaque PTE, sa largeur
tant rduite un bit pour des raisons de simplification. Ce bit se trouve tre un bit de
validit. Si ce dernier est 0, le numro de cadre peut tre considr comme non valide.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Le nombre de pages peut tre suprieur au nombre de cadres et cest l tout lintrt du
mcanisme en question. Comme illustr la figure 4-1, les pages qui ne sont pas stockes
en mmoire le sont sur un autre support, gnralement un disque dur. Elles ne seront
ramenes dans un cadre que lorsque le systme en aura besoin.

44
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 4-2 : Table des pages (Source : fr.wikipedia.org/wiki/Mmoire_virtuelle)

Trois cas peuvent se produire :


1. Lentre est valide et se substitue donc au numro de page pour former ladresse
physique ;
2. Lentre dans la table des pages est non valide. Il faut donc lui trouver un cadre libre
en mmoire vive et mettre le numro correspondant dans lentre concerne de la
table des pages ;
3. Lentre dans la table de pages est valide mais correspond une adresse de la
mmoire de masse qui contient le contenu du cadre. Un mcanisme devra ds lors
ramener ces donnes pour les placer en mmoire vive.
Dans les deux derniers cas, une interruption, communment appele dfaut de page (Page
Fault en anglais), est gnre par le matriel. Son effet consiste donner la main au
systme dexploitation qui a dsormais la charge de trouver un cadre disponible en mmoire
centrale dans le but de lallouer au processus responsable du dfaut de page dont il est
question. Il devra ventuellement recharger le contenu de ce cadre en utilisant celui
disponible sur la mmoire de masse (qui se trouve en principe dans la zone dchange du
disque dur ou swap en anglais).
Il se peut que la mmoire centrale ne possde plus aucun cadre libre. Dans cette
ventualit, un algorithme de pagination est responsable de choisir une page victime .
Soit cette page se verra immdiatement raffecte au processus demandeur, soit elle sera
sauvegarde sur le disque dur, alors que lentre de la table des pages qui la rfrence sera
mise jour.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Il faut donc disposer dune technique permettant de mettre jour cette PTE afin de la rendre
valide doit tre disponible.

45
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

4.1.1.4.1 Utilisations de la pagination


La relocation est gre tout simplement en fixant ladresse dans la mmoire virtuelle du
code. Il peut par la suite se trouver nimporte o au sein de la mmoire physique.
Le swap peut tre gr avec une granularit dune page. Le systme dexploitation peut
sauvegarder une page sur le disque, puis marquer cette page comme non valide. Si les
donnes de cette page doivent tre accdes, le MMU (cf. section 4.1.1.2.4, MMU) va lever
une erreur et donner le contrle au systme dexploitation. Ce dernier peut alors relire les
donnes du disque, les mettre dans un cadre de page libre et indiquer le nouveau cadre de
page dans la table.
Raliser une opration de swapping peut ainsi se faire de manire fine, en ne transfrant
quune partie des donnes dun programme (celles quil utilise le moins souvent, si possible).
Au mme titre que pour la segmentation, la protection est implmente de deux faons. En
premier lieu, tout cadre de page qui ne peut tre atteint par aucune page ne peut pas tre vu
par une application. Ensuite, chaque page possde des protections, tout comme pour la
segmentation : lecture seule ou non, accessible pour le noyau uniquement ou non. Chaque
processus possde donc sa propre table de pages. Cette table de page locale au processus
est nomme espace dadressage.

Dautres usages, comme la possibilit dutiliser la pagination pour implmenter les fichiers
projets en mmoire (mmap) ou le Copy-On-Write (COW), ne seront pas dcrits plus en
avant dans la prsente section.

4.1.1.5 Mode dadressage rel (real mode)


Le mode rel se trouve tre le mode de fonctionnement par dfaut des processeurs
compatible x86, qui est aujourdhui dsuet, le mode protg lui tant prfr.
Il est caractris par un adressage direct de la mmoire sous forme de segment : offset et
limit 1 Mo, de ladresse hexadcimale 00000 FFFFF. Dans ce mode, le processeur ne
peut faire fonctionner quun programme la fois.
En cas de ncessit, un mcanisme dinterruption permet toutefois de suspendre lexcution
dun programme pour en favoriser un autre.

4.1.1.6 Mode dadressage protg (protected mode)


Le mode protg, intgr larchitecture x86 en 1982, vient ajouter au mode rel des
fonctionnalits telles que :
La protection de mmoire par le biais des niveaux de privilges (cf. section 4.1.1.7,
Niveaux de privilges) ;
Le support de la mmoire virtuelle (cf. section 4.1.1.2, Principe de la mmoire
virtuelle) ;

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La mmoire partage peut tre implmente facilement avec la pagination, en indiquant tout
simplement les mmes cadres de pages pour des pages de deux espaces dadressage
diffrents. Ces pages peuvent se trouver des adresses virtuelles diffrentes.

46
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

La commutation de contexte, qui consiste sauvegarder et restaurer ltat dun


processeur afin quune excution puisse tre reprise plus tard au mme point.
Plusieurs processus peuvent ainsi partager la mme unit centrale. Il sagit donc dun
mcanisme essentiel dans un contexte multitche.

4.1.1.7 Niveaux de privilges


Les niveaux de privilges sont habituellement incarns par la notion danneaux de
protection. Ces derniers sont gnralement inclus dans la plupart des architectures
modernes de processeurs (comme lIntel x86).
Le concept des anneaux de protection a t mis en uvre au sein du systme dexploitation
Multics, un prdcesseur fortement scuris de la famille des systmes dexploitation UNIX.
Ces anneaux sont gnralement disposs au sein dune hirarchie allant du plus privilgi
(le plus scuris, gnralement appel Ring0) au moins privilgi (le moins scuris, portant
le numro le plus lev).

Les manires dont la main peut tre passe dun anneau lautre sont svrement limites
par le matriel qui impose galement des restrictions aux types daccs mmoire pouvant
tre excuts au travers des anneaux. Ces restrictions matrielles ont t conues pour
limiter les possibilits dinfractions accidentelles ou malveillantes de nature compromettre
la scurit du systme.
Lutilisation efficace de cette architecture en anneaux exige une coopration troite entre le
systme dexploitation et le matriel (plus particulirement le processeur). Gnralement,
seuls deux anneaux de scurit sont exploits, sagissant du mode noyau (ou kernel en
anglais) et du mode utilisateur.
Lobjectif consiste empcher divers composants applicatifs dun systme dexploitation de
se modifier les uns les autres, situation que nous pouvons considrer comme une faille
srieuses de scurit. Les composants qui nous intressent tous particulirement, dans le
cadre du systme dexploitation, sont prcisment le noyau et les applications. Sil est tout
fait envisageable que le noyau puisse apporter certaines modifications aux donnes
dynamiques appartenant une application, le contraire ne doit pas se produire.
Processeurs x86
Les processeurs de la famille x86 implmentent quatre anneaux de privilges mais, comme
prcis plus haut, seuls deux dentre eux sont rellement exploits par les systmes
dexploitation actuels (comme Windows ou les drivs dUNIX).

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Le matriel connait en permanence lanneau de privilge courant des actions en cours


dexcution, et ce, grce un registre spcial du processeur. Connu sous le nom de
RFLAGS (registre de drapeaux ou fanions) dans le cas des processeurs x86-64 (64 bits),
compatible avec les registres EFLAGS et FLAGS hrits des familles x86 (32 bits) et
prcdentes (16 bits), il permet de connatre ltat du processeur tout moment grce aux
diffrents bits qui le composent. Lun deux, IOPL (I/O Privilege Level) contient un nombre
prcisant le niveau de privilge du programme en cours dexcution.

47
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Ces deux anneaux de protection sont le ring0, soit celui ayant le plus de privilges, et le
ring3. Comme illustr par la figure 4-3, les privilges octroys vont dcroissant de lanneau 0
lanneau 3. Le noyau du systme dexploitation fonctionne au niveau du premier, les
interactions avec le matriel (comme lunit centrale ou la mmoire) intervenant
gnralement ce niveau. Les applications fonctionnent, quant elle, au niveau du
deuxime.

Figure 4-3 : Anneaux de protection (Source : fr.wikipedia.org/wiki/Anneau_de_protection)

4.1.1.8 Priphriques dentres/sorties


Il peut sagir dun disque dur, dune cl USB, dun contrleur dinterface rseau (NIC pour
Network Interface Controller), etc.
Le processeur utilise ces priphriques pour communiquer avec le monde extrieur. Il doit
donc les grer, leur transmettre des informations ou en recevoir de leur part. En principe,
cette communication seffectue grce des circuits spcialiss appels interfaces
programmables. La figure 4-4 illustre schmatiquement un systme microprocesseur,
comportant de la mmoire, une interface programmable, ainsi que des priphriques.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La transition dun mode lautre est assure par linstruction SYSENTER (langage
assembleur).

48
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 4-4 : Systme de base microprocesseur (Source : Accs direct en mmoire de R. Beuchat)

Selon le dbit des informations transmettre aux priphriques, plusieurs mthodes sont
disponibles pour effectuer leur transfert. Ce choix doit tre effectu lors de la conception du
circuit.
Les trois principales mthodes existantes sont la scrutation, les interruptions ou les transferts
par accs direct en mmoire (DMA pour Direct Memory Access en anglais).

Cette mthode occasionne une perte considrable de temps pour le processeur, ce dernier
interrogeant de manire systmatique des interfaces qui nont pas besoin dtre servies.
Cette mthode nest utilisable que dans le cas o un nombre restreint de priphriques sont
utiliss, voire dans le cas o le processeur doit servir le mme priphrique pendant une
courte dure mais raison dun taux de transfert important.
Comme son nom lindique, la mthode de linterruption consiste interrompre le
processeur chaque fois que cela savre ncessaire. Dans les faits, un signal part de
linterface programmable en direction du processeur pour lui signaler quelle a besoin dtre
servie. Ce signal est communment appel requte dinterruption (IRQ pour Interrupt
Request en anglais). Le processeur va alors excuter une routine de service de linterruption
et servir linterface.
Lidentification de linterface qui a demand tre servie doit cependant tre identifie. Cette
phase est qualifie de quittance dinterruption (Interrupt Acknowledge). La mthode utilise
pour grer ladite phase diffre en fonction de la capacit du priphrique rpondre la
demande didentification gnre par le processeur. En effet, seulement certains
priphriques savrent tre capables de le faire.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La scrutation (appele polling en anglais) ncessite une interrogation rgulire des


interfaces pour voir si ces dernires doivent tre servies (par exemple, limprimante a-t-elle
accept le caractre qui vient de lui tre envoy).

49
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Le cas chant, le priphrique fournit un vecteur dinterruption au processeur, sagissant ni


plus ni moins dun numro.
Le signal servant initier la quittance dinterruption est appel IACK (acronyme pour
Interrupt Acknowledge).
Le processeur recherche ladresse de la routine de traitement de linterruption au sein dune
table, en comparant le numro du vecteur dinterruption celui de la routine en question.
Avant de se rendre ladresse identifie, il sauve son tat courant, soit son PC (Program
Counter 22) et ltat de ses fanions (cf. section 4.1.1.7, Niveaux de privilges).
Lorsque le processeur est confront un priphrique qui nest pas capable dmettre un
vecteur dinterruption ou si le processeur lui-mme nest pas capable de gnrer le signal
IACK, deux cas de figure sont possibles. Dans le premier cas, nous navons quun
priphrique sollicitant une interruption. Le processeur naura pas de problme savoir qui
linterrompt puisquil ny a quun interrompant. Dans le second cas, plusieurs sources
dinterruptions existent. La mthode de scrutation sera ds lors utilise pour identifier la
source en question.

Figure 4-5 : Principe des signaux de requte et quittance d'interruption (Source : Accs direct en mmoire
de R. Beuchat)

Quant au DMA, il vise en particulier viter limplication du processeur dans la gestion des
interfaces, ce dernier nayant pas vocation le faire lors dun transfert haut dbit. Il perd
trop de temps en scrutation ou en traitement dinterruption. Une unit matrielle
supplmentaire est capable de rcuprer des donnes de linterface programmable et de les
transfrer en mmoire sans passer par le processeur.
22

Adresse de linstruction qui tait en cours dexcution lorsque le processeur a t interrompu.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La figure 4-5, ci-dessous, illustre le principe de connexion entre linterface programmable et


le processeur. Nous voyons que le vecteur dinterruption est vhicul par le bus de donnes,
permettant ainsi didentifier la source de linterruption.

50
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Cette unit peut tre un simple circuit appel contrleur DMA, ce dernier ntant rien dautre
quune interface programmable autorise demander laccs au bus au processeur pour
effectuer des transferts sa place.

Figure 4-6 : Schma de principe de liaison dun contrleur DMA avec un microprocesseur et une interface
programmable (Source : Accs direct en mmoire de R. Beuchat)

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Le schma 4-6, ci-dessous, illustre le principe de liaison dun contrleur DMA avec un
microprocesseur et une interface programmable.

51
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

4.1.2 Systme dexploitation


Un systme dexploitation nest en fin de compte quun programme (plus prcisment un
ensemble de programmes) fonctionnant comme tel, mais au niveau du mode privilgi du
processeur, appel gnralement mode noyau ou mode superviseur (cf. section 4.1.1.7,
Niveaux de privilges), lui permettant, en ltat, dinteragir avec la couche matrielle par le
biais dinstructions sensibles appartenant au jeu dinstructions de lunit centrale.
Le systme dexploitation est donc tourn vers sa couche infrieure, en mettant des
instructions destines contrler les diffrents priphriques matriels pour les allouer et les
grer comme ressources matrielles lattention des programmes.
Il est galement tourn vers sa couche suprieure par le biais de la mise disposition dune
partie de ses services lattention des programmes (interface dappel systme).

4.1.3 Application

Lespace dadressage virtuel disponible pour un programme est dfini par le systme
dexploitation, le MMU (cf. section 4.1.1.2.4, MMU) lui permettant de le faire, tant prcis
que le systme dexploitation peut parfois faire voluer la hausse les quantits despace
dadressage virtuel maximales (cf. section 4.1.1.2, Principe de la mmoire virtuelle)
initialement prvues par larchitecture du systme. Le systme dexploitation donne en
quelque sorte lillusion au programme quil possde une mmoire qui lui est propre.
Nous rappelons que, conformment au principe du mode dadressage protg (cf. section
4.1.1.6, Mode dadressage protg (protected mode)), qui implique la mise en uvre du
principe de la mmoire virtuelle et des niveaux de privilges, les applications ne peuvent
empiter sur lespace mmoire dvolu au noyau du systme dexploitation.

4.2 La gense de la virtualisation


4.2.1 Ide originelle
Commenons pralablement par rappeler schmatiquement le fonctionnement habituel
dune machine physique (cf. figure 4-7).
Comme nous lavons vu la section prcdente, les applications se servent des appels
systme pour obtenir le concours du systme dexploitation lorsquelles ncessitent
daccder aux ressources physiques de la machine.
En effet, conformment aux principes abords au sein des sections 4.1.1.6 (cf. section
4.1.1.6, Mode dadressage protg (protected mode)) et 4.1.1.7 (cf. section 4.1.1.7, Niveaux
de privilges), seul le noyau du systme dexploitation peut accder aux ressources
matrielles.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Les applications sont excutes par le processeur au sein de lespace utilisateur (cf. section
4.1.1.7, Niveaux de privilges) et se servent des appels systme (system call en anglais,
abrg en syscall), soit de fonctions primitives fournies par le noyau dun systme
dexploitation, lorsquelles doivent solliciter le systme dexploitation pour accder aux
ressources matrielles.

52
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Lorsquune application utilise une telle primitive, le processeur bascule du mode utilisateur
au mode superviseur, permettant ainsi au noyau du systme dexploitation de lui fournir les
ressources matrielles ncessaires.

Figure 4-7 : Couches dune machine physique (Source : Virtualization de Steve Gribble)

Figure 4-8 : Couches et interfaces avec VMM (Source : Virtualization de Steve Gribble)

Quoique pertinente, cette manire de faire laisse toutefois entrevoir une difficult potentielle.
Un systme dexploitation est en effet prvu pour fonctionner au niveau noyau (ring0) et
rpartir les ressources du processeur entre les diffrentes applications en utilisant un certain
nombre dinstructions sensibles (cf. section 4.2.2.2, Classification des instructions
processeur). Lorsquil se trouve en situation dinvit, sur un VMM, ce mme systme
dexploitation ne doit pas pouvoir modifier les ressources matrielles, sous peine de
provoquer un plantage du systme. Ce privilge doit rester lapanage du seul VMM.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

En toute logique, nous pourrions parfaitement envisager dajouter une couche de


virtualisation, soit une interface, entre le matriel et les systmes dexploitation invits (donc
virtuels), conformment ce que nous voyons la figure 4-8. Cette mthode consisterait
faire fonctionner les systmes dexploitation invits comme une application quelconque, au
niveau utilisateur (ring3), la couche de virtualisation oprant au niveau superviseur (ring0).

53
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

En dautres termes, comment tre certain quune application fonctionnant sur un systme
dexploitation invit ne cause des problmes ce dernier, le principe des niveaux de
privilges ntant pas intgralement respect ? Lapplication prcdemment voque
pourrait dailleurs gnrer des problmes au niveau du VMM lui-mme. Deux systmes
dexploitation clients diffrents (par exemple, LinuxTM et Windows) pourraient se
compromettre lun lautre ou ventuellement compromettre le VMM.

4.2.2 Exigences lies la virtualisation (Popek et Goldberg, 1974)


Les exigences de Popek et Goldberg lies la virtualisation constituent un ensemble de
conditions qui doivent tre runies par une architecture informatique pour quelle puisse
mettre en uvre la virtualisation. Ces principes ont t publis par Gerald J. Popek et
Robert P. Goldberg en 1974, par le biais de leur article intitul : Formal Requirements for
Virtualizable Third Generation Architectures 23 .
Ces exigences reprsentent donc un moyen pratique de dterminer si une architecture
donne peut prendre en charge efficacement la virtualisation. De plus, elles font office de
lignes directrices pour la conception denvironnements virtuels.

4.2.2.1 Dfinition dun VMM


Lorsquun VMM est mis en uvre et afin quil puisse tre considr en tant que tel, il doit
respecter trois critres. Ces derniers serviront par la suite de base la dfinition des
thormes relatifs la virtualisation.
La premire contrainte considrer est lquivalence. En effet, toute application excute
sur le VMM devrait prsenter un effet identique celui dmontr dans le cas o il aurait t
excut directement sur la machine originale. Les seules diffrences observes devraient
avoir pour origine la disponibilit des ressources physiques du systme, ces dernires
pouvant modifier le temps dexcution dun programme.
Le second critre est lefficacit. Il implique quun sous-ensemble statistiquement dominant
des instructions excutes par le processeur virtuel, doivent ltre par le processeur rel,
sans intervention logicielle du VMM.

23

http://www.dc.uba.ar/materias/so/2010/verano/descargas/articulos/VM-requirements.pdf.
Il sagit des ordinateurs circuits intgrs, gnralement produits entre 1963 et 1971.
25
Fonctionne en lien avec le MMU et contient une constante qui, ajoute ladresse logique utilise par lunit
centrale, empche un programme de connatre la valeur relle utilise pour accder la mmoire.
24

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Il convient de prciser que, mme si les recherches de Popek et Goldberg sont bases sur
des architectures de troisime gnration 24 (par exemple, IBM System/360, Honeywell 6000,
DEC PDP-10), le modle utilis est suffisamment gnral pour tre tendu des machines
modernes. Ce modle comprend un processeur fonctionnant soit en mode utilisateur, soit en
mode noyau, et possdant un accs linaire une mmoire uniformment adressable. Il est
suppos quun sous-ensemble du jeu dinstructions est disponible uniquement en mode
noyau et que la mmoire est adresse par rapport un registre de relocalisation 25. Les
entres/sorties et les interruptions ne sont pas modlises.

54
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Il convient donc de prciser que ce critre exclurait de facto lmulation (cf. section 4.3.1.3,
mulation) et les techniques de virtualisation totale (cf. section 4.3.1.1, Virtualisation totale
(traduction binaire)).
Le troisime critre est le contrle de ressources. Il sous-tend que le VMM doit bnficier
du contrle exclusif des ressources qui doivent tre partages. Toute application doit donc
passer par le VMM pour pouvoir accder une telle ressource.
Daprs Popek et Goldberg, un VMM doit se conformer ces trois proprits pour tre
considr comme tel. Daprs louvrage de rfrence Virtual Machines : Versatile Platforms
For Systems And Processes 26, la plateforme qui rpondrait aux critres dquivalence et de
contrle des ressources pourrait tre considre comme un VMM, alors que celle qui
rpondrait galement au critre defficacit pourrait tre considre comme un VMM
efficace.
Popek et Goldberg partent du principe que larchitecture de lISA (Instruction Set
Architecture) de la machine physique charge dexcuter le VMM, doit correspondre aux
trois critres mentionns ci-dessus.

Les prrequis lmentaires mentionns au sous-chapitre prcdent peuvent tre considrs


comme une base ayant donn lieu des rgles plus spcifiques. Avant de parvenir
llaboration de leurs diffrents thormes, Popek et Goldberg ont dabord labor une
classification des diffrentes instructions processeur en trois diffrents groupes :
Les instructions privilgies : ces dernires exigent du processeur quil se trouve en
mode privilgi (mode noyau) pour tre excutes. Si tel nest pas le cas, elles
devront tre piges (de langlais trap) par le systme afin dtre traites par le
VMM. Le pige en question, ou exception, consiste en un changement de contexte et
un traitement de linstruction par le VMM qui dcide concrtement de la suite quil
convient de lui donner. Il peut dcider de lignorer ou den muler son
fonctionnement ;
Les instructions de contrle sensibles : ces dernires tentent de modifier la
configuration des ressources physiques au sein du systme. Sont incluses dans ce
groupes les instructions qui sont susceptibles de modifier la quantit de mmoire
alloue un processus ou celles visant changer le mode au sein duquel volue le
processeur sans malgr tout tre pige (cf. instructions privilgies) ;
Les instructions de comportement sensibles : ces dernires sont les instructions
dont le comportement ou le rsultat dpend de la configuration des ressources,
savoir le contenu du registre de relocalisation ou le mode dans lequel se trouve le
processeur. Ce groupe inclut les instructions qui visent lire une zone de mmoire
spcifique ou se dplacer au sein de la mmoire vive.
Il convient de prciser quun groupe supplmentaire dinstructions existe, sagissant du
groupe des instructions non-privilgies. Ces dernires nexigent pas un degr de privilges
lev pour tre excutes. Le processeur pourra ds lors se trouver en mode noyau comme
26

De James Edward Smith et Ravi Nair.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

4.2.2.2 Classification des instructions processeur

55
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

en mode utilisateur lors de leur excution. Il sagit par exemple de certaines oprations
lmentaires comme laddition, la multiplication, etc.

4.2.2.3 Thormes de la virtualisation


Aprs avoir procd la dfinition du VMM et la classification des instructions processeur,
Popek et Goldberg noncent enfin laspect fondamental de leur thorie, savoir llaboration
de trois thormes, lesquels sont :
Le premier thorme porte sur les conditions de mise en uvre dun VMM, stipulant que
pour se faire, les instructions sensibles soient ajoutes au groupe des instructions
privilgies afin que, comme ces dernires, elles soient piges et traites par le VMM. La
proprit de contrle de ressources est de ce fait assure. Les instructions non-privilgies
doivent, quant elle, tre excutes nativement (i.e. efficacit). La proprit de lquivalence
est ainsi galement respecte.
Ce thorme fournit par ailleurs une technique lmentaire pour implmenter un VMM. Cette
dernire est appele trap-and-emulate et est aborde plus bas (cf. section 4.2.3, Trap-andemulation). En rsum, toutes les instructions sensibles se comportent parfaitement bien
tant que le VMM les pige et mule ces dernires. Cest pour cette raison quon qualifie
souvent cette mthode de virtualisation classique.

Le second thorme nonce quil est possible de mettre en uvre une virtualisation
rcursive sur une architecture processeur donne, pour autant que :
cette dernire rponde au premier thorme ;
quun VMM sans dpendance temporelle (timing dependencies) peut tre labor
pour elle.
Certaines architectures, comme la x86 sans assistance du matriel (cf. section 4.3.3.1,
Virtualisation de laccs au processeur), ne rpondent pas cette condition et ne peuvent
ds lors pas tre virtualises selon la manire classique. Ces architectures peuvent
cependant tre totalement virtualises (dans le cas du x86 cela signifie au niveau de lunit
centrale et du MMU) en utilisant dautres techniques comme la traduction binaire qui permet
de remplacer les instructions sensibles qui ne gnrent pas de mcanisme dexception
(pige) (cf. section 4.3.1.1, Virtualisation totale (traduction binaire)). Ces dernires sont
souvent appeles instructions critiques.
Quant au troisime thorme, il prcise quun moniteur de machine virtuelle hybride
peut tre mis en uvre si le groupe des instructions sensibles excutables en mode
utilisateur est un sous-ensemble du groupe des instructions privilgies.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Il convient de prciser que larchitecture lorigine de la virtualisation des environnements


x86, la virtualisation totale, ne rpond pas ce thorme car un certain nombre
dinstructions posent problme. Les travaux de Mendel Rosenblum viseront prcisment
contourner ce problme et le succs rencontr par ce dernier seront lorigine de la cration
de la socit VMware (cf. section 1.2.2, Ncessit dune virtualisation x86, section 4.2.5,
Virtualiser larchitecture x86 et section 4.3.1.1, Virtualisation totale (traduction binaire)).

56
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

4.2.3 Trap-and-emulation
Cette mthode, dcoulant directement du premier thorme de Popek et Goldberg est
considre comme mettant en uvre la virtualisation au sens classique du terme. Il sagit
dune manire gnrique de faire qui est destine sappliquer toute architecture
disponible sur le march.
Le concept rpond aux conditions gnrales suivantes :

Le VMM doit sexcuter en mode noyau, la machine virtuelle hberge sexcutant,


quant elle, en mode utilisateur. Ces deux niveaux de privilges doivent donc tre
mis en uvre par larchitecture (cf. section 4.1.1.7, Niveaux de privilges) ;
La machine relle dispose dun mcanisme de rimplantation dynamique dadresses,
lui permettant de mettre en uvre la mmoire des machines virtuelles hberges.

Figure 4-9 : Traitement d'une instruction sensible (Source : Concept de machine virtuelle d'Alain Sandoz)

Aprs avoir pig linstruction sensible en question, le VMM mule son effet, et ce, au niveau
du matriel virtuel quil fournit au systme dexploitation invit (cf. figure 4-9).

4.2.4 Performance dans la pratique


Le critre defficacit abord dans la dfinition dun VMM par Popek et Goldberg ne
concerne que lexcution des instructions non-privilgies, ces dernires tant excutes de
manire native. Cest dailleurs ce qui distingue un VMM dun logiciel dmulation matriel.
Malheureusement, mme sur une architecture qui rpond aux critres de Popek et Goldberg,
les performances dune machine virtuelle peuvent tre significativement diffrentes que
celles observes sur une machine relle. Les premires expriences ralises sur le
System/370 dIBM, lequel rpondait aux spcifications du premier thorme, ont dmontr
que les performances de la machine virtuelle pouvaient se situer 21% au-dessous de celles
de la machine native (au niveau de certains points de repre en particulier).
Piger les instructions ayant lev des exceptions et en muler les effets gnrent en effet un
cot substantiel. Les ingnieurs dIBM ont trait cette problmatique par lajout dun certain

Chapitre n4 : Fondamentaux technologiques de la virtualisation

De plus, toute instruction sensible (cf. section 4.2.2.2, Classification des instructions
processeur) doit provoquer une exception (trap) lorsquelle est excute en mode utilisateur.

57
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

nombre dassistances de type matriel, divers niveau. Nous pouvions en compter jusqu
cent sur les dernires versions du System/370. Il convient de prciser que les solutions de
virtualisation contemporaines nchappent pas lassistance matrielle, les fabricants ayant
eux-mmes entrepris de modifier larchitecture de leurs produits dans le but dintroduire un
support matriel la virtualisation (cf. section 4.3.3, Assistance matrielle).
Le concept de mmoire virtuelle lui-mme a constitu un jalon important dans le
dveloppement de lassistance matrielle du System/370. En effet, lorsque le systme
dexploitation client implmente le principe de la mmoire virtuelle (cf. section 4.1.1.2,
Principe de la mmoire virtuelle), mme lexcution des instructions non-privilgies peut
subir un ralentissement, sagissant dune pnalit impose par la ncessit daccder aux
tables de traduction (translation tables) qui ne sont pas utilises lors de lexcution native.

4.2.5 Virtualiser larchitecture x86


LIA-32 (x86) nest pas lunique architecture qui ne rpond pas aux critres de Popek et
Goldberg. Les autres architectures concernes (qui disposent dinstructions sensibles mais
non-privilgies) sont simplement largement moins distribues que celles appartenant la
famille x86. Cest la raison pour laquelle ce chapitre est spcialement consacr cette
architecture.

Cest cette poque seulement que les leaders du march des processeurs, Intel et AMD,
firent voluer leurs produits (processeurs compatibles x86) pour que ces derniers prennent
en charge la virtualisation au niveau matriel (cf. section 4.3.3.1, Virtualisation de laccs au
processeur).
En effet, lISA x86 se prte mal la virtualisation cause de 17 instructions sensibles, mais
non-privilgies qui ne provoquent pas dexception lorsquelles sont excutes en mode
utilisateur. Ces instructions peuvent tre classes en deux groupes :
Les instructions sensibles affectant les registres, qui peuvent lire ou changer des
valeurs dans des registres sensibles et/ou dans des zones mmoire, sagissant par
exemple du registre de lhorloge ou des registres dinterruptions :
o SGDT, SIDT, SLDT ;
o SMSW ;
o PUSHF, POPF ;
Les instructions relatives la protection du systme, qui rfrence le systme de
protection de la mmoire ou le systme de relocation dadresses :
o LAR, LSL, VERR, VERW ;
o POP ;
o PUSH ;
o CALL, JMP, INT n, RET ;
o STR;
o MOV.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Larchitecture x86, largement plbiscite sur le march des processeurs et quipant, de ce


fait, la plupart des ordinateurs (stations de travail comme serveurs), ne rpondait pas aux
critres de Popek et Goldberg, et ce, jusquen 2005.

58
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Nous constatons ds lors que les instructions de cet ISA ne sont donc pas toutes sur un pied
dgalit. Les instructions mentionnes ci-dessus peuvent modifier la configuration des
ressources du processeur. Nous rappelons donc quelles doivent tre interceptes.
Comme nous lavons vu prcdemment, ce type de traitement est vident pour toutes les
instructions privilgies, le systme dexploitation tant alors excut en anneau 3, linstar
des applications. Dans ce cas, toutes les requtes dinstructions privilgies dclenchent
une erreur systmatiquement traite par le VMM. Cest nettement plus compliqu pour les 17
instructions critiques (sensibles et non privilgies) voques plus haut, car ces dernires
ne dclenchent pas dexception. Elles doivent ds lors tre dtectes au coup par coup
par le VMM, puis rinterprtes.
Diffrentes techniques permettent de virtualiser les architectures qui ne rpondent pas aux
critres de Popek et Goldberg, dont larchitecture x86 en mode dadressage protg. Nous
aborderons certaines dentre elles la section 4.3, quelles soient logicielles comme la
traduction binaire (utilise lorigine par WMware) et la paravirtualisation, ou matrielles
comme lvolution du jeu dinstructions des processeurs.

4.3 Techniques de virtualisation


4.3.1 Virtualisation logicielle
4.3.1.1 Virtualisation totale (traduction binaire)

La machine virtuelle invite na donc absolument pas conscience dtre virtuelle dans un
tel contexte. Le systme dexploitation invit bnficie dun environnement physique mul
son attention par le VMM. Seul ce dernier est mme de dmarrer une machine virtuelle. Il
est galement le seul tre autoris accder la couche matrielle.
La figure 4-10, ci-dessous, illustre le principe de la virtualisation totale. Un systme
dexploitation est install de manire classique sur la couche matrielle. Un logiciel de
virtualisation (par exemple, VMware WorkstationTM) fait ensuite office de VMM et mule
autant de matriel virtuel quil y aura de machine virtuelle. Nous faisons rfrence, dans ce
cas prcis, la virtualisation hberge.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La traduction binaire (Binary translation) est une technique dmulation consistant traduire
le jeu dinstructions dune architecture source vers celui dune architecture de destination.
Cette technologie permet un VMM de virtualiser une plateforme non-modifie (donc
intgralement virtualise). Nous faisons dans ce cas rfrence au concept de virtualisation
totale ou complte.

59
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 4-10 : Virtualisation totale correspondant une mise en uvre de type virtualisation
hberge (Source : Les diffrents types de virtualisation : La virtualisation totale par Antoine Benkemoun
- http://www.antoinebenkemoun.fr/2009/07/les-differents-types-de-virtualisation-la-virtualisation-totale)

Pour se faire, le VMM est spar des systmes dexploitation des machines virtuelles en
tant plac au niveau du ring0. Quant aux systmes dexploitation des machines virtuelles,
ils sont positionns en ring1. Les applications fonctionnant au niveau des systmes
dexploitation des machines invites restent excutes au ring3 (cf. section 4.1.1.7, Niveaux
de privilges). Cette organisation est cependant propre larchitecture x86.

Figure 4-11 : Anneaux de protection avec ou sans virtualisation (Source : Les anneaux de protection
systme par Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/les-anneaux-de-protection)

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La figure 4-11 illustre le principe des anneaux de protection. gauche, la virtualisation nest
pas mise en uvre. Le noyau volue donc en anneau 0 (mode superviseur) et les
applications en anneau 3 (mode utilisateur). droite, dans un contexte de virtualisation,
lhyperviseur prend en quelque sorte la place du superviseur qui volue cette fois en anneau
1. Quant aux applications, elles sont toujours excutes en anneau 3.

60
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

La figure 4-12 illustre nouveau les principes dcrits au prcdent paragraphe mais sous
forme de couche, en faisant correspondre ces dernires avec les diffrents anneaux. Le
schma met galement en vidence les instructions critiques lattention du processeur de
la machine virtuelle qui sont interceptes la vole au niveau de la couche de virtualisation
puis traduites laide de la traduction binaire afin de pouvoir tre traites par le processeur
physique du serveur hte.

LorsquAMD introduit sur le march lextension du jeu dinstructions x86 dIntel (AMD64),
reprise par Intel sous le nom de Intel 64, le nombre danneaux est rduit deux. En effet,
hormis certains dentre eux (comme OS/2 notamment qui en utilisait trois), la plupart des
systmes dexploitation nutilisaient que lanneau 0 et lanneau 3. Il tait cependant capital,
pour les solutions de virtualisation la virtualisation totale ntant pas la seule concerne par
cette problmatique dutiliser un troisime cercle pour cloisonner le VMM.
Il a donc t dcid de mutualiser lanneau 3 entre les applications et les systmes
dexploitation, lhyperviseur tant situ au sein de lanneau 0 (cf. figure 4-13).

Figure 4-13 : Mutualisation de lanneau 3 sur architecture 64 bits (Source : Les anneaux de protection
systme dans le cas du 64-bit par Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/lesanneaux-de-protection-systeme-dans-le-cas-du-64-bit)

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Figure 4-12 : Virtualisation laide de la technique de la traduction binaire, du point du vue des anneaux
de protection (Source : La virtualisation des serveurs x86 par John Marcou - http://rootlab.fr/2011/06/04/la-virtualisation-de-serveurs-x86)

61
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

AMD et Intel, conscients de lintrt croissant port par les diffrents acteurs du march de
la virtualisation, ont finalement dcid dinclure dans leurs processeurs des instructions
propres la virtualisation (cf. section 4.3.3.1, Virtualisation de laccs au processeur). Par la
mme occasion, un anneau -1 a t ajout afin dviter la mutualisation de lanneau 3, ce qui
a permis de revenir une disposition plus aboutie des composants applicatifs parmi les
anneaux de protection (cf. figure 4-14).

Comme nous nous le laissions prcdemment entendre, la traduction binaire est utilise
pour traiter les instructions critiques rfrences la section 4.2.5, Virtualiser l'architecture
x86. Nous avons vu que ces instructions, lorsquelles proviennent du systme dexploitation
invit et quelles sont destines au processeur virtuel, sont en quelque sorte interceptes la
vole puis traduites afin de pouvoir tre excutes par le processeur physique (cf. figure 415).

Figure 4-15 : Virtualisation complte avec traduction binaire (Source : Questions actuelles dinformatique,
La virtualisation de Franois Santy et Gatan Podevijn)

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Figure 4-14 : Ajout dun anneau supplmentaire, destin lhyperviseur (Source : Les anneaux de
protection systme dans le cas du 64-bit par Antoine Benkemoun http://www.antoinebenkemoun.fr/2009/08/les-anneaux-de-protection-systeme-dans-le-cas-du-64-bit)

62
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Il convient de prciser quen vertu des critres de Popek et Goldberg, cette technique de
virtualisation nen est a fortiori pas une, puisquelle ne rpond pas au critre defficacit. En
effet, le VMM excute de manire logicielle un nombre significatif dinstructions.
Nous prcisons que larchitecture physique mule prsente pour avantage un haut niveau
de compatibilit avec la plupart des systmes dexploitation. Il sagit dun lment primordial
lors de linstallation dune machine invite, lorsque cette dernire ne bnficie pas encore
des pilotes de la machine virtuelle. Toutefois, cette technique nest destine qu la
virtualisation dun systme dont larchitecture est similaire celle de la machine physique
hte. Un systme fonctionnant par exemple sur une architecture Intel x86 ne pourra pas
virtualiser un systme compil pour une architecture ARMv8.
Cette technique a t porte au niveau de larchitecture processeur x86 par WMware en
1999, ce qui a contribu de manire significative lencrage de la firme comme un des
diteurs leader du march de la virtualisation.
Les deux principaux types de traduction binaire sont la traduction binaire statique et la
traduction binaire dynamique.

Un traducteur fonctionnant sur la base de cette technique, convertit la totalit du code dun
fichier excutable provenant de larchitecture source en un code qui fonctionne sur
larchitecture de destination, sans avoir excuter le code pralablement (comme cest
dailleurs le cas avec la traduction binaire dynamique). Cette technique est difficile mettre
en uvre, ds lors que le traducteur ne peut dcouvrir de manire systmatique la totalit
du code. En effet, certaines parties dun code excutable ne peuvent tre atteignables quau
travers de branches indirectes dont la valeur nest connue quune fois le code en cours
dexcution.
Gnralement, lexcution dun code excutable par le biais de cette technique offre des
performances se situant en de de la rapidit observe nativement.
4.3.1.1.2 Traduction binaire dynamique
La traduction binaire dynamique se fait par slection de petites squences de code
typiquement de lordre dun seul bloc de base puis par mise en cache du rsultat de la
traduction de ces courtes squences. Le code est seulement traduit comme il est dcouvert
et quand cela savre possible. Des instructions de branchement sont prvues pour quil soit
possible de pointer vers les parties de code dj traduites et enregistres (Memoization).
La traduction binaire dynamique diffre de lmulation car elle limine la boucle lecturedcodage-excution propre cette technique - qui constitue de facto un goulot
dtranglement majeur au prix toutefois dun important surcroit de consommation implicite
(overhead). Ce surcot est heureusement amorti par le fait que les traductions de squences
de code sont excutes plusieurs fois par la suite.
Il convient de prciser que les traducteurs binaires dynamiques les plus avancs se servent
de la technique de la recompilation dynamique. Le code est tudi afin que les parties

Chapitre n4 : Fondamentaux technologiques de la virtualisation

4.3.1.1.1 Traduction binaire statique

63
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

excutes le plus grand nombre de fois puissent tre mises en vidence, ces dernires tant
ensuite drastiquement optimises.

4.3.1.2 Paravirtualisation
La paravirtualisation consiste modifier les instructions processeur du systme dexploitation
invit au niveau du noyau, afin que ce dernier puisse communiquer directement avec
lhyperviseur (VMM). Nous qualifions ds lors ces instructions dhyper-appels (hyper-calls).
Dans ce cas, lhyperviseur fournit une interface dhyper-appels pour les oprations critiques
du noyau, voques maintes fois (celles relatives notamment la gestion des interruptions
et celle de la mmoire). Dans ce cas de figure, les traditionnels appels systme sont
remplacs.
Conformment ce que nous avons dj pu observer dans le cadre de la virtualisation
totale, lhyperviseur est galement positionn au niveau de lanneau 0, le systme
dexploitation invit au niveau 1, les applications, quant elles, tant excutes au niveau 3.

Figure 4-16 : Virtualisation laide de la paravirtualisation, du point de vue des anneaux de protection
(Source : La virtualisation de serveurs x86 par John Marcou - http://root-lab.fr/2011/06/04/la-virtualisationde-serveurs-x86)

Cette technique a lavantage damliorer les performances du systme invit, les dispositifs
de bas niveau tant directement accessibles par ce dernier par lintermdiaire de pilotes
paravirtualiss. Son rendement est pratiquement comparable celui dun systme
dexploitation directement install sur la machine physique.
Contrairement au scnario en vigueur dans le cadre de la virtualisation totale, le systme
dexploitation invit a ici conscience dtre virtualis. En dautres termes, ce dernier doit
tre port , soit adapt pour tre mme de communiquer avec lhyperviseur plutt
quavec la machine physique. La figure 4-17, illustre ce portage . Les noyaux modifis
des systmes dexploitation invits sont mme de communiquer directement avec
lhyperviseur, ce dernier se chargeant dinteragir avec le matriel.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La figure 4-16 illustre le cheminement des hyper-appels et met en relation les diffrentes
couches avec les anneaux de protection correspondants.

64
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 4-17 : Paravirtualisation base sur lexistence dun hyperviseur (Source : La paravirtualisation par
Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/la-paravirtualisation)

La consquence principale de cette manire de faire rside dans le fait que si lditeur du
systme dexploitation que nous dsirons virtualiser ny a pas apport les modifications
ncessaires, il devient impossible de lutiliser dans un tel contexte. En outre, des
complications lies la maintenance et au support peuvent se manifester, le noyau du
systme dexploitation ayant t modifi.

Nous prcisons toutefois quil serait incorrect de rduire lusage des solutions bases sur la
paravirtualisation au monde des systmes dexploitation libres. En effet, depuis larrive de
nouveaux processeurs implmentant de nouvelles instructions propres la virtualisation (cf.
section 4.3.3.1, Virtualisation de laccs au processeur), les environnements non-modifis
comme Windows peuvent galement tre virtualiss selon cette mthode.

4.3.1.3 mulation
Lmulation peut tre considre comme la capacit substituer un dispositif informatique
par un logiciel. Il est ainsi possible de faire fonctionner un systme dexploitation invit sur un
systme dexploitation hte alors mme que larchitecture de leur processeur respectif nest
pas similaire. Nous pourrions ds lors envisager linstallation dun systme dexploitation
SolarisTM compil pour larchitecture SPARC (Scalable Processor ARCitecture) sur un
systme compil pour un processeur x86. Lordinateur entier est donc mul.
Dans ce cas de figure, le systme invit na pas conscience de son statut de systme
invit, pas plus que le fait quil fonctionne dans une architecture qui lui est trangre.
Lmulation matrielle, dordinaire particulirement lente, peut tre considre comme viable
en tant quoption de virtualisation de par le fait que les logiciels dmulation et pilotes
27

http://www.xen.org/.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Par consquent, cette technique de virtualisation ntait pas du tout adapte lorsquil
sagissait de virtualiser des environnements propritaires (Windows, par exemple). Cette
mthode savre plutt pertinente lorsquil sagit de virtualiser des environnements libres
(LinuxTM, par exemple), leur noyau pouvant tre modifi sans autre forme de procs. Cest la
raison pour laquelle les parties prenantes au Xen Project 27, dont le but tait prcisment la
mise au point dun hyperviseur, se sont passablement appuys sur le monde des systmes
dexploitation libres pour parvenir sa mise au point.

65
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

rcents, ainsi que les processeurs 64 bits des machines htes, offrent une qualit
dinfrastructure adquate.
Ce type de technologie est tout fait pertinente pour les dveloppeurs qui doivent travailler
sur llaboration de pilotes ou de diverses autres technologies prvues pour des plateformes
que les moyens de lentreprise qui les emploie ne permettent pas dacqurir ou de supporter,
faute de personnel en suffisance.

4.3.2 Virtualisation au niveau noyau


Cette technique consiste en la mise en uvre dun noyau (gnralement LinuxTM) compil
de telle sorte quil puisse tre utilis dans le niveau de privilge correspondant lutilisateur
(sagissant ds lors dun noyau invit). Cette technique permet donc de bnficier de
plusieurs machines virtuelles invites, appeles gnralement systme de fichiers racine
sur un hte unique.

4.3.3 Assistance matrielle


Le concept de virtualisation ou assistance matrielle, trs similaire la virtualisation du
systme dexploitation (et en particulier de la machine sous-jacente), divise le matriel en
segments indpendants et grs individuellement. Nous prcisons que dans certains cas de
figure, la virtualisation matrielle est requise pour que la virtualisation dune machine (station
de travail ou serveur) puisse se faire.

Le fait que lessor de la virtualisation de serveurs ou autres stations de travail ait t


consquent depuis le dbut des annes 2000 a pouss les constructeurs de processeurs,
tels quIntel et AMD, faire voluer leurs produits en consquence. Ces processeurs sont
respectivement connus sous les appellations dIntel VT-x, VT-c ou VT-d pour Intel (mis en
vente en 2005) et AMD-VTM pour AMD (mis en vente en 2006).
Intel VT-x apporte par exemple deux types dinnovations majeures pour les techniques
actuelles de virtualisation des architectures IA-32 et Intel 64 (et compatibles). VMX et un
concept de bascule assiste.
VMX
La premire innovation est relative aux niveaux de privilges ou anneaux de protection.
Nous y avons fait rfrence plusieurs reprises dans le prsent document (cf. section
4.1.1.7, Niveaux de privilges, section 4.3.1.1, Virtualisation totale (traduction binaire) et
section 4.3.1.2, Paravirtualisation).
La technologie VT introduit un nouveau mode dexcution au sein des processeurs
concerns, connue sous le nom de VMX 28. Ce dernier comporte un niveau racine (VMX root
operation) et un niveau correspondant aux anciens anneaux 1 3 (VMX non-root operation).
Le niveau VMX root operation est destin lhyperviseur alors que le niveau VMX non-root
operation fournit un environnement contrl par le VMM et conu pour supporter une VM.

28

http://www.intel.com/technology/itj/2006/v10i3/1-hardware/5-architecture.htm.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

4.3.3.1 Virtualisation de laccs au processeur

66
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Chaque niveau dopration comporte les quatre niveaux de privilges (ring0 ring3). Le
noyau du systme dexploitation invit peut donc voluer au sein de lanneau 0, les
applications excutes en son sein, au niveau 3, le VMM disposant de son propre jeu
danneaux (parfois appel lanneau -1).
La figure 4-18 illustre le fonctionnement de la technologie VMX, tel que dcrit ci-dessus.

Figure 4-18 : Technologie VMX et anneaux de protection (Source : La paravirtualisation par Antoine
Benkemoun - http://www.antoinebenkemoun.fr/2009/08/la-paravirtualisation)

Nous observons donc que la modification du noyau des systmes dexploitation invits
(paravirtualisation) ou la traduction binaire nest plus ncessaire (quoi que cette dernire
reste ncessaire pour dautres besoins).

Le deuxime apport propre cette technologie est li au partage des ressources entre
systmes dexploitation invits. Ces derniers peuvent sexcuter sans connaissance aucune
de la prsence dautres systmes invits. Lhyperviseur fournit une tranche de temps
dexcution un systme invit avant de le suspendre pour en attribuer une un autre
invit. Ce processus est rpt inlassablement. Le contexte des invits doit donc tre
sauvegard et restaur lors de chaque bascule (par exemple, ltat des registres et des
caches).
VT-x dfinit ainsi deux nouvelles transitions : la premire, appele VM entry, est une
transition du VMX root operation vers le VMX non-root operation. La deuxime, appele VM
exit, est une transition du VMX non-root operation vers le VMX root operation. Ces deux
transitions sont gres par le Virtual Machine Control Structure (VMCS), un segment
mmoire de quelques kilo-octets rserv dans lespace dadressage physique du systme
sous-jacent, qui contient une guest-state area (zone dtat invit) et une host-state area
(zone dtat hte). Chacune de ces zones possde des champs contenant les diffrents
composants de ltat processeur. Un VM entry charge ltat du processeur depuis la zone
dtat invit alors quun VM exit sauvegarde ltat du processeur dans la zone dtat invit
puis charge ltat du processeur depuis la zone dtat hte.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Bascule assiste

67
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

VM entry et VM exit ne sont pas les seules nouvelles instructions dont dispose lhyperviseur.
VM launch, VM resume, ainsi que dautres instructions de contrle existent dsormais pour
effectuer plus rapidement les oprations voques plus haut.
Les oprations du processeur changent substantiellement au sein du VMX non-root
operation. Les changements les plus importants rsident dans le fait que plusieurs
instructions et vnements provoque des VM exits. Certaines instructions (par exemple,
INVD) causent des VM exits inconditionnels et par consquent ne peuvent jamais tre
excutes dans le VMX non-root operation. Dautres instructions (par exemple, INVLPG) et
tous les vnements peuvent tre configurs pour faire de mme mais conditionnellement
en utilisant le VM-execution control fields du VMCS. La main peut ainsi passer de
lhyperviseur une machine virtuelle et inversement de manire souple.
Cette technologie permet un niveau de contrle fin lhyperviseur pour grer le partage de
temps processeur entre les diffrents systmes invits chaque fois quun tat dtermin du
processeur un dclencheur qui indique quune interruption est possible est atteint.
Elle prsente aussi lavantage dtre peut coteuse en ressources puisque cette structure de
contrle est gre au niveau du processeur et non par la couche logicielle.

Les technologies Intel VT-c et VT-d seront abordes plus prcisment la section 4.3.3.3,
Virtualisation de laccs aux priphriques dentres/sorties, puisquelles concernent
respectivement lamlioration des performances au niveau des entres/sorties de type
rseau (soit la virtualisation de la communication) et laccs direct aux diffrents chipsets de
la machine hte par la machine invite.

4.3.3.2 Virtualisation de laccs la mmoire


Dans le contexte classique dune machine physique, seul un systme dexploitation est
install. Ce dernier gre ds lors ladressage de la totalit de la mmoire vive. En rsum, il
dcide den allouer une quantit suffisante chaque application en cours dexcution.
Lespace correspondant cette dite quantit sera compris entre un certain bit dadresse
(appelons-le X) et un autre (appelons-le Y).
Cette adressage est ralis sur la base du principe de la mmoire virtuelle (concept abord
la section 4.1.1.2, Principe de la mmoire virtuelle) qui reprsente logiquement la mmoire
physique disponible, quelle soit rpartie sur une ou plusieurs barrette(s), voire sur le disque
dur (swap). Nous avons vu que la correspondance entre cette mmoire virtuelle et la
mmoire physique tait assure par le MMU qui, pour se faire, maintient jour la table des
pages (cf. section 4.1.1.4, Pagination).

29

http://www.amd.com/us/press-releases/Pages/Press_Release_98372.aspx.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Les spcificits dAMD-V tant trs proches de celles de lIntel VT-x, nous ne procderons
pas la sa description prcise dans la prsent chapitre. Toutes les informations relatives aux
processeurs dAMD comportant cette technologie tant bien videmment disponibles sur
Internet 29.

68
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Sur un ordinateur o fonctionnent paralllement plusieurs systmes dexploitation, il est


vident que chacun dentre eux ne peut avoir accs qu une partie seulement de lespace
totale de mmoire vive. Cest l quintervient le VMM, au moment de la cration par ses
soins dune VM. Dans un contexte idal, le systme dexploitation n 1 devrait utiliser les
adresses allant de 0 X et le systme dexploitation n 2, les adresses allant de X + 1 Y.
Malheureusement, un systme dexploitation dbute toujours son adressage ladresse 0,
des conflits entre les diffrents systmes dexploitation pouvant ds lors survenir.
Pour viter une telle ventualit, il est donc ncessaire que le VMM intercepte les accs
effectus par les diffrents systmes dexploitation vers le MMU puis les interprte. Le VMM
doit alors crer une page de table factice pour chacun des systmes dexploitation en cours
dexcution. Cette dernire doit faire correspondre les adresses virtuelles sollicites par le
systme dexploitation invit celles qui lui ont t rserves par le VMM dans la mmoire
physique. Ce tableau de correspondance intermdiaire est appel Shadow Page Table
(SPT).

Cest pour cette raison quIntel et AMD ont invent respectivement les Extended Page
Tables (EPT) et Rapid Virtualization Indexing (RVI). Ces deux technologies ont pour but
dimplanter le SPT au niveau matriel. Chaque systme invit dispose donc en plus dune
table des pages et dun MMU, dun EPT ou RVI, ce qui a pour consquence de leur
permettre un accs direct leur domaine dadressage rserv, sans provoquer lintervention
du VMM. Lensemble des adresses mmoire physiques des systmes invits est recompil
dans lEPT/RVI, la gestion de la mmoire du systme client tant ds lors entirement prise
en charge par le matriel, avec pour corollaire une rapidit accrue. Une valuation 30
effectue par la socit VMware dmontre par exemple que RVI offre un gain de
performance allant jusqu 42% par rapport lusage dune SPT.
AMD a intgr cette technologie dans ses processeurs Opteron de troisime gnration
(Barcelona) et Intel a fait de mme partir de larchitecture Nehalem. Il sagit pour Intel de
la seconde gnration de sa technologie prvue pour la virtualisation.

4.3.3.3 Virtualisation de laccs aux priphriques dentres/sorties


Nous avons vu prcdemment que laccs au processeur est transparent ds lors que la
machine physique est quipe dun processeur dernire gnration, AMD-VTM ou Intel VT-x
(cf. section 4.3.3.1, Virtualisation de laccs au processeur).
Laccs aux priphriques dentres/sorties (E/S) reste, quant lui, du ressort du VMM.
Chaque hyperviseur doit en effet crer ses propres priphriques dE/S virtuels. Il savre
donc ncessaire de partager une unique ressource dE/S entre plusieurs machines virtuelles.

30

http://www.vmware.com/pdf/RVI_performance.pdf

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Un simple accs la mmoire peut ds lors devenir une opration complexe, le VMM tant
dans lobligation de grer les accs mmoire de la VM, avec pour corollaire un
ralentissement substantiel du VMM au niveau de ses propres accs, en particulier lors de
priodes durant lesquelles les demandes daccs la mmoire sont frquentes.

69
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Il sagit en quelque sorte dun partage de type logiciel (software-based sharing). Des
techniques dmulation sont utilises pour fournir la machine virtuelle des priphriques
dE/S logiques. La couche mule sinterpose entre le systme dexploitation invit et le
matriel physique sous-jacent, permettant au VMM dintercepter tout le trafic gnr par le
pilote de la machine virtuelle.
La couche mule peut notamment rsoudre les multiples requtes dE/S provenant de
toutes les machines virtuelles et les srialiser (de langlais serialization) au sein dun unique
flux dE/S qui peut tre pris en charge par le matriel sous-jacent.
Les approches de type logiciel habituellement utilises en matire de partage de
priphriques sont lmulation de ces derniers ou les pilotes paravirtualiss.
Dans le cas de lmulation de priphriques par le VMM, les oprations dE/S doivent en
quelque sorte transiter par deux piles dE/S diffrentes. Lune tant situe au niveau de la
machine virtuelle, lautre au niveau du VMM.
Contrairement la technique de lmulation qui imite un priphrique existant et utilise le
pilote correspondant dj existant au sein du systme dexploitation invit, le modle bas
sur les pilotes paravirtualiss repose sur lusage dun pilote de type front-end au niveau de la
machine invite fonctionnant de concert avec un pilote back-end disponible au niveau de
lhyperviseur. Ces pilotes sont optimiss pour le partage et permettent dviter davoir
muler un priphrique entier. Le pilote back-end se charge de la communication avec la
couche physique. Nous avons prcdemment voqus ces diffrences de fonctionnement
au sein des sections dvolues la virtualisation totale et la paravirtualisation.

Figure 4-19 : Partage bas sur lusage de logiciel (Source : PCI-SIG SR-IOV Primer, An Introduction to SRIOV Technology de lIntel LAN Access Division)

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La figure 4-19 illustre le partage logiciel de priphrique.

70
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Lmulation de priphriques ou les pilotes paravirtualiss ne permettent pas de bnficier


pleinement des fonctionnalits avances offertes par les priphriques dE/S. De plus,
comme nous lavons voqu la section 4.3.1, Virtualisation logicielle, un usage important
de ressources processeur supplmentaires (overhead) est provoqu par la ncessit pour le
VMM dimplmenter un priphrique au niveau logiciel. La consquence est gnralement la
rduction du dbit maximum dE/S possible sur ce dernier (donc linverse de la situation
souhaitable).
ce propos, Intel a dmontr, par le biais de tests intensifs, quen utilisant uniquement
lmulation matrielle, un contrleur Ethernet 10 Gbit/s ne parvenait atteindre quun dbit
maximum de 4.5 environ 6.5 Gbit/s (la variation tant due aux diffrentes architectures de
serveur sur lesquelles les tests ont t mens).
Des pilotes adapts aux priphriques virtuels doivent tre de surcrot dvelopps. Les
performances lies ce type daccs sont loin dtre une panace (en particulier pour les
cartes graphiques). De plus, le VMM doit reproduire la gestion de la mmoire des
priphriques eux-mmes, ce qui savre parfois insuffisant. En effet, si un programme
sexcutant sur la machine invite tente daccder directement au matriel, il risque tout
simplement de ne pas fonctionner.

Une solution de virtualisation des E/S doit donc faire en sorte que les machines invites
soient isoles, au mme titre quelles le sont dj lorsquun environnement fonctionne sur
une machine physique spare. Nous lavons vu prcdemment, cette isolation est
ncessaire au niveau de laccs la mmoire, en sparant lespace totale de cette dernire
entre les diffrentes machines virtuelles. Pour les mmes raisons, il est impratif de sparer
les flux dE/S, les interruptions y relatives et dans le cas du partage de priphriques
disoler les oprations de contrle, les oprations dE/S et les erreurs.
Le partage de ressources matrielles exige parfois que nous passions outre la couche de
virtualisation en permettant la machine virtuelle daccder directement aux priphriques
concerns. Dautres mcanismes sont donc ncessaires pour renforcer le principe disolation
prcdemment voqu.
Tout comme dans le cas de la virtualisation de laccs la mmoire, les constructeurs ont
propos une nouvelle technologie cette attention, connue sous lappellation dIOMMU. Les
processeurs embarquant cette dernire sont connus sous les noms de VT-d pour Intel ou
de Vi pour AMD.
En informatique, lunit de gestion de la mmoire des priphriques dentres/sorties
(IOMMU) est semblable une unit de gestion de la mmoire (MMU) qui relie un bus
dentres/sorties compatible DMA (cf. section 4.1.1.8, Priphrique dentres/sorties) la
mmoire principale. Comme un MMU traditionnel, qui traduit les adresses virtuelles en
adresses physiques, lIOMMU se charge du mappage des adresses virtuelles

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La virtualisation des E/S a pour but de rendre les systmes htes suffisamment volutifs
pour permettre la prise en charge dun nombre croissant dinvits. Il est ds lors impratif de
tirer parti des ressources inutilises autant que faire se peut. Obtenir des performances
quasi natives au niveau des oprations dE/S devient donc un impratif.

71
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

correspondant aux priphriques dE/S aux adresses physiques correspondantes La


traduction mmoire est donc amliore et une protection de la mmoire est fournie, donnant
la possibilit un priphrique daccder directement la mmoire de lhte (DMA). Il est donc
possible de passer outre la couche E/S mule du VMM avec pour corollaire une
amlioration consquente des performances des machines virtuelles.

Figure 4-20 : Affectation direct (Source : PCI-SIG SR-IOV Primer, an Introduction to SR-IOV Technology de
Intel LAN Access Division)

Certaines units offrent galement une protection de la mmoire contre des priphriques au
comportement douteux.
La figure 4-21 compare le fonctionnement de lunit de gestion de la mmoire des
priphriques dE/S avec le fonctionnement de lunit de gestion de la mmoire (cf. section
4.1.1.2.4, MMU).

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Une fonctionnalit de la technologie VT-x dIntel permet une VM daccder directement


une adresse physique, ce qui autorise le pilote dun priphrique situ au niveau de la
machine virtuelle de pouvoir crire directement dans les registres du priphrique dE/S.
Intel VT-d fournit une capacit similaire destine aux priphriques dE/S leur permettant
dcrire directement dans lespace mmoire dune machine virtuelle (par exemple une
opration DMA). Ce processus est illustr par la figure 4-20, ci-dessous.

72
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 4-21 : Comparaison de lunit de gestion de la mmoire des entres/sorties (IOMMU) et de lunit
de gestion de la mmoire (MMU) (Source : en.wikipedia.org/wiki/IOMMU)

Les technologies dIntel et dAMD permettent donc de crer un accs virtuel aux
priphriques dentres/sorties.

Cette technologie prsente cependant un dsavantage important. En effet, en lieu et place


de partager un priphrique entre un systme hte et un systme client, un accs direct au
priphrique est fourni la machine invite. Il sagit donc bien dun accs direct et exclusif et
non dun partage en tant que tel. Par exclusif, nous entendons que pendant le laps de temps
durant lequel la machine invite bnficie dun accs direct au priphrique concern, la
machine hte perd le sien. En dautres termes, un priphrique physique ne peut tre
assign qu une seule VM la fois.
Il est bien videmment possible de ddier un priphrique physique une machine virtuelle
en particulier (par exemple, une carte graphique).
Lindustrie a cependant pris conscience de cette problmatique et a dvelopp de nouveaux
priphriques capables dtre nativement partags. Ces derniers reproduisent les
ressources ncessaires chacune des VM pour que ces dernires puissent tre connectes
au priphrique dE/S, le flux de donnes principal pouvant seffectuer sans laide du VMM.
Nous vitons donc les temptes dinterruption matrielle (IRQ) gnres par les machines
virtuelles lorsquelles sont nombreuses sur le mme hte physique.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Contrairement VT-x et AMD-V, qui dpendent du processeur, ces deux technologies


dpendent du chipset (ou tout de mme du processeur dans le cas des modles dIntel
intgrant le contrleur PCI-Express).

73
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

La spcification qui permet ce type de priphriques de pouvoir procder de la sorte est


connue sous lappellation SR-IOV 31.
SR-IOV permet un priphrique compatible PCIe de crer plusieurs instances de luimme. Le BIOS sur systme hte, ainsi que lhyperviseur doivent pouvoir supporter cette
spcification.
Lide de fonctions physiques (PFs pour Physical Functions en anglais) et fonctions
virtuelles (VFs pour Virtual Functions en anglais) est introduite par cette spcification, au
niveau du priphrique.
Les fonctions physiques regroupent les fonctions complte du priphrique (PCIe), incluant
les capacits tendues SR-IOV. Ces capacits sont utilises pour configurer et grer la
fonctionnalit SR-IOV.
Les fonctions virtuelles contiennent les ressources ncessaires la gestion des flux de
donnes (entrant et sortant) mais ne possdent quun jeu limit de ressources lies la
configuration. Il sagit donc de fonctions allges.

Un dispositif compatible SR-IOV (habituellement un hyperviseur) peut fournir un certain


nombre de VFs indpendantes et configurables, chacune dentre elles possdant son propre
espace de configuration PCI, et en assigner une ou plusieurs une VM. Les technologies de
traduction mmoire, telles que celles embarques dans VT-x ou VT-d, autorisent lusage des
techniques dassistances matrielles qui permettent les transferts directs de type DMA vers
et de la VM, contournant ainsi le traitement logiciel au sein du VMM.
La figure 4-22 illustre lassociation des fonctions virtuelles avec leur espace de configuration
respectif.

31

Single Root I/O Virtualization and Sharing, sagissant dune spcification mise en place par le PCI-SIG
(Peripheral Component Interconnect Special Interest Group). Ce dernier est un consortium de lindustrie de
llectronique, responsable des spcifications des bus PCI, PCI-X, et PCIe.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Une fonction racine unique (Single Root Function) par exemple, un port Ethernet unique
peut apparaitre comme tant plusieurs priphriques physiques.

74
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 4-22 : Association des VF avec leur espace de configuration (Source : PCI-SIG SR-IOV Primer, An
Introduction to SR-IOV Technology de Intel LAN Access Division)

Cette assistance matrielle vise :


Amliorer la vitesse laquelle les donnes transitent au sein dune plateforme multicur architecture Intel ;
Amliorer les performances de traitement des donnes au travers des multiples files
dattente au niveau du contrleur de rseau ;
Fournir une connectivit directe aux VM la NIC, ainsi quune protection des
donnes entre les VM.

4.4 Mise en uvre


4.4.1 Virtualisation des systmes dexploitation
4.4.1.1 Hyperviseur
Lhyperviseur, galement appel VMM, est, proprement parl, une plateforme de
virtualisation. Quoique le terme hyperviseur qualifie en soit llment gnrique que
constitue la plateforme en question, il est souvent utilis par abus pour qualifier une
technique de virtualisation en soi, sagissant en particulier de la paravirtualisation (mme si
cette technique illustre parfaitement le rle de lhyperviseur).
Lhyperviseur, hormis le fait de prsenter aux machines virtuelles invites la plateforme
voque ci-dessus, gre leur excution. Il permet en particulier le partage des ressources
matrielles entre les diffrentes instances de systmes quil hberge. Lhyperviseur est
gnralement install sur le matriel mme avec pour fonction dexcuter les machines

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Nous faisions galement rfrence la technologie VT-c dIntel dans la section lie la
virtualisation de laccs au processeur. Lacronyme VT-c signifie Intel Ethernet Virtualization
Technology for Connectivity.

75
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

virtuelles invites qui, elles-mmes, oprent en tant que serveurs ou en tant que stations de
travail.
Le terme hyperviseur trouve son origine dans le fait quhistoriquement, au sein de
larchitecture x86, le noyau du systme dexploitation est le superviseur (cf. section 4.1.1.7,
Niveaux de privilges) qui, ce titre, gre les interruptions. Cest donc en toute logique quun
hyperviseur gre les interruptions en environnement virtuel.
Nous avons vu que dans le cas de la virtualisation de systmes dexploitation non-modifis
(contrairement ce qui se passe dans un contexte de paravirtualisation), la couche de
virtualisation se situe au-dessus dun systme dexploitation hte et donc du noyau de ce
dernier. Nous pouvons donc considrer que le superviseur (noyau) va grer lhyperviseur, ce
qui constitue tout de mme une contradiction. Les notions dhyperviseur de type 1 ou de type
2 ont donc t cres pour diffrencier lhyperviseur li un contexte de virtualisation totale
de celui li un contexte de paravirtualisation.
4.4.1.1.1 Type 1 ou natif

Figure 4-23 : Hyperviseur bare metal (Source : fr.wikipedia.org/wiki/Hyperviseur)

Les hyperviseurs de ce type occupant une bonne place sur le march sont :
Citrix XenServerTM32 ;
VMware ESX / ESX(i)TM33 ;
32
33

http://www.citrix.com/English/ps2/products/product.asp?contentID=683148.
http://www.vmware.com/products/vsphere/esxi-and-esx/index.html.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Ce type dhyperviseur, galement qualifi de bare metal (littralement mtal nu), sexcute
directement sur lenvironnement matriel, comme illustr par la figure 4-23. Il sagit en fait
dun noyau allg et optimis pour hberger les machines virtuelles invites. Il sinscrit
historiquement dans un contexte de paravirtualisation mme si, nous lavons vu
prcdemment (cf. section 4.3.1.2, Paravirtualisation), lassistance matrielle procure par
les processeurs AMD-VTM et Intel VT-x permet de virtualiser un systme dexploitation dont
le noyau na pas t modifi (cf. section 4.3.3.1, Virtualisation de laccs au processeur). La
machine invite a donc parfaitement conscience dtre virtuelle.

76
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Microsoft Hyper-VTM34 ;
Red Hat Entreprise VirtualizationTM35.

4.4.1.1.2 Type 2 (ou virtualisation hberge)

Figure 4-24 : Hyperviseur de type 2 (Source : fr.wikipedia.org/wiki/Hyperviseur)

Les hyperviseurs de ce type, occupant une place de choix sur le march, sont :
VMware WorkstationTM36 ;
Oracle VirtualBoxTM37 ;
Parallels DesktopTM38 ;
Microsoft Virtual PCTM.

4.4.1.2 mulateur
Les meilleurs exemples dmulateurs logiciels que nous pouvons citer sont BochsTM39 et
QEMUTM40.
34

http://www.microsoft.com/en-us/server-cloud/hyper-v-server/default.aspx.
http://www.redhat.com/products/virtualization/.
36
http://www.vmware.com/fr/products/desktop_virtualization/workstation/overview.html.
37
https://www.virtualbox.org/.
38
http://www.parallels.com/fr/computing/.
39
http://bochs.sourceforge.net/.
40
http://wiki.qemu.org/Main_Page
35

Chapitre n4 : Fondamentaux technologiques de la virtualisation

Lhyperviseur de type 2 porte relativement mal son nom puisquil ne sagit pas vritablement
dun hyperviseur en tant que tel. En effet, nous ferons plus volontiers rfrence ici une
couche de virtualisation ou, pour tre prcis, un logiciel sexcutant lintrieur dun
systme dexploitation, la machine virtuelle invite sexcutant un troisime niveau audessus du matriel (cf. figure 4-24). Comme nous lavons vu prcdemment dans le cadre
de la virtualisation totale (cf. section 4.3.1.1, Virtualisation totale (traduction binaire)), la
machine invite na pas conscience davoir t virtualise.

77
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Bochs TM
Cet mulateur, crit en C++, est libre et gratuit. Il fonctionne sur les environnements UNIX,
LinuxTM, Windows et Mac OS/XTM mais prend en charge uniquement les architecture x86.
Ce logiciel trs sophistiqu prend en charge un vaste ventail de matriel, lui permettant
dmuler toutes les architecture IA-32 et Intel 64. Il prend galement en charge des
processeurs multi-curs mais ne tire pas compltement avantage du SMP ce jour.
QEMU T M
Cet mulateur est galement libre et gratuit et fonctionne sur un nombre limit
darchitectures, sagissant dIA-32, dIntel 64 et de PPC 41. Il est capable dmuler des
systmes IA-32, Intel 64, ARM, SPARC, PowerPC, MIPS et m68k.
Nous prcisons que les solutions de Microsoft que sont Virtual PCTM42 et Virtual ServerTM43
utilisent lmulation pour fournir lenvironnement ncessaire aux machines virtuelles. Il ne
sagit pas de solutions sur lesquelles nous pourrions envisager de baser une infrastructure
de production, ces dernires ayant t conues pour hberger gratuitement quelques
machines.
Il est noter que les performances des machines virtuelles quipes du systme
dexploitation Windows sont excellentes, tel point quil est difficile de savoir que nous
utilisons une machine virtuelle.

4.4.1.3 Niveau noyau


Nous voquerons au sein de cette section, deux solutions bien connues mettant en uvre la
virtualisation au niveau noyau. Ces solutions sont KVMTM 44et User-mode LinuxTM45.
KVMTM pour Kernel Virtual Machine est un QEMUTM modifi. la diffrence de ce dernier,
KVMTM utilise les technologies AMD-VTM et Intel VT (cf. section 4.3.3.1, Virtualisation de
laccs au processeur). Le noyau LinuxTM est utilis comme hyperviseur et fonctionne
comme un module que lon peut charger dans le noyau.
Cette solution permet de virtualiser de nombreux systmes dexploitation invits
architecturs IA-32 ou Intel 64, comme Windows, LinuxTM et FreeBSD.
Le composant noyau de KVMTM est inclus dans la ligne principale de LinuxTM, depuis la
version 2.6.20.
User-Mode Linux T M
UML ou LinuxTM en mode utilisateur se sert dun noyau excutable et dun systme de
fichiers racine pour crer une machine virtuelle. La console par le biais de laquelle nous

41

PowerPC.
http://www.microsoft.com/windows/virtual-pc/.
43
http://www.microsoft.com/windowsserversystem/virtualserver/.
44
http://www.linux-kvm.org/page/Main_Page.
45
http://user-mode-linux.sourceforge.net/.
42

Chapitre n4 : Fondamentaux technologiques de la virtualisation

KVM T M

78
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

accdons la machine virtuelle est simplement une session au sein dun terminal en ligne
de commande.
Utiliser UML peut est trs pratique lorsquil sagit dhberger des serveurs virtuels, mais
surtout :
Pour le dveloppement de noyau ;
Pour effectuer des exprimentations avec un nouveau noyau ou de nouvelles
distributions ;
Comme bac sable 46.
Procder de la sorte permet en effet de prserver son environnement LinuxTM principal.
UML est inclus dans tous les noyaux 2.6.x.

4.4.2 Virtualisation des processus ( noyau partag)


Cette technique tire avantage de la possibilit unique, existant au sein des systmes
dexploitation UNIX ou LinuxTM, de partager le noyau avec dautres processus du systme.

Un programme, un ensemble de programmes ou un systme dexploitation dans le cas de


la virtualisation noyau partag fonctionnant dans un environnement chroot est protg, le
systme emprisonn tant persuad de fonctionner sur une machine relle avec sa
disposition un systme de fichiers.
Au registre des avantages, nous pouvons mentionner le fait que les performances obtenues
peuvent tre qualifies de natives. En effet, les systmes ainsi constitus partagent le mme
noyau, soit celui du systme dexploitation hte. Aucune couche de virtualisation
supplmentaire nest ds lors ncessaire pour assurer la communication avec le matriel,
assurant du mme coup des performances natives (celles du noyau et du matriel sousjacent). Il nen va pas ainsi lorsquun hyperviseur est prsent, puisquil doit grer lui-mme
les accs au matriel. Il est galement utile de souligner que lisolation de ces systmes est
accrue, amliorant ainsi la scurit. Nous soulignons de plus quune densit plus leve de
systmes virtualiss sur un mme systme hte peut ainsi tre rendu possible, si nous
considrons la mmoire comme facteur limitatif. Cette mthode est en effet plus proche dun
systme faisant fonctionner plusieurs applications quun hyperviseur faisant fonctionner
plusieurs machines invites.
Quant au dsavantage majeur de cette technique, il rside dans le fait quil soit bien
videmment impossible de virtualiser des systmes dexploitation dont le noyau est diffrent
46

De langlais Sandbox, qui consiste en un environnement de test pour excuter des logiciels en cours de
dveloppement ou de provenance douteuse.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

La mise uvre de cette mthode est base sur la fonctionnalit chroot, pour change root,
ou modifier la racine. Le systme de fichiers racine dun processus est donc modifi par
cette fonctionnalit afin quil soit isol, avec pour but de fournir un espace utilisateur
bnficiant dune certaine scurit. Ces espaces, au sein desquels les systmes de fichiers
racine sont isols, sont qualifis de prison chroot ou de conteneur.

79
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

de celui du systme hte. Diffrentes distributions 47 LinuxTM pourront par exemple tre
virtualises si le systme hte est bas sur un environnement LinuxTM. Il ne sera par contre
pas possible dhberger un systme dexploitation Windows sur le mme environnement.
Les hbergeurs web utilisent cette mthode depuis un certain temps pour proposer leurs
clients les espaces mutualiss dont ils ont besoin. Ces derniers ne sont pas conscients
daccder une machine virtuelle et ne peuvent en aucun cas accder au systme hte
depuis la machine virtuelle dont ils disposent.
Les zones SolarisTM (containers) 48 et OpenVZTM49 peuvent tre considrs comme des
exemples concrets de virtualisation noyau partag.
Solaris Containers TM
Cette solution est intgre au systme dexploitation SolarisTM dOracle. Les zones en
question sont en fait des prisons (jails) BSD (Berkeley Software Distribution). Chacune
dentre elles contient sa racine virtuelle propre qui imite un systme dexploitation et un
systme de fichiers complet.
Chaque zone ne voit que ses propres processus et systmes de fichiers. La zone croit
quelle est un systme dexploitation complet et indpendant. Seule la zone globale, qui peut
tre considre comme le VMM, conscience de la virtualisation mise en uvre.
Tout comme dans le cas dUML (cf. section 4.4.1.3, Niveau noyau), les zones SolarisTM
peuvent faire office de bac sable. Cette solution est trs professionnelle, facile dutilisation
et offre des performances natives.
Le noyau OpenVZTM est optimis pour la virtualisation et son fonctionnement est trs proche
de celui des zones SolarisTM, ceci prs que nous pouvons faire fonctionner plusieurs
distributions LinuxTM laide du mme noyau.
Les zones ainsi cres sont connues sous les appellations de VE ou VPS. Elles sont isoles
les unes des autres et parfaitement scurises. Chaque conteneur peut tre considr
comme un serveur propre. Il peut tre redmarr indpendamment des autres conteneurs,
bnficier dun accs root, dutilisateurs, dune adresse IP, de mmoire, de processus, de
fichiers, dapplications, dune librairie systme et de fichiers de configuration, au mme titre
que nimporte quel environnement.
Nous prcisons que lhyperviseur Parallels Server Bare MetalTM50 de la socit ponyme
est bas sur OpenVZTM.

47

TM

Ici, nous entendons par distribution un systme dexploitation bas sur le noyau Linux , incluant un large
panel de logiciels intgrs. Les distributions les plus utilises sont bases sur Debian, comme la distribution
TM
TM
ponyme, ainsi quUbuntu ou Mint .
48
http://www.oracle.com/technetwork/server-storage/solaris/containers-169727.html.
49
http://wiki.openvz.org/Main_Page.
50
http://www.parallels.com/products/server/baremetal/sp/.

Chapitre n4 : Fondamentaux technologiques de la virtualisation

OpenVZ T M

80
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

5 Domaines dapplication
Au cours de ce chapitre, nous voquerons les diffrents domaines au sein desquels la
virtualisation peut tre mise en pratique. Il sagit en quelque sorte du prolongement de la
section 4.4, relative la mise en uvre des techniques de virtualisation, ceci prs que
cette dernire faisait rfrence la virtualisation des serveurs uniquement.
Ce chapitre vise donc offrir au lecteur une vue densemble des domaines dune
infrastructure physique qui contiennent des priphriques susceptibles dtre virtualiss. Il
na cependant pas vocation apporter des dtails techniques fondamentaux mais plutt
mettre en vidence les concepts et avantages y relatifs.
Nous verrons galement que les mthodes dabstraction de la couche physique peuvent
diffrer en fonction des domaines concerns. En effet, si virtualiser un serveur ou virtualiser
une station de travail revient pratiquement mettre en uvre les mmes principes de
virtualisation, virtualiser les applications, le stockage ou le rseau fait appel dautres
concepts technologiques.
Nous passerons rapidement sur la virtualisation des serveurs dont nous avons
abondamment parl dans les chapitres prcdents pour nous concentrer sur la virtualisation
des stations de travail (cf. section 5.2, Stations de travail) et des applications (cf. section
5.3, Applications). Ainsi, nous sortirons quelque peu du centre de donnes pour nous
rapprocher des utilisateurs. Puis nous regagnerons ensuite le datacenter pour voquer la
virtualisation du stockage (cf. section 5.4, Stockage) et du rseau (section 5.5, Rseau).

5.1 Serveurs

Aussi, nous napprofondiront pas le sujet dans la prsente section, cette dernire tant
simplement destine rappeler au lecteur que la virtualisation des serveurs demeure un
domaine dapplication cl. En effet, il sagit gnralement de la premire tape du processus
menant la virtualisation complte du centre de donnes, puis du reste du systme
dinformation.
Nous rappelons toutefois brivement que la virtualisation des serveurs consiste consolider
plusieurs serveurs virtuels (quil sagisse de serveurs mail, de serveurs dapplications, de
serveurs de fichiers, de lActive Directory, etc.), gnralement ddis, sur le mme serveur
physique, ce dernier faisant ds lors office dhyperviseur (cf. section 4.4.1.1, Hyperviseur).
Les principes fondamentaux de cette technologie rsident dans le fait de faire abstraction du
matriel sous-jacent en le rendant virtuel, de telle manire pouvoir y installer un systme
dexploitation. Virtualiser un serveur ou une station de travail revient donc pratiquement au
mme. La virtualisation de serveur ou de station de travail est dailleurs rgulirement

Chapitre n5 : Domaines dapplication

Les serveurs ont t les premiers dispositifs avoir t virtualiss, et ce, pour les raisons
que nous avons prcdemment voques, tant au chapitre 1, Introduction, portant sur
lhistorique de la virtualisation, quau chapitre 3, Bnfices de la virtualisation, voquant les
bnfices apports par cette technologie. Nous avons galement voqu longuement la
virtualisation des serveurs au chapitre 4, Fondamentaux technologiques de la virtualisation,
portant sur les fondamentaux technologiques de la virtualisation.

81
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

qualifie de virtualisation de systme dexploitation, ce qui, de notre point de vue, nest pas
suffisamment prcis. En effet, comme nous lavons vu plus haut, installer un systme
dexploitation sur une machine virtuelle, exige au pralable quun matriel virtuel soit fourni
par lhyperviseur. En consquence, nous virtualisons aussi bien la machine sous-jacente que
le systme dexploitation qui y sera install.
Les principales solutions de virtualisation serveurs sont :
VMware vSphere 51 (ESX ou ESX(i))TM ;
Microsoft Hyper-VTM52 ;
Citrix XenServerTM53 ;
Oracle VM ServerTM54 (pour X86 ou SPARC et uniquement pour la virtualisation des
bases Oracle) ;
Red Hat Entreprise VirtualizationTM55.

5.2 Stations de travail


5.2.1 Concept
La virtualisation des postes de travail est lvolution logique de la virtualisation des serveurs.
Le poste de travail se rsume une machine virtuelle disponible sur un serveur localis au
sein du centre de donnes. Les utilisateurs ne font que de se connecter cette machine
virtuelle, gnralement via des terminaux lgers.

TM

Figure 5-1 : Interactions avec un poste de travail virtuel (Source : VMware View , fiche produit)
51

http://www.vmware.com/products/vsphere-hypervisor/overview.html.
http://www.microsoft.com/en-us/server-cloud/hyper-v-server/default.aspx.
53
http://www.citrix.com/English/ps2/products/product.asp?contentID=683148.
52

54

http://www.oracle.com/us/technologies/virtualization/overview/index.html?origref=http://www.google.ch/url?sa=t&r
ct=j&q=oracle%20vm&source=web&cd=2&ved=0CDIQFjAB&url=http%3A%2F%2Fwww.oracle.com%2Fus%2Fte
chnologies%2Fvirtualization%2F&ei=2mRCUK_zM8fP4QS9sYD4Dw&usg=AFQjCNFG8ZPtny4cZu9MANF3cYdusrzJg.
55
http://www.redhat.com/products/virtualization/.

Chapitre n5 : Domaines dapplication

La figure 5-1 illustre le concept dcrit ci-dessus. Nous pouvons distinguer, au centre, un
poste de travail virtuel situ au sein du centre de donnes. Lutilisateur peut accder cette
station par le biais de tout type de client. La station de travail contient, quant elle, tant les
applications que les donnes, mais galement les paramtrages propres lutilisateur.

82
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Ce type de virtualisation rpond un certain nombre de dfis auxquels doivent rpondre les
services informatiques :
Les employs mobiles ont besoin dun accs complet aux ressources informatiques
(applications ou donnes), quel que soit le lieu o ils se trouvent ;
Le nombre de priphriques grer explose. Il existe, de plus, une varit toujours
plus importante de dispositifs. Nous sommes par exemple confront un nombre
croissant de demandes provenant des employs, relatives une connexion de
tablettes au rseau local de lentreprise ;
les tches en relation avec la gestion des ordinateurs de bureau doivent tre
simplifies et rationalises, afin dviter que les administrateurs soient
systmatiquement dtourns des tches stratgiques, dautant que les besoins des
utilisateurs se diversifient. Les cots relatifs certaines tches cls, comme la
configuration des stations de travail ou le dploiement de mise jour, de correctifs ou
de mise niveau, doivent tre rduits ;
Les employs attendent de leur employeur quil favorise lusage de dispositifs
personnels, tels que smartphones, laptop ou tablettes. Cette tendance, de plus en
plus patente au sein des socits, est qualifie de consumrisation ;
Laccroissement de la mobilit des employs, lexplosion du nombre de priphriques
et la consumrisation augmentent les risques lis la scurit.

5.2.2 Avantages
5.2.2.1 Amlioration de la gestion
Tout comme pour la virtualisation des serveurs, la virtualisation des postes de travail permet
de dplacer le systme dexploitation, les applications et les paramtres de lutilisateur des
stations clientes vers le centre de donnes. Cette centralisation de la gestion des postes
client vite donc aux administrateurs davoir se dplacer sur chaque poste pour rsoudre
diffrents problmes logiciels. Il en va de mme pour les problmes matriels, puisque un
terminal est moins complexe quun ordinateur et, de ce fait, moins sujet aux pannes.

Figure 5-2 : Client zro Dell Wyse

TM

P20 (Source : http://www.wyse.com/products/cloud-clients/zeroclients/P20)

Chapitre n5 : Domaines dapplication

La figure 5-2 illustre un client lger (zero client) Dell WyseTM P20 conu pour la solution
VMware ViewTM.

83
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

De plus, vol et vandalisme sont vits ou les pertes financires y relatives limites, le
terminal ne servant rien lorsquil est utilis seul et ntant pas trs cher.
Les dpartements informatiques nont pas se soucier davoir grer un grand nombre
dimages systme provenant de configurations matrielles diffrentes, puisque
lenvironnement de bureau est centralis et peut tre dploy sur diffrents types de
priphriques, indpendamment du matriel composant ce dernier.

5.2.2.2 Diminution des cots


En consolidant un certain nombre de postes de travail virtuels sur une plateforme
centralise, les infrastructures SHVD (Server Hosted Virtual Desktop) constituent un
formidable levier dconomie pour les directions des systmes dinformation. Daprs les
principales tudes menes par Entreprise Management Associates (EMATM), 71% des
entreprises ayant virtualis leurs postes de travail ralisent aujourdhui des conomies
tangibles de lordre de 60% sur leurs cots matriels, logiciels, ainsi que sur ceux relatifs
ladministration.

5.2.2.3 Amlioration de la productivit


Si un dispositif est en panne, lemploy peut accder sa station de travail virtuelle depuis
un autre priphrique, et ce, sans avoir restaurer donnes ou configuration.
La productivit des utilisateurs est amliore par le fait que ces derniers peuvent accder en
tout temps et depuis nimporte o leur environnement de bureau, partir de nimporte quel
type de priphriques (smartphones, tablettes, ordinateurs portables).

5.2.2.4 Renforcement de la scurit


La scurit des donnes stratgiques est garantie par le fait que ces dernires ne quittent
pas le centre de donnes. Puisque les employs accdent leur environnement de travail
depuis nimporte quel type de priphrique, ils ne ressentent plus le besoin de procder
des copies locales de leurs fichiers, voire de les sauvegarder sur cl USB ou sur support
optique pour les transfrer dun ordinateur un autre.

Des stratgies peuvent tre dfinies par les administrateurs pour fournir un niveau de
scurit supplmentaire. Laccs une station peut tre li un emplacement ou un type de
rseau. Laccs certaines donnes stratgiques peut par exemple tre limit en fonction du
lieu partir duquel lemploy se connecte. Lorsquun employ quitte lentreprise, ses
privilges daccs peuvent tre immdiatement supprims, vitant ainsi lexposition des
donnes.
Ces diffrents avantages contribuent relever les dfis mentionns au dbut de la prsente
section.

Chapitre n5 : Domaines dapplication

De surcroit, conformment la manire de faire lorsque nous travaillons avec des serveurs
virtuels, la sauvegarde des stations de travail virtuelles est centralise et simplifie (cf.
section 3.1.8, Optimisation de la sauvegarde).

84
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

5.2.3 Solutions
Les principales solutions de virtualisation des stations de travail sont :
VMware ViewTM56 ;
Citrix XenDestopTM57 ;
NEC Virtual PC CenterTM58 ;
Quest Desktop VirtualizationTM59 ;
Systancia AppliDis FusionTM60 ;
Neocoretech Desktop VirtualizationTM61 (NDV).

5.3 Applications
5.3.1 Concept
La virtualisation dapplications consiste crer un environnement virtuel propre
lapplication, comprenant ses propres cls de registre au sein dune base de registre propre,
son propre systme de fichiers, ses propres *.dll, voire des bibliothques tierces ou des
frameworks. Cet environnement virtuel est cr laide dune solution logicielle
dencapsulation prvue cet effet. Lapplication virtuelle fonctionne donc dans une bulle
qui lisole du systme dexploitation et des autres applications en cours dexcution. Les
conflits de *.dll sont vits et il devient parfaitement possible dexcuter, par exemple,
Internet Explorer 8 et 9 simultanment, sans quils ne se tlescopent, la couche virtuelle se
chargeant dintercepter les appels la base de registre ou au systme dexploitation.
Les cls de registre et le systme de fichiers ne constituent en rien des copies de ceux du
systme dexploitation sur lequel lapplication est excute. Ils contiennent simplement les
modifications effectues par lapplication pour pouvoir fonctionner.
Lapplication naura donc accs qu ses propres versions de *.dll et fichiers de configuration
systme. Sur le mme principe, elle ne pourra agir que sur sa propre base de registre.
Aucun conflit avec dautres applications nest donc craindre. Do le concept de bulle
applicative tanche.

Chapitre n5 : Domaines dapplication

Nous pouvons observer, sur la figure 5-3, la couche dintgration charge de linterception
des appels la base de registre et aux applications (1) et les fichiers systme propres
chaque application (2). Les applications demeurent indpendantes les unes des autres
puisquencapsules dans leur bulle respective (4).

56

http://www.vmware.com/fr/products/desktop_virtualization/view/overview.html.
http://www.citrix.fr/virtualization/desktop/xendesktop.html.
58
http://www.nec.com/en/global/solutions/vpcc/.
59
http://www.quest.com/desktop-virtualization/.
60
http://www.systancia.com/fr/AppliDis-Fusion-4.
61
http://www.neocoretech.com/produits/ndv-neocoretech-desktop-virtualisation/.
57

85
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 5-3 : Principe de virtualisation dapplications (Source : http://pro.01net.com/editorial/324015/lavirtualisation-dapplications)

5.3.2 Avantages
5.3.2.1 limination des conflits dinstallation
Les bulles virtuelles applicatives ne ncessitent aucune modification de lordinateur hte et
sexcutent indpendamment les unes des autres, vitant ainsi tout conflit potentiel entre
applications ou entre les applications et le systme dexploitation. Les recours au Help Desk
et les interventions des administrateurs sont ainsi rduits.

5.3.2.2 Portage dapplication facilit


La virtualisation dapplication rend possible le transfert de ces dernires vers une plateforme
plus rcente sans avoir dvelopper du code supplmentaire, tester lapplication pour la

Chapitre n5 : Domaines dapplication

Une application nest donc plus installe au sens traditionnel du terme. La bulle applicative
prcdemment voque est simplement dploye sur demande sur le priphrique cible,
soit entirement pour une utilisation en mode dconnect, sagissant alors de virtualisation
dapplications, soit en tant excute directement sur le serveur (streaming), sagissant ds
lors de virtualisation de sessions. Le mode de mise disposition est gnralement dfini par
le scnario daccs (type de priphrique, qualit du rseau, localisation). Si lapplication est
excute directement sur le serveur, elle bnficie en consquence dune puissance de
calcul accrue.

86
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

nouvelle plateforme ou la certifier nouveau. Les dploiements dapplications anciennes


vers un environnement plus rcent sont par consquent plus simples avec pour corollaire
une mise en production plus rapide. Les temps dinterruption sont ds lors limits et les
risques pour lentreprise diminus.

5.3.2.3 Simplification des mises niveau


Les mises jour dapplications sont centralises, une seule instance de chaque applicatif
tant stocke ct serveur, au sein du centre de donnes. Aucune modification nest par
consquent ncessaire ct client.

5.3.2.4 Simplification de ladministration du parc


Le dploiement, la configuration et la gestion des licences sont facilits par lexistence dune
plateforme ddie et centralise, permettant deffectuer ces oprations sans exiger le
dplacement dun administrateur vers un quelconque poste client.

5.3.2.5 Amlioration du service aux utilisateurs mobiles


Un accs fiable et souple peut tre garanti aux utilisateurs en dplacement, partir de
pratiquement tout priphrique disposition. Aucune installation et aucun droit
dadministrateur nest requis pour se faire. Les applications peuvent mme sexcuter partir
dun priphrique externe, comme une cl USB.

5.3.2.6 Renforcement de la scurit


Lorsque lapplication est excute directement sur le serveur, les donnes sont conserves
labri au sein du datacenter. Seuls les clics de souris, les frappes clavier et les mises jour
dcran transitent par le rseau. De plus, il est possible de faire en sorte que seuls les
utilisateurs autoriss puissent se connecter aux applications et par consquent aux donnes
y relatives. Il nest nul besoin daccorder des droits dadministrateur un utilisateur pour
excuter une application qui lexigerait en cas dinstallation traditionnelle.

Les principales solutions de virtualisation dapplications sont :


Citrix XenAppTM62 ;
VMware ThinAppTM 63 ;
Microsoft Application VirtualizationTM (App-VTM64) ;
Novell ZENworks Application VirtulizationTM65 ;
Systancia AppliDis FusionTM66.

5.4 Stockage
La virtualisation du stockage, appele galement abstraction du stockage, existe depuis le
dbut des annes 2000. Son taux de pntration du march croit de faon rapide depuis
lors. En effet, les entreprises ayant acquis au fil des annes des volumes consquents de
62

http://www.citrix.fr/French/ps2/products/product.asp?contentID=186.
http://www.vmware.com/fr/products/desktop_virtualization/thinapp/overview.html.
64
http://www.microsoft.com/en-us/windows/enterprise/products-and-technologies/virtualization/app-v.aspx.
65
http://www.novell.com/fr-fr/products/zenworks/applicationvirtualization/.
66
http://www.systancia.com/fr/AppliDis-Fusion-4.
63

Chapitre n5 : Domaines dapplication

5.3.3 Solutions

87
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

stockage, provenant de fabricants diffrents, ne possdant pas forcment les mmes


connectiques et, de surcrot, incorrectement exploits au niveau les LUN. Il nest pas rare de
provisionner un certain espace disque lattention dun serveur pour se rendre compte par la
suite que ce dernier a t surdimensionn. En multipliant lespace ainsi perdu dans un centre
de donnes contenant plusieurs armoires de type rack, lespace en question peut devenir
rapidement considrable.
La virtualisation du stockage permet de dimensionner correctement son stockage avec, pour
corollaire, de consquentes conomies de moyens financiers issues notamment de la
diminution du nombre de baies de disques, la diminution de la consommation lectrique
gnre par la climatisation des locaux concerns et la diminution des cots de
possession 67.

5.4.1 Concepts
La virtualisation du stockage consiste fdrer plusieurs ressources de stockage
indpendantes et ventuellement htrognes en une ressource centralise. Des volumes
ou disques de stockage virtuels logiques sont crs partir de ces diffrentes ressources et
prsents par la suite aux serveurs concerns.
Ainsi, quoiquune entreprise ait fait lacquisition de NAS, de baies de stockage iSCSI 68 et/ou
de baies de stockage fibre optique, que ces dispositifs soient dots de disques SATA, SAS
ou SSD ou quils aient t produits par diffrents fabricants, la socit en question pourra
tout de mme centraliser la totalit de lespace disque disponible et ladministrer partir dun
seul outil. Lorsque lacquisition de matriel de stockage supplmentaire savrera
ncessaire, la socit naura pas se soucier de la marque ou de la technologie de ce
dernier puisque cette nouvelle ressource sera virtualise. Lajout dlments de stockage se
fait au sein de lespace logique, en toute transparence, rendant ce type de solution
extrmement volutive.

Un espace de stockage trs important peut ainsi tre mis la disposition dun serveur
partir de plusieurs baies originellement isoles, ce qui naurait pas t possible si elles
taient demeures spares. Un environnement rcent peut galement tre prennis par
ce biais (dans le cas, par exemple, dune fusion de socits ayant donn lieu lexistence au
sein de la nouvelle structure de baies de stockage htrognes issues des anciennes
entreprises). Enfin, ladministration du stockage peut tre ralise partir dune seule et
unique console.
La virtualisation du stockage consiste en une abstraction de la couche physique du
stockage, les serveurs stockant linformation sans se soucier de lemplacement rel des
67

Ensemble des frais se rapportant la dtention de matriel, comme les primes dassurances, la location ou
lamortissement du local au sein duquel le matriel est situ, le nettoyage, etc.
68
Protocole dencapsulation servant transporter un protocole de plus haut niveau, en loccurrence celui
correspondant au standard SCSI (Small Computer System Interface) qui dfinit un bus informatique dont la
particularit est de dporter la complexit vers le priphrique lui-mme. Il sagit donc dune interface plus rapide
et plus universelle mais galement plus complexe.

Chapitre n5 : Domaines dapplication

Nous pouvons partir du principe que la capacit de stockage ne dpend plus de la capacit
physique dun dispositif mais uniquement des contraintes budgtaires.

88
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

donnes. Laccs ces dernires devient donc logique et non physique. Considrons, titre
dexemple, trois baies de stockage virtualises. La solution de virtualisation de stockage est
capable de rpartir physiquement les informations, selon des algorithmes qui lui sont
propres, sur les trois baies, elles-mmes logiquement entrelaces (RAID 0 ou striping).
Lintgrit des donnes de chacune des baies est garantie par un RAID 5. Le serveur qui
lespace de stockage a t allou ne voit que la partie logique de ce stockage. Outre
loptimisation des performances daccs et lamlioration de la scurit, cette technologie
permet de simplifier considrablement ladministration des baies.
Lemplacement physique des donnes est rpertori laide de mtadonnes. Ces dernires
assurent la mise en cohrence (mapping) des emplacements physiques des donnes avec
les emplacements logiques correspondant. Lorsquun LUN est sollicit par une requte, la
solution de virtualisation du stockage interroge les mtadonnes afin de pouvoir dterminer
quelles sont les baies qui stockent les donnes. La requte logique est donc convertie en
requte physique. Ces mtadonnes, ainsi que les fichiers de configuration du SAN virtuel,
sont donc essentiels et doivent faire lobjet dune attention particulire, notamment au niveau
de leur sauvegarde. Cette remarque sapplique tout particulirement au SAN compos dune
unique baie de stockage. Les donnes contenues sur cette dernire ntant pas rpliques
sur une autre baie.
Ladministration du stockage se situe donc au niveau de la solution de virtualisation de
stockage. Ladministration des baies savre toujours ncessaire mais est de moindre
complexit. En effet, seuls les volumes (LUN) sont crs au niveau des baies. Tout le
paramtrage se trouve au niveau de la solution de virtualisation de stockage.
Les principaux fournisseurs de solutions de virtualisation de stockage sont DataCoreTM et
FalconStor. Le premier propose un produit nomm SANsymphonyTM-V, quil nhsite pas
qualifier de premier hyperviseur de stockage. Le second propose Network Storage Server
Virtual Appliance (NSS VA).
Larchitecture relative la virtualisation du stockage peut tre symtrique (in-band) ou
asymtrique (out-band).

Cette architecture, dsigne galement par le terme in-band, consiste faire en sorte que
les serveurs de production soient connects au stockage par lintermdiaire de lappliance de
virtualisation de stockage (qui peut galement tre un serveur ddi, voire tre intgr aux
commutateurs SAN). Ce dernier peut toutefois apparaitre comme un goulet dtranglement
(SPOF, Single Point of Failure) et doit ds lors imprativement tre scuris. Cette
scurisation peut se faire par le biais de la cration dun cluster comprenant un deuxime
serveur de virtualisation de stockage.
La figure 5-4, ci-dessous, illustre cette infrastructure et le goulet dtranglement potentiel,
puisque le serveur de virtualisation du stockage nest pas dupliqu.

Chapitre n5 : Domaines dapplication

5.4.2 Architecture symtrique

89
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 5-4 : Symtrique ou In-Band (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot)

Lappliance de virtualisation du stockage doit tre correctement dimensionne, la totalit des


requtes transitant par cette dernire. Dans le cas contraire, les accs au stockage
pourraient tre peu performants, voire peu fiables. Une quantit importante de cache peut lui
tre octroye pour pallier ce genre de problme. Nous prcisons que le dbit propos par les
liens Ethernet ou FC doit galement tre suffisamment performant, sans quoi le cache se
trouvera rapidement satur.

5.4.3 Architecture asymtrique


Cette architecture, appele galement out-band, permet dviter le SPOF voqu
prcdemment (section 5.4.2). Contrairement au processus en vigueur au sein dune
architecture in-band, les donnes ne transitent pas par le serveur de virtualisation de
stockage, mais directement des serveurs de production lespace de stockage (SAN).
Pour assurer un tel traitement, un agent est install sur les serveurs de production. Ces
derniers sen serviront pour communiquer avec le serveur de virtualisation de stockage. Le
serveur de production utilise son agent pour indiquer au serveur de virtualisation de stockage
les emplacements utiliss sur les baies. Le serveur de virtualisation de stockage passe par
lagent pour faire parvenir ses requtes un serveur de production (cf. figure 5-5).

Chapitre n5 : Domaines dapplication

La plupart des solutions offertes par le march savrent tre in-band, limplmentation de
cette technique tant assez souple. Il est en effet inutile dajouter une couche logicielle sur
les serveurs, ce qui fait delle une solution totalement transparente.

90
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 5-5 : Asymtrique ou Out-Band (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot)

Cette architecture est plus performante car le serveur de virtualisation de stockage nest
sollicit que pour convertir les requtes logiques en requtes physiques. Les ventuels
engorgements (Bottleneck) sont inexistants car les donnes ne transitent pas par celui-ci.
Linstallation dun agent sur les serveurs peut toutefois savrer problmatique dans les
environnements de virtualisation, ce qui a pour effet de limiter le nombre de dploiements de
ce type darchitecture malgr des avantages vidents. Les entreprises prfrant opter pour
une architecture symtrique performante et simple mettre en uvre.

5.4.4 Thin Provisioning

La figure 5-6 illustre le fait que lespace inhrent un disque logique peut tre rparti au sein
de plusieurs LUN, eux-mmes crs partir du pool de stockage.

Chapitre n5 : Domaines dapplication

Cette technique permet dallouer des blocs la demande pour un volume alors
quhabituellement lallocation de lensemble des blocs tait effectue au moment de la
cration dudit volume (Thick Provisioning).

91
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 5-6 : Thin Provisionning (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot)

On parle alors de sur-allocation du stockage, le serveur de virtualisation prsentant plus de


stockage aux diffrents serveurs que ces derniers nen disposent rellement. Il savre bien
souvent que la capacit dun volume allou un serveur ait t surestime. Cette technique
autorise une grande flexibilit au niveau de lallocation du stockage sans avoir, de surcrot,
estimer le taux de croissance ventuel.

Nous observons sur la figure 5-7 que le disque de gauche (vert) comprend un espace de 40
Go qui lui a dores et dj t allou de manire tout fait classique (Thick Provisioning).
Mme si les donnes contenues sur ce disque noccupent pas les 40 Go disponibles, cet
espace ne peut pas tre utilis dautres fins. Les autres volumes (rouge et bleu) bnficient
du Thin Provisioning. Mme si 60 Go ont t provisionns pour le disque rouge, les 20 Go
qui ne sont prsentement pas utiliss sont simplement rservs. Ils ne seront vritablement
utiliss que le jour ou le volume en aura rellement besoin et restent disponibles dans
lintervalle.

Chapitre n5 : Domaines dapplication

En virtualisation de stockage, nous parlons de pool de ressources de stockage (lments


mis en commun). La virtualisation de stockage permet de provisionner la demande les
blocs (en rpertoriant les emplacements physiques dans les mtadonnes) au sein dun tel
pool. Lorsquun pool arrive saturation, il convient simplement dy rajouter une ressource de
stockage quelle quelle soit.

92
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Figure 5-7 : Regroupement des blocs dans un centre de donnes (Source : www.vmware.com)

Grce cette technique, il est par exemple possible de provisionner un volume de 1 To sur
un emplacement physique qui ne correspondrait qu 250 Go au sein du pool. Il est ds lors
possible dacqurir du stockage au fur et mesure de laccroissement de la demande. Les
investissements initiaux ddis au stockage peuvent ainsi tre reports sur un autre budget.

Fort heureusement, les solutions actuelles de virtualisation du stockage (notamment


SANsymphonyTM-V de DataCoreTM) sont capables dalerter les administrateurs par le biais
de la console dadministration. Diffrents niveaux dalarme sont disponibles, tels que de
simples informations, des mises en garde ou des alertes critiques.

5.4.5 Fonctionnalits avances


Comme nous lavons vu plus haut, les solutions de virtualisation de stockage permettent de
centraliser diverses ressources de stockage htrognes. Hormis cet avantage non
ngligeable, plusieurs fonctionnalits ont t labores afin damliorer drastiquement les
performances offertes par cette technologie.

Chapitre n5 : Domaines dapplication

Nous attirons toutefois lattention du lecteur sur les risques inhrents au concept dOver
Provisioning ou Over Subscription. tant donn que le Thin Provisioning permet de signaler
un espace de stockage virtuel plus important que la capacit relle, un sur-provisionnement
de stockage peut apparaitre. Il est ds lors ncessaire de surveiller de prs lutilisation du
stockage, sans quoi lespace physique pourrait brusquement manquer. Cette situation peut
avoir pour consquence un achat non budgt de matriel coteux, et ce, dans lurgence.

93
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Une de ces fonctionnalits, essentielle pour la mise en uvre dune architecture


performante, est le mcanisme de cache. Les puissants processeurs et la mmoire vive des
serveurs x86-64 sur lesquels les hyperviseurs de stockage fonctionnent peuvent tre mis
contribution par ces derniers pour la mise en uvre de mga-cache, ce qui garantit une
augmentation consquente des performances pour des temps de latence diminus.
DataCoreTM annonce, titre dexemple, que jusqu 1 To de mmoire vive peut tre ainsi
configur en cache, par nud. Ceci autorise, en tirant galement parti des ressources E/S et
de la capacit de lunit centrale, lexcution de certaines fonctions avances des solutions
de stockage contrles par lhyperviseur. Les donnes crites ou lues sur les disques
migrent ds lors trs rapidement vers ou partir des caches. Les applications sexcutent
galement plus rapidement que si elles devaient se connecter directement aux disques.
Il est galement possible de mettre en uvre le stockage plusieurs niveaux (tiering)
partir dun pool. Certaines solutions, linstar de celles proposes par Dell CompellentTM,
lautomatisent. Cette technique consiste affecter diffrentes catgories de donnes
diffrents types de supports de stockage, afin de rduire le cot total du stockage. Les
catgories dont il est question peuvent tre fondes sur les niveaux de protections
ncessaires, les exigences de performance, la frquence dutilisation, parmi dautres
considrations.
Ainsi, au sein dun stockage multi-niveaux, les donnes essentielles lactivit de
lentreprise ou rcemment accdes peuvent tre stockes sur des baies connectes par de
la fibre optique et dotes de mdias de haute qualit (donc passablement coteux) comme
des disques SSD, sagissant du pool de tier 1. Dautres baies moins performantes peuvent
servir former dautres pools, de tier 2 et 3. Les bonnes pratiques concernant lorganisation
des diffrents niveaux correspondent gnralement aux informations mentionnes dans le
tableau 5-1 ci-dessous :
Niveau (Tier)
1
2
3

Pourcentage de la capacit
globale de stockage
15%
25%
60%

Type de disque
SSD
SAS (15'000 t/m)
SAS (10'000 t/m) ou SATA
(7'200 t/m)

Effectuer des migrations de donnes est grandement simplifi par le fait que laccs ces
dernires est bas sur des mtadonnes. Ainsi, lorsque le changement dune baie de
stockage savre ncessaire, les donnes dplaces doivent simplement faire lobjet dune
mise jour des mtadonnes. Ce procd est totalement transparent pour les serveurs en
production, ce qui rend ce type de solution extrmement flexible.
Les disques virtuels disponibles par le biais des solutions de virtualisation de stockage
peuvent tre configurs en haute disponibilit (HA) et apparaitre comme des disques
multiport partags uniques, mme si dans les faits ils se composent de deux images miroir
distantes mises jour simultanment. Ce type de procd est particulirement utile pour
assurer lintgrit des donnes en cas daccident compromettant le datacenter.

Chapitre n5 : Domaines dapplication

Tableau 5-1 : Bonnes pratiques, en termes de pourcentage de la capacit par niveau et de type de

disques dans un rseau de stockage (Source : Paul Santamaria, Storage Solution Architect chez DELL )

94
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

5.5 Rseau
Nous avons vu prcdemment que virtualiser consiste faire abstraction de la couche
matrielle physique en lui substituant du matriel virtuel. En toute logique, nous pourrions
voquer la virtualisation des cartes rseau des machines invites comme tant lie au
domaine de la virtualisation du rseau. Or, il nen est rien. La virtualisation dun tel
priphrique dE/S revient virtualiser une partie de lquipement et sapparente de ce fait
la virtualisation des serveurs ou des stations de travail. Cette carte rseau virtuelle (ou vNIC)
est toutefois indispensable pour se connecter un rseau virtuel.
Comme cest dj le cas dans les autres domaines dapplication voqus dans le prsent
chapitre, la virtualisation du rseau consiste partager la mme infrastructure rseau
physique entre plusieurs rseaux virtuels totalement isols. Des logiciels de gestion en
particulier les composants de rseau virtuel vont permettre dassurer la communication
entre les interfaces rseau voques ci-dessus et les interfaces physiques sous-jacentes.
Une partie de la complexit est ainsi transfre du matriel vers le logiciel. Cest dailleurs
galement le cas pour les autres domaines dapplication de la virtualisation.
Par rseau physique, nous faisons rfrence la bande passante, aux ressources
processeur des dispositifs rseaux tels que les routeurs, etc. Il ne sagit donc pas
uniquement dune partition logique du rseau base sur le VLAN (cf. section 5.5.1, VLAN).
Or les rseaux de communication se caractrisent par leur grande htrognit, tant au
niveau des couches basses regroupant linfrastructure, les accs divers, etc., que les
couches hautes rassemblant notamment les problmes dincompatibilit des diffrents
formats de donnes, ou celle des logiciels applicatifs. Les interconnexions entre les
diffrentes mdias (fils de cuivre, fibre optique, etc.), linteroprabilit et lchange doivent
pourtant tre de mise pour que les transactions soient possibles au travers du rseau.

De plus, le domaine de la virtualisation du rseau est aujourdhui en grande mutation. Nous


pouvons considrer dune part que linterconnexion de lenvironnement virtuel avec le rseau
physique est arrive maturit. Virtualiser les serveurs ou les stations de travail nempche
nullement ces derniers daccder au rseau LAN ou WAN. Nous voquons dailleurs au sein
du prsent chapitre le vSwitch (commutateur virtuel) et la virtualisation des contrleurs hte
de bus, qui sont des lments majeurs dun rseau virtuel. Nous effectuons galement un
rappel du principe de VLAN qui est intimement li laccs au rseau physique par les
machines virtuelles.
Dautre part, le domaine de la virtualisation du rseau stend aujourdhui au-del du centre
de donnes propre une entreprise, auquel les lments du prcdent paragraphe se
rfrent. En effet, les acteurs du march de la virtualisation sintressent de prs la notion
de Software Defined Networking laquelle nous faisons rfrence la section 7.2.4,
Perspectives, relative aux perspectives lies la virtualisation. Ce nouveau paradigme

Chapitre n5 : Domaines dapplication

La virtualisation des rseaux exige la leve dune quantit de verrous tous les niveaux du
modle OSI. Nous avons dcid de ne pas entrer dans les dtails ce niveau, ceci
dpassant le cadre du prsent document.

95
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

darchitecture rseau ouvre la voie de multiples applications relatives au nuage (cloud


computing).
Nous naborderons pas ces notions au sein de prsent paragraphe mais nous tenons tout de
mme attirer lattention du lecteur sur le fait que les dveloppements venir en matire de
virtualisation seront lis de prs la virtualisation du rseau.

5.5.1 VLAN

Le VLAN permet de se passer des limitations de larchitecture physique (notamment les


contraintes dadressage), en partitionnant logiquement le rseau physique. Des domaines de
diffusions distincts sont ainsi crs.
Il existe diffrentes topologies de VLAN, bases sur le critre de commutation et le niveau
auquel ce dernier seffectue :
Le niveau 1 appel VLAN par port (Port-Based VLAN) dfinit un rseau virtuel
en fonction des ports de raccordement sur le commutateur ;
Le niveau 2 appel VLAN par adresse MAC (MAC Address-Based VLAN) dfinit
un rseau virtuel en fonction des adresses MAC des stations. Ce type de VLAN est
plus souple que le niveau 1, le rseau tant indpendant de la localisation du
priphrique ;
Le niveau 3. Plusieurs types de VLAN 3 existent :
o Le VLAN par sous-rseau (Network Address-Based VLAN) associe des
sous-rseaux en fonction de ladresse IP source des datagrammes. Ce type
de solution apporte un grand confort, la configuration des commutateurs se
modifiant automatiquement dans le cas du dplacement dun priphrique.
Les informations contenues dans les paquets devant tre analyses plus
finement, une lgre dgradation de performances peut tre constate ;
o Le VLAN par protocole (Protocol-Based VLAN) dfinit un rseau virtuel par
type de protocole (TCP/IP, IPX, AppleTalkTM, etc.), regroupant ainsi toutes les
machines utilisant un protocole identique au sein dun mme rseau.
Le VLAN permet doffrir de nouveaux rseaux un niveau suprieur la couche rseau
physique. Il sagit donc dun fort apparentement avec la virtualisation telle que nous lavons
voque dans ce document.
La consquence de lexistence de ces rseaux virtuels est :
Que le rseau peut tre modifi par simple paramtrage des commutateurs, offrant
ainsi une souplesse dadministration accrue ;

Chapitre n5 : Domaines dapplication

Le VLAN (de langlais Virtual Local Area pour Rseau local virtuel) nest pas li la
virtualisation au sens o nous lentendons dans ce document, mme si son principe sen
rapproche. En effet, mme si le VLAN est un rseau local de type logique (regroupant un
certain nombre de priphriques de manire logique et non physique), il existe
indpendamment de la virtualisation, au travers dune infrastructure rseau physique
traditionnelle (routeurs et commutateurs physiques). Nous lvoquons ici pour nous assurer
que le concept sous-jacent est maitris, eu gard son importance dans la virtualisation du
rseau.

96
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Que les informations sont encapsules au sein dune couche supplmentaire,


augmentant ainsi le niveau de scurit ;
Que la diffusion du trafic sur le rseau peut tre rduite.

Les normes IEEE 802.1d, 802.1p et 802.1q dfinissent le VLAN.


Pour clore cette section, nous voquerons galement la notion de trunk qui est intimement
lie celle du VLAN. Un trunk est une interconnexion entre deux commutateurs qui vise
prserver lappartenance de chaque trame un VLAN en particulier. Chaque trame est donc
encapsule de faon conserver son numro de VLAN. La norme 802.1q (dot1q) de lIEEE
encadre ce fonctionnement.

5.5.2 Commutateur
Tout comme un serveur physique a besoin dun commutateur physique pour se connecter au
rseau, une machine virtuelle ncessite un commutateur virtuel pour faire de mme. Les
solutions y relatives proviennent tant des diteurs de solutions de virtualisation que des
constructeurs de priphriques rseau physiques.
Le commutateur virtuel nest autre quun logiciel, intgr lhyperviseur, qui se comporte
lidentique de son homologue physique. Il est dailleurs raccord au commutateur physique
auquel est raccorde la machine physique hte. La virtualisation des rseaux nest donc
aucunement destine liminer les commutateurs physiques de linfrastructure mais
permettre aux machines virtuelles de sintgrer avec davantage de souplesse au rseau. Il
sagit notamment pour ces dernires de ne pas avoir se soucier du nombre de cartes
physiques disponibles.

Ces limitations ont t corriges en avril 2009 par VMware avec lavnement du
Distributed vSwitchTM (DVS), appel vSphere Distributed SwitchTM69 au sein de
lhyperviseur actuel de lditeur. Ce dernier permet de configurer la commutation daccs des
machines virtuelles de lensemble du datacenter grce une interface centralise, la mise
en rseau des machines virtuelles tant ds lors fortement simplifie.
Une fois un serveur physique ajout une ferme, le nouvel hyperviseur hrite simplement de
la configuration des autres, informations de monitoring y compris.
VMware et Cisco70 ont finalement collabor la mise au point du Nexus 1000vTM71 dont
les fonctionnalits tendent celles du DVS. Ce commutateur virtuel sintgre la console de
69
70

http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/distributed-switch.html.
Entreprise leader dans le domaine des solutions rseau (http://www.cisco.com/web/FR/index.html).

Chapitre n5 : Domaines dapplication

Ce concept a t inaugur par le leader du march, VMware, sagissant du vSwitchTM. Il a


cependant fallu rapidement corriger les importantes limitations dont souffrait ce dernier. En
plus de ne pas tre administrable, il ntait oprationnel qu lchelle dun seul hyperviseur,
donc dun seul serveur physique. Ainsi, lorsquune VM tait dplace dun serveur physique
un autre, toutes les informations lies au rseau taient perdues, donnes de monitoring
comme VLAN.

97
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Cisco et hrite de toutes les fonctions de la gamme Nexus, tant en termes de supervision
quen termes de performances et de scurit. Il permet notamment danalyser le trafic aux
niveaux deux et trois (cf. modle OSI 72) et dagrger les liens en entre et sortie du serveur
physique. Il supporte galement les protocoles et mcanismes standards de supervision et
de scurit, comme Netflow, SNMP, Radius, ACL (Access Control List) ou Private VLAN.
Nous prcisons que le Nexus 1000v est payant, contrairement au DVS qui est intgr en
standard dans vSphereTM (hyperviseur de type 1 de VMware).
Il convient de prciser que si le DVS et le Nexus 1000vTM sont disponibles uniquement chez
VMware, la communaut Open Source a mis au point Open vSwitchTM73, commutateur
virtuel capable doprer au niveau de plusieurs hyperviseurs. Il sagit notamment du switch
virtuel par dfaut de XenServerTM 6.0, parmi dautres solutions dhypervision.
Limportance de ces solutions de virtualisation de la commutation rseau est capital, ds lors
quil sagit dindustrialiser la virtualisation, avec pour corollaire lobligation de grer
efficacement les problmatiques de haute disponibilit, de performances et de scurit. Les
fonctionnalits dun commutateur virtuel comme le DVS sont trs importantes quand le taux
de consolidation devient lev et que les applications savrent gourmandes en ressources
rseau. Un trafic lev entre certaines VM peut par exemple tre dtect, une association
logique de ces dernires pouvant tre mis en place pour viter le problme. En cas de
dplacement de ces machines virtuelles vers un autre serveur physique, via un outil tel que
VMware vMotionTM74, elles seront ainsi transfres toutes en mme temps, ce qui rduira par
la suite le trafic entre hyperviseurs.
Nous avons abord les notions de VLAN et de trunk au sein de la section prcdente dans
un but bien prcis. Un vSwitchTM peut parfaitement permettre aux machines virtuelles
daccder tout VLAN disponible. Nous nentrerons cependant pas outre mesure dans les
dtails ce sujet.

La virtualisation induit des besoins de connectivit qui dpassent la sphre des


commutateurs virtuels. Le march de la connectivit rseau comprend un nombre peu
important dacteurs qui ont mis au point des fonctionnalits essentielles, sagissant
notamment des contrleurs hte de bus (HBA pour Host Bus Adapter en anglais). Ces
derniers sont des cartes dextension qui permettent de connecter des systmes htes
(gnralement des serveurs) des priphriques rseau ou de stockage. Il sagit des lors
dun domaine critique lorsque lon considre limportance du rseau de stockage (SAN) dans
une infrastructure virtuelle.
Les acteurs principaux de ce march sont QLogic et Emulex. La technologie LightPulse
Virtual 75, mise au point par cette socit, a t conue pour permettre une amlioration de la
connectivit des machines virtuelles, en particulier avec les priphriques de stockage. Nous
71

http://www.vmware.com/products/cisco-nexus-1000V/overview.html.
Au niveau de la couche liaison de donnes et rseau, soit au niveau des trames et des paquets
(http://fr.wikipedia.org/wiki/Mod%C3%A8le_OSI).
73
http://openvswitch.org/.
74
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/vmotion.html.
75
http://www.emulex.com/solutions/data-center-virtualization/lightpulse-virtual-hba-technology.html.
72

Chapitre n5 : Domaines dapplication

5.5.3 Autres lments du rseau

98
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

lvoquons au sein de cette section comme un exemple de virtualisation des HBA Fibre
Channel.
Cette technologie est prsente sur les contrleurs hte de bus Fibre Channel (FC) 4 et 8
Gbit/s dEmulex et sur les cartes convergentes (CNA pour Converged Network Adapter)
Fibre Channel over Ethernet (FCoE) que lon retrouvera au sein du matriel propos par de
nombreux constructeurs (notamment HP, IBM et Dell). Le CNA est un priphrique dE/S
combinant un HBA et une NIC (Network Interface Controller).
LightPulse Virtual repose sur les technologies N_Port ID Virtualization (NPIV) et Virtual
Fabric.
La premire offre la possibilit aux utilisateurs de virtualiser les fonctionnalits dun
adaptateur FC. Ainsi, un port physique FC peut tre partag en plusieurs N_Port virtuels.
En effet, la virtualisation des serveurs x86 est fortement dpendante du SAN qui est mme
de fournir lespace de stockage partag ncessaire la mise en uvre de la haute
disponibilit. Comme nous lavons vu prcdemment, lorsque des machines virtuelles sont
stockes sur une partition hberge par un SAN, les serveurs htes y accdent par le biais
de cartes HBA. Des liaisons bases sur la fibre optique sont souvent mises en place cet
effet (fonctionnant sur la base du protocole Fibre Channel).
Dans un tel contexte, une partition peut tre visible par plusieurs serveurs hte. Il sagit du
LUN Masking (qui est parfois qualifi tort de zoning). Des fonctionnalits qui permettent de
migrer des machines virtuelles dun hte un autre sans interruption de service, telles que
vMotionTM de VMware ou Quick MigrationTM de Microsoft sappuient sur ce procd.

Dans un tel contexte, NPIV permet dattribuer chaque machine virtuelle une adresse de
type WWN, autorisant ainsi plusieurs machines virtuelles partager la mme HBA et de
disposer de son N_Port. Il devient donc possible, pour ladministrateur, de grer au mieux le
SAN et les interactions des machines virtuelles avec ce dernier. En effet, le SAN, qui sans
lusage de NPIV ne voit que les HBA physiques, est capable de voir chaque machine
virtuelle grce cette technologie.
Il va sans dire que les ports ainsi attribus suivent la machine virtuelle en cas dplacement
dun hte un autre.
Quant la seconde technologie, Virtual Fabric, elle divise un SAN unique en plusieurs
SAN logiques, chacun possdant son propre jeu de services. Il est ds lors possible de
consolider plusieurs SAN indpendants en un seul et unique SAN, en conservant la mme
topologie logique quavant la consolidation.

Chapitre n5 : Domaines dapplication

Il convient de prciser que tous les LUN sont rfrencs comme tant connects
directement aux HBA des serveurs physiques, ces derniers (leurs HBA) tant eux-mmes
rfrencs au sein du SAN par un World Wide Name (WWN).

99
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

La figure 5-8, ci-dessous, illustre la virtualisation des fonctionnalits dun adaptateur Fibre
Channel et la division dun SAN unique en plusieurs SAN logiques, fonctionnalits qui sont
destines faciliter ce type de distribution.

Chapitre n5 : Domaines dapplication

Figure 5-8 : Virtualisation des fonctionnalits dun adaptateur Fibre Channel (Source :
http://www.emulex.com/solutions/data-center-virtualization/lightpulse-virtual-hba-technology.html)

100
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

6 Construction de linfrastructure virtuelle


Ce chapitre est destin accompagner le lecteur dans les choix en matire de serveurs et
autres lments de stockage auxquels il ne manquera pas dtre confront sil dcide dopter
pour la virtualisation. Nous y rfrerons un certain nombre de critres et de bonnes pratiques
auxquels il convient dtre attentif lorsque lachat du matriel est en cours de planification.
Ces critres et bonnes pratiques doivent tre considrs par le lecteur comme une base
partir de laquelle il est sens mener ses propres recherches.
Si le choix des lments composant les serveurs est y abord sous langle de la
virtualisation, tel nest pas le cas de ceux inhrents au stockage. En effet, nous nous
intressons tout particulirement au stockage partag, au sens classique, en tant que pice
maitresse de la virtualisation des serveurs. La virtualisation du stockage, et les appliances y
relatives, ne sont pas voques dans le prsent chapitre. En effet, le stockage na pas
besoin dtre virtualis pour fonctionner de concert avec un ou plusieurs serveur(s) hte de
machines virtuelles.
la section 6.1, Planification, nous nous proccupons de la manire avec laquelle valuer
les ressources existantes, en particulier en matire de serveurs, puisque ces derniers font
gnralement lobjet des premires mesures de virtualisation. Une connaissance prcise de
larchitecture matrielle des machines utilises en production, ainsi que le degr de
sollicitation de ces dernires sont en effet des lments primordiaux pour juger des solutions
mettre en place. Lenvironnement virtuel nen sera ainsi que plus performant.

la section 6.1.2, Dimensionnement des serveurs, les facteurs cls sur lesquels baser le
choix des serveurs htes de machines virtuelles sont mis en vidence. Il sagit en particulier,
au terme de la lecture de cette section, de disposer des comptences ncessaires pour
choisir une forme de serveur adapte aux besoins et pour choisir avec pertinence les
processeurs dont devront disposer les hyperviseurs. Au terme de la lecture de cette section,
le lecteur doit tre mme de choisir un type de mmoire vive pour ses serveurs htes et
den dfinir la quantit. Certains principes de gestion de la mmoire propres aux
hyperviseurs sont galement abords, leur fonctionnement influant sur les choix qui doivent
tre effectus en la matire. Enfin, ce dernier doit tre capable de dfinir avec soin le
nombre dinterfaces rseau dont les serveurs htes devront tre quips.
La section 6.1.2 sachve sur la conversion P2V et les outils susceptibles daccompagner le
lecteur dans cette opration.
La section 6.1.3, Dimensionnement du stockage, est au stockage ce que la section
prcdente est aux serveurs. En effet, comme nous lavons dj mentionn au chapitre 2,
Spcificits dun environnement virtualis, le stockage revt une importance toute
particulire en environnement virtuel puisquil hberge notamment les machines virtuelles. Il

Chapitre n6 : Construction de linfrastructure virtuelle

Cette section est destine prparer la virtualisation des serveurs physiques existants. Il va
de soi que si le projet de virtualisation dans lequel le lecteur est impliqu concernait une
nouvelle implantation, la lecture de cette section ne serait pas vritablement utile. Nous
soulignons toutefois que si tel tait le cas, une planification adquate demeurerait
incontournable.

101
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

sagit ds lors pour lecteur de prendre des dcisions appropries, tant en matire de quantit
despace disque ou de mmoire cache, quau niveau des contrleurs de stockage ou des
types de disques durs dont disposerons les baies de stockage.
Quant la section 6.1.4, Choix du rseau de stockage, elle vise accompagner le lecteur
dans les choix qui simposeront lui en matire de type de rseau de stockage. En effet,
dimensionner correctement ses baies nest pas tout. Encore faut-il interconnecter
correctement ces dernires avec les serveurs htes. Cette section comporte ds lors des
informations relatives aux protocoles et aux mdias sous-jacents, permettant la connexion
haut dbit entre les serveurs et les systmes de stockage.
Les notions dagrgation, de redondance, ainsi que la rpartition des charges que cette
dernire autorise, sont galement abordes dans la section 6.1.4.
Enfin, la section 6.2, Choix des fournisseurs, clt le chapitre en dressant rapidement la liste
des diteurs de solutions de virtualisation, ainsi que celle des fabricants de matriel.

6.1 Planification
6.1.1 Capacits ncessaires
Une bonne planification est essentielle dans un projet de virtualisation. En effet, il est capital
de connaitre les caractristiques des donnes traites au sein du systme dinformation pour
dimensionner correctement linfrastructure matrielle ncessaire et pour parvenir la
paramtrer. Il convient galement dtre au fait des capacits offertes par le matriel
existant.

Il convient de prciser que la virtualisation de ce type de serveur, qui va croissant, est


rendue possible grce aux fonctionnalits offertes par les plateformes de virtualisation
rcentes, sagissant du contrle des E/S de rseau et de stockage. Ces fonctionnalits
offrent en effet la possibilit de dfinir des priorits bases sur des rgles propres aux
applications mtier sensibles. De plus, les diteurs travaillent darrache-pied une prise en
charge optimale de ce type de serveur. ce titre, la socit VMware a annonc, durant le
VMworld 2012 76, la mise en place de nouvelles fonctionnalits au sein de sa plateforme de
virtualisation vSphereTM 5.1 comme Monster VMTM, capable de prendre en charge jusqu 64
CPU virtuels (contre 32 lanne prcdente) et de grer plus de 1 million dIOPS par VM. De
quoi rsoudre dfinitivement le problme de la virtualisation des applications critiques !

76

Ayant eu lieu entre le 26 et le 30 aot 2012 San Francisco.

Chapitre n6 : Construction de linfrastructure virtuelle

Si nous considrons le domaine incontournable de la virtualisation des serveurs, nous


devons considrer qu lheure actuelle tous les serveurs sont potentiellement virtualisables.
Mme les serveurs consommant normment de ressources, comme les serveurs de base
de donnes, peuvent parfaitement tre convertis en machine virtuelle sans forcment
pnaliser les autres serveurs virtuels.

102
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Une bonne analyse de linfrastructure existante est ncessaire lobtention du meilleur ratio
de consolidation possible. Elle permet galement de prvoir au plus prs le budget relatif au
projet de virtualisation.
Les donnes les plus importantes collecter sont :
La quantit de mmoire installe et son taux dutilisation ;
La capacit des processeurs installs et leur taux dutilisation ;
La capacit des disques durs et lespace consomm ;
La capacit des liens rseau et leur taux dutilisation.
Sans analyser ces informations, nous aurions tendance acqurir la mme puissance
serveur dont nous disposons lheure actuelle. Il nest probablement pas ncessaire den
provisionner autant, puisque les serveurs sont gnralement surdimensionns. Les
conomies ainsi ralises pouvant tre alloues ailleurs.
Il convient dailleurs de tenir compte du fait que les serveurs ne sont pas utiliss de manire
uniforme. Chacun dentre eux occupe un rle prcis. En fonction de ces rles, lutilisation
peut varier fortement dune journe lautre ou durant une mme journe. Lutilisation
moyenne dun serveur peut en effet correspondre 20% de ses capacits, alors quelle
atteindra 60% durant les pics dactivit. Il sagit de tenir compte de ces pics dactivit que
dans le cas o ces derniers surviennent rgulirement.
Nous prcisons galement que pour tre considre comme fiable, une analyse doit tre
mene sur une semaine au moins.

Nous prcisons galement que certains serveurs ne peuvent tre virtualiss, lutilisation de
priphriques externes tant requise (USB, parallle, srie, etc.). Certains hyperviseurs
autorisent toutefois la connexion directe de ce type de dispositifs au matriel virtuel. Il
convient cependant de procder des tests prliminaires avant la mise en production de ce
type de serveur virtuel.

6.1.1.1 Logiciels de planification de capacit


Les logiciels de ce type sont trs nombreux. Certains dentre eux sont particulirement
efficaces car dvelopps spcifiquement pour valuer une infrastructure physique destine
tre virtualise. Ils sont toutefois payants. Nous citerons en exemple PlateSpin ReconTM77
de NetIQ et VMware Capacity PlannerTM78. Quant la socit VKernel, appartenant
Quest Software, elle commercialise un logiciel appel vOPSTM79 qui est dclin en
plusieurs versions. Les versions vOPS Server StandardTM et vOPS Server EntrepriseTM
sont payantes, tandis que la version vOPS Server ExplorerTM, moins labore, est gratuite.
77

https://www.netiq.com/products/recon/.
http://www.vmware.com/products/capacity-planner/overview.html.
79
http://www.vkernel.com/.
78

Chapitre n6 : Construction de linfrastructure virtuelle

Cette opration daudit prliminaire, habituellement qualifie de capacity planning, peut


parfaitement tre ralise manuellement. Les caractristiques pertinentes peuvent
galement tre collectes laide dun logiciel spcialis.

103
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Un certain nombre doutils gratuits peuvent galement permettre une planification adquate
de la capacit ncessaire aux serveurs. Nous dressons, ci-dessous, une liste non exhaustive
de ces derniers, quils soient prvus pour les environnements Windows ou LinuxTM.

Microsoft Assessment and PlanningTM80 (MAP) permet :


o De collecter des informations essentielles, telles que linventaire matriel et
logiciel ou lanalyse des performances ;
o Dlaborer des rapports sur lesquels baser le dimensionnement dune
infrastructure virtuelle en devenir. Ces derniers, synthtiss dans un classeur
Excel, comprennent des informations allant notamment des logiciels installs
(version, service pack) la mmoire utilise, en passant par le nombre
dIOPS, le processeur le plus sollicit ou lutilisation du rseau, et ce, serveur
par serveur ;
o De simuler une consolidation base sur un serveur type qui est prvu
lacquisition ;
o Dexcuter une analyse du parc informatique pendant une priode donne.
Lusage prcis des ressources est ainsi dlivr pour la priode en question,
serveur par serveur. Lestimation de la consolidation peut ds lors tre
effectue sur la base dun serveur type ;
Microsoft File Server Capacity ToolTM81 (FSCT) a t conu pour lobtention de
donnes portant sur les capacits offertes par les serveurs de fichiers uniquement. Il
permet lidentification des goulots dtranglement qui sont parfois observs sur ces
derniers ;
Windows Performance AnalyzerTM82 est un utilitaire danalyse de performances
fourni au sein des kits de dveloppement de Windows 7 et Windows Serveur 2008
R2. Il sagit dun outil bas sur lEvent Tracing for Windows (ETW). Il permet dobtenir
des informations prcises sur lutilisation des processus, des disques, des
processeurs, etc. ;
Microsoft SQLIOTM83 est un outil fournissant des informations spcifiquement lies
aux capacits E/S dune configuration donne. Cr lorigine pour tester les
performances dun serveur SQL en simulant des oprations dE/S, il permet de
simuler de la lecture, de lcriture, de manire alatoire ou squentielle, avec des
tailles dE/S diffrentes ;
Les systmes dexploitation Windows intgrent un moniteur systme (PerfMon) qui
dispose dun nombre important de compteurs de performance 84. Il peut tre
judicieux den surveiller une partie, sagissant des compteurs :
o Disque physique : renseignent sur les IOPS (criture disque/s et Lecture
disque/s), sur la taille moyenne des E/S (criture disque, octet/s et Lecture
disque, octet/s) ou sur les longueurs de file dattente moyennes dun disque
(Longueur moyenne de file dattente du disque). Ces dernires doivent par
exemple tre infrieures 2, cette valeur reprsentant le nombre moyen des
requtes dE/S ;

80

http://www.microsoft.com/en-us/download/details.aspx?id=7826.
http://www.microsoft.com/en-us/download/details.aspx?id=27284.
82
http://msdn.microsoft.com/en-us/performance/cc709422.aspx.
83
http://www.microsoft.com/en-us/download/details.aspx?id=20163.
84
http://technet.microsoft.com/fr-fr/library/dd723635(office.12).aspx.
81

Chapitre n6 : Construction de linfrastructure virtuelle

Windows

104
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Disque logique (LUN) : donne des prcisions sur la latence (Moyenne disque
s/criture ou Moyenne disque s/lecture). Ainsi, des valeurs comprises entre 1
et 15 correspondent de bonnes performances. Si ces dernires se situaient
entre 15 et 25, elles ncessiteraient dtre mises sous surveillance, alors
quelles devraient dclencher un diagnostic si elles se situaient au-dessus de
25. Un compteur comme celui indiquant le temps daccs au disque
(Pourcentage du temps criture du disque et Pourcentage du temps lecture
du disque) devrait tre surveill de trs prs dans un environnement virtuel.
Les valeurs y relatives ne devraient pas tre suprieures 75% ;
o Lhyperviseur Hyper-VTM dispose de ses propres compteurs 85 ;
Microsoft Server Performance AdvisorTM86 est prvu pour offrir Windows 2003
Serveur, les outils qui ont t intgrs doffice partir de Windows 2008 Serveur. Il
dlivre des informations sur lusage du processeur, de la mmoire, etc. Il permet
galement dobtenir des donnes relatives aux rles Active Directory, IIS, DNS,
Service de fichiers, etc. ;
Microsoft File Server Resource ManagerTM permet de mettre en vidence des
informations relatives aux serveurs de fichiers, telles que lespace disque consomm
par utilisateur, les fichiers dupliqus ou ouvert le plus souvent, etc. Lanalyse peut
tre effectue pour une priode donne ou un instant T.
o

Linux T M

FIO 87 permet deffectuer des tests de stress mais galement de mesurer les
performances dun serveur en lui soumettant des travaux ;
IOTOP88 est un logiciel similaire la commande TOP mais sappliquant lutilisation
disque par processus, en temps rel ;
IOZONE 89 est destin mesurer les performances dun serveur. Il gnre des
rapports dans un tableur ;
Intel NAS Performance ToolkitTM90 est prvu pour simuler des charges sur des
serveurs de fichiers, comme des copies intensives, de la lecture de vidos HD, etc. Il
est capable de gnrer des graphiques.

6.1.2 Dimensionnement des serveurs


6.1.2.1 Forme du serveur (ou Facteur de forme)
Le format dun serveur destin la virtualisation revt une importance particulire.
Passablement dlments reposeront par la suite sur le choix effectu ce niveau, quil
sagisse de lespace ncessaire au sein du centre de donnes, des capacits en matire de
climatisation, etc.
Les serveurs adapts la virtualisation sont rpartis en deux familles, les serveurs tour tant
exclus demble. En effet, mme si ces derniers sont peu coteux et relativement volutifs,
ils savrent tre passablement bruyants, encombrants, difficiles grer par rapport
85

http://technet.microsoft.com/en-us/library/cc768535%28BTS.10%29.aspx.
http://www.microsoft.com/en-us/download/details.aspx?id=15506.
87
http://freecode.com/projects/fio.
88
http://guichaz.free.fr/iotop/.
89
http://www.iozone.org/.
90
http://www.intel.com/products/server/storage/NAS_Perf_Toolkit.htm.
86

Chapitre n6 : Construction de linfrastructure virtuelle

105
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

dautres formes de serveur et gnralement trop peu puissants pour prendre en charge la
virtualisation dans des conditions optimales.
Les serveurs ligibles pour la virtualisation sont gnralement des serveurs rack ou des
serveurs lame (blade).
Mme si les serveurs issus de ces deux familles sont parfaitement adapts la virtualisation,
le choix fait gnralement dbat. Dun ct, les cots relatifs lacquisition de serveurs rack
sont moindres et ces derniers nexigent aucune modification au niveau de lalimentation
lectrique du centre de donnes. Dun autre ct, ladministration centralise, par le biais
dune seule console, de plusieurs serveurs lame est trs apprcie. Au mme titre, la
mutualisation de plusieurs serveurs dans un mme chssis, ce dernier comprenant
alimentation lectrique, refroidissement et accs au rseau, est fortement apprcie alors
que la place disponible dans les centres de donnes nest pas extensible linfini.

Toutes ces affirmations sont exactes et parfaitement pertinentes. Aussi, nous ne prendrons
pas position pour lune ou lautre des familles, chacune dentre elles disposant de ses
propres avantages. Il incombe au lecteur en fonction de ses propres sensibilits et du
contexte au sein duquel son projet de virtualisation doit voir le jour de se forger sa propre
opinion, en sintressant au grand nombre de prises de position qui abondent sur la toile ou
dans la littrature y relative.
Toutefois, un lment incontournable, voire discriminant, dans le choix des serveurs est le
nombre de curs physiques quil sera possible de runir dans un nombre minimum de U. En
effet, le nombre de VM par serveur dpend du nombre de curs physiques dont ce dernier
dispose. Si lespace disponible au sein du centre de donnes nest pas suffisant pour pouvoir
atteindre le nombre souhait de curs en utilisant des serveurs rack, il sera peut-tre
ncessaire de privilgier des serveurs lame.
Nous prcisons quun des cots cachs dun centre de donnes est relatif la climatisation.
En privilgiant les serveurs de haute densit, comme les serveurs lame, la puissance de
rfrigration ncessaire est diminue, puisque ces derniers chauffent moins. Des conomies
substantielles peuvent donc tre gnres par ce biais.

Chapitre n6 : Construction de linfrastructure virtuelle

Daucuns saccordent pour mettre en avant la console de gestion centralise, alors que
certains avancent que cette dernire est efficacement remplace par les consoles offertes
par les plateformes de virtualisation (comme VMware vSphereTM, pour ne citer quun
exemple). Les uns mettent en avant lexcellent rapport qualit/prix des serveurs rack, ainsi
que leur aptitude tre plus faciles entretenir par lquipe informatique que le serait un
chssis comprenant plusieurs serveurs lame. Les autres mettent en avant que les
commutateurs Ethernet et Fibre Channel intgrs au sein dun tel chssis rduisent la
complexit du cblage. Les premiers assurent quil est plus simple de faire voluer un centre
de donnes en utilisant des serveurs rack, en mettant en avant le fait quaucune adaptation
des alimentations lectriques nest ncessaire. Les seconds assurent que la consolidation de
ces mmes alimentations au sein du chssis en rduit le nombre ncessaire, arguant quil en
va galement ainsi du nombre de ventilateurs.

106
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

6.1.2.2 Choix des processeurs


Pour parvenir atteindre un taux de consolidation optimal au sein dune infrastructure
virtuelle, le choix du processeur doit tre effectu avec discernement.
Le premier lment dont il est ncessaire de tenir compte est le type de rseau de
stockage. Le Fibre Channel (fibre optique) nest pas aussi exigeant que le iSCSI en matire
de consommation de ressources processeur. Le traitement des flux iSCSI peut ncessiter
jusqu 10% des dites ressources (en cas dusage intensif).
Ensuite, il est ncessaire de tenir compte des lments mentionns dans le tableau 6-1 pour
dimensionner la capacit processeur :
Utilisation CPU
< 10/15%
< 25/30%
> 30%

Nombre de VM par cur


(sans Hyper Threading)
35
3 au maximum
examiner minutieusement

Activation de lHyper
Threading)
Possible mais gains mineurs
non
non

Tableau 6-1 : Bonnes pratiques quant au nombre de VM par cur pouvant tre dployes en fonction de
lutilisation du processeur (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot)

Une fois les capacits processeur ncessaires identifies (cf. section 6.1.1, Capacits
ncessaires), il est important de prendre en compte les pics dutilisation du processeur
pour affiner les besoins. Ainsi, un processeur cadenc 2 GHz, ayant des pics dutilisation
nexcdant pas 15%, correspond en fait un besoin de 300 MHz. Il convient dy ajouter une
marge de 30%.

Les processeurs actuels embarquent un nombre substantiel de technologies. Lune dentre


elles est lHyper-Threading. Un cur physique peut ainsi excuter deux tches en parallle
en simulant lexistence de deux curs physiques visibles en tant que tels par le systme
dexploitation.
Cet artifice ne saurait toutefois se substituer aussi efficacement la prsence de deux
curs physiques bien rels ! En effet, en privilgiant les curs plutt que les threads, le
taux de consolidation sera bien plus lev. Ainsi, lHyper-Threading peut mme tre
dsactiv en environnement virtuel, les gains de performances tant insignifiants. Cette
technologie peut mme dgrader les performances en cas de charge importante, les threads
accdant simultanment aux mmes ressources du cur.
Les constructeurs avancent toutefois des gains de performances en cas dutilisation de cette
technologie, ce qui contribue alimenter un dbat que nous pourrions comparer celui en
vigueur pour le choix des formes du serveur (cf. section 6.1.2.1, Forme du serveur (ou
Facteur de forme)).

Chapitre n6 : Construction de linfrastructure virtuelle

Un serveur excdant les valeurs stipules dans le tableau ci-dessus nest peut-tre pas un
candidat srieux pour la virtualisation (cf. section 6.1.1, Capacits ncessaires).

107
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Si le lecteur jugeait malgr tout intressant dactiver lHyper-Threading, il pourrait tester


lapport ventuel de performance en procdant des tests de vitesse, par le biais doutils
tels que VMware VMmarkTM91 par exemple. Dans ce cas de figure, il sagit toutefois daffecter
judicieusement les processeurs virtuels aux machines invites. En effet, si tous les threads
dun mme cur sont affects aux machines virtuelles, les autres curs ne seront pas
sollicits. Il serait galement pertinent de dfinir un pool de ressources processeur pour les
applications les plus critiques.
Parmi les caractristiques nombreuses des processeurs, la compatibilit 64 bits est
absolument primordiale pour la virtualisation.

Nous lavons vu plus haut, le nombre de curs embarqus est dcisif dans le calcul du
nombre de VM par serveur. La frquence associe est tout aussi importante. Certaines
tudes ont dmontr quune lvation de la frquence du processeur gnre un faible gain
de performances en comparaison de laugmentation importante de consommation lectrique
quelle provoque. En revanche, lajout de curs physiques dune frquence infrieure
naugmente que trs peu la consommation lectrique tout en dopant les performances.
Mieux vaut ds lors privilgier des processeurs de milieu de gamme mais quips du plus
grand nombre de curs possibles.
Si toutefois, le lecteur souhaitait faire le choix dune frquence de fonctionnement leve, il
devrait sassurer que les processeurs en question disposent dune taille de mmoire cache
L2/L3 la plus grande possible.
Un autre facteur cl dans le choix du processeur est sa consommation lectrique. Il sagit
dun cot cach qui mrite dtre pris au srieux. Cette consommation tant publie en Watts
dans les fiches techniques des produits, un calcul bas sur la dure damortissement du
produit peut savrer intressant.
Un dernier point prendre en compte dans la conception de linfrastructure est de faire en
sorte quun serveur ne dpasse pas 90% dutilisation du CPU, une fois le nombre de

91

http://www.vmware.com/products/vmmark/overview.html.

Chapitre n6 : Construction de linfrastructure virtuelle

De plus, lISA du processeur doit comporter les instructions ncessaires lassistance


matrielle la virtualisation, sagissait des technologies Intel VT-x et AMD-V (cf. section
4.3.3.1, Virtualisation de laccs au processeur). Des technologies telles quIntel EPT ou
AMD RVI, ncessaires laccs aux techniques IOMMU (cf. section 4.3.3.2, Virtualisation de
laccs la mmoire), devraient galement figurer la liste des caractristiques du
processeur. Une fonction NX Bit (Never eXecute) devrait aussi faire partie de cette liste.
Cette technologie, dveloppe par AMD puis reprise par Intel sous le nom de XD Bit
(eXecute Disable) permet de dissocier les zones de mmoire contenant des instructions
(excutables) des zones contenant des donnes. Les espaces excutables sont donc
protgs, affranchissant le systme des virus et chevaux de Troie utilisant les failles de
dpassement de tampon. Cette caractristique est trs importante pour viter la propagation
dinfection dune machine virtuelle une autre.

108
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

machines virtuelles consolides sur ce dernier atteint. En effet, il sagit de tenir compte des
technologies de tolrance de panne proposes par les hyperviseurs.
VMware Fault Tolerance (FT) maintient en permanence deux instances dun serveur virtuel
sur deux htes physiques diffrents. VMware High Availability (HA), quant lui, redmarre
le serveur virtuel sur un autre hte physique en cas de panne. Dautres technologies sont
disponibles sur le march, sagissant notamment de Citrix XenMotionTM ou Microsoft Live
MigrationTM. Elles exigent toutes que le double de ressources soit provisionn par serveur
susceptible dtre configur en haute disponibilit. Cest la raison pour laquelle limportance
des serveurs doit tre correctement identifie lors du capacity planning. Nous prcisons ce
propos que le modle idal exige que tous les serveurs soient en haute disponibilit, ce qui
implique des cots associs en consquence.

6.1.2.3 Bus et bande passante


Lorsque nous voquons la conception dinfrastructures, une des questions rcurrentes
auxquelles nous avons affaire est le goulot dtranglement. La puissance et larchitecture
des serveurs disponibles actuellement sont si performantes que les goulots dont il est
question surviennent plutt au niveau du stockage. Ils apparaissent plus prcisment au
niveau des E/S. Les capacits de la baie de stockage, ainsi que sa configuration savrent
donc dterminantes (cf. section 6.1.3, Dimensionnement du stockage).

La rplication peut engendrer une certaines baisse de performances pendant les phases
dacquittement, en particulier en cas de rplication synchrone. Il convient tout de mme de
prciser que la baie de stockage primaire attend lacquittement de la baie secondaire pour
des raisons dintgrit des donnes. Nous consentons ds lors diminuer quelque peu les
performances potentielles pour accroitre la scurit.
Selon de type de rseau de stockage SAN, il est important de dimensionner correctement
les interconnexions de type iFCP et FCIP (cf. section 7.1.2, Protocole de rplication).
En cumulant au 10 Gb Ethernet, les trames Jumbo (Jumbo frames 92) et des technologies
telles que VMware NetQueueTM, il est possible dexploiter toute la puissance des interfaces
correspondantes (10 Gb) et de saffranchir ainsi des ventuels goulots dtranglement
voqus au dbut de cette section.

92

Ces trames Ethernet peuvent dpasser la longueur habituelle de 1500 octets pour atteindre une longueur allant
jusqu 9000 octets environ.

Chapitre n6 : Construction de linfrastructure virtuelle

titre dexemples :
Afin quune carte 10 Gb Ethernet puisse tre exploite correctement, un slot de type
PCIe x8 est ncessaire. Si la carte en question est double port, il faut un slot PCIe
x16 ;
Si la baie de stockage permet un dbit de 320 Mo/s, plusieurs liens Ethernet doivent
tre agrgs afin de pouvoir soutenir ce dbit. Comme mentionn prcdemment, il
sagit donc de connaitre le type de stockage qui sera utilis, ainsi que le nombre de
liens Ethernet ncessaires, pour pouvoir correctement choisir son serveur.

109
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Il convient, en dernier lieu, de rester critique envers les dbits annoncs par les
constructeurs qui sapparentent bien souvent des valeurs marketing.

6.1.2.4 Mmoire vive


Obtenir un ratio optimal de consolidation sur un serveur hte na pas toujours t vident. Il y
a encore quelques annes, les plateformes noffraient quun modle statique dallocation de
mmoire. Par modle statique, nous entendons quil tait ncessaire destimer une certaine
quantit de mmoire pour chacune des machines virtuelles puis de la leur allouer, sachant
que cette quantit initiale ne pourrait tre modifie sans teindre la machine. Il tait donc
impossible doptimiser la rpartition de la mmoire vive entre les diffrentes machines
virtuelles.
Cette limitation peut heureusement tre contourne grce certaines technologies
doptimisation, quil est capital de prendre en compte lors de la planification de
linfrastructure. Nous faisons en particulier rfrence au Memory OvercommitTM de
VMware qui sera voque plus dtails ci-dessous (cf. Memory Overcommit).
Il est galement important de sassurer que la mmoire est bien de type ECC afin quune
vrification et une correction automatique derreur doit disponible.
Quant la vitesse de la mmoire, elle va gnralement de pair avec le choix du processeur.

Pour dimensionner correctement la quantit totale de mmoire dun serveur hte, il faut
additionner les besoins identifis laide du capacity planning, tout en tenant compte des
pics.
En tenant comptes des lments mentionns dans le tableau 6-2, nous voyons quil est
inutile de provisionner 28 Go de mmoire, car nous voyons que cette dernire nest sollicite
qu hauteur de 12 Go avec des pics dexcdant pas 17 Go.
Serveurs

Mmoire disponible

Windows 2003
LinuxTM 2.6
Windows 2008 R2
Total

8 Go
4 Go
12 Go
28 Go

Consommation
moyenne
4 Go
2 Go
6 Go
12 Go

Consommation lors
de pics
6 Go
3 Go
8 Go
17 Go

Tableau 6-2 : Capacit mmoire disponible, ainsi que consommation moyenne et lors des pics (Source :
inspir de Bonnes pratiques, planification et dimensionnement des infrastructures de stockage et de
serveur en environnement virtuel de Cdric Georgeot)

Chapitre n6 : Construction de linfrastructure virtuelle

Les fabricants proposent galement deux types de mmoire diffrents, sagissant de


mmoire avec ou sans tampon (Buffered / Registered memory ou Unbuffered /
Unregistered memory). La premire embarque un registre entre la mmoire et le contrleur
mmoire. Il faut tre conscient que si la mmoire sans tampon permet datteindre des
performances de haut niveau, son prix est galement lev. La mmoire avec tampon offre,
quant elle, une grande stabilit, ainsi quune propension leve lvolutivit, des cots
raisonnables.

110
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Il convient tout de mme dajouter 1 Go par tranche de 10 Go de pic mmoire, et ce, pour
viter une sollicitation trop importante du swap.
Enfin, il est capital de tenir compte de la consommation de lhyperviseur lui-mme et de
lajouter celle des pics mmoire prcdemment tablie. Nous retenons gnralement,
titre dexemple, une valeur de 2 Go pour VMware ESXTM, 640 Mo pour son successeur
ESX(i) et 1 Go pour Hyper-V. Ces valeurs doivent tre vrifies avec tout diteur auquel
nous pourrions avoir affaire.
Aussi, dans le cas o nous aurions 40 serveurs virtualiser par le biais de VMware ESXTM,
exposant un total de pic mmoire de 60 Go, le calcul serait le suivant : 60 Go + 2 Go pour
lhyperviseur + 6 Go = 68 Go au total.
Ce calcul est adapt pour des machines virtuelles obtenues partir de conversion P2V (cf.
section 6.1.2.6, Conversion P2V). Si les VM ne sont pas bases sur des machines
physiques et que, de ce fait, elles sont cres directement par le biais de lhyperviseur, la
sur-allocation mmoire permettra finalement de leur allouer plus de mmoire quen dispose
rellement le serveur hte physique (cf. Memory Overcommit).
Memory Overcommit
VMware pratique la sur-allocation de mmoire en cumulant diffrentes technologies,
sagissant du Ballooning, de la compression mmoire (Memory Compression) et du
Transparent Page Sharing (TPS), appuyes par des algorithmes optimiss au niveau du
noyau de lhyperviseur et du swapping effectu par ce dernier.

Le ballooning est mettre en relation avec le fait que le systme dexploitation invit
fonctionne de manire totalement isole. Ainsi, il nest pas conscient du fait quil volue au
sein dune machine virtuelle, au mme titre quil nest pas conscient de ltat des autres
machines virtuelles hberges sur le mme hte physique. Lorsque ce dernier excute
plusieurs machines virtuelles et commence tre court de mmoire, aucune des machines
invites ne peut librer de la mmoire puisquelles ne disposent daucun moyen qui leur
permette de dtecter ce manque. Cest donc le balloon driver qui va permettre aux VM de
prendre conscience du manque de mmoire en question.
Ce pilote est install sur la machine virtuelle par le biais des VMware ToolsTM93. Ce pilote ne
possde pas dinterface avec le systme invit. Il communique avec lhyperviseur par le biais
dun canal priv. Quand ESXTM ou ESX(i)TM dsire rcuprer de la mmoire prcdemment
alloue une machine virtuelle, il fait en sorte que le balloon driver gonfle dans la mmoire
de cette dernire pour y occuper un certain espace (par dfaut, le pilote peut rcuprer
93

Suite de pilotes qui doivent tre installs sur toute machine virtuelle dun environnement virtualis VMware .

Chapitre n6 : Construction de linfrastructure virtuelle

Si nous nous rfrons la technologie de VMware, cest que la gestion de la sur-allocation


de la mmoire telle que propose par cette socit savre particulirement aboutie et peut
tre considre comme une rfrence en la matire. Notre but tant dattirer lattention du
lecteur sur ce type de technologie et non pas de lorienter vers VMware. Si ce dernier
dcidait dopter pour un autre diteur, il serait ds lors mme dvaluer la pertinence des
techniques proposes par ce dernier pour mettre en uvre la sur-allocation mmoire.

111
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

jusqu 65% de la mmoire alloue la machine virtuelle, la valeur pouvant tre dfinie
laide de la commande Mem.CtlMaxPercent). Comme ce pilote est excut au niveau de la
VM cible, cest donc le systme dexploitation invit qui gre leffet du balloon driver laide
de ses propres algorithmes de gestion de la mmoire. Il cde ainsi dabord la mmoire quil
nutilise pas puis, si besoin est, dchargera une partie du contenu de cette dernire dans son
propre swap.

Figure 6-1 : Principe de fonctionnement du balloon driver (Source : http://wattmil.dyndns.org/vmware/19gestionmemoiresousesx4?start=2)

VMware a compar les performances obtenues par le ballooning en comparaison avec


celles obtenues laide du swapping effectu par lhyperviseur lors dexpriences menes

Chapitre n6 : Construction de linfrastructure virtuelle

La figure 6-1 illustre les principes dcrits ci-dessus.

112
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

sur le sujet 94. Il a t ainsi dmontr que le ballooning provoque bien moins de dgradation
de performance que le swapping.
Lide de memory compression est relativement simple. Si les pages senses tre
swappes sont compresses et stockes dans un cache situ dans la mmoire
principale, le prochain accs une de ces pages provoquera simplement sa dcompression.
Laccs est donc infiniment plus rapide que lors dun accs disque. Tant que le cache en
question nest pas plein, peu de pages ont besoin dtre swappes . Cette technique
permet donc, tout comme le ballooning, dviter un usage trop intensif du swapping par le
biais de lhyperviseur. Les performances des applications sont videmment bien meilleures
lorsque lhte est soumis une intense pression au niveau de la mmoire.
La figure 6-2 illustre le mcanisme de compression mmoire par rapport au swapping. Nous
constatons quaucun accs disque nest ncessaire dans le cas de la compression mmoire,
ce qui la rend beaucoup plus rapide. Nous voyons que les pages A et B sont compresses et
stockes dans le cache comme deux demi-pages.

Quant la technique du Transparent Page Sharing, elle consiste partager les pages
mmoires identiques quon peut trouver sur diffrentes machines virtuelles hberges.
Lhyperviseur utilise le hachage (hashing) pour identifier les pages potentiellement
candidates au partage. Les cls ainsi obtenues sont stockes dans une table ad hoc. Ces
cls sont priodiquement compares et si certaines sont identiques, une comparaison bit
bit est effectue. Ainsi, lhyperviseur est en mesure de dtecter les pages identiques et de
faire en sorte que ces dernires ne soient enregistres quune fois en mmoire. Aussi, une
page mmoire physique peut tre adresse dans lespace mmoire virtuel de plusieurs VM.
Dans le cas o lune de ces dernires tenterait de modifier une page mmoire partage,
lhyperviseur en crerait une copie prive que seule la machine virtuelle concerne serait en
mesure dadresser.

94

Cf. section 5.3 du document disponible lURL suivante :


http://www.vmware.com/files/pdf/techpaper/vsp_41_perf_memory_mgmt.pdf.

Chapitre n6 : Construction de linfrastructure virtuelle

Figure 6-2 : Comparaison entre compression mmoire et swapping (Source :


http://www.vmware.com/files/pdf/techpaper/vsp_41_perf_memory_mgmt.pdf)

113
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Le principe de fonctionnement du TPS est illustr par la figure 6-3.

Figure 6-3 : Principe de fonctionnement du Transparent Page Sharing (Source :


http://wattmil.dyndns.org/vmware/19-gestionmemoiresousesx4?start=1)

Ce mcanisme permet ds lors dconomiser de lespace mmoire et est, ce titre,


extrmement important. Si les machines virtuelles sont dotes de la mme version de
systme dexploitation, de nombreuses pages seront ainsi identiques.

Quoiquun hyperviseur puisse fonctionner avec une seule interface rseau, il est fortement
recommand de scinder les services et chercher mettre en place une redondance. Ceci est
dautant plus vrai, lorsque des technologies de migration chaud de machines virtuelles en
cours dexcution, telles que Microsoft Live MigrationTM ou VMware vMotionTM, sont utilises.
Si le nombre de VM excutes est de surcroit important, lexistence de plusieurs liens est
essentielle. Il serait mme judicieux dopter pour des interfaces 10 Gbit/s dans ce cas de
figure.
Pour estimer le nombre de machines virtuelles quune carte rseau Gigabit est susceptible
de supporter, il convient de se baser sur les taux dutilisation du rseau des serveurs qui
doivent tre virtualiss. En additionnant ces valeurs, il est possible de mettre en vidence la
bande passante qui sera rellement consomme par les VM, une fois ces dernires en
production.
Le trafic gnr est relativement modeste en moyenne. Les applications lourdes doivent
toutefois faire lobjet dune attention particulire. Nous pouvons tout de mme partir du
principe quil est en gnral possible dhberger de 6 10 machines virtuelles par carte
rseau Gigabit.

Chapitre n6 : Construction de linfrastructure virtuelle

6.1.2.5 Interface rseau

114
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Les tableaux 6-3 et 6-4 ci-dessous mettent en vidence les configurations idales
recommandes par certains diteurs importants (en loccurrence Microsoft et son
hyperviseur Hyper-VTM et VMware avec vSphereTM). Nous prcisons que sils ne rfrencent
pas la totalit des cas de figure, ils permettent toutefois de se faire une certaine ide.
Les rgles suivantes doivent tout de mme tre prises en compte pour mettre en place un
dimensionnement correct du nombre dinterfaces rseau ncessaires :
Prvoir un service par interface soit une ou plusieurs carte(s) pour la production,
une carte pour la gestion, une carte pour le service de migration chaud, etc. ;
Une ou plusieurs cartes ddies pour isoler le trafic iSCSI des autres services ;
Regrouper sur la mme interface plusieurs services peut tre envisag, condition
que les services en question ne ncessitent quune faible bande passante. Il peut
sagir de la gestion et de la production par exemple ;
Crer des sous-rseaux par service et mettre en place diffrents VLAN au niveau du
commutateur pour isoler les trafics ;
Veiller ce que les pilotes soient jour.

Type de rseau
Production
iSCSI
CSV 95 / Heartbeat 96
Live Migration
Gestion

Microsoft Hyper-VTM
Nombre minimum de
cartes
2 x 1 Gb
2 x 1 Gb
1 x 1 Gb
1 x 1 Gb
1 x 1 Gb

Nombre maximum de
cartes
4 x 1 Gb
4 x 1 Gb
2 x 1 Gb
2 x 1 Gb
2 x 1 Gb

TM

Type de rseau
Production
iSCSI
Service Console
Fault Tolerance 97
High Availability
vMotionTM
Gestion

VMware vSphereTM
Nombre minimum de
cartes
2 x 1 Gb
2 x 1 Gb
1 x 1 Gb
1 x 1 Gb

Nombre maximum de
cartes
4 x 1 Gb
4 x 1 Gb
1 x 1 Gb
4 x 1 Gb

1 x 1 Gb
1 x 1 Gb

4 x 1 Gb
1 x 1 Gb
TM

Tableau 6-4 : Nombre de cartes ncessaire pour vSphere (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel par Cdric
Georgeot).

95

Cluser Shared Volume ou volume de stockage partag. Ces volumes sont visibles simultanment par tous les
nuds dun cluster de serveurs hte. Ces derniers peuvent ainsi accder tous les disques virtuels, ce qui
TM
autorise la mise en uvre de Live Migration, la technologie de migration chaud dHyper-V .
TM
96
Solution de monitoring permettant Hyper-V de mettre en uvre la haute disponibilit (Live Migration).
97
Technologie assurant la disponibilit permanente des applications en cas de panne des serveurs hte, en
crant une instance fantme active dune machine virtuelle reprsentant le pendant virtuel de linstance principale
et en permettant le basculement instantan entre les deux instances.

Chapitre n6 : Construction de linfrastructure virtuelle

Tableau 6-3 : Nombre de cartes ncessaire pour Hyper-V (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel par Cdric
Georgeot).

115
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Les diteurs accompagnent volontiers leurs clients en les conseillant ce propos. Microsoft
publie par exemple un guide de configuration du rseau en cas dutilisation de Live
Migration. Ce dernier est disponible lURL suivante : http://technet.microsoft.com/enus/library/ff428137(WS.10).aspx.

6.1.2.6 Conversion P2V


La phase de virtualisation des serveurs physiques va immanquablement entrainer une
migration. Cette dernire peut tre grandement simplifie par lutilisation doutils prvus cet
effet qui vont raliser lopration de P2V (Physical to Virtual).
Un certain nombre de ces outils sont disponibles sur le march, sagissant notamment de :
VMware vCenter ConverterTM98 ;
Microsoft System Center Virtual Machine ManagerTM99 ;
SYSInternals Disk2VHDTM ;
Acronis Backup & RecoveryTM100 ;
NetIQ PlateSpin MigrateTM101.
Cette liste nest en aucun cas exhaustive. Certains outils sont automatiss, semiautomatiss ou doivent tre pilots la main. En effet, certains dentre eux peuvent planifier
des oprations de migration la nuit, dautres vont ncessiter un arrt du serveur et un
dmarrage sur un live CD spcialis, etc.

Il faut savoir que certains types de serveurs physiques ne peuvent pas tre convertis en
serveurs virtuels. Le rle Active Directory ne supporte pas dtre migr laide dune
opration P2V car le systme dexploitation contrle en permanence lintgralit de la base.
Une corruption majeure peut ainsi survenir. La seule solution serait dans ce cas deffectuer
la conversion avec le serveur teint, ce qui se prte assez peu un tel rle. En conclusion,
certains rles doivent faire lobjet de tests avant la mise en production.
Parmi les bonnes pratiques en matire de conversion P2V, nous suggrons de dsinstaller
tous les outils des constructeurs installs avec le serveur, tels que les outils de gestion du
RAID et darrter temporairement lanti-virus. Suivant le type de disque, il peut tre judicieux
deffectuer une dfragmentation et de vrifier le systme disque. Larrt des services lis au
matriel est galement prconis.
Il faut tre galement conscient quaprs une migration P2V, les pilotes matriel doivent tre
dsinstalls et les outils dintgration de lditeur de la solution de virtualisation installs (par
exemple, les VMware ToolsTM).

98

http://www.vmware.com/fr/products/datacenter-virtualization/converter/overview.html.
http://www.microsoft.com/france/serveur-cloud/system-center/default.aspx.
100
http://www.acronis.com/backup-recovery/smallbusiness.html#ABR11-5SW.
101
https://www.netiq.com/products/migrate/.
99

Chapitre n6 : Construction de linfrastructure virtuelle

Il est galement possible de raliser, laide de ces solutions, des oprations V2V (Virtual to
Virtual) lors du changement dun hyperviseur pour celui dun autre diteur.

116
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

En conclusion, une telle opration pouvant tre dlicate, il convient de la planifier


rigoureusement.

6.1.3 Dimensionnement du stockage


Cette section vise principalement clairer le lecteur sur le SAN, ce type de stockage tant
gnralement plbiscit en environnement virtuel, mais galement au sein des
infrastructures classiques.
Le stockage au sein des serveurs na pas t abord la section 6.1.2, ces derniers ntant
destin qu hberger lhyperviseur qui nexige quun espace relativement restreint. Daprs
une comparaison 102 effectue par VMware, portant sur vSphereTM103 et loffre de la
concurrence en la matire dhyperviseur, lencombrement du VMM sur le disque se monte :
144 Mo pour vSphere ESX(i)TM ;
3 Go pour Hyper-VTM si uniquement linstallation de base de Windows ServerTM 2008
R2 SP1 a t faite et 10 Go si linstallation complte du mme systme dexploitation
a t mise en oeuvre ;
1 Go pour XenServerTM 5.6 FP1.
Ainsi, un serveur quip de deux disques durs de type SAS, cadencs 15'000 tours/minute
(rapides), configurs en RAID 1 et de taille tout fait standard, savrerait parfaitement
suffisant pour accueillir un hyperviseur.

Il peut tre judicieux de procder une analyse prcise des donnes lors de la phase de
migration de ces dernires sur le SAN. Les donnes pourront tre ainsi segmentes en
fonction de leur degr de criticit. De telles mesures permettent gnralement de rduire les
volumes ncessaires, dajuster les dlais de sauvegarde et de restauration, etc., et de
raliser ainsi des conomies.
La mise en uvre du tiering (cf. section 5.4.5, Fonctionnalits avances) ne manquera pas
dtre facilite par une telle analyse.

6.1.3.1 Espace disque


Mme si les baies de stockage actuelles disposent de fonctionnalits les rendant
extrmement flexibles, sagissant notamment de la dduplication (cf. section 7.1.4,
Dduplication) ou du Thin Provisioning (cf. section 5.4.5, Fonctionnalits avances), il est
102
103

http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/esxi-and-esx/compare.html.

Lhyperviseur de VMware .

Chapitre n6 : Construction de linfrastructure virtuelle

Il est galement possible de dmarrer un hyperviseur qui aurait t dploy sur le SAN (Boot
on SAN). Cette manire de faire demeure relativement complexe, en particulier lorsquon la
compare avec la facilit de mise en uvre de lhyperviseur sur les serveurs hte. Quant au
dmarrage partir dune cl USB ou dune carte SD, nous le dconseillons. En effet, mme
sil est tout fait possible de procder de la sorte (les constructeurs proposant des
connecteurs USB ou SD disponibles au niveau de la carte mre du serveur hte), la faible
performance au niveau des cycles lecture/criture et le manque de fiabilit sur le long terme
de ce type de mdia ne plaide pas pour cette manire de faire.

117
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

judicieux de prvoir un espace disque plus important que celui disponible sur les diffrents
serveurs appels tre virtualiss. Il est ainsi recommand de prvoir au moins 20%
despace disque supplmentaire afin danticiper la croissance potentielle des donnes.
De plus, il sagit de tenir compte de lexistence de la fonctionnalit permettant de raliser des
instantans (snapshot). Comme nous lavons prcdemment voqu, cette technique est
passablement utilise en environnement virtualis. Les solutions de sauvegarde intgres
aux hyperviseurs, comme VMware vSphere Data ProtectionTM (cf. section 3.1.8, Optimisation
de la sauvegarde), la cration de modle de machine virtuelle ou le clonage de machine
virtuelle, reposent sur cette technologie.
Il faut donc tenir compte de lespace ncessaire au stockage, mme provisoire, de ces
instantans. Les fabricants sont mme de fournir les renseignements y relatifs, ces
derniers pouvant varier en fonction des solutions de virtualisation ou de stockage
concernes. Nous recommandons toutefois de crer une rserve correspondant 20% de la
taille des diffrents volumes, afin de pouvoir utiliser cette fonctionnalit en vitant tout chec
potentiel. Il sagit galement de tenir compte du taux de changement (ROC pour Rate of
Change en anglais) des instantans et de la frquence laquelle ces derniers sont mis
jour.
Considrons, titre dexemple, le cas suivant :
100 Go de donnes ;
10% de ROC ;
10 jours de rtention ;
1 instantan par jour ;
Nous obtenons donc un total de 240 Go, soit 100 Go + 100 Go comprenant le ROC multipli
par 10 jours raison dun instantan par jour + 20 Go correspondant la rserve prvue
pour les instantans + 20 Go pour la croissance estime.

Selon les constructeurs et les modles de baies choisis, il est possible dopter pour la fibre
optique (Fibre Channel) ou liSCSI. La taille de la mmoire cache peut varier
considrablement, ainsi que le nombre de contrleurs.
Mme si la baie peut fonctionner avec un seul contrleur, il nest pas envisageable de
garantir la haute disponibilit de cette dernire sans disposer dau moins deux contrleurs.
Ces contrleurs peuvent tre configurs en mode actif/actif ou actif/passif. Les cas de
figure o il convient de mettre en uvre lune ou lautre des configurations sont dcrits cidessous.
6.1.3.2.1 Configuration actif/passif
Dans ce cas de figure, les deux contrleurs fonctionnent en mode redondant avec leurs
caches mis en miroir.
Dans le cas o un contrleur viendrait tomber en panne, son cache serait
automatiquement commut.

Chapitre n6 : Construction de linfrastructure virtuelle

6.1.3.2 Contrleur de stockage

118
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Chaque contrleur dispose de ses propres LUN. Un contrleur bnficie de laccs primaire
aux LUN, alors que lautre est dfini comme tant le contrleur secondaire.
Cependant, les LUN disponibles sur la baie ne sont accessibles par le biais de chemins
alternatifs quen cas de changement dappartenance entre les contrleurs, chacun de ces
derniers disposant de ses propres LUN. Les performances peuvent ainsi tre fortement
dgrades en cas de panne dun des deux contrleurs.
Dans la figure 6-4 ci-dessous, laccs aux LUN seffectue par le biais du contrleur A. Le
contrleur B est prvu pour entrer en fonction en cas de dfaillance du contrleur A. Si
uniquement un port du contrleur A est dfaillant, laccs se fera par le biais du commutateur
B ou via un autre port, mais en aucun cas par le contrleur B.

6.1.3.2.2 Configuration actif/actif


En mode actif/actif, les deux contrleurs fonctionnent paralllement. Les performances sont
donc nettement accrues. Il faut tout de mme considrer quen cas de panne dun des deux
contrleurs, seul le contrleur restant est mme de traiter les flux. Les performances seront
ds lors fortement impactes.
Des techniques comme le Multipathing (existence de plusieurs liens physiques) et le Load
Balancing (quilibrage des charges) doivent donc tre mises en uvre pour pallier les
dsagrments causs par une telle situation.
La configuration du cache exerce un impact important au sein dune telle configuration (cf.
section 6.1.3.3, Mmoire cache).
Nous prcisons que dans ce cas de figure, les LUN sont visibles par tous les contrleurs.
Pour pouvoir mettre en uvre le Multipathing, il convient dquiper le serveur dune carte FC
double munie de deux ports ou de deux cartes FC distinctes.

Chapitre n6 : Construction de linfrastructure virtuelle

Figure 6-4 : Exemple de configuration actif/passif (Source : Bonnes pratiques, planification et


dimensionnement des infrastructures de stockage et de serveur en environnement virtuel de Cdric
Georgeot)

119
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Dans un stockage de type Fibre Channel, les ports dinterconnexion agissent comme un
commutateur interne des fins de redondance. Si la disponibilit des donnes prime sur la
performance, linterconnexion de ports peut ainsi tre active afin de faire en sorte que les
deux contrleurs soient virtuellement relis. Le serveur aura alors accs aux volumes par
le biais de nimporte lequel des deux contrleurs. Lacquisition de commutateur FC externe
peut tre ds lors vite.
Si lun des contrleurs venait faillir, linterconnexion de ports autoriserait tout de mme
laccs continu aux donnes, sans quune intervention durgence doive tre prvue. La figure
6-5 illustre dailleurs ce cas de figure. Comme nous pouvons le voir, linterconnexion de ports
est ncessaire dans le cas o un attachement direct est prconis (sans passer par un
commutateur FC). Il est vident que si la baie ne dispose que dun contrleur, cette dernire
ne sera pas compatible avec une telle fonctionnalit.

Lorsque linterconnexion de ports nest pas active, les donnes appartiennent lun des
contrleurs. Il sagit en quelque sorte dune connexion point par point. Ce genre de
configuration sapparente une topologie base sur deux contrleurs connects un ou
plusieurs commutateurs FC, tel quillustr par la figure 6-6 ci-dessous.

Figure 6-6 : Topologie base sur deux commutateurs FC (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel de Cdric
Georgeot)

Chapitre n6 : Construction de linfrastructure virtuelle

Figure 6-5 : Attachement direct au stockage avec mise en uvre de linterconnexion de ports (Source :
Bonnes pratiques, planification et dimensionnement des infrastructures de stockage et de serveur en
environnement virtuel de Cdric Georgeot)

120
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Ici, le serveur connait la totalit des chemins menant chaque LUN. Un LUN est atteignable
depuis nimporte lequel des HBA. Quant aux contrleurs, ils accdent simultanment ce
LUN.

6.1.3.3 Mmoire cache


Comme nous lavons dj voqu prcdemment, la mmoire cache (antmmoire) revt
une importance toute particulire au sein dun SAN. Le choix des contrleurs dpend
notamment de cette dernire. Il va sans dire quun cache embarquant une quantit
importante de mmoire est extrmement recommand.

Le mode Write Back amliore les performances tandis que le mode Write Through est
recommand par certains diteurs/constructeurs pour obtenir des instantans (snapshots)
consistants. En effet, les donnes prsentes en cache lors de prise de linstantan peuvent
nuire cette consistance.
Par ailleurs, il est important de considrer lachat donduleurs intelligents et adapts
linfrastructure pour scuriser cette dernire. Les serveurs et les baies de stockage doivent
en effet tre proprement teints en cas de panne lectrique afin que les caches puissent tre
entirement vids.
En dernier lieu, adapter le type de gestion du cache en fonction du niveau de RAID peut tre
judicieux. En effet, en cas de pile RAID 0, 1 ou 10, le Write Through est adapt pour les
accs squentiel alors que le Write Back lest plutt pour les accs alatoire. Sil sagit dune
pile RAID 5 ou 6, le Write Back sera le mieux adapt.

Chapitre n6 : Construction de linfrastructure virtuelle

Les caches peuvent fonctionner de manire diffrente. Voici leurs diffrents principes de
gestion. :
Antmmoire criture directe (Write Through). Les donnes prsentes dans le
cache sont immdiatement crites vers les disques durs de la baie. Ce type de cache
est destin aux applications ncessitant un tat permanent de consistance (par
exemple, les bases de donnes) ;
Antmmoire criture diffre (Write Back). Les donnes prsentes dans le cache
sont crites de manire diffre vers les disques durs de la baie. Les donnes en
lecture sont dlivres par le cache alors que les donnes en criture sont diffres,
avec un accroissement de performance la cl. Ce procd tient compte du fait que
le cache est bien plus rapide quune pile RAID et que les donnes sont crites bien
plus lentement quelles sont lues. Il est impratif de disposer dune batterie coupler
au contrleur dans ce cas de figure. Toute perte de donnes sera ainsi vite en cas
de coupure de lalimentation lectrique ;
Antmmoire lecture anticipe (Ahead Cache Settings). Les lectures au niveau du
stockage peuvent tre anticipes laide de ces technologies. Ce mode de gestion
peut tre pratique mais il ne peut toutefois pas prdire les donnes qui vont tre
lues. Ce mode est ainsi adapt pour des accs squentiels consquents, tels que le
streaming vido ou laccs des fichiers de taille consquente.

121
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

6.1.3.4 Types de disque dur


Il est impratif de mettre en exergue les diffrentes contraintes auxquelles linfrastructure doit
rpondre pour faire le bon choix entre les diffrentes technologies de disque dur disponibles.
La performance nest pas lunique contrainte dont il faille tenir compte. La disponibilit du
stockage et les exigences relatives aux applications sont galement des notions trs
importantes.
lheure actuelle, les types de disques qui font lunanimit sont les SAS (Serial Attached
SCSI), les NL-SAS (Near Line SAS) et les SATA (Serial ATA). Les disques Fibre Channel
sont galement une option dont il faut tenir compte, au mme titre que les SSD (Solid State
Drive) et moindre mesure les disques hybrides.
Par ailleurs Il nest pas rare dopter pour diffrents types de disques et de les combiner au
sein de la mme baie. Comme nous lavons dj voqu la section 5.4.5, les solutions de
tiering permettent dexploiter au mieux les types de disques disponibles sur le march en
fonction des contraintes relatives au mtier (criticit des donnes, exigences en matire
dE/S, etc.).
Les performances offertes par les diffrents types de disques ( lexception des disques
SSD) peuvent varier en fonction de la capacit de ces derniers. En effet, un disque de petite
capacit augmente le nombre daxes et amliore ainsi les performances, en particulier lors
daccs alatoires aux donnes. Ce nest pas le cas des disques de grande capacit. Lors
daccs squentiels en lecture ou en criture, une diffrence de lordre de 6% en moyenne
peut tre observe.
6.1.3.4.1 SAS

Larrive du SAS a boulevers le march des interfaces de disques qui jusqualors tait
partag entre deux ralits : la norme ATA qui se trouve majoritairement au sein des postes
de travail, et ce, en raison de son cot peu lev, et le SCSI, trs prsent au sein des
centres de donnes car plus rapide et plus performant (en particulier au niveau des
applications multi-utilisateurs ou la gestion des piles de disque RAID).
Ces deux interfaces, nes dans les annes 80, reposent sur un mode de transmission
parallle. Alors que les dbits observs avec ce mode de transmission nont jamais excd
2.56 Gbit/s (Ultra 320 SCSI), ils atteignent dores et dj 6 Gbit/s avec le mode de
transmission srie propre au SAS (pour arriver prochainement 12 Gbit/s). Il ne sagit
dailleurs que dun seul des nombreux avantages offerts par ce mode de transmission.
En outre, les dbits fournis par le SAS sont exclusifs. Ainsi, chaque disque dispose dun
dbit de 6 Gbit/s alors que dans le cas du SCSI, la bande passante de 2.56 Gbit/s est
rpartie entre tous les priphriques du contrleur. Quant la limitation de 15 disques par

Chapitre n6 : Construction de linfrastructure virtuelle

Le SAS a dornavant supplant lancien bus SCSI pour devenir le standard en qualit de
stockage de niveau entreprise. Il dpasse bien videmment les limites en termes de
performances quoffrait le SCSI grce lapport du mode de transmission de donnes en
srie de linterface SATA.

122
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

contrleur en vigueur avec le SCSI, elle est maintenant de 128 disques par connexion pour
le SAS.
Les cbles dinterface sont communs entre le SAS et le SATA et le SAS peut cohabiter avec
le SATA au sein dune mme grappe de stockage.
Par ailleurs, ces disques sont plus fiables que les disques NL-SAS et SATA et restent
performants bien quils soient soumis des conditions difficiles. Leurs performances sont en
outre bien suprieures celles offertes par les disques NL-SAS et SATA.
En termes de fiabilit, le BER (Bit Error Rate) du disque SAS quivaut 1 sur 10^16 bits, soit
1 bit derreur tous les 10'000'000'000'000'000 bits. En comparaison, le BER du disque SATA
se monte 1 sur 10^15 bits, ce qui ne signifie pas pour autant que ce dernier ne soit pas
fiable.
De plus, le temps coul entre deux erreurs se monte 16 millions dheures pour le SAS
alors quil est de 12 millions dheures pour le SATA, ce qui correspond 182 ans pour le
SAS contre 136 pour le SATA. Ces chiffres constituent toutefois des moyennes. Ils
permettent simplement de mettre en vidence le niveau de qualit des disques SAS.
Les disques/contrleur SAS offrent galement une multitude de commandes additionnelles
prvues pour contrler le disque qui rendent le SAS bien plus efficace que le SATA.

Ces disques atteignent une vitesse de rotation de 15'000 t/m lheure actuelle, ce qui
permet un accs plus rapide aux donnes que celui offert par les disques NL-SAS ou SATA.
Le fait que les instructions soient pr-tries pour amliorer la performance en cas de
nombreux petits accs et lexistence dune gestion bidirectionnelle des flux sont dautres
raisons qui font de ses disques un choix optimal pour les applications les plus exigeantes.
moins que laccs des disques SSD soit financirement possible, les disques SAS ou
FC 15'000 t/m doivent tre privilgis pour le tier 1 au sein du SAN. Si le tier 1 est
compos de disques SSD, ces derniers composeront ds lors le tier 2.
6.1.3.4.2 NL-SAS
Le disque NL-SAS est en quelque sorte une fusion entre un disque SAS et un disque SATA,
puisque quil sagit dun disque SATA de niveau entreprise mont sur un contrleur SAS. En
dautres termes, il est comparable un disque SATA, notamment en matire de vitesse de
rotation ou de ttes de lecture, mais il dispose du jeu de commandes natives du SAS.
Ce type de disque est donc capable de fournir toutes les fonctionnalits de niveau entreprise
ncessaires, telles que les canaux de donnes simultans ou le support pour htes
multiples, sans que sa vitesse de rotation natteigne celle du SAS.

Chapitre n6 : Construction de linfrastructure virtuelle

En rsum, seuls les disques Fibre Channel peuvent entrer en comparaison avec les
disques SAS, tant en termes de performances gnralement du plus haut niveau si lon fait
exception du SSD dont la technologie est base sur la mmoire flash quau niveau du cot
lev.

123
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

ce titre, il est capable de grer deux lectures ou deux critures simultanment ou une
lecture/criture simultanes, contrairement au SATA.
Il ne faut donc pas tre tromp par la mention SAS dans lappellation de ce type de disque,
sa fiabilit tant similaire celle du SATA. Il ne faut donc pas envisager lachat de disque
NL-SAS pour obtenir une fiabilit accrue par rapport au SATA.
Nous prcisons ce propos que l o le NL-SAS atteint gnralement 7200 t/m, le SATA
peut parfois atteindre les 10000 t/m.
Lavantage de NL-SAS est donc sa connectique de type SAS pour un prix plus abordable
quun disque SAS, tout en offrant une capacit plus importante que ce dernier. Ses
performances sont galement meilleures que celle offertes par un disque SATA.
Ce type de disque convient parfaitement pour le tier 2, au mme titre quun disque SAS
10'000 t/m, moins que ce niveau soit dj compos de disques SAS 15'000 t/m. Le cas
chant, les NL-SAS ou les SAS 10'000 t/m formeront le tier 3.
6.1.3.4.3 SATA
Le disque SATA ne dispose pas des avantages inhrents au SAS, voire au NL-SAS. Il
constitue tout de mme un lment vital de tout systme de stockage, tout particulirement
pour le stockage de tier 3 ou le stockage de masse.
La mtrique principale quant lachat de disque SATA est donc le cot par To, qui doit tre
le plus bas possible alors que celles lies au disque SAS porteront sur la performance
(optimale grce la vitesse de rotation de 10'000 ou 15'000 t/m qui autorise un nombre
significatif dIOPS par disque physique).

Les disques SSD (Solid State Drive) sont composs de mmoire flash en lieu et place des
traditionnels plateaux et ttes de lecture. Ils ne contiennent ds lors aucune pice
mcanique et sont par consquent trs peu susceptibles de tomber en panne. Leurs temps
daccs sont extrmement faibles et ils offrent des dbits de trs hauts niveaux. Ils grent
des taux dIOPS consquent (3 x plus importants que les disques SAS), consomment peu
dnergie et ne chauffe pratiquement pas.
Ces disques doivent tre bannis sils sont destins tre utiliss pour hberger des fichiers
journaux. En effet, sils sont sollicits par de nombreuses critures, leur dure de vie sera
considrablement amoindrie. Cest dailleurs pour cette raison que les constructeurs
prconisent dviter toute indexation des donnes situes sur ces disques et toute
dfragmentation.
Les disques SSD dont parfaitement adapts au stockage de tier 1.
Les disques hybrides, quant eux, sont des disques durs traditionnels embarquant une
mmoire flash SSD qui fera office de cache. La partie mcanique du disque nest sollicite
que lorsque la limite du cache est atteinte.

Chapitre n6 : Construction de linfrastructure virtuelle

6.1.3.4.4 Les disques hybrides et SSD

124
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Les temps daccs sont ds lors meilleurs que ceux offerts par les disques durs traditionnels.
Il est cependant important de veiller ce que la mmoire flash embarque soit suffisamment
importante. En effet, si tel nest pas le cas, la vitesse de rotation des plateaux du disque va
constamment passer dun tat dactivit faible (Spin down) un tat dactivit important
(Spin up), augmentant ainsi les temps daccs de manire importante.
Les disques hybrides peuvent tre de bons candidats pour des disques NL-SAS.
Ils peuvent galement se substituer aux disques SATA pour du stockage de tier 3.
6.1.3.4.5 Les disques 2.5 pouces
Ces disques durs contiennent des pistes magntiques plus petites qui rduisent dune part
les temps daccs et dautre part les contraintes mcaniques et la puissance absorbe.
Le taux de panne diminue ainsi denviron 15% et la consommation lectrique de prs de
50%, avec pour corollaire une diminution de la charge thermique. Les performances E/S
augmentent de manire significative non seulement grce au plus faible rayon de la piste
magntique mais galement par le biais de la densit plus importante dinformations
contenues dans le mme espace.
Lencombrement est galement moindre au sein du centre de donnes, les baies dotes de
ce type de disque occupant moins de U que les baies dotes de disque 3.5 pouces.
6.1.3.4.6 Duty cycle

Il faut donc tenir compte du fait que plus un composant est utilis, plus vite il cessera de
fonctionner. En consquence, plus lev est le duty cycle, plus courte est la dure de vie,
toute chose gale par ailleurs.
Or, les disques durs sont conus pour atteindre certains objectifs oprationnels. Les disques
FC ou SAS entreprise sont prvus pour offrir de hautes performances et un
fonctionnement en continu. Ils sont faits de composants robustes qui leur permettent
notamment de supporter une temprature plus importante. Leur cot est lev car ils
incluent des technologies additionnelles pour parvenir atteindre un tel niveau de qualit.
Les disques moindre prix ATA et SATA sont conus pour une utilisation tout fait
diffrente. Ils ne vont pas forcment tre en usage en permanence (ils ne vont pas tourner
constamment) et mme si ctait le cas, ils nauraient pas supporter un nombre aussi
important dE/S quun disque SAS.

Chapitre n6 : Construction de linfrastructure virtuelle

Le duty cycle qualifie la dure durant laquelle un composant, un dispositif ou un systme est
sens oprer. Il est gnralement exprim sous forme de ratio ou de pourcentage.
Supposons, titre dexemple, quun disque fonctionne durant 1 seconde puis cesse ensuite
de fonctionner pendant 99 secondes pour ensuite fonctionner nouveau pendant 1 seconde
et ainsi de suite. Ce disque fonctionne donc 1 seconde sur 100, soit 1/100 du temps. Son
duty cycle est donc 1/100 ou 1%.

125
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

En conclusion, le duty cycle est une indication prcieuse pour connaitre lusage pour lequel
un disque a t conu et doit ds lors tre pris en compte lors du choix des disques durs
prvus pour une baie de stockage.
6.1.3.4.7 Hirarchie du stockage
La notion de tiering a dj t aborde la section 5.4.5, Fonctionnalits avances. Nous
voquions alors les fonctionnalits avances de la virtualisation du stockage. Certaines
baies proposent nativement cette fonctionnalit, gnralement appele Hierarchical Storage
Management (HSM). Certains constructeurs commercialisent des solutions qui automatisent
le dplacement des donnes dun support de donnes un autre (Automated Tiering
Storage), sagissant notamment de Dell CompellentTM104, EMC2105, HP 3PARTM 106,
Zarafa107 ou Quantum StorNext108. Virtualiser le stockage nest donc pas forcment
ncessaire pour bnficier de cette technologie.
Nous rappelons que le but est de parvenir une rduction des cots relatifs au stockage en
scindant les donnes sur des supports diffrents, en fonction de certains critres, tels que :
La performance ;
La frquence daccs ;
Limportance.
Nous avons dj mis en relation les types de disques avec les niveaux (tiers) auxquels ils
correspondent le mieux (cf. section 5.4.5, Fonctionnalits avances, ainsi que la prsente
section).

Limportance des donnes stockes sur un support rpond la loi de Pareto. En effet, les
utilisateurs estiment que 20% seulement des donnes ainsi stockes leur sont essentielles.
80% des donnes devraient ds lors pouvoir tre dplaces sur des supports de stockage
moins onreux. Une mme baie peut tre dote, cet effet, de diffrents types de disques
configurs en fonction des besoins. titre dexemple, des disques SSD peuvent tre
configurs en RAID 1 pour hberger les donnes critiques et des disques SAS en RAID 5
pour des donnes usuelles.

6.1.4 Choix du rseau de stockage


Les deux types de mdia, et les rseaux de stockage qui en dcoulent, sur lesquels baser
une infrastructure de stockage lheure actuelle sont la fibre optique par le biais du protocole

104

http://www.compellent.com/.
http://suisse.emc.com/index.htm?fromGlobalSiteSelect.
106
http://h18006.www1.hp.com/storage/disk_storage/3par/index.html.
107
http://www.zarafa.com/content/zarafa-archiver.
108
http://h71028.www7.hp.com/enterprise/cache/486414-0-0-0-121.html.
105

Chapitre n6 : Construction de linfrastructure virtuelle

Inventorier les donnes en fonction des critres mentionns ci-dessus permet de


dimensionner au plus prs les besoins en stockage. titre dexemple, les donnes les plus
importantes peuvent tre stockes sur deux baies rpliques en fibre optique avec des
contrleurs redondants, alors que les fichiers de moindre importance peuvent tre archivs
sur un NAS dot de disques SATA 7200 t/m.

126
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Fibre Channel et lEthernet qui sappuie sur le protocole iSCSI (transport de donnes en
mode bloc en utilisant le protocole SCSI avec une encapsulation laide du protocole IP).
Si un rseau de stockage base de fibre optique savre plus complexe mettre en uvre
que son homologue iSCSI et est surtout plus couteux, les performances obtenues sont bien
meilleures.
Les dbits atteints au sein des infrastructures actuelles sont gnralement de 4 ou 8 Gbit/s
pour la fibre optique et 1 Gbit/s pour lEthernet, tant prcis que la norme 10 Gbit/s est en
train de faire progressivement sa place sur le march. Le dbit de 16 Gbit/s pour le Fibre
Channel est dores et dj atteint (Emulex, titre dexemple, fournit des adaptateurs
Dell, bass sur la technologie LightPulse calibre pour ce dbit).
Nous prcisons que, contrairement lEthernet, la fibre optique est capable de transfrer des
donnes sans pertes de paquets, ce qui en fait le meilleur choix pour les applications les
plus exigeantes.
La liste des rseaux de stockage possible ne serait pas complte sans que nous voquions
le Fibre Channel over Ethernet (FCoE). Cette norme permet une convergence, sur les
mmes rseaux, entre la fibre optique et lEthernet en utilisant les lments dj en place,
ainsi que des cartes rseau CNA (Converged Network Adapter). Nous naborderons pas
outre mesure cette technologie dans le prsent document. Nous souhaitions toutefois que le
lecteur ait connaissance de son existence.

La vitesse souhaite dtermine le choix de la carte fibre optique. Il convient toutefois de


prendre garde lexistence de certaines fonctionnalits qui peuvent savrer fort utiles :
Le Persistent Blinding : il lie de faon permanente le SCSI Id dun quipement de
stockage avec un WWN (cf. section 5.5.3, Autres lments du rseau) ;
Loptimisation de la bande passante pour des priphriques de dbit diffrent (par
exemple, la technologie iiDMA de QLogic) ;
Le mcanisme de rassemblage automatique des trames FC qui permet dviter une
retransmission complte (par exemple, la technologie OoOFR de QLogic) ;
La technologie dactivation de ports virtuels NPIV (cf. section 5.5.3, Autres lments
du rseau).
Nous avons abord en dtails la fonctionnalit NPIV la section 5.5.3. Nous rappelons
toutefois que grce cette technologie, un serveur physique hte dot dune seule carte
fibre optique est capable de mettre disposition de chacune des machines virtuelles quil
hberge une carte fibre optique virtuelle qui lui sera propre. NPIV apporte donc une flexibilit
apprciable au niveau de la connectivit, en permettant la rduction potentielle du nombre
de cbles, une facilit accrue dans lallocation des ressources et dans la mise en place de
fonctionnalits de haute disponibilit.
Distance
Les distances potentielles entre les quipements fibre optique qui doivent tre desservis par
la fibre optique doivent faire lobjet dun examen attentif. La fibre multimode est

Chapitre n6 : Construction de linfrastructure virtuelle

6.1.4.1 Fibre optique

127
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

gnralement utilise sur des distances plutt courtes alors que la fibre monomode est
privilgie pour les longues distances.
Cependant, il convient de tenir compte du fait que les distances maximales possibles
peuvent varier en fonction du diamtre de la fibre (50 ou 62.5 microns) et du dbit souhait
(1, 2, 4, 8 ou 16 Gbit/s).
La qualit de la fibre doit galement tre adapte en consquence.
Le lecteur est pri de se rfrer aux recommandations des fabricants cet gard.
Zoning
Mme sil existe diffrentes topologies utilises pour les rseaux Fibre Channel, comme le
point point (Point-to-Point) ou la boucle (Arbitrated Loop), seule la topologie commute
(Fabric) nous intresse ce stade. En effet, cest gnralement la topologie la plus mme
de faire correspondre le rseau de stockage aux attentes des entreprises.
Le zoning correspond, pour un rseau FC, au VLAN. Il consiste en un partitionnement dune
Fabrique (Fabric) FC, soit un commutateur fibre optique, en plusieurs sous-rseaux.
Chacune des zones peut ainsi tre isole afin des prvenir les dommages potentiels qui
peuvent corrompre les allocations ou dstabiliser lentier du rseau de stockage.

Le zoning permet galement de protger certains priphriques des notifications provenant


dautres priphriques (comme les Registered State Change Notification). En effet, ce type
de notifications peut provoquer des ruptures de communication susceptibles dengendrer des
pertes de donnes. Les types de priphriques peuvent ds lors tre protgs les uns des
autres en tant situs dans des zones diffrentes.
Lors de la cration de zones, la rgle consistant baser la cration de zone par rapport
linitiateur (Single Initiator Zoning) est conseille. De multiples priphriques de stockage
peuvent ainsi tre ajouts une zone sans violer des rgles telles que la sparation de la
production et du dveloppement.
Le zoning peut tre effectu en fonction des diffrents systmes dexploitation en vigueur au
sein de la socit, des ports, des applications, etc.

Chapitre n6 : Construction de linfrastructure virtuelle

Un des buts habituels du zoning consiste faire en sorte que lhomognit des systmes
dexploitation puisse tre garantie au sein dune mme zone, ceci afin dviter certains
scnarios plutt dangereux. titre dexemple, lorsquun Windows Serveur accde des
LUN, il crit systmatiquement des blocs sur chacune dentre elles. Si des serveurs UNIX
accdent ces mmes LUN par le biais de la mme fabrique, leurs systmes de fichiers
sen trouveront ds lors totalement corrompus.

128
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

En dernier lieu, il convient dadopter une topologie de fabrique adapte aux diffrents types
daccs possibles. Ces derniers sont au nombre de trois :
Local (one-to-one) : les donnes sont accdes par un serveur et une baie de
stockage, tous deux connects sur la mme fabrique ;
Centralis (many-to-one) : les donnes sont accdes par plusieurs serveurs et une
baie de stockage ;
Distribu (many-to-many) : les donnes sont accdes par plusieurs serveurs et
plusieurs baies de stockage.
Les diffrents types de topologies sont les suivantes :
Fabrique unique ;
Fabriques cascades (cascaded) ;
Fabriques mailles (meshed) ;
Fabriques en anneau (ring).
Le tableau ci-dessous indique la topologie adopter en fonction du type daccs :
Topologie
Fabrique unique
Fabrique cascade
Fabrique mailles
Fabrique en anneau

Performances en fonction du type daccs


Local
Centralis
Distribu
Excellentes
Excellentes
Excellentes
Excellentes
Bonnes
Bonnes
Excellentes
Excellentes
Bonnes
-

Tableau 6-5 - Performances des diffrentes topologies en fonction des types d'accs. (Source : Bonnes
pratiques, planification et dimensionnement des infrastructures de stockage et de serveur en
environnement virtuel par Cdric Georgeot)

Sauvegarde et zoning

Il vaut mieux, ds lors, implmenter des adaptateurs fibre distincts sur les serveurs (ou alors
faire en sorte quils soient dot dadaptateurs multiports). Si un seul adaptateur est
disponible et quil ne possde quun port, une zone ddie la sauvegarde devrait tre
cre.

6.1.4.2 iSCSI
Les rseaux de stockage sont originellement lis la fibre optique et au protocole Fibre
Channel. Lavnement de la norme Gigabit Ethernet a cependant boulevers quelque peu la
donne. Il est en effet possible, moindre cot, de mettre en uvre une architecture SAN, en
se basant sur les quipements existants, tout en conservant des performances honorables.
Lagrgation des liens Ethernet est cependant conseille pour y parvenir.
Une infrastructure base sur la technologie iSCSI est plus simple mettre en uvre que son
quivalent Fibre Channel.

Chapitre n6 : Construction de linfrastructure virtuelle

Les dispositifs de sauvegarde ne devraient pas tre situs sur la mme fabrique que celle du
stockage ou, tout le moins, dans la mme zone que le stockage. Il est en effet prconis
de sparer les deux genres de flux afin dviter tout problme.

129
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Les entreprises qui ne disposent pas des ressources financires ncessaires lachat des
dispositifs Fibre Channel et/ou qui ne possdent pas les ressources humaines qualifies
pour se faire, peuvent tout de mme mettre en place un stockage partag de qualit.
Les professionnels conseillent tout de mme de respecter les points suivants :
Les diffrents flux de donnes doivent tre isols. Le rseau de stockage doit, titre
dexemple, tre isol de la gestion, de la production, etc. Pour se faire, plusieurs
cartes rseaux peuvent tre mises en place. Limplmentation de plusieurs VLAN au
niveau des commutateurs et lutilisation de sous-rseau IP diffrents est galement
de mise ;
Plusieurs liens Gigabit Ethernet peuvent tre agrgs. Ces derniers peuvent
galement tre dploys de manire redondante. Les flux doivent ensuite tre
prioriss par le biais de la qualit de service (QoS), en fonction de limportance de
leur accs au stockage ;
Les cartes embarquant ou prenant en charge des techniques de dlestage, telles que
TOE (TCP Offload Engine) doivent tre privilgies. Des technologies telles que
NetQueue ou VMQ 109 (Virtual Machine Queue) qui assure le routage des flux rseaux
directement vers la mmoire de la machine virtuelle doivent galement tre prises en
compte, linstar de Microsoft Chimney Offload Architecture 110 (dlestage TCP/IP par
la carte rseau). Des optimisations de flux ou des conomies de charge processeur
sont ainsi possibles ;
Les trames Jumbo doivent tre actives car elles vont augmenter la capacit de
transmission maximale de donnes (MTU) vers un systme distant ;
Lauthentification CHAP (pour scuriser le flux de stockage) doit tre utilise au
minimum, mme si le flux de stockage est isol de la production.

Les fonctionnalits de dtection des temptes Unicast et de boucles (Spanning Tree) doivent
tre dsactives sur les ports par lesquels transitent les flux iSCSI. De plus, les vitesses
devraient y tre configures de manire statique et le contrle de flux (Flow Control) activ.
La puissance actuelle des processeurs vitent gnralement lusage dHBA iSCSI, mme si
en utilisation intensive un stockage iSCSI peut consommer jusqu 10% des capacits
processeur. Si lusage dune carte HBA iSCSI pourrait ventuellement tre recommand
dans ce cas prcis, les mcanismes de dlestage suffisent gnralement.
Ce type de carte devient indispensable si lhyperviseur doit tre dmarr partir du stockage
(Boot-On-San) ou si linfrastructure doit reposer sur la norme 10 Gigabit Ethernet.

109
110

http://technet.microsoft.com/fr-fr/library/gg162704(v=ws.10).aspx.
http://msdn.microsoft.com/en-us/library/windows/hardware/ff569969(v=vs.85).aspx.

Chapitre n6 : Construction de linfrastructure virtuelle

Il convient galement, tant que faire se peut, dutiliser des commutateurs optimiss pour le
protocole iSCSI. Ces derniers sont mieux mme de supporter les dbits y relatifs et les
taux importants doprations dE/S. Ils sont de plus capables dattribuer la plus haute priorit
aux flux iSCSI.

130
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

6.1.4.3 NFS/CIFS
Jusqu il y a peu, les performances offertes par ces protocoles taient considres comme
insuffisantes. Mme si nous ne pouvons toujours pas considrer les performances obtenues
avec les solutions bases sur ces protocoles comme tant quivalentes celles obtenues
avec des solutions bases sur le Fibre Channel, ces dernires peuvent maintenant trouver
leur place au sein de petites infrastructures. Il est tout de mme ncessaire que les
exigences en matire doprations dE/S ne soient pas trs leves.
Ces protocoles sont en gnral implments dans les NAS. Le dploiement de ce type de
stockage est bien entendu trs ais. Le cot des NAS est faible et ils permettent datteindre
les mmes volumes de stockage que les SAN.
Microsoft dispose, par le biais de son systme dexploitation Windows Storage ServerTM
2012 111, dune solution permettant la mise en uvre dune infrastructure de stockage de type
NAS capable de proposer un stockage mutualis supportant aussi bien les protocoles
permettant laccs aux fichiers (SMB et NFS) quaux blocs (iSCSI). Cette solution est
capable de mettre en uvre les technologies de Thin Provisioning et de dduplication. tant
donn sa capacit grer le protocole iSCSI et pouvoir crer des disques virtuels, cette
solution peut galement tre apparente un SAN.
Dautres solutions, de type appliance, fournissant des fonctionnalits similaires Windows
Storage Server existent sur le march, sagissant par exemple de OpenFilerTM112, OpenETM113 ou FreeNASTM114.
Malheureusement, un stockage bas sur le CIFS ou le NFS est susceptible de restreindre
laccs aux fonctionnalits avances de certains hyperviseurs. titre dexemple, lusage du
NFS avec VMware nautorise pas la cration de partitions brutes (RDM).

Les techniques de redondance et dagrgation sont essentielles au sein dun SAN. La


premire permet la continuit de laccs au stockage malgr la perte dun lment du
rseau. La seconde permet la multiplication de la vitesse au sein des liens agrgs.
Des protocoles comme LACP (Link Aggregation Control Protocol), qui est dcrit dans la
norme IEEE 802.3ad, EtherChannel de Cisco ou le Trunking, contribuent scuriser les
environnements iSCSI au niveau des commutateurs. Des techniques comme MPIO (Multi
Path I/O) et MCS (Multiple Connections per Session) permettent une haute disponibilit du
stockage au niveau de linitiateur.
MPIO permet aux initiateurs iSCSI douvrir plusieurs sessions vers la mme cible en la
prsentant de faon unique. Chaque session peut ainsi tre tablie en utilisant des cartes
rseau ou des commutateurs diffrents. MCS permet lagrgat de plusieurs connexions dans
111

http://www.microsoft.com/en-us/server-cloud/windows-storage-server/default.aspx.
http://www.open-e.com/.
113
http://www.openfiler.com/.
114
http://www.freenas.org/.
112

Chapitre n6 : Construction de linfrastructure virtuelle

6.1.4.4 Redondance et agrgation

131
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

une seule session, les oprations dE/S tant ainsi expdies sur nimporte quelle connexion
TCP/IP de la cible.
Ces deux techniques ne permettent pas de partager une commande SCSI sur plusieurs
liens. Elles sont utilises pour mettre en uvre la redondance de liens.
Quant lagrgation de liens, elle permet plusieurs liens distincts dtre perus comme un
seul et unique lien. La bande passante peut ds lors tre dmultiplie. Il ne sagit pas du seul
avantage puisque la redondance est galement mise en uvre par ce biais, linstar de la
rpartition de charge.

6.1.4.5 Rpartition des charges


Nous lavons vu la section prcdente, la technique de rpartition de charge MPIO est
capable daccroitre la disponibilit des accs au stockage partag en tablissant plusieurs
connexions. Ces dernires sont tablies au travers dun DSM (Device Specific Module).
Une architecture hautement disponible exige le doublement des quipements tous les
niveaux, quil sagisse des cartes HBA, des commutateurs, les liens rseau ou des
contrleurs actif/actif.

Le paramtrage dune politique de rpartition des charges peut varier en fonction de


lhyperviseur, du DSM ou de la baie de stockage. Les plus courantes dentre elles sont les
suivantes :
Fail Over (rpartition alterne) : un chemin daccs actif est utilis et tous les autres
chemins sont dfinis comme tant en attente. Dans le cas dune dfaillance du
chemin actif, tous les chemins en attente sont tents tour de rle ;
Round Robin (rpartition alterne) : les flux sont rpartis uniformment sur tous les
chemins disponibles ;
Round Robin with a subset of paths (rpartition alterne avec sous-ensemble) :
cette technique est similaire au Round Robin la diffrence que des chemins actifs
et passifs peuvent tre dfinis ;
Weighted Path (chemins daccs mesurs) : une charge de traitement spcifique
relative chaque chemin daccs est prise en compte. Le nombre obtenu qualifie la
qualit du chemin daccs (si, par exemple, le nombre est lev, la priorit du chemin
daccs est faible) ;
Least Queue Depth (longueur minimale de la file dattente) : cette technique est
uniquement supporte par MCS. Les charges non uniformes sont compenses par
une rpartition proportionnelle dun nombre plus important doprations dE/S au
niveau des chemins daccs les moins sollicits.
Daprs certains professionnels, la politique la plus performante, tant en termes de dbit que
doprations dE/S, est le Round Robin with a subset of paths, suivie de prs par le Fail
Over.

Chapitre n6 : Construction de linfrastructure virtuelle

Hormis la haute disponibilit, les performances seront amliores et un point unique de


dfaillance (SPOF) peut tre limin.

132
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

6.1.5 Paramtres de performances


Au sein des sections prcdentes, nous avons fait rfrences aux critres dont il faut tre
particulirement attentif lors de lacquisition du matriel prvu pour la virtualisation des
serveurs et le stockage partag. Un certain nombre de paramtres, en grande partie lis au
stockage mutualis, doivent galement faire lobjet dun examen attentif, une fois le matriel
disposition, pour bnficier des meilleures performances possibles.
Il convient en particulier dtre vigilant par rapport au niveau de RAID adopter lors de la
cration des grappes y relatives. La profondeur de la file dattente (Queue Depth ou
Execution Throttle), qui dtermine le nombre doprations dE/S pouvant sexcuter
paralllement sur une unit de stockage, est galement un lment dcisif dans
loptimisation des IOPS et des temps daccs. Lalignement des partitions exerce
galement un impact certain sur les performances en matire de nombre doprations dE/S.
Une bonne gestion de ces diffrents paramtres savre dailleurs essentielle tant au sein
dun environnement virtuel quen environnement classique. Nous navons toutefois par prvu
de les traiter en dtails au sein de ce document, ce dernier portant principalement sur la
virtualisation et non sur le stockage. Il nous semble cependant essentiel que le lecteur ait t
incit sy intresser. Cest la raison pour laquelle ces paramtres sont abords
succinctement dans cette section, charge au lecteur de parfaire ses connaissances par le
biais douvrages (notamment lexcellent livre Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel 115)
ou autres publications y relatives.

6.1.5.1 Niveaux de RAID

Le nombre de disques de rechange (spare) doit tre intgr au calcul du nombre de disques
ncessaires et limpact en termes de temps de reconstruction doit tre pris en compte, en
particulier dans le cas o les applications sollicitent normment et en permanence le
stockage. En effet, la dure ncessaire la reconstruction lors de la dfaillance dun des
disques peut varier en fonction du niveau de RAID. Il convient de se documenter ce
propos. La pnalit en criture, lie aux disques de parit, doit tre prise en compte, en
particulier en ce qui concerne le RAID 6 (double parit).
Chaque application est caractrise par un certain modle au niveau des oprations dE/S.
Les accs peuvent tre principalement alatoires ou plutt squentiels. Soit les oprations
de lecture prdominent, soit il sagit des critures. Le niveau de RAID doit galement tre
adapt ces divers modles. Tant le dbit que le nombre dIOPS sont concerns par ce
paramtre.

115

Par Cdric Georgoet (cf. chapitre 10, Bibliographie).

Chapitre n6 : Construction de linfrastructure virtuelle

Les niveaux de RAID font lobjet dune abondante littrature. Il sagit principalement
dadapter le niveau de RAID en fonction des applications qui solliciteront le stockage
partag. Si ladaptation en question est optimale, les performances sen ressentent
immdiatement, et ce, au niveau des oprations dE/S comme du dbit.

133
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Quant au RAID 6, il offre une scurit accrue dans le cas o un grand nombre de disques
sont contenus dans une pile RAID. Mais il faut tre conscient que la double parit (2 disques
durs y sont ddis) a un prix. Du fait du nombre de disques, le cot est plus important. Les
performances sont moindres que celles offertes par le RAID 5 et le temps de reconstruction
est plus lev. Il faut savoir que certains contrleurs RAID embarquent un processeur dots
dalgorithmes spciaux, destins la gestion de la parit propre au RAID 6 (Application
Specific Integrated Circuit).

6.1.5.2 Profondeur de file dattente


Pour que des donnes puissent tre lues ou crites sur les disques dune baie de stockage,
des commandes SCSI sont expdies vers cette dernire. Par file dattente, nous entendons
en premier lieu la file dattente de la carte HBA. La baie de stockage possde nanmoins sa
propre file dattente. Dans le cas den environnement virtuel, une couche supplmentaire se
situe entre le systme dexploitation de la machine invite (virtuelle) et la carte HBA du
serveur hte. Concernant VMware, par exemple, cest lordonnanceur (scheduler), qui est un
composant du VMkernel, nous nous situons ici au niveau de lhyperviseur qui est charg
dempiler les commandes SCSI provenant simultanment des diffrentes machines virtuelles
au sein de la propre file dattente du VMkernel (la profondeur de cette file dattente est
contrle par le paramtre Disk.SchedNumReqOutstanding et est gal 32 par dfaut).
Pour viter dengorger du sous-systme disque par un nombre trop important de
commandes, ces dernires sont places au sein de la file dattente de la carte HBA avant
dtre expdies la baie de stockage. Ces commandes peuvent ds lors tre traites
ultrieurement.

titre dexemple, si le paramtre Disk.SchedNumReqOutstanding est plus petit que la taille


de la file dattente de la carte HBA, il est impossible de tirer le meilleur parti de cette
dernire. Dans le cas contraire, des requtes sont refuses par la mme file dattente et un
goulet dtranglement est ainsi cr.
Sagissant du stockage, ce paramtre peut tre dfini au niveau de la baie, dune cible
(compose de diffrents LUN), dun LUN, dun port ou ventuellement dun disque, avec des
consquences diffrentes en fonction des choix effectus.
Les bonnes pratiques suggrent que la profondeur soit tablie au niveau de la cible ou du
LUN. tire dexemple, dfinir une profondeur de file dattente au niveau dune cible permet
de limiter intentionnellement les IOPS, alors queffectuer un tel paramtrage au niveau du
LUN permet de dfinir le nombre dIOPS qui peuvent tre envoyes au maximum par LUN.
Une valeur leve peut ainsi permettre laccs prioritaire dun serveur, tandis que linverse
offre la possibilit de se prmunir dun engorgement au niveau du stockage.
Il faut galement savoir que plus la profondeur dune file dattente est importante, plus les
donnes sont accumules, avec pour corollaire un dbit accru mais une augmentation de la

Chapitre n6 : Construction de linfrastructure virtuelle

Il sagit, en consquence, de dfinir judicieusement une taille pour les files dattente et de
sassurer que chacune dentre elles soit paramtre selon cette taille. Cette dernire ne doit
tre ni trop faible ni trop importante, afin que les temps daccs et les IOPS soient
parfaitement optimiss.

134
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

latence. Une petite profondeur va, quant elle, amliorer la latence par le biais dun nombre
plus important de commandes.
Une grande profondeur de file dattente est idale lorsque nous disposons de larges piles
RAID et inversement une petite profondeur est recommande pour les petites piles RAID
(dans le cas, par exemple, dune base de donnes transactionnelles qui requiert des temps
de latence trs faibles).

6.1.5.3 Alignement de partition


Lalignement de partition est un lment essentiel au niveau du stockage. Il permet
galement doptimiser les oprations dE/S. En effet, tous les systmes dexploitation ne
dmarrent pas la premire partition principale au mme secteur (63 au lieu de 64), ce qui
provoque un dsquilibrage du stripe (peut tre assimil un bloc ou un chunk sur un mme
disque dur).
Windows Server 2008, ainsi que les versions ultrieures, ralisent automatiquement cette
opration et ne sont donc pas concerns par ce paramtre.
Si la partition nest pas correctement aligne, une opration dcriture peut tre partage en
deux et faire intervenir deux disques au lieu dun seul. Si, titre dexemple, une telle criture
devait tre effectue sur une pile RAID compose de six disques, de nombreuses critures
supplmentaires seraient provoques par ce dcalage, en lieu et place des six critures
quune partition aligne aurait gnres.
Pour une seule commande, les oprations dE/S sont donc dmultiplies.
Quant aux IOPS et aux dbits, ils chuteront au fur et mesure du remplissage de la partition,
les donnes tant du plus en plus dcales.

Pour vrifier si une partition est aligne sous Windows, la commande suivante doit tre
entre :
Vmnic partition get blocksize, name, index, startingoffset
La commande similaire excuter au sein dun environnement VMware est :
fdisk -lu
Elle doit tre excute avec les privilges ROOT.
Il convient de prciser que lalignement de partitions provoque gnralement la destruction
des donnes qui y taient stockes.

Chapitre n6 : Construction de linfrastructure virtuelle

VMware annonce dailleurs des gains de performance de lordre de 10% 40% avec des
partitions correctement alignes.

135
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

6.2 Choix des fournisseurs


Cette section est destine produire un inventaire non exhaustif des principaux diteurs
de solutions de virtualisation, ainsi que de certains fabricants qui disposent de
partenariats avec ces derniers.
Nous avons dores et dj cit les diteurs de solutions de virtualisation au sein de la section
4.4, Mise en uvre, au sein de laquelle sont notamment dcrites les applications
commerciales issues des diffrentes techniques de virtualisation.
Les principaux diteurs, et les solutions quils proposent, y sont spcifis en fonction du type
de mise en uvre (Hyperviseur de type 1 ou 2, mulation, virtualisation au niveau noyau,
etc.). Ces mmes diteurs sont nouveau cits, linstar de certains fabricants au cours du
chapitre 5, Domaines dapplication, cette fois-ci en fonction prcisment du domaine
dapplication de la virtualisation au sein duquel ils sont actifs. Enfin, certains diteurs, et les
technologies quils proposent, sont mentionns tout au long du prsent chapitre. Nous avons
en effet jug opportun dvoquer les diteurs et les constructeurs alors que nous voquions
les solutions et autres technologies quils proposent, et ce, dans un souci de cohrence.
Cest la raison pour laquelle nous nallons pas les citer nouveau dans la prsente section.

ce titre, les fabricants qui demeurent incontournables sur ce march sont Dell, HP et
IBM.

Chapitre n6 : Construction de linfrastructure virtuelle

Nous prcisons toutefois que, le prsent document portant sur la virtualisation du systme
dinformation, les fabricants qui nous intressent en premier lieu, sont ceux qui sont mme
de fournir des serveurs destins des hyperviseurs. Il est noter que ces derniers
fournissent bien souvent des solutions de stockage ou disposent de partenariats avec les
socits qui sont susceptibles de les fournir. Ces fabricants disposent galement de
partenariat avec les principaux diteurs de solution de virtualisation, ce qui fait deux des
interlocuteurs privilgis pour la mise en place dune infrastructure virtuelle. Il est mme
souhaitable de prendre contact en premier lieu avec ces fabricants, plutt quavec les
diteurs de solutions de virtualisation.

136
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

7 Gestion de linfrastructure virtuelle


Ce chapitre est destin mettre laccent sur certains points essentiels qui doivent tre pris
en considration une fois linfrastructure virtuelle fonctionnelle.
Nous rappelons, la section 7.1, Scurisation, les grands principes de la scurit des
systmes dinformation que nous mettons en relation avec les particularits dune
infrastructure virtuelle.
Certains mcanismes permettant dassurer au mieux la disponibilit de linfrastructure et
lintgrit des donnes y sont dcrits. Nous faisons galement rfrence certaines notions
qui savrent fort utiles lorsque les consquences rsultant dun sinistre et les plans de
reprise dactivit sont voqus au sein de lentreprise. Ces dernires sont destines aider
le lecteur valuer le plus correctement possible les niveaux de protection du systme
dinformation et les mcanismes qui doivent tre mis en place pour parvenir les atteindre.
La section 7.2, Postproduction, traite des mthodes mettre en uvre pour conserver
linfrastructure fonctionnelle.
La planification de la reprise dactivit en cas de sinistre y est galement aborde et, en
consquence, nous apportons des prcisions quant la notion de basculement vers un site
de secours. Nous y voquons galement certains logiciels susceptibles de faciliter
llaboration dun plan de reprise dactivit, ainsi que certaines technologies ayant pour but
den assurer une mise en uvre efficace, le cas chant.

De plus, nous apportons quelques prcisions quant la manire dvaluer les cots rels
relatifs aux machines virtuelles et la raison pour laquelle il peut tre avis dtre capable de
les produire.
Enfin, nous terminons ce chapitre en voquant les perspectives qui nous sont offertes par le
dveloppement consquent de la virtualisation au sein des centres de donnes, ainsi que le
changement de paradigme que ce dernier pourrait impliquer, tant dans llaboration des
systmes dinformation que dans leur gestion.

7.1 Scurisation
Quoiquun systme dinformation partiellement ou intgralement virtualis rponde
plusieurs critres qui lui sont propres, sa scurisation repose sur les mmes principes que
ceux auxquels nimporte quel systme dinformation classique est dores et dj soumis.
Ce document sadresse des professionnels qui sont dj censs faire face cette
problmatique. En effet, grer un systme dinformation revient sassurer que les actifs
matriels ne subissent aucun dgt susceptible den altrer lusage. Nous savons toutefois

Chapitre n7 : Gestion de linfrastructure virtuelle

Cette section porte galement sur la planification budgtaire relative au fonctionnement de


linfrastructure virtuelle, une fois cette dernire fonctionnelle. Nous faisons notamment
rfrence aux cots dexploitation, aux frais damortissements relatifs au matriel et aux
systmes de licences tels que pratiqus par les diteurs de solutions de virtualisation.

137
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

que la vraie richesse dune socit rside dans ses actifs immatriels, autrement dit le
capital informationnel. Nous entendons par capital informationnel, le savoir-faire, matrialis
par les brevets, dont dcoulent les mthodes de production. Nous faisons rfrence
galement la clientle, la concurrence, etc. Ces informations sont contenues sous des
formes diverses au sein du systme dinformation, ce dernier revtant ds lors une
importance toute particulire.
Aussi, le lecteur est-il certainement au fait des grands principes inhrents la scurit des
systmes dinformation que sont :
La garantie que le systme dinformation soit accessible lorsque dsir, moyennant
un temps de rponse adquat (Disponibilit) ;
La garantie que seules les personnes autorises ont bel et bien accs au systme
dinformation, les accs indsirable tant prohibs (Confidentialit) ;
La garantie que les lments considrs du systme dinformation nont pas t
altrs fortuitement ou volontairement, et sont ds lors exacts et complets (Intgrit) ;
La garantie que les accs et tentatives daccs aux lments considrs du systme
dinformation sont journaliss puis conservs, et quils sont, ce titre, exploitables
(Traabilit).

La confidentialit de linfrastructure virtualise, et en particulier des serveurs hte de


machines virtuelles, doit tre garantie en vitant toute intrusion. Assurer la confidentialit du
systme dinformation est un dfi auquel les administrateurs des infrastructures classiques
sont dj soumis. Cependant, des paramtres propres la virtualisation doivent tre pris en
compte dans ce cas prcis, la complexit de linfrastructure stant amplifie. Il convient ds
lors dintgrer les particularits de ce type dinfrastructure et dagir en consquence.
De plus, il nest pas forcment vident dvaluer prcisment la criticit des serveurs hte de
machines virtuelles. En effet, il faut considrer quun tel serveur est susceptible dhberger
un nombre potentiellement important de machines virtuelles. La perte dun tel dispositif peut
ds lors prendre des proportions consquentes. Il convient galement de considrer que
certaines machines virtuelles sont plus critiques que dautres et que ces dernires peuvent
tre dplaces dun serveur physique un autre. Il faut donc caractriser la criticit de lhte
rgulirement.
Il est ncessaire, en consquence, de considrer que, si la virtualisation permet de
consolider un nombre important de machines virtuelles sur un seul serveur physique, ce
dernier doit faire lobjet dune supervision irrprochable. Au mme titre, toutes les mesures
ncessaires sa haute disponibilit doivent tre prises. Nous entendons, au niveau
purement matriel, la redondance des alimentations, des ventilateurs, des cartes rseau,

Chapitre n7 : Gestion de linfrastructure virtuelle

Lexistence dune infrastructure virtuelle naffranchit en rien ladministrateur systme davoir


valuer les risques inhrents lexistence dun systme dinformation. Les technologies
relatives la virtualisation voluent trs rapidement. Les failles potentielles sont
gnralement corriges par les diteurs avec un degr de clrit que nest pas diffrents de
celui que nous connaissons dj lorsque des solutions classiques sont concernes. Aussi,
nous ne procderons pas une analyse exhaustive des risques lis la virtualisation dans
le prsent document. Nous souhaitons toutefois attirer lattention du lecteur sur quelques
concepts que nous jugeons particulirement importants.

138
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

voire des processeurs ou de la mmoire. Mais il est galement primordial de crer des
fermes (cluster) de serveurs physiques. Les machines virtuelles qui dpendent dun serveur
dfectueux peuvent ainsi tre exploites partir dun autre serveur du mme cluster de
basculement, et ce, grce aux diffrentes technologies de haute disponibilit.
Ceci nous amne traiter du stockage. Nous avons vu la section 2.1, volution du modle
de centre de donnes, que ce dernier devient la pice matresse de lenvironnement virtuel.
En effet, ne contient-il pas, en plus des donnes, les machines virtuelles elles-mmes, qui ne
sont ni plus ni moins que des fichiers. Au mme titre que les serveurs physiques, le stockage
doit donc disposer des technologies ncessaires sa haute disponibilit. Il sagit galement
dassurer la redondance des alimentations et autres ventilateurs mais galement des cartes
HBA. Il est galement primordial de garantir la perte dun ou plusieurs disques par le biais de
la cration de pile RAID (cf. section 6.1.5.1, Niveaux de RAID).
La scurisation des donnes est donc capitale en environnement virtuel, et ce, tant pour
garantir la disponibilit du systme dinformation que pour en assurer son intgrit.
Sont abordes, dans les sous-sections ci-dessous, un certain nombre de mcanismes qui
permettent dajouter la redondance des donnes la scurisation offerte par les piles RAID,
les clusters de basculement ou la redondance des lments matriels. Les mcanismes dont
il est question sont souvent mis en uvre simultanment afin dassurer au mieux la
redondance dsire et la sauvegarde des donnes.

Ces dernires sont intimement lies aux concepts de RTO (Recovery Time Objective) et
RPO (Recovery Point Objective). Le premier fait rfrence une dure maximale tolre
avant la reprise dactivit. Le second qualifie ltat minimal dans lequel le systme doit se
trouver au moment de cette reprise (lentreprise peut-elle fonctionner un certain temps en
mode dgrad ou la totalit des services informatiques doit-elle tre disponible, pouvonsnous nous passer des donnes de la dernire journe dactivit ou ces dernires doiventelles tre restaures, etc.).
Il est bien entendu souhaitable que les valeurs respectivement du RTO et du RPO soient le
plus proches possible de zro. Cependant, les cots y relatifs nen seront que plus levs.
Les types de sinistres potentiels tant malheureusement nombreux, il est impratif de dfinir
correctement la disponibilit dsire par type de donnes, le budget ncessaire tant
immanquablement conditionn par les dcisions y relatives (un serveur de dveloppement
na pas forcment tre protg comme celui hbergeant une solution ERP).
La redondance des lments physiques (comme les alimentations ou deux contrleurs par
baie) dun serveur ou dune baie de stockage ou les licences autorisant lusage des solutions
de haute disponibilit permettent uniquement de renforcer la disponibilit du systme
dinformation (PCA). Un virus ou une corruption des donnes peut survenir, malgr la mise
en uvre de telles mesures.

Chapitre n7 : Gestion de linfrastructure virtuelle

Enfin, nous faisons souvent rfrence, lorsque nous voquons les consquences dun arrt
de la production et les cots qui en rsultent, aux notions de Plan de reprise dactivit (PRA)
ou de Plan de continuit dactivit (PCA).

139
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

titre dexemple, la mise en place dun cluster de basculement contribue fortement


approcher une valeur RTO proche de zro. Si, a contrario, ladite valeur sen loigne, nous
nous situons plutt dans une stratgique de PRA (existence de procdures de restauration
dun serveur partir dune sauvegarde, etc.).
Si la perte de donnes nest pas envisageable, la valeur RPO doit tre proche de zro. Il
convient ds lors dopter pour une rplication synchrone (cf. section 7.1.1.1, Rplication
synchrone). Si nous nous loignons de cette valeur, la rplication asynchrone (cf. section
7.1.1.2, Rplication asynchrone) est probablement la solution adquate.

7.1.1 Rplication
Une condition sine qua non la mise en place dune synchronisation adquate des donnes
consiste connatre parfaitement ces dernires, en particulier leur volume et leur taux de
changement.
Il convient galement de slectionner convenablement de systme de stockage. Les
solutions de rplication peuvent en effet tre intgres au contrleur dune baie mais
peuvent galement se prsenter sous forme logicielle. La technologie en question doit tre
capable doptimiser le stockage par lusage dalgorithme de compression, de tiering (cf.
section 5.4.5, Fonctionnalits avances) ou de dduplication (cf. section 7.1.4,
Dduplication).

7.1.1.1 Rplication synchrone

Un dbit important, et disponible en tout temps, est indispensable car le processus de


rplication va systmatiquement attendre de recevoir lacquittement de la seconde baie
avant que la requte dE/S suivante puisse tre traite. Des liens ddis sont ainsi
recommands et certains constructeurs nhsitent pas recommander de la fibre optique 8
Gbit/s au minimum pour ces derniers. Si les liens en question noffrent pas un dbit suffisant,
les performances du systme de stockage peuvent ainsi tre impactes. Cest galement
pour cette raison que les distances entre les centres de donnes qui contiennent les baies
rpliques ne peuvent pas tre aussi importantes quelles pourraient ltre en cas de
rplication asynchrone.
Il est bien entendu possible de ne rpliquer de manire synchrone quune partie des
donnes, cette technologie tant coteuse dployer. Considrons le cas dun SGBD, le
systme tant install sur un premier volume et les donnes sur un second. Il est ds lors
tout fait envisageable de rpliquer le systme de manire asynchrone et les donnes de
manire synchrone.

7.1.1.2 Rplication asynchrone


Ce mode de rplication ne transmet pas les donnes en temps rel mais intervalle rgulier,
se contentant ds lors dune bande passante moins importante. Il sagit dune solution idale
pour un contexte de PRA par le biais dun site distant.

Chapitre n7 : Gestion de linfrastructure virtuelle

Ce type de rplication est prvu pour faire en sorte que la correspondance entre les donnes
prsentes sur la premire baie (source) et la seconde (cible) soient parfaite, et ce, tout
moment. Il sagit donc dune rplication en temps rel .

140
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Laugmentation du trafic sur la ligne dvolue la rplication ou la chute du dbit de cette


dernire ninflue pas sur les performances, ce type de rplication ntant jamais en attente de
quelconque acquittement.

7.1.2 Protocole de rplication


Les protocoles voqus ci-dessous sont lis au rseau de stockage bas sur la fibre optique
(cf. section 6.1.4.1, Fibre optique). En effet, la mise en uvre de la rplication entre deux
baies de stockage fonctionnant sur la base du protocole iSCSI est relativement simple. Les
commandes SCSI tant transportes, dans ce cas de figure, sur un rseau TCP/IP, il suffit
de configurer un VPN entre les deux baies pour quelles puissent communiquer.

7.1.2.1 FCIP
Le Fiber Channel over IP, galement appel Fibre Channel Tunneling ou Storage Tunneling,
permet de relier deux SAN distants. Ce protocole est destin la mise en place de la
rplication sur des distances importantes.

7.1.2.2 iFCP
Internet Fiber Channel Protocol se trouve tre un protocole routable. Deux rseaux peuvent
ainsi tre connects entre eux. Il est galement possible de connecter des priphriques
dots dune connectique FC un SAN IP, en passant par un rseau TCP/IP.

7.1.3 Protection continue

Dans ce contexte, le RPO est donc quasiment nul, puisque les versions peuvent tre
restaures instantanment, sans perte de donnes. Dans un environnement protg par des
sauvegardes traditionnelles, toutes les donnes crites entre la dernire sauvegarde et le
dsastre auraient t dfinitivement perdues.
Contrairement la rplication, le CDP permet de protger les donnes de toute forme de
changement ou de corruption accidentelle (ventuellement provoque par lhumain) ou
cause par un malware quelconque, puisquil est possible de restaurer une version
prcdente des donnes en question.
Deux variantes de ces solutions sont disponibles sur le march, sagissant du True CDP et
du Near Continuous DP. La premire journalise chaque criture en mode bloc, permettant
ds lors la restauration dune version correspondant au moment choisi dans le temps, et ce,
pratiquement linfini. La deuxime est planifie en fonction dun intervalle dfini (par
exemple, toutes les 10 minutes). Ici galement, limportance des donnes sauvegarder
dtermine le type de technologie adopter.

Chapitre n7 : Gestion de linfrastructure virtuelle

Le CDP (Continuous Data Protection) est une sauvegarde en continu dont le mcanisme
sapparente la rplication synchrone, ceci prs quune nouvelle version comportant les
changements est crite vers le stockage distant. Le bloc ou le fichier modifi ne remplace
donc pas lancienne version comme cest le cas avec la rplication synchrone. La
restauration nest donc pas limite la dernire version en date du document mais
nimporte laquelle des versions disponibles.

141
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Le True CDP est destin effectuer des sauvegardes dites consistantes. Il convient de
considrer que les donnes prsentes dans le cache de la baie doivent tre vides (flush)
vers les piles RAID pour que True CDP puisse en avoir connaissance. Or, il nest pas
possible de vider le cache en permanence. De plus, True CDP capture chaque criture sans
se soucier de savoir si cette dernire prsente un tat cohrent, contrairement Near
Continuous DP qui fonctionne sur la base des snapshots (cf. section 7.1.5, Snapshot)
obtenus lors de chaque intervalle. Il faut donc tre particulirement vigilant ce genre de
dtail lors de lacquisition dune solution base sur ce principe.

7.1.4 Dduplication
La dduplication est incontournable lorsquil sagit de limiter lespace toujours plus
consquent occup par les donnes.
Cette technique consiste factoriser laide dun algorithme ad hoc des squences de
donnes identiques afin dconomiser lespace disque utilis. Chaque fichier est dcoup en
une multitude de tronons. chacun de ces tronons est associ un identifiant unique, ces
derniers tant stocks dans un index. Ainsi, un mme tronon nest stock quune seule fois.
Une nouvelle occurrence dun tronon dj prsent nest pas sauvegard nouveau mais
remplac par un pointeur vers lidentifiant correspondant.
La dduplication est trs efficace en environnement virtuel. En effet, les machines virtuelles
dployes sont souvent pilote par le biais de la mme version dun systme dexploitation.
Si linfrastructure comprend une cinquantaine de serveurs virtuels Windows Server 2012,
une quantit prodigieuse de fichiers (tels que des DLL) seront identiques. Ainsi, dployer les
serveurs sur la base dun modle peut savrer trs utile en matire dduplication, puisque
les nombreux fichiers similaires seront parfaitement pris en compte par lalgorithme de
dduplication.

7.1.4.1 Bloc fixe


Cette mthode consiste :
Couper les donnes en blocs de taille fixe, cette dernire ayant t prdfinie (au
moins 4 Ko) ;
Crer un hash correspondant chaque bloc ;
Stocker le bloc y relatif et ajouter lidentifiant ainsi cr dans lindex prvu cet effet ;
Si lidentifiant en question y figure dj, le bloc est remplac par un simple pointeur
faisant rfrence au bloc de donnes original.

7.1.4.2 Bloc variable


La dduplication bloc variable vise amliorer le processus dcrit la section prcdente.
En effet, dans le cas de la dduplication bloc fixe, la recherche dun bloc similaire est
effectue partir du dbut de chaque bloc, soit, dans notre exemple, tous les 4 Ko. Dans le
cas de la dduplication bloc variable, le dcoupage des donnes effectu par lalgorithme

Chapitre n7 : Gestion de linfrastructure virtuelle

Si la dduplication permet des conomies en matire despace disque, le stockage des


donnes, notamment les sauvegardes, ncessitera moins de disques durs. Par extension, la
consommation lectrique et les besoins en climatisation sont rduits, la quantit de U
ncessaire au sein du centre de donnes diminue et la fentre de sauvegarde est restreinte.

142
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

produit des blocs de taille variable. Puisque ces derniers ne sont plus aligns, la recherche
est effectue octet par octet, avec pour corollaire un taux de dduplication nettement plus
important.
Considrons, titre dexemple, quune lgre modification affecte le dbut dun fichier. Ce
dernier nest pas trait dans sa totalit, comme il laurait t dans le cas dune dduplication
bloc fixe.
Il convient de prciser que cette mthode requiert une puissance de calcul suprieure celle
ncessaire pour la dduplication bloc de taille fixe. Cest la raison pour laquelle la
comparaison est gnralement effectue aprs la sauvegarde afin de prserver les
performances (post-processus). Ce nest pas le cas lors dune dduplication bloc de taille
fixe dont la norme est in-line. Dans ce cas, la comparaison est effectue durant la
sauvegarde, ce qui ncessite des capacits accrues en matire de cache.

7.1.5 Snapshot
Les snapshots, ou instantans, sont des copies en lecture seule correspondant ltat dun
systme (des donnes y relatives) un instant prcis. Par tat, nous entendons un tat
consistant des donnes un instant T.
Il ne sagit pas dune sauvegarde part entire puisque les donnes initiales sont
ncessaires pour restaurer un systme partir dun instantan. Ce clich peut toutefois tre
restaur un autre emplacement que celui dorigine, ce qui peut savrer intressant pour
crer un clone dune machine virtuelle ou pour effectuer des tests applicatifs.

Une telle mthode sapparente de la pseudo-rplication. Un instantan de lensemble dun


volume peut en effet tre dclench, ce dernier tant copi sur un autre stockage. Lespace
disque ainsi consomm ne reprsente que la diffrence entre ltat des donnes au moment
du dclenchement du snapshot et linstantan prcdent, puisque nous nous situons dans
un contexte de sauvegarde incrmentale. La bande passante requise demeure ds lors
minime. En consquence, cette manire de faire ressemble de la rplication asynchrone.
Cette technologie peut tre mise en uvre au niveau logiciel (notamment par les solutions
de virtualisation) ou au niveau des baies de stockage.
Il convient galement de prciser que les instantans, exploits conjointement par les API et
autres agents commercialiss par les diteurs, permettent de mettre en uvre des
procdures de sauvegarde des donnes alors mme que le modle daffaire nautorise
aucune fentre de sauvegarde (par exemple, dans le cas o la production nest jamais
interrompue). Il est en effet possible de dclencher un instantan en cours de production,
mme si des fichiers concerns par la sauvegarde sont ouverts. La machine virtuelle peut

Chapitre n7 : Gestion de linfrastructure virtuelle

Linstantan est un excellent moyen de scuriser les donnes et constitue dailleurs la base
de certaines stratgies de sauvegarde. En effet, il est tout fait possible de prendre des
instantans intervalle rgulier durant la journe et de les externaliser sur un support de
stockage distant (un NAS, par exemple). Cette mthode permet dapprocher un RPO dune
valeur de zro.

143
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

tre rapidement et intgralement restaure son emplacement dorigine, avec pour


corollaire la diminution de la valeur du RTO.

7.2 Postproduction
7.2.1 Prservation dune infrastructure fonctionnelle
La gestion quotidienne dune infrastructure virtuelle exige des administrateurs systmes
quils soient parfaitement conscients de ltat de ses divers lments, et ce, en permanence.
Les applications mtier sont hberges par des serveurs virtuels, la couche de virtualisation
simmisant entre eux et le matriel sous-jacent. Ce matriel, savoir les serveurs hte de
machines virtuelles fonctionnent dsormais en cluster. Les ressources physiques
ncessaires aux VM tant elles-mmes issues de lentier de ce cluster, identifier les serveurs
(virtuels) devient sensiblement plus difficile, tout le moins visuellement. Il en va de mme
pour les stations de travail, lorsque ces dernires sont galement virtuelles, et pour les
systmes de stockage, en particulier lorsque le pool est compos de diffrentes solutions
commercialises par diffrents fabricants.
Ainsi, certaines fonctionnalits inhrentes la virtualisation, telles que la migration de
machines virtuelles actives entre les diffrentes htes ou lobtention dun pool unique de
stockage partir de systmes htrognes, peuvent tre perues comme des sources
additionnelles de complexit. Or, il nen est rien, pour autant que les administrateurs
systmes concerns prennent la mesure des outils de supervision qui deviennent
primordiaux dans un environnement virtuel. Ds lors que le matriel sefface quelque peu
derrire la couche de virtualisation, ces derniers savrent tre des outils privilgis pour
vrifier que toute linfrastructure fonctionne parfaitement.

En effet, vMotionTM permettant le dplacement instantan de machines virtuelles en cours


dexcution, il devient possible deffectuer des migrations chaud , sans interruption pour
les utilisateurs. Les oprations de maintenance matrielle dun serveur hte ne drangeront
gure plus lesdits utilisateurs. Le dplacement des VM dun hte un autre peut mme tre
automatis par DRS, et ce, dans un souci dquilibrage de la puissance de calcul. La
consommation dnergie inhrente au centre de donnes peut enfin tre rduite par le biais
de solutions telles que VMware vSphere Distributed Power ManagementTM (DPM) qui est
capable doptimiser cette consommation en continu, en fonction des besoins des VM (qui
sont moindres la nuit ou le week-end, par exemple).
Grce aux outils de supervision, il est possible de connatre en permanence ltat du matriel
(temprature, alimentation, composants) ou vrifier que les performances offertes soient en
conformit avec les attentes (utilisation des processeurs, espace disque et mmoire
116
117

http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/vmotion.html.
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/drs-dpm.html.

Chapitre n7 : Gestion de linfrastructure virtuelle

Une fois les outils de supervision maitriss, des fonctionnalits comme vMotionTM116 de
VMware ou comme Distributed Resource Scheduler 117 (DRS) de la mme socit,
contribueront rendre linfrastructure agile. Il sagit tout de mme de lun des buts que nous
recherchons dans la virtualisation.

144
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

disponibles, comportement des VM ce niveau). Il est bien souvent possible de savoir si


tous les services, ainsi que le rseau, sont oprationnels.
Ces outils sont gnralement fournis par les diteurs ou les constructeurs. Seule leur prise
en main est requise de la part des administrateurs systmes. Toutefois, si linfrastructure est
particulirement htrogne, une combinaison de solutions attend ces derniers. Il convient
de prciser, ce propos, que loutil dorchestration semble tre la solution prconise pour
pallier, entre autres buts, ce problme (cf. section 7.2.4, Perspectives).

7.2.2 Rcupration aprs catastrophe


Lorsquune reprise aprs sinistre doit tre planifie, le pire des scnarios est gnralement
retenu, savoir la perte complte dun centre de donnes. Les notions de PRA et de RTO
sont donc intimement lies un tel vnement.
Le plan de reprise dactivit (Disaster Recovery Plan en anglais) est donc un plan durgence
avalis par les instances dirigeantes, rsultant dune rflexion dpassant le cadre strict du
systme dinformation. Il sagit de faire en sorte que lactivit principale de lentreprise,
autrement dit celle qui gnre des revenus, puisse reprendre au plus vite. Or, nous pouvons
considrer qu lheure actuelle, une telle activit est souvent indissociable du systme
dinformation.

Dans le cadre dun environnement virtualis, il sagit gnralement de mettre en place une
rplication asynchrone entre le systme de stockage prsent dans le premier centre de
donnes et son pendant, situ sur un site distant. En cas de sinistre, la deuxime baie peut
tre configure manuellement en tant que nouvelle baie principale. Les donnes ayant t
rpliques sur cette dernire, lactivit est en mesure de reprendre. De plus, un nombre
adquat de serveurs hte de machines virtuelles doit galement tre disponible au sein du
deuxime centre de donnes. Ces derniers doivent tre en mesure de supporter seuls la
charge impose par la totalit des machines virtuelles et doivent faire partie du mme cluster
que les serveurs du centre de donnes principal. Une technologie telle que VMware vSphere
High Availability 118 (HA) doit avec t mise en uvre. Ainsi, les machines virtuelles peuvent
tre redmarres sur les serveurs hte du site distant.
Il existe cependant plusieurs niveaux possibles de basculement. Ces niveaux dpendent des
besoins exprims par les instances dirigeantes et ces derniers sont tablis en fonction du
RTO et du RPO. Un systme de basculement permettant datteindre des valeurs de RTO et
de RPO quasiment nulles peut coter passablement cher. Il sagit ds lors dvaluer les
besoins avec sagacit.
En effet, la mise en uvre dun PCA savre tre encore plus onreuse que celle dun PRA.
Il ne sagit plus, dans ce cas, de la remise en activit dune infrastructure mais de faire en
sorte que les utilisateurs puissent fonctionner en toute transparence en cas de sinistre.
118

http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/high-availability.html.

Chapitre n7 : Gestion de linfrastructure virtuelle

Un plan de reprise dactivit consiste habituellement mettre en place un systme de relve


sur lequel il est possible de basculer.

145
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Si nous faisons rfrence au scnario dcrit ci-dessus en le transposant dans un contexte de


PCA, quelques mesures doivent dores et dj tre prises. En loccurrence, les baies
devraient tre configures de telle sorte quune rplication synchrone soit en vigueur. De
plus, le basculement dune baie lautre devrait tre automatis. Il en irait dailleurs de
mme pour la solution charge dassurer la disponibilit des serveurs. En effet, vSphere
High Availability devraient tre abandonn au profit de vSphere Fault Tolerance 119 (FT).
Ainsi, des instances fantmes des machines virtuelles seraient dj disponibles sur les
serveurs du centre de donnes distant, autorisant ds lors un basculement automatique des
instances principales des VM vers ces dernires.
Nous prcisons que certains outils destins faciliter la mise en place de PRA sont
disponibles sur le march. Le basculement des applications critiques vers un site de secours
peut tre facilit, voire automatis par le biais de ces derniers. Il sagit notamment de
VMware vCenter Site Recovery Manager 120 (SRM) et de Double-Take. 121.
VMware SRM permet galement de raliser des tests relatifs au PRA sans impacter la
production, afin de pouvoir sassurer de la conformit des processus. Il permet en outre de
dfinir avec prcision les machines virtuelles qui doivent tre maintenues tout prix et de
dfinir lordre de leur dmarrage, dexcuter des actions bases sur des scripts, de modifier
automatiquement la configuration de certaines machines virtuelles en fonction des exigences
relatives au site de secours, etc.

7.2.3 Planification budgtaire

Une fois linfrastructure disponible, il convient de tenir compte des frais dexploitation de cette
dernire. Nous faisons notamment rfrence aux frais engendrs par la consommation
lectrique (qui devraient par ailleurs notoirement dcrotre), quelle soit gnre par les
dispositifs ou par leur refroidissement.
Le matriel doit, quant lui, tre amorti, au mme titre quil le serait dans un environnement
classique. Pour les serveurs hte, cet amortissement est habituellement bas sur leur dure
de vie qui est estime cinq ans au maximum. Il peut tre toutefois judicieux de se baser sur
le laps de temps durant lequel le constructeur garantit le matriel.
Les licences correspondant aux solutions de virtualisation fournies par les diteurs doivent
galement tre prises en compte. Bien que gnralement non limites dans le temps, il peut
savrer obligatoire de les faire voluer en cas de changement du matriel. Le prix de la
licence dun hyperviseur est en effet calcul, la plupart du temps, en fonction du nombre de

119

http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/fault-tolerance.html.
http://www.vmware.com/products/site-recovery-manager/overview.html.
121
http://www.visionsolutions.com/world/francaiseu/francaiseu.aspx.
120

Chapitre n7 : Gestion de linfrastructure virtuelle

Plus que jamais dans lhistoire des entreprises, les aspects financiers font lobjet dexamens
attentifs. Les opportunits de retour sur investissement offertes par la virtualisation ont dj
t voques au sein de ce document, en particulier au chapitre 3, Bnfices de la
virtualisation, la hirarchie sintressant tout particulirement cet aspect pour dbloquer le
budget y relatif.

146
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

processeurs. Si les capacits des serveurs hte de machines virtuelles nouvellement acquis
augmentent, le prix des licences pourraient ds lors galement savrer plus important.
Si tous ces cots peuvent aisment tre estims, ce nest pas forcment vident de les
rpartir par dpartement. De plus, sil est possible destimer le cot du matriel, il nest pas
vident destimer le cot des machines virtuelles elles-mmes. Or, ces dernires ne sont pas
gratuites, mme si leur cot est infiniment moins important que celui dune machine
physique. De plus, les besoins en matire de machines virtuelles par dpartement sont
parfois ncessaires pour rpartir avec prcision les budgets informatiques sur lensemble de
lentreprise.
VMware propose dailleurs une solution qui permet de pallier ce manque de transparence,
sagissant en lespce de Chargeback Manager 122. Cette dernire permet de modliser les
cots rels associs aux machines virtuelles en donnant la possibilit aux administrateurs de
configurer les cots de base, les cots fixes, les cots de mise en uvre, ainsi que plusieurs
facteurs de taux. Elle offre galement la possibilit dassurer le suivi des cots en matire
dalimentation, de refroidissement ou de licences logicielles notamment. Les gestionnaires
des diffrents dpartements peuvent bnficier de rapports priodiques comprenant les
donnes relatives lutilisation et aux cots.

7.2.4 Perspectives

En effet, tant les solutions proposes par Nicira que celles commercialises par Xsigo sont
reposent sur le concept de Software Defined Networking (SDN), soit un nouveau
paradigme darchitecture rseau ayant pour particularit de dcoupler le plan de contrle du
plan de donnes. Une fois virtualis, le rseau physique est utilis uniquement pour la
transmission de paquets, sagissant ds lors simplement dun fond de panier IP. Les rseaux
virtuels sont crs par le biais dun programme et fonctionnent de manire totalement
dcouple du matriel sous-jacent, en offrant les mmes caractristiques et les mmes
garanties quun rseau physique. Un contrleur externe peut ainsi diriger toute
linfrastructure de commutation et/ou de routage, le rseau physique se transformant alors
en un pool de ressources rseau qui peuvent tre dynamiquement livres aux clients en
fonction des besoins.
Aprs la virtualisation des serveurs et du stockage, le SDN ouvre la porte la virtualisation
complte du centre de donnes ou Software Defined Datacenter (SDDC), avec pour
corollaire la simplification des centres de calculs base sur la virtualisation.
VWware fait dailleurs rfrence au Virtual Datacenter (VDC) et matrialise sa vision par le
biais de vCloud Suite 125, solution permettant la cration dinfrastructure de type nuage,
122

http://www.vmware.com/fr/products/datacenter-virtualization/vcenter-chargeback/overview.html.
http://www.xsigo.com/index.php.
124
http://nicira.com/.
125
http://www.vmware.com/products/datacenter-virtualization/vcloud-suite/overview.html.
123

Chapitre n7 : Gestion de linfrastructure virtuelle

Si nous nous rfrons aux achats rcents de Xsigo123 par Oracle, le 30 juillet 2012, et de
son concurrent Nicira124 par VMware sept jours plus tt, la virtualisation du rseau semble
faire office de pierre angulaire dans la stratgie de dveloppement des acteurs les plus
importants du monde de la virtualisation.

147
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

complte et intgre. Cette suite sappuie videmment sur lhyperviseur vSphereTM, mais
galement sur vCloudTM Director, vritable solution dorchestration permettant de crer et
de fournir des centres de donnes virtuels.
Ainsi, les concepts de SDDC et de solution dorchestration constituent manifestement le
socle dun nouveau paradigme en matire de mise en place et de gestion des centres de
donnes et devraient a priori faire parler deux lavenir, en particulier dans llaboration
dun nouveau modle de Cloud, plus en phase avec les attentes formules par les
entreprises.
En effet, la virtualisation a initialement t adopte par de nombreuses entreprises pour
rduire leurs dpenses grce la consolidation des serveurs et pour diminuer les charges
dexploitation grce lautomatisation. La diminution des pertes engendre par une meilleure
gestion des interruptions de service planifies comme non planifies a galement fortement
contribu cette adoption.
Aujourdhui, lheure o les diffrents dpartements formant une entreprise sollicitent les
quipes informatiques pour obtenir un accs toujours plus rapide aux ressources
informatiques et aux applications, la virtualisation parat tre la seule technologie capable
dapporter aux administrateurs systmes la ractivit attendue. Or, la mise en place de
solutions Cloud prives ou hybrides offrent des possibilits intressantes pour relever le dfi.

La virtualisation des applications permet dores et dj dencapsuler ces dernires dans leur
propre bulle applicative. lavenir, il sagira dtre capable de les distribuer par le biais
du Cloud, via des plateformes ad hoc, afin de rpondre la forte demande en matire
daccs mobile aux applications. VMware rpond dores et dj cette demande en
proposant une solution permettant de crer un catalogue applicatif et grer les espaces de
travail scuriss sur les terminaux mobiles (Horizon Application ManagerTM et Horizon
MobileTM). Cette solution a dailleurs fait lobjet dune annonce au VMworld 2012.
De plus, les utilisateurs, hormis le fait quils soient de plus en plus mobiles, ont tendance
vouloir utiliser leurs dispositifs personnels dans le cadre de leur travail. Cette tendance est
connue sous lappellation BYOD (Bring your own device) ou de consumrisation de lIT.
VMware propose, ce titre, de coupler sa solution ViewTM loffre MirageTM de Wanova126,
une socit rachete en mai 2012. Ainsi, la synchronisation et la gestion des applications sur
diffrents types de postes de travail physiques ou virtuels deviennent possibles.

126

http://www.wanova.com/.

Chapitre n7 : Gestion de linfrastructure virtuelle

Il devient en effet possible de provisionner des machines virtuelles et des applications


multiniveaux avec clrit, en augmentant ainsi la capacit mise disposition des divisions
de lentreprise tant sur site que hors site. Le dploiement des ressources aura ds lors de
plus en plus tendance se faire la demande. Nous invitons dailleurs le lecteur
sintresser de prs aux notions de SaaS (Software as a Service) ou de PaaS (Platform as a
Service) dont lvolution est intimement lie la virtualisation.

148
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Les diteurs de solutions de virtualisation confirment donc cette tendance consistant


virtualiser le poste de travail et manifeste un intrt certain pour la gestion de la mobilit.
Quant au modle PaaS, il suggre que le fournisseur maintienne la plateforme dexcution
des applications (au niveau du Cloud) tandis que lentreprise cliente conserve la possibilit
de maintenir ses propres applications. Il sagit donc bien dun nouveau modle dexploitation
des ressources informatiques, bas sur le Cloud et indirectement sur lexistence de la
virtualisation.

Chapitre n7 : Gestion de linfrastructure virtuelle

Ces concepts constituent toutefois une tendance et ne sauraient tre considrs comme
pleinement fonctionnels lheure o nous rdigeons ces lignes. De plus, le degr
dacceptation de ces technologies par les professionnels de la branche est encore mesur.

149
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

8 Conclusion
lorigine de linformatique, nous disposions dordinateurs capables de faire fonctionner un
unique processus. Il nous a alors sembl opportun de faire en sorte que plus dun seul
programme puissent y tre excuts. Les premiers systmes multitches virent ainsi le jour.
Ces systmes tant passablement coteux, nous nous sommes ds lors mis en tte de
pouvoir partager leur puissance de calcul entre plusieurs utilisateurs, dsir qui donna
naissance au pseudo-paralllisme. En effet, les ordinateurs taient souvent inactifs, puisque
lutilisateur tait rgulirement occup dautres tches. Or, il tait tentant dutiliser les
centaines de milliers cycles disponibles ce moment-l pour en faire bnficier un autre
utilisateur et rentabiliser ainsi au mieux linvestissement que reprsentait cet ordinateur.
Nous lavons voqu au sein de ce document, la virtualisation est ne du dsir de partager la
puissance de calcul des ordinateurs. Elle a par la suite permis de raliser de srieuses
conomies en consolidant un nombre important de machines virtuelles sur un nombre
restreint de serveurs physiques. Tout comme les environnements temps partag avant
elle, la virtualisation nous a permis damliorer drastiquement la rentabilisation du matriel
informatique. En dfinitive, cette technologie a donn lopportunit aux ingnieurs de pouvoir
franchir ltape qui devait logiquement succder au temps partag, savoir le fait de pouvoir
excuter plusieurs systmes dexploitation sur une seule et mme machine.
lheure actuelle, nous franchissons une nouvelle tape : faire abstraction de linfrastructure
pour permettre la mise disposition des ressources informatiques aux utilisateurs comme
autant de services. La virtualisation nous autorise envisager un tel concept et tout semble
indiquer que le systme dinformation est en train dvoluer dans ce sens.

Chapitre n8 : Conclusion

Le concept peut sembler sduisant car il suppose une simplification de la mise disposition
des ressources informatiques lattention des utilisateurs, que ces derniers se trouvent
linterne ou en dplacement. Nous sommes cependant face un vritable changement de
paradigme. Il savre donc essentiel que les DSI prennent la mesure des mutations venir et
adaptent en consquence leurs objectifs stratgiques, faute de quoi certaines entreprises
pourraient passer ct des bnfices potentiellement ralisables ou ventuellement perdre
la matrise de leur systme dinformation.

150
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Chunk : quivalent dun bloc dans le monde du RAID. Le boc tant un ensemble de
secteurs ;
Cluster : grappe de serveurs (ou ferme de calcul ) constitue de deux serveurs au
minimum (appel aussi nud) et partageant une baie de disques commune, pour
assurer une continuit de service et/ou repartir la charge de calcul et/ou la charge
rseau ;
DSI : Direction (ou Directeur) des systmes dinformation ;
Dispositif : toute machine ou composant qui fait partie dun ordinateur. Ces
dispositifs requirent, pour la plupart, un programme appel pilote pour pouvoir
fonctionner en adquation avec lordinateur. Ce pilote agit comme un traducteur en
convertissant les commandes gnrales dune application en commandes
spcifiques au dispositif en question ;
Framework : kit de composants logiciels structurels qui sert crer les fondations,
ainsi que les grandes lignes de tout ou partie dun logiciel. Ces outils et composants
logiciels sont organiss conformment un plan darchitecture et de patrons,
lensemble formant un squelette de programme ;
Hachage : Une fonction de hachage permet, partir dune donne fournie en entre,
de calculer une empreinte servant identifier rapidement, bien quincompltement, la
donne initiale. Elle sert rendre plus rapide lidentification des donnes ;
Hyperviseur : plateforme de virtualisation permettant plusieurs systmes
dexploitation de travailler sur une machine physique en mme temps ;
Interruption : en informatique, une interruption est un arrt temporaire de lexcution
normale dun programme par le microprocesseur afin dexcuter un autre
programme ;
IOPS : de langlais Input/Output Operations Per Second pour oprations
dentres/sorties par seconde qui est une mesure commune de performances ;
ISA : pour Instruction Set Architecture, sagissant de la spcification fonctionnelle
dun processeur, du point de vue du programmeur, en langage machine. Cet
ensemble dinstructions est cod au niveau du processeur et nest pas modifiable. Il
dfinit les capacits dun processeur dont larchitecture matrielle est ensuite
optimise pour excuter les instructions de lISA le plus efficacement possible ;
ITIL : Information Technology Infrastructure Library pour Bibliothque pour
linfrastructure des technologies de linformation qui est un ensembles douvrages
recensant les bonnes pratiques de la gestion des systmes dinformation. Ce
rfrentiel aborde diffrents sujets, tels que lorganisation dun systme dinformation,
lamlioration de son efficacit, la rduction des risques qui lui sont inhrents, ainsi
que lamlioration de la qualit des services informatiques ;
LAN : de langlais Local Area Network ou rseau local. Ce rseau dsigne par abus
un rseau dentreprise. Il sagit plus prcisment dun rseau comprenant des
dispositifs qui communiquent entre eux au niveau 2 du modle OSI, soit par le biais
de trames. Le protocole IP (Internet Transport) nest pas ncessaire cet chelon ;
LUN : pour Logical Unit Number. Dans un rseau SAN, un LUN est le numro
didentification dun espace de stockage prsent un ou plusieurs serveurs ;
Mainframe : terme trouvant son origine dans linformatique des annes soixante,
sagissant dun ordinateur ultra-performant, cr pour effectuer des traitements bass

Chapitre n9 : Glossaire

9 Glossaire

151
Le vendredi 28 septembre 2012

Lionel Berger

La virtualisation des systmes dinformation

sur un volume consquent de donnes et exigeant de grandes capacits de calcul.


Ces systmes taient capables de traiter des requtes provenant de dizaines, voire
de centaines de terminaux simultanment. Ils fonctionnent ds lors selon un modle
centralis et sont mme de faire fonctionner de faon simultane plusieurs
sessions dun systme dexploitation ou ventuellement de systmes dexploitation
diffrents ;
Mmoire vive : appele galement RAM (de langlais Random Access Memory), est
la mmoire dans laquelle un ordinateur place les donnes lors de leur traitement.
Cette mmoire est rapide daccs et volatile (les donnes qui y sont contenues sont
perdues une fois que lordinateur nest plus aliment en lectricit) ;
Monitoring : anglicisme qualifiant une activit de surveillance et de mesure dune
activit informatique ;
Mot : en informatique, le mot est lunit de base que manipule un processeur. Sa
taille est exprime en bits ou en octets et est souvent utilise pour classifier les
microprocesseurs (32 bits, 64 bits, etc.). Un microprocesseur est dautant plus rapide
que ses mots sont longs, car les quantits de donnes quil traite chaque cycle sont
plus importantes ;
Multipathing : technique permettant de mettre en place plusieurs routes daccs
entre un serveur et ses disques situs au sein du SAN, en diminuant ainsi les risques
de perte daccs ;
Multiprogrammation : possibilit offerte, pour un systme dexploitation, de faire
coexister plusieurs programmes simultanment en mmoire et de mettre profit les
temps dinactivit relatifs un programme donn, pendant les oprations dentressorties notamment, et ce, afin de faire progresser lexcution dautres programmes ;
NAS : de langlais Network Attached Storage, pour serveur de stockage en rseau,
sagissant dun serveur de fichiers autonome, reli un rseau et dont la principale
fonction est le stockage de donnes en un volume centralis pour des clients rseau
htrognes ;
NIC : de langlais Network Interface Card, soit une carte rseau en franais ;
Portabilit : dsigne, pour un programme informatique, sa capacit tre port pour
fonctionner plus ou moins facilement dans diffrents environnements d'excution ;
Provisioning : terme utilis en informatique pour dsigner laffectation plus ou moins
automatise de ressources aux utilisateurs. Pour parvenir cette allocation
automatique de ressources, des outils de gestion de la configuration sont utiliss.
Ces derniers permettent notamment dinstaller et de configurer des logiciels
distance, dallouer de lespace disque, de la puissance ou de la mmoire ;
SAN : de langlais Storage Area Network et qui implique une mutualisation des
ressources de stockage au travers dun rseau spcialis permettant un accs bas
niveau aux disques utiliss ;
Serialization : processus visant coder ltat dune information prsente en mmoire
sous la forme dune suite dinformations plus petites (ou atomique) qui se traduit le
plus souvent sous forme doctets, voire de bits ;
SMP : de langlais Symmetric Multiprocessing, sagissant dune architecture
informatique dite parallle qui consiste multiplier des processeurs au sein dun
ordinateur, de telle manire augmenter la puissance de calcul ;
SPOF : de langlais Single Point of Failure, ou point unique de dfaillance ;

Chapitre n9 : Glossaire

Mmoire de Bachelor

152
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

Temps partag : appel galement pseudo-paralllisme. Il sagit dune approche


permettant de simuler le partage pour plusieurs utilisateurs du temps processeur ;
U : Le U, pour unit, est une unit de mesure employe pour dcrire la hauteur dun
dispositif au sein dun rack. Un U correspond 1 pouce, soit 44,45 millimtres ;
WAN : de langlais Wide Area Network ou rseau tendu. Ce rseau couvre une
vaste zone gographique et utilise lInternet et le protocole IP (Internet Protocol),
situ au niveau 3 de modle OSI. Nous pouvons considrer que plusieurs LAN sont
interconnects par le biais du WAN ;
VM : de langlais, Virtual Machine pour machine virtuelle ;
VMM : de langlais, Virtual Machine Manager pour Gestionnaire de machine virtuelle
ou plus gnralement un hyperviseur (cf. Section 4.4.1.1, Hyperviseur).

Chapitre n9 : Glossaire

La virtualisation des systmes dinformation

153
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

1. Wikipedia. Full system simulator. en.wikipedia.org. [En ligne] 22 avril 2012. [Citation : 28 juillet
2012.] http://en.wikipedia.org/wiki/Full_system_simulator.
2. Wikipdia. Hyperviseur. fr.wikipedia.org. [En ligne] 19 juillet 2012. [Citation : 28 juillet 2012.]
http://fr.wikipedia.org/wiki/Hyperviseur.
3. Wikipedia. SimOS. en.wikipedia.org. [En ligne] 16 dcembre 2011. [Citation : 28 juillet 2012.]
http://en.wikipedia.org/wiki/SimOS.
4. . VM (operating system). en.wikipedia.org. [En ligne] 12 juillet 2012. [Citation : 28 juillet 2012.]
http://en.wikipedia.org/wiki/VM_(operating_system).
5. La rdaction du magazine l'Informaticien. VMware : Une russite loin d'tre virtuelle.
www.linformaticien.com. [En ligne] 1 dcembre 2010. [Citation : 28 juillet 2012.]
http://www.linformaticien.com/dossiers/les-saga-de-lit/id/20086/vmware-une-reussite-loin-d-etrevirtuelle.aspx.
6. Wikipdia. Conversation Monitor System. fr.wikipedia.org. [En ligne] 8 octobre 2010. [Citation : 23
juillet 2012.] http://fr.wikipedia.org/wiki/Conversation_Monitor_System.
7. Wikipedia. CP/CMS. en.wikipedia.org. [En ligne] 6 fvrier 2012. [Citation : 23 juillet 2012.]
http://en.wikipedia.org/wiki/CP/CMS.
8. The Computer Language Company Inc. Definition of CP/CMS. www.pcmag.com. [En ligne] 2012.
[Citation : 23 juillet 2012.]
http://www.pcmag.com/encyclopedia_term/0,1237,t=CPCMS&i=58807,00.asp.
9. TechTerms.com. Hardware Terms, Mainframe. site Web TechTerms.com. [En ligne] 2012.
[Citation : 23 juillet 2012.] http://www.techterms.com/definition/mainframe.
10. Wikipedia. History of CP/CMS. en.wikipedia.org. [En ligne] 21 juillet 2012. [Citation : 23 juillet
2012.] http://en.wikipedia.org/wiki/History_of_CP/CMS.
11. Wikipdia. Ordinateur central. fr.wikipedia.org. [En ligne] 23 juillet 2012. [Citation : 23 juillet 2012.]
http://fr.wikipedia.org/wiki/Ordinateur_central.
12. VMware, Inc. Principes de base de la virtualisation. Site Web VMware, Inc. [En ligne] 2012.
[Citation : 23 juillet 2012.] http://www.vmware.com/fr/virtualization/virtualization-basics/history.html.
13. Le Journal du Net. Solution > Mainframe. Le Journal du Net. [En ligne] 2012. [Citation : 23 juillet
2012.] http://www.journaldunet.com/solutions/mainframe/.
14. Wikipdia. Temps partag. fr.wikipedia.org. [En ligne] 30 mai 2012. [Citation : 25 juillet 2012.]
http://fr.wikipedia.org/wiki/Temps_partag%C3%A9.
15. Multics. The IBM 360/67 and CP/CMS. www.multicians.org. [En ligne] 20 juillet 2012. [Citation :
23 juillet 2012.] http://www.multicians.org/thvv/360-67.html.
16. IBM. z/VM. vm.ibm.com. [En ligne] 13 avril 2012. [Citation : 25 juillet 2012.]
http://www.vm.ibm.com/.
17. Wikipdia. Architecture de processeur. fr.wikipedia.org. [En ligne] 7 avril 2012. [Citation : 28 juillet
2012.] http://fr.wikipedia.org/wiki/Architecture_de_processeur.
18. Mathieu Lamelot, Pierre Dandumont. Les dfis de la virtualisation. tom's hardware, THE
AUTHORITY ON TECH. [En ligne] 15 fvrier 2010. [Citation : 28 juillet 2012.] http://www.presencepc.com/tests/virtualisation-Intel-AMD-512/5/.
19. TechTarget. SearchServerVirtualization, Definition, Virtualization.
searchservervirtualization.techtarget.com. [En ligne] dcembre 2010. [Citation : 29 juillet 2012.]
http://searchservervirtualization.techtarget.com/definition/virtualization.
20. Webopedia. Virtualization. www.webopedia.com. [En ligne] 2012. [Citation : 29 juillet 2012.]
http://www.webopedia.com/TERM/V/virtualization.html.
21. Hess, Kenneth et Newman, Amy. Virtualisation en pratique. Paris : Pearson Education France,
2010.
22. Maill, Eric et Mennecier, Ren-Franois. VMware vSphere 5 au sein du Datacenter. St
Herblain : ditions ENI, 2012.

Chapitre n10 : Bibliographie

10 Bibliographie

154
Le vendredi 28 septembre 2012

Lionel Berger

La virtualisation des systmes dinformation

23. Georgeot, Cdric. Bonnes pratiques, planification et dimensionnement des infrastructures de


stockage et de serveur en environnement virtuel. Paris : Books on Demand, 2011.
24. Wikipdia. Information Technology Infrastructure Library. fr.wikipedia.org. [En ligne] 30 juillet
2012. [Citation : 13 aot 2012.]
http://fr.wikipedia.org/wiki/Information_Technology_Infrastructure_Library.
25. . RAID (informatique). fr.wikipedia.org. [En ligne] 3 aot 2012. [Citation : 13 aot 2012.]
http://fr.wikipedia.org/wiki/RAID_(informatique).
26. . Cluster. fr.wikipedia.org. [En ligne] 6 aot 2012. [Citation : 14 aot 2012.]
http://fr.wikipedia.org/wiki/Cluster.
27. . Dduplication. fr.wikipedia.org. [En ligne] 28 juin 2012. [Citation : 14 aot 2012.]
http://fr.wikipedia.org/wiki/D%C3%A9duplication.
28. . Portabilit (informatique). fr.wikipedia.org. [En ligne] 13 juin 2012. [Citation : 15 aot 2012.]
http://fr.wikipedia.org/wiki/Portabilit%C3%A9_(informatique).
29. Steve Gribble, Associate Professor, CSE. CSE490H: Virtualization. www.cs.washington.edu.
[En ligne] 2008. [Citation : 19 aot 2012.]
http://www.cs.washington.edu/education/courses/cse490h/08au/lectures/cse490_virtualization.pdf.
30. Wikipdia. Small Computer System Interface. fr.wikipedia.org. [En ligne] 2 aot 2012. [Citation : 6
aot 2012.] Small Computer System Interface.
31. . Serveur de stockage en rseau. fr.wikipedia.org. [En ligne] 26 juillet 2012. [Citation : 6 aot
2012.] http://fr.wikipedia.org/wiki/Serveur_de_stockage_en_r%C3%A9seau.
32. . Logical Unit Number. fr.wikipedia.org. [En ligne] 25 juin 2012. [Citation : 6 aot 2012.]
http://fr.wikipedia.org/wiki/Logical_Unit_Number.
33. . Unit de gestion mmoire. fr.wikipedia.org. [En ligne] 30 mai 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Unit%C3%A9_de_gestion_m%C3%A9moire.
34. R. Beuchat LAMI-EPFL, LMP-EIG. DMA, Accs Direct en Mmoire Direct Memory Access.
lapwww.epfl.ch. [En ligne] mai 1993. [Citation : 19 aot 2012.]
http://lapwww.epfl.ch/courses/embsys/docs/DMA.pdf.
35. Wikipdia. Algorithmes de remplacement des lignes de cache. fr.wikipedia.org. [En ligne] 27 juillet
2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Algorithmes_de_remplacement_des_lignes_de_cache#LRU_.28Least_Rec
ently_Used.29.
36. . Taux de multiprogrammation. fr.wikipedia.org. [En ligne] 16 mai 2012. [Citation : 20 aot 2012.]
http://fr.wikipedia.org/wiki/Taux_de_multiprogrammation.
37. . Segmentation (informatique). fr.wikipedia.org. [En ligne] 26 mai 2012. [Citation : 20 aot 2012.]
http://fr.wikipedia.org/wiki/Segmentation_(informatique).
38. . Mmoire pagine. fr.wikipedia.org. [En ligne] 9 juin 2012. [Citation : 20 aot 2012.]
http://fr.wikipedia.org/wiki/M%C3%A9moire_pagin%C3%A9e.
39. . Mmoire virtuelle. fr.wikipedia.org. [En ligne] 28 juillet 2012. [Citation : 20 aot 2012.]
http://fr.wikipedia.org/wiki/M%C3%A9moire_virtuelle.
40. . Mot (informatique). fr.wikipedia.org. [En ligne] 31 juillet 2012. [Citation : 20 aot 2012.]
http://fr.wikipedia.org/wiki/Mot_(informatique).
41. . Mmoire vive. fr.wikipedia.org. [En ligne] 28 juillet 2012. [Citation : 20 aot 2012.]
http://fr.wikipedia.org/wiki/M%C3%A9moire_vive.
42. Mignot, Gal Le. Systmes d'exploitation, Gestion de la mmoire. [En ligne] 2007. [Citation : 20
aot 2012.] http://cours.pilotsystems.net/cours-insia/cours-de-systemes-dexploitation-ing2srt/memory.pdf.
43. Wikipdia. Commutation de contexte. fr.wikipedia.org. [En ligne] 30 mai 2012. [Citation : 20 aot
2012.] http://fr.wikipedia.org/wiki/Commutation_de_contexte.
44. Institut national des sciences appliques de Toulouse. Mode protg. http://www.insatoulouse.fr. [En ligne] 26 dcembre 2009. [Citation : 20 aot 2012.] http://etud.insatoulouse.fr/~projet_tut_OS/w/Mode_prot%C3%A9g%C3%A9.
45. Wikipdia. RFLAGS. fr.wikipedia.org. [En ligne] 8 aot 2012. [Citation : 21 aot 2012.]
http://fr.wikipedia.org/wiki/RFLAGS.

Chapitre n10 : Bibliographie

Mmoire de Bachelor

155
Le vendredi 28 septembre 2012

Lionel Berger

La virtualisation des systmes dinformation

46. . Anneau de protection. fr.wikipedia.org. [En ligne] 20 juin 2012. [Citation : 21 aot 2012.]
http://fr.wikipedia.org/wiki/Anneau_de_protection.
47. Wikipedia. Ring (computer security). en.wikipedia.org. [En ligne] 14 aot 2012. [Citation : 21 aot
2012.] http://en.wikipedia.org/wiki/Ring_(computer_security).
48. PC Magazine. Definition of : VM/386. www.pcmag.com. [En ligne] [Citation : 22 aot 2012.]
http://www.pcmag.com/encyclopedia_term/0,1237,t=VM386&i=54031,00.asp.
49. Sandoz, Alain. Concept de machine virtuelle. www.epfl.ch. [En ligne] 2007. [Citation : 22 aot
2012.]
http://lsrwww.epfl.ch/webdav/site/lsrwww/shared/Enseignement/SysExp07/chapitre%2005%20machin
e%20virtuelle.pdf.
50. Wikipdia. Histoire des ordinateurs. fr.wikipedia.org. [En ligne] 8 aot 2012. [Citation : 22 aot
2012.]
http://fr.wikipedia.org/wiki/Histoire_des_ordinateurs#Troisi.C3.A8me_g.C3.A9n.C3.A9ration_.2819631971.29.
51. Wikipedia. Popek and Goldberg virtualization requirements. en.wikipedia.org. [En ligne] 2 avril
2012. [Citation : 22 aot 2012.]
http://en.wikipedia.org/wiki/Popek_and_Goldberg_virtualization_requirements.
52. Benkemoun, Antoine. Virtualisation. http://www.antoinebenkemoun.fr. [En ligne] [Citation : 22
aot 2012.] http://www.antoinebenkemoun.fr/virtualisation/.
53. Wikipedia. Binary translation. en.wikipedia.org. [En ligne] 7 avril 2012. [Citation : 23 aot 2012.]
http://en.wikipedia.org/wiki/Binary_translation.
54. . x86 virtualization. en.wikipedia.org. [En ligne] 5 aot 2012. [Citation : 23 aot 2012.]
http://en.wikipedia.org/wiki/X86_virtualization.
55. Intel. Intel Virtualization Technology. www.intel.com. [En ligne] 10 aot 2006. [Citation : 27 aot
2012.] http://www.intel.com/technology/itj/2006/v10i3/1-hardware/5-architecture.htm.
56. . PCI-SIG SR-IOV Primer. www.intel.com. [En ligne] janvier 2011. [Citation : 1 septembre 2012.]
http://www.google.ch/url?sa=t&rct=j&q=pcisig%20i%2Fo&source=web&cd=10&cad=rja&ved=0CHcQFjAJ&url=http%3A%2F%2Fwww.intel.com%
2Fcontent%2Fwww%2Fus%2Fen%2Fpci-express%2Fpci-sig-sr-iov-primer-sr-iov-technologypaper.html&ei=eilCUMn1MIjasgbfkYGoCQ&usg=AFQjCNGW.
57. Wikipedia. PCI-SIG. en.wikipedia.org. [En ligne] 8 aot 2012. [Citation : 1 septembre 2012.]
http://en.wikipedia.org/wiki/PCI-SIG.
58. Wikipdia. NX Bit. fr.wikipedia.org. [En ligne] 24 juin 2012. [Citation : 8 septembre 2012.]
http://fr.wikipedia.org/wiki/NX_Bit.
59. SearchServerVirtualization. Blades v. rack servers for virtualization.
searchservervirtualization.techtarget.com. [En ligne] octobre 2009. [Citation : 8 septembre 2012.]
http://searchservervirtualization.techtarget.com/feature/Blades-vs-rack-servers-for-virtualization.
60. Wikipdia. Chemin de donnes. fr.wikipedia.org. [En ligne] 12 octobre 2011. [Citation : 19 aot
2012.] http://fr.wikipedia.org/wiki/Chemin_de_donn%C3%A9es.
61. Thierry Lvy-Abgnoli, indexel.net. Commutateur virtuel : six questions sur un concept en
pleine rvolution. www.indexel.net. [En ligne] 10 mars 2010. [Citation : 5 septembre 2012.]
http://www.indexel.net/materiels/commutateur-virtuel-six-questions-sur-un-concept-en-pleinerevolution-3052.html.
62. Wikipedia. Converged network adapter. en.wikipedia.org. [En ligne] 5 mars 2012. [Citation : 6
septembre 2012.] http://en.wikipedia.org/wiki/Converged_network_adapter.
63. Wikipdia. Framework. fr.wikipedia.org. [En ligne] 27 aot 2012. [Citation : 2 septembre 2012.]
http://fr.wikipedia.org/wiki/Framework.
64. . Interruption (informatique). fr.wikipedia.org. [En ligne] 30 mai 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Interruption_(informatique).
65. . Jeu d'instructions. fr.wikipedia.org. [En ligne] 4 juillet 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Jeu_d%27instructions.

Chapitre n10 : Bibliographie

Mmoire de Bachelor

156
Le vendredi 28 septembre 2012

Lionel Berger

La virtualisation des systmes dinformation

66. Anicet Mbida, 01net Entreprises. La virtualisation d'applications. pro.01net.com. [En ligne] 24
aot 2006. [Citation : 2 septembre 2012.] http://pro.01net.com/editorial/324015/la-virtualisationdapplications/.
67. Wikipdia. Langage machine. fr.wikipedia.org. [En ligne] 6 novembre 2011. [Citation : 19 aot
2012.] http://fr.wikipedia.org/wiki/Code_machine.
68. . Processeurs. fr.wikipedia.org. [En ligne] 4 aot 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Processeur#Les_op.C3.A9rations_du_processeur.
69. . Registre du processeur. fr.wikipedia.org. [En ligne] 4 juillet 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Registre_de_processeur.
70. . Rseau local virtuel. fr.wikipedia.org. [En ligne] 30 juillet 2012. [Citation : 5 septembre 2012.]
http://fr.wikipedia.org/wiki/R%C3%A9seau_local_virtuel.
71. . Serveur lame. fr.wikipedia.org. [En ligne] 6 fvrier 2012. [Citation : 8 septembre 2012.]
http://fr.wikipedia.org/wiki/Serveur_lame.
72. . Surveillance (informatique). fr.wikipedia.fr. [En ligne] 21 juin 2012. [Citation : 5 septembre
2012.] http://fr.wikipedia.org/wiki/Surveillance_(informatique).
73. . Unit arithmtique et logique. fr.wikipedia.org. [En ligne] 4 juillet 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Unit%C3%A9_arithm%C3%A9tique_et_logique.
74. . Unit de contrle. fr.wikipedia.org. [En ligne] 4 juillet 2012. [Citation : 19 juillet 2012.]
http://fr.wikipedia.org/wiki/Unit%C3%A9_de_contr%C3%B4le.
75. Bonnin, Aurlien. Virtulalisation d'application : App-V 4.6 SP1. www.itpro.fr. [En ligne] 11 juin
2012. [Citation : 2 septembre 2012.] http://www.itpro.fr/a/virtualisation-application-app-v-4-6-sp1/.
76. Jeff. VLAN - Rseaux virtuels. www.commentcamarche.net. [En ligne] 20 avril 2011. [Citation : 5
septembre 2012.] http://www.commentcamarche.net/contents/internet/vlan.php3.
77. Wikipedia. Fibre Channel over IP. en.wikipedia.org. [En ligne] 19 avril 2012. [Citation : 8
septembre 2012.] http://en.wikipedia.org/wiki/Fibre_Channel_over_IP.
78. . Internet Fibre Channel Protocol. en.wikipedia.org. [En ligne] 20 juin 2011. [Citation : 8
septembre 2012.] http://en.wikipedia.org/wiki/Internet_Fibre_Channel_Protocol.
79. Alberto Farronato, Group Product Marketing Manager for VMware Storage and Availability
Products. Memory Overcommit - Real life examples from VMware customers. blogs.vmware.com. [En
ligne] 8 octobre 2008. [Citation : 9 septembre 2012.]
http://blogs.vmware.com/virtualreality/2008/10/memory-overcomm.html.
80. Emeriau, Jean-Baptiste. La gestion de la mmoire dans ESX 4. wattmil.dyndns.org. [En ligne] 30
janvier 2010. [Citation : 9 septembre 2012.] http://wattmil.dyndns.org/vmware/19gestionmemoiresousesx4?start=2.
81. VMware. Understanding Memory Resource Management in VMware ESX 4.1. www.vmware.com.
[En ligne] 2010. [Citation : 9 septembre 2012.]
http://www.vmware.com/files/pdf/techpaper/vsp_41_perf_memory_mgmt.pdf.
82. Shieds, Gred et Siebert, Eric. Hyper-V dynamic memory allocation vs. VMware memory
overcommit. searchservervirtualization.techtarget.com. [En ligne] mai 2011. [Citation : 9 septembre
2012.] http://searchservervirtualization.techtarget.com/tip/Hyper-V-dynamic-memory-allocation-vsVMware-memory-overcommit.
83. Wikipdia. Fonction de hachage. fr.wikipedia.org. [En ligne] 4 septembre 2012. [Citation : 9
septembre 2012.] http://fr.wikipedia.org/wiki/Fonction_de_hachage.
84. . Appel systme. fr.wikipedia.org. [En ligne] 30 mai 2012. [Citation : 12 septembre 2012.]
http://fr.wikipedia.org/wiki/Appel_syst%C3%A8me.
85. DataCoreTM. SANsymphonyTM-V Hyperviseur de stockage, Fonctionnalits - Rcapitulatif.
www.datacore.com. [En ligne] 2012. [Citation : 12 septembre 2012.]
http://www.datacore.com/Libraries/Language_-_French/SANsymphonyV_Abbreviated_Feature_Description_DataSheet_-_Fr.sflb.ashx.
86. Wikipedia. NPIV. en.wikipedia.org. [En ligne] 14 septembre 2012. [Citation : 14 septembre 2012.]
http://en.wikipedia.org/wiki/NPIV.
87. GuVirt. Le NPIV. www.guvirt.org. [En ligne] [Citation : 14 septembre 2012.]
http://www.guvirt.org/serveurs/2-esx/78-npiv-la-virtualisation-des-cartes-hba.

Chapitre n10 : Bibliographie

Mmoire de Bachelor

157
Le vendredi 28 septembre 2012

Lionel Berger

Mmoire de Bachelor

La virtualisation des systmes dinformation

Chapitre n10 : Bibliographie

88. CoArSys Conseils, Architecture et Systmes. Une avance de plus dans le monde de la
virtualisation. www.coarsys.fr. [En ligne] 2009 avril 2009. [Citation : 14 septembre 2012.]
http://www.coarsys.fr/index.php?option=com_content&view=article&id=105:une-avancee-de-plusdans-le-monde-de-la-virtualisation&catid=57:virtualisation&Itemid=79.
89. Loc Thobois, Direction filire technologies Microsoft. Prsentation des Cluster Shared
Volume pour Hyper-V 2.0. www.espace-microsoft.com. [En ligne] 20 mai 2009. [Citation : 15
septembre 2012.] http://www.espace-microsoft.com/fr/articles/18914-presentation-cluster-sharedvolume-hyper-v-2-0.html.
90. Seng, Lai Yoong. Virtual Machine Heartbeat in A Cluster Hyper-V Host. www.ms4u.info. [En
ligne] 15 juillet 2011. [Citation : 15 septembre 2012.] http://www.ms4u.info/2011/07/virtual-machineheartbeat-in-cluster.html.
91. Josephes, Chris. Understanding Snapshot Consumption. broadcast.oreilly.com. [En ligne] 5
fvrier 2009. [Citation : 17 septembre 2012.] http://broadcast.oreilly.com/2009/02/understandingsnapshot-consump.html.

158
Le vendredi 28 septembre 2012

Lionel Berger

Você também pode gostar