Escolar Documentos
Profissional Documentos
Cultura Documentos
La virtualisation
des systmes
dinformation
Mmoire de Bachelor
Mmoire de Bachelor
Dclaration
Ce mmoire de Bachelor est ralis dans le cadre de lexamen final de la Haute Ecole de
Gestion (HEG) de Genve, en vue de lobtention du titre de Bachelor of Science HES-SO en
informatique de gestion. Ltudiant accepte, le cas chant, la clause de confidentialit.
L'utilisation des conclusions et recommandations formules dans le travail de Bachelor, sans
prjuger de leur valeur, n'engage ni la responsabilit de l'auteur, ni celle du conseiller au
travail de Bachelor, du jur et de la HEG.
Jatteste avoir ralis seul le prsent travail, sans avoir utilis dautres sources que celles
cites dans la bibliographie.
Dclaration
Lionel Berger
2
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Remerciements
En premier lieu, je souhaiterais remercier ma compagne, Arielle Moro, qui ma soutenu
inconditionnellement durant les huit semaines que jai consacres ce mmoire de
Bachelor. Son aide a t fort prcieuse, tant sur le plan moral quau niveau de lappui quelle
na pas hsit me confrer pour laborer ce document.
Jadresse galement de vifs remerciements M. Peter Daehne, professeur la Haute cole
de Gestion de Genve, qui a cru en ce projet et qui a dcid de lencadrer. Sa disponibilit
sans gale et ses conseils particulirement prcieux mont t dun grand soutien.
Je souhaite, par ailleurs, remercier mes collgues la Clinique Gnrale-Beaulieu, MM.
Jean-Marc Barone, Cyril Ackermann et Jacques Grillet, pour les conseils quils ont pu me
promulguer et pour avoir toujours fait preuve de comprhension lorsque jai eu consacrer
du temps ce mmoire.
Mes remerciements sadressent aussi M. Paul Santamaria, de Dell Genve, qui a eu la
gentillesse de consacrer une partie de son temps rpondre mes questions.
Remerciements
Enfin, je tiens galement remercier ma famille et mes amis auprs desquels jai t moins
prsent durant cette priode et qui cependant nont pas hsit mapporter leur appui.
3
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Rsum
En 1999, VMware dmocratisait la virtualisation des environnements x86 avec la sortie de
son premier produit, WMware Workstation. Deux ans plus tard, la mme socit entrait sur
le march des serveurs. Lengouement pour cette technologie ne faiblira ds lors plus,
rvolutionnant linfrastructure du centre de donnes. Aujourdhui, la virtualisation est au cur
dune rflexion dores et dj engage par les professionnels de linformatique, portant sur
les modles potentiels darchitecture du systme dinformation au 21e sicle.
Ce mmoire de Bachelor est destin en premier lieu aux administrateurs systmes et aux
directeurs des systmes dinformation qui, conscients des enjeux auxquels ils seront
prochainement confronts, dsirent approfondir leur connaissances en matires de
virtualisation. Ces derniers trouveront au sein de ce document, qui sinscrit dans une
approche gnraliste de la virtualisation, les bases ncessaires leurs rflexions ultrieures.
Lhistorique de la virtualisation est aborde de manire concise, et ce, dans lunique but de
conforter le lecteur quant au fait que cette technologie nest pas rcente au point dtre
immature.
Aprs un bref tat des lieux des principales spcificits dun environnement virtuel, nous
dressons la liste des principaux bnfices offerts par la virtualisation. Nous voquons ensuite
les diffrentes techniques de virtualisation et leur mise en uvre au sein dun certain nombre
dapplications commerciales.
Rsum
Enfin, nous dcrivons les diffrents domaines au sein desquels la virtualisation peut tre
mise en place, avant de faire rfrence un certain nombre de critres et de bonnes
pratiques auxquels il convient dtre attentif lors de la construction dune infrastructure
virtualise. Le document sachve sur des considrations relatives la scurisation de
lenvironnement, sa rcupration en cas de sinistre et sa prennisation.
4
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Introduction .................................................................................................................................... 12
1.1
1.2
Historique de la virtualisation................................................................................................. 13
1.2.1
1.2.2
1.2.3
VMware ........................................................................................................................ 16
1.3
Candidats la virtualisation................................................................................................... 17
1.4
2.2
2.3
2.4
2.5
3.1.1
3.1.2
3.1.3
3.1.4
3.1.5
3.1.6
3.1.7
3.1.8
3.1.9
3.2
3.3
3.4
3.5
3.6
3.7
3.8
4.1.1
4.1.2
5
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
4.1.3
Application ..................................................................................................................... 52
4.2
4.2.1
4.2.2
4.2.3
Trap-and-emulation ....................................................................................................... 57
4.2.4
4.2.5
4.3
4.3.1
4.3.2
4.3.3
4.4
4.4.1
4.4.2
Serveurs ................................................................................................................................ 81
5.2
5.2.1
Concept ......................................................................................................................... 82
5.2.2
Avantages ...................................................................................................................... 83
5.2.3
Solutions ........................................................................................................................ 85
5.3
Applications ........................................................................................................................... 85
5.3.1
Concept ......................................................................................................................... 85
5.3.2
Avantages ...................................................................................................................... 86
5.3.3
Solutions ........................................................................................................................ 87
5.4
5.4.1
Concepts ........................................................................................................................ 88
5.4.2
5.4.3
5.4.4
5.4.5
5.5
Stockage ................................................................................................................................ 87
Rseau .................................................................................................................................. 95
5.5.1
VLAN ............................................................................................................................. 96
5.5.2
Commutateur ................................................................................................................. 97
5.5.3
6.1.1
6.1.2
6
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
6.1.3
6.1.4
6.1.5
6.2
7
7.1.1
7.1.2
7.1.3
7.1.4
7.1.5
7.2
7.2.1
7.2.2
7.2.3
7.2.4
Glossaire...................................................................................................................................... 151
Bibliographie ............................................................................................................................ 154
10
7
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 3-1 : volution de la consommation lectrique au sein des centres de donnes aux USA
(Source : tude de Jonathan G. Koomey, Stanford University, aot 2011
http://www.analyticspress.com/datacenters.html) ......................................................................... 26
TM
Figure 3-2 : VMware vCenter Converter (Source : www.vmware.com) ............................................. 28
TM
Figure 3-3 : Console d'administration de la plateforme VMware vSphere ......................................... 31
Figure 3-4 : Migration d'un serveur obsolescent vers un nouveau serveur (Source : Virtualisation des
8
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 4-16 : Virtualisation laide de la paravirtualisation, du point de vue des anneaux de protection
(Source : La virtualisation de serveurs x86 par John Marcou - http://root-lab.fr/2011/06/04/lavirtualisation-de-serveurs-x86) ...................................................................................................... 64
Figure 4-17 : Paravirtualisation base sur lexistence dun hyperviseur (Source : La paravirtualisation
par Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/la-paravirtualisation) ......... 65
Figure 4-18 : Technologie VMX et anneaux de protection (Source : La paravirtualisation par Antoine
Benkemoun - http://www.antoinebenkemoun.fr/2009/08/la-paravirtualisation) ............................. 67
Figure 4-19 : Partage bas sur lusage de logiciel (Source : PCI-SIG SR-IOV Primer, An Introduction
to SR-IOV Technology de lIntel LAN Access Division) .............................................................. 70
Figure 4-20 : Affectation direct (Source : PCI-SIG SR-IOV Primer, an Introduction to SR-IOV
Technology de Intel LAN Access Division) ................................................................................. 72
Figure 4-21 : Comparaison de lunit de gestion de la mmoire des entres/sorties (IOMMU) et de
lunit de gestion de la mmoire (MMU) (Source : en.wikipedia.org/wiki/IOMMU) ....................... 73
Figure 4-22 : Association des VF avec leur espace de configuration (Source : PCI-SIG SR-IOV Primer,
An Introduction to SR-IOV Technology de Intel LAN Access Division) ...................................... 75
Figure 4-23 : Hyperviseur bare metal (Source : fr.wikipedia.org/wiki/Hyperviseur) .............................. 76
Figure 4-24 : Hyperviseur de type 2 (Source : fr.wikipedia.org/wiki/Hyperviseur) ................................ 77
TM
Figure 5-1 : Interactions avec un poste de travail virtuel (Source : VMware View , fiche produit) ..... 82
TM
Figure 5-2 : Client zro Dell Wyse P20 (Source : http://www.wyse.com/products/cloud-clients/zeroclients/P20) .................................................................................................................................... 83
Figure 5-3 : Principe de virtualisation dapplications (Source : http://pro.01net.com/editorial/324015/lavirtualisation-dapplications) ........................................................................................................... 86
Figure 5-4 : Symtrique ou In-Band (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot) ........... 90
Figure 5-5 : Asymtrique ou Out-Band (Source : Bonnes pratiques, planification et dimensionnement
des infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot) .... 91
Figure 5-6 : Thin Provisionning (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot) ........... 92
Figure 5-7 : Regroupement des blocs dans un centre de donnes (Source : www.vmware.com) ....... 93
Figure 5-8 : Virtualisation des fonctionnalits dun adaptateur Fibre Channel (Source :
http://www.emulex.com/solutions/data-center-virtualization/lightpulse-virtual-hba-technology.html)
..................................................................................................................................................... 100
Figure 6-1 : Principe de fonctionnement du balloon driver (Source :
http://wattmil.dyndns.org/vmware/19-gestionmemoiresousesx4?start=2) .................................. 112
Figure 6-2 : Comparaison entre compression mmoire et swapping (Source :
http://www.vmware.com/files/pdf/techpaper/vsp_41_perf_memory_mgmt.pdf) ......................... 113
Figure 6-3 : Principe de fonctionnement du Transparent Page Sharing (Source :
http://wattmil.dyndns.org/vmware/19-gestionmemoiresousesx4?start=1) .................................. 114
Figure 6-4 : Exemple de configuration actif/passif (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel de
Cdric Georgeot) ......................................................................................................................... 119
Figure 6-5 : Attachement direct au stockage avec mise en uvre de linterconnexion de ports
(Source : Bonnes pratiques, planification et dimensionnement des infrastructures de stockage et
de serveur en environnement virtuel de Cdric Georgeot) ......................................................... 120
Figure 6-6 : Topologie base sur deux commutateurs FC (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel de
Cdric Georgeot) ......................................................................................................................... 120
9
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
DELL ) ........................................................................................................................................... 94
Tableau 6-1 : Bonnes pratiques quant au nombre de VM par cur pouvant tre dployes en fonction
de lutilisation du processeur (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot) ......... 107
Tableau 6-2 : Capacit mmoire disponible, ainsi que consommation moyenne et lors des pics
(Source : inspir de Bonnes pratiques, planification et dimensionnement des infrastructures de
stockage et de serveur en environnement virtuel de Cdric Georgeot) ...................................... 110
TM
Tableau 6-3 : Nombre de cartes ncessaire pour Hyper-V (Source : Bonnes pratiques, planification
et dimensionnement des infrastructures de stockage et de serveur en environnement virtuel par
Cdric Georgeot). ........................................................................................................................ 115
TM
Tableau 6-4 : Nombre de cartes ncessaire pour vSphere (Source : Bonnes pratiques, planification
et dimensionnement des infrastructures de stockage et de serveur en environnement virtuel par
Cdric Georgeot). ........................................................................................................................ 115
Tableau 6-5 - Performances des diffrentes topologies en fonction des types d'accs. (Source :
Bonnes pratiques, planification et dimensionnement des infrastructures de stockage et de
serveur en environnement virtuel par Cdric Georgeot) ............................................................. 129
10
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Guide de lecture
Afin que ce mmoire de Bachelor puisse tre lu en tout aisance, nous vous invitons
prendre bonne note des indications suivantes :
Guide de lecture
Les mots en gras savrent particulirement importants et sont mis en vidence par
ce biais ;
Les guillemets ne sont pas utiliss pour mettre en relief des citations (ce document
nen contient pas) mais ont plutt vocation souligner un usage particulier dun terme
ou dune expression. Toutefois, les noms des articles qui sont cits dans le corps du
texte sont entre guillemets ;
Certains mots ou expressions sont mis en italique pour souligner leur appartenance
une langue trangre. Toutefois les solutions ou technologies, rfrences au sein
de ce document, qui sont commercialises par des diteurs ou autres fabricants sous
des appellations anglaises, ne sont pas mis en italique. Les noms des ouvrages cits
dans le corps du texte sont, quant eux, en italique. Quant aux articles cits dans le
corps du texte, dont le nom est en anglais, ils sont uniquement mis entre guillemets ;
Les mots en bleu sont dfinis dans le glossaire la fin du document.
11
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
1 Introduction
Le prsent document sadresse aux professionnels de linformatique, tels que les
administrateurs systmes, mais galement aux membres de la Direction des Systmes
dInformation (DSI), seuls habilits se prononcer sur les budgets relatifs linfrastructure
informatique.
Ce document vise combler les connaissances lacunaires en matire de virtualisation des
systmes dinformation dont pourraient faire preuve ces acteurs prpondrants. Il vise les
aider comprendre limpact de la virtualisation de linfrastructure informatique dont ils ont la
charge. Pour ladministrateur systmes, il sagit plus prcisment de la diminution des
ressources dvolues la maintenance, au profit de lefficacit et de linnovation. Pour la DSI,
il convient doptimiser les moyens financiers, de rorienter les ressources humaines et de
prserver la plante en diminuant la consommation nergtique.
Les DSI se trouvent en effet confronts au dilemme consistant devoir fournir chaque anne
plus de services avec des budgets se rduisant dautant. Linformatique dentreprise se doit
dtre suffisamment flexible et ractive pour tre mme de pouvoir rpondre avec efficacit
aux exigences des mtiers qui sont la source des revenus de lentreprise.
La quantit de donnes gnres crot par ailleurs sans cesse, alors que les contraintes
lgales, sagissant des plans de continuit dactivit et de protection des donnes viennent
alourdir la charge de travail des quipes informatiques. De nombreux centres de donnes
(Datacenters) se voient affects par un manque chronique de place dbouchant sur de
nouvelles difficults lorsque des machines supplmentaires sont exiges par les mtiers qui
font face de nouveaux besoins. Lnergie constitue lheure actuelle un autre sujet de
proccupation, les entreprises ne pouvant parfois pas obtenir de nouvelles augmentations de
puissance lectrique ou ne le dsirant pas pour des raisons cologiques.
Le prsent document fait donc office de guide destin la prise de dcision lie ladoption
dune telle technologie. Il ne sagit pas dun manuel technique sy rapportant, le degr de
granularit y relatif tant limit la comprhension gnrale des concepts abords.
Au sein du chapitre 1, nous aborderons rapidement lhistorique de la virtualisation,
sagissant tout dabord des travaux dIBM lis la mise au point dune solution offrant des
capacits optimales de temps partag. Cette dmarche aboutira finalement llaboration du
concept de virtualisation.
Chapitre n1 : Introduction
Dans ce contexte, nous comprenons que les mthodes habituelles en vigueur aujourdhui au
sein des services informatiques doivent voluer et quune transformation du systme
dinformation est ds lors ncessaire. La virtualisation des serveurs est souvent prsente
comme tant la solution permettant de mettre en uvre un socle technique efficace pour
accompagner les besoins du mtier cits prcdemment, et ce, tout en rduisant les cots,
aussi bien au niveau de lacquisition de dispositifs quau niveau nergtique. Cette
technologie, associe la virtualisation des rseaux et du stockage, permet de disposer dun
datacenter virtuel de nouvelle gnration.
12
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Cet historique na pas pour vocation dtre absolument exhaustif. Les travaux dIBM sont
abords car essentiels la gestation du concept. Nous traiterons ensuite de larchitecture
x86 et du portage de la technologie sur cette plateforme, et ce, parce que cette
architecture occupe une place prpondrante dans le modle dinfrastructure informatique
que nous connaissons aujourdhui.
Enfin, nous pensons quvoquer les dispositifs candidats la virtualisation fait office de
passage oblig dans une introduction. Nous jugeons en effet que le lecteur doit savoir
demble si la lecture dun tel document correspond ses attentes.
Une feuille de route clturera finalement cette introduction, en offrant au lecteur une vue
densemble du contenu disponible dans ce document, par souci de clart et au vu dviter
toute perte de temps inutile au lecteur.
Chapitre n1 : Introduction
13
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
lutilisation de ces derniers. Les mainframes taient en effet confronts des problmes de
rigidit et de sous-utilisation. De nos jours, les ordinateurs bass sur larchitecture x86 font
face au mme paradigme.
Le System/360 dIBM tait un ordinateur de la famille des systmes de type mainframe, mis sur le march par
Chapitre n1 : Introduction
Ce dernier, mis au point en 1967, diffrait grandement tant des systmes dexploitation
existant cette poque que des travaux issus des autres grands projets dIBM. Il sagissait
dun systme dont le code source tait libre et auquel tous les clients dIBM avaient
gratuitement accs.
14
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Vers 1988, IGC International 4, une socit sise San Jose en Californie, met au point un
systme dexploitation multi-utilisateurs, connu sous le nom de VM/386. Un PC pouvait ainsi
hberger plusieurs stations de travail virtuelles, chacune dentre elles tant capable
dexcuter plusieurs programmes DOS ou Windows simultanment. Le VM/386 peut donc
3
La famille x86 regroupe des microprocesseurs compatibles avec le jeu dinstructions de lIntel 8086. Cette srie
est nomme IA-32 (pour Intel Architecture 32 bits) par Intel pour ses processeurs partir du Pentium.
4
http://www.igcinc.com/company.htm.
Chapitre n1 : Introduction
Durant les annes 1980 et 1990, les architectures x86 3 prennent peu peu la main sur les
mainframes. La technologie de virtualisation est ds lors de moins en moins utilise,
lexception de quelques solutions destines principalement aux ordinateurs personnels.
15
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
tre considr comme le premier VMM capable de crer des machines virtuelles pour un
processeur de la famille x86, sagissant en loccurrence du premier dentre eux, soit le
80386.
la fin des annes 1990, la Stanford University, lquipe de recherche de Mendel
Rosenblum cherche comprendre plus prcisment les spcificits des architectures x86
afin de pouvoir contourner les difficults qui leur sont lies, ces dernires prsentant, malgr
leur succs, de nombreuses limites. Pour se faire, ladite quipe se servait du simulateur de
systme SimOS5 coupl une sonde qui permettait danalyser les appels processeurs, les
appels mmoires et les entres/sorties. Un tel simulateur tant capable de modliser un
systme complet, cette technologie sapparente de trs prs au concept de la virtualisation
et positionne demble lquipe de Mendel Rosenblum en bonne place dans domaine de la
virtualisation.
Lquipe de Mendel Rosenblum parvient finalement mettre au point un procd en 1998,
permettant de transposer aux environnements x86, le concept de virtualisation des serveurs
prcdemment mis au point par IBM (cf. section 1.2.1, lorigine, la virtualisation des
mainframes) qui tait conforme aux critres de Popek et Goldberg (cf. section 4.2.2,
Exigences lies la virtualisation), notamment en ce qui concernait le System/370, puisque
dans son cas, toutes les instructions sensibles taient considres comme privilgies (cf.
section 4.2.2.2, Classification des instructions processeur).
Ce procd consiste, en rsum, en la dcouverte dun moyen de grer un certain nombre
dinstructions processeur critiques susceptibles de causer des plantages du systme. La
famille x86 tant omniprsente sur le march des processeurs, tre capable de virtualiser
cette architecture constituait vritablement une avance capitale.
Mendel Rosenblum, sa compagne Diane Green, Edouard Wang, Edouard Bugnion et Scott
Devine sunissent dailleurs par la suite pour fonder la socit VMware. Cre lanne
mme, cette socit ralisa un coup de force en mettant la virtualisation porte de tous.
Cest en effet partie des annes 2000 que lensemble des acteurs du march finit par
sintresser la virtualisation, soit un an aprs le lancement du premier produit de VMware,
VMware WorkstationTM 1.0. Cette socit est donc indissociable de la virtualisation, en
grande partie pour avoir mis au point une solution optimale de virtualisation des
environnements x86.
1.2.3 VMware
Simulateur de systme dvelopp la Stanford University la fin des annes 1990 au sein du groupe de
recherche de Mendel Rosenblum. Il permettait de simuler une architecture informatique un tel niveau de dtail
que la pile logicielle complte dun systme rel pouvait fonctionner sur ce dernier sans aucune modification.
Chapitre n1 : Introduction
16
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
La notorit de lentreprise stend et lanne suivante elle compte plus dun million
dutilisateurs.
2003 est un tournant pour VMware avec lextension de son portefeuille de produits et
larrive de vMotionTM, un logiciel qui permet de transfrer les machines virtuelles dune
machine physique une autre. La mme anne, EMC26 achte VMware qui prserve
toutefois une certaine indpendance organisationnelle et une division R&D qui le demeure
galement.
2007 reprsente une tape importante pour lentreprise avec son introduction en bourse.
Cisco7 et Intel8 prennent des parts dans VMware, liens capitalistiques qui renforceront les
partenariats technologiques par la suite.
En 2010, VMware rachte Zimbra9 Yahoo et sengage ainsi rsolument dans le monde
de linformatique en nuage.
EMC est une entreprise amricaine de logiciels et de systmes de stockage fonde en 1979 Newton
(Massachusetts). Lentreprise est leader mondial du stockage.
7
Cisco est une entreprise informatique amricaine spcialise, lorigine, dans le matriel rseau (routeur et
commutateur Ethernet).
8
Intel Corporation est une entreprise amricaine produisant des microprocesseurs - elle est lorigine du
premier microprocesseur x86 -, des cartes mres, des mmoires flash et des processeurs graphiques
notamment.
9
Zimbra est une solution Open Source pour messagerie et partage de calendrier.
Chapitre n1 : Introduction
Ce dernier nous aidera faire le bon choix en matire de dimensionnement des serveurs et
du stockage, mais galement en termes de rseau de stockage, de paramtres de
performances ou de scurisation des donnes.
17
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Chapitre n1 : Introduction
18
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Chapitre n1 : Introduction
19
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Dans ce type dinfrastructure, aucun problme de portabilit nest prvoir, une machine
virtuelle tant absolument identique une machine physique. Un administrateur dispose
dune telle granularit de configuration quil lui est permis de fournir une machine virtuelle
les ressources dont elle a besoin de faon trs fine.
Le fait que les machines virtuelles soient totalement isoles les unes des autres (systmes
dexploitation, registre, application et donnes), les immunise dans le cas dune infection
dune dentre elles par un virus. Il en va de mme avec le crash dun systme dexploitation.
Cette protection entre machines virtuelles na jamais t mise en doute ce jour.
Ltat complet dune machine virtuelle est contenu dans des fichiers. Cest ce que nous
entendons par encapsulation. Cette dernire autorise une grande souplesse dutilisation en
simplifiant les sauvegardes, les copies et les plans de reprises dactivit.
Il convient galement de prciser quune machine virtuelle est totalement indpendante de la
machine qui lhberge. Il nexiste ds lors plus aucune contrainte matrielle, facilitant
dautant la migration vers de nouvelles plateformes de virtualisation. Ainsi, lors du
renouvellement du serveur hte de machines virtuelles, il suffit de dplacer la machine
Il va de soi que dans un environnement virtuel, ladministrateur gre des machines virtuelles.
Une machine virtuelle reprsente lensemble de ltat dune machine physique (i.e. le
systme dexploitation, appel systme dexploitation invit, avec les applications et les
donnes).
20
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
virtuelle sur ce dernier, en toute simplicit. Il nest aucunement ncessaire de procder une
nouvelle installation sur le nouveau dispositif.
La qualit de service peut tre mise en place dans les infrastructures virtuelles, et ce, pour
garantir que chaque machine virtuelle dispose des ressources dont elle a besoin en fonction
de la criticit du service quelle hberge. La QoS peut tre paramtre tant au niveau de la
machine virtuelle elle-mme quau niveau de lhyperviseur ou du cluster.
21
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
3 Bnfices de la virtualisation
Le multi-cur, le 64 bits, tout comme la gestion dune quantit trs importante de mmoire,
sont autant dvolutions dans la technologie des serveurs ces dernires annes. Installer un
seul systme dexploitation sur un serveur qui serait susceptible den supporter plusieurs
dizaines est devenu aujourdhui totalement injustifiable.
La virtualisation savre tre une des technologies la mieux mme de tirer parti des
processeurs multi-curs, puisquelle offre un haut niveau de consolidation, soit la
possibilit dhberger un nombre important de machines invites sur un serveur hte.
Un serveur est actuellement considr comme tant dix douze fois plus puissant en termes
de performances quun de ses homologues dil y a quatre ans. Ds lors, il devient mme
possible denvisager la virtualisation de serveurs hbergeant des applications considres
comme stratgiques, telles quOracle ou SAP, moyennant toutefois quelques
configurations spcifiques.
Les fabricants ont embarqus certaines technologies au niveau du matriel qui permettent
de grer nativement la virtualisation, sagissant notamment de ladaptation des processeurs
(cf. section 4.3.3, Assistance matrielle).
Les baies de stockage sont capables de sinterfacer avec les API (Application Programming
Interface ou interface de programmation) fournies par les constructeurs afin de dcharger le
serveur hte de machines virtuelles de certaines tches lies au stockage.
Certains commutateurs permettent de simplifier la gestion rseau en environnement
virtualis, linstar du Nexus 1000vTM10 de Cisco (cf. section 5.5.2, Commutateur).
Nous avons choisi loption daborder les bnfices octroys par cette technologie avant
dvoquer les aspects techniques y relatifs, la mise en uvre, les domaines dapplication ou
mme la construction dune infrastructure virtuelle.
Nous jugeons en effet indispensable que le lecteur soit convaincu de la pertinence de la
technologie en question avant de poursuivre sur les aspects susmentionns.
Il convient de prciser que les avantages lists dans le prsent chapitre ne constituent pas
une liste exhaustive. Pour des raisons pratiques, certains dentre eux sont explicits au
sein dautres chapitres, afin den conserver la cohrence. Il en va ainsi de certains avantages
lis la virtualisation du stockage ou des applications, abords au chapitre 5.
10
http://www.cisco.com/en/US/products/ps9902/index.html.
Au vu de ces lments, la virtualisation peut tre considre comme une alternative non
seulement viable mais particulirement pertinente aux architectures classiques en vigueur au
sein de bon nombre de socits lheure actuelle. Le prsent chapitre vise mettre en
exergue les bnfices octroys par cette technologie et leurs impacts sur lentreprise.
22
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Les entreprises perdent des sommes substantielles en raison du cot lev du maintien en
condition oprationnelle (MCO) de linfrastructure. Une inefficacit oprationnelle est
engendre, pesant sur linnovation et la gestion de nouveaux projets, pourtant capitaux pour
lvolution de la socit.
23
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
11
TM
TM
Il est par exemple possible, en faisant le choix dune licence Windows Server 2008 R2 ou Windows Server
2012, dinstaller autant de machines virtuelles que dsires, la licence ntant ncessaire que pour le hardware
qui est, dans ce cas prcis, lhyperviseur
(http://www.google.ch/url?sa=t&rct=j&q=2008%20r2%20licence%20%2B%20virtualisation&source=web&cd=1&v
ed=0CCUQFjAA&url=http%3A%2F%2Fdownload.microsoft.com%2Fdocuments%2FFrance%2FServeur%2F2011
%2Fwindows-server-2008r2%2FWindows_Server_2008_R2_virtualisation_mode_de_licence.pdf&ei=0AVBUKvnMnP4QT8v4GgCg&usg=AFQjCNGDvhkX8hWT16cxT_G7hdAjgld8zw).
12
Techniques permettant de rpartir des donnes sur plusieurs disques durs afin d'amliorer soit la tolrance aux
pannes, soit la scurit, soit les performances de l'ensemble, ou une rpartition de tout cela.
13
Qui peut tre mont dans un chssis prvu cet effet (un peu la manire des serveurs rack) mais qui est
plus compact quun serveur rack. Il sagit du serveur permettant doccasionner le plus faible encombrement
possible. Les chssis ad hoc fournissent gnralement lalimentation lectrique, le refroidissement, laccs au
rseau, la connectique pour lcran, le clavier et la souris. Plusieurs serveurs lame peuvent ainsi tre mutualiss
dans le mme chssis.
24
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Spcification
Cot
Unit de rack
Puissance (watts)
Interfaces rseau
Serveur destin la
virtualisation
(physique)
14'500.- CHF
4U
1570
2*
Serveur (physique)
Serveur virtuel
1'800 CHF
1U
670
2
0 CHF
0
0
0**
Considrons maintenant les mmes donnes mais avec une infrastructure comprenant dix
serveurs :
Spcification
Cot
Unit de rack
Puissance (watts)
Interfaces rseau
Serveur destin la
virtualisation
(physique)
14'500.- CHF
4U
1570
2 + 10*
Serveur (physique)
Serveur virtuel
18'000 CHF
8U
6700
20
0 CHF
0
0
10**
De plus, les machines virtuelles peuvent tre configures pour tre prsentes sur la mme
carte rseau ou regroupes au sein dune mme interface, ce qui permet l aussi de
diminuer le nombre de composants rseau.
25
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Comme nous pouvons le voir dans la figure 3-1, la courbe correspondant la croissance de
la consommation dlectricit (Scnario oprationnel amlior) utilise par les centres de
donnes entre 2000 et 2010 a t inflchie partir de 2006-2007, tant prcis que si cette
consommation a doubl entre 2000 et 2005 (de 30 60 milliards de kWh/an), elle na
progress que de 56% au lieu du double entre 2005 et 2010. Trois facteurs expliquent
cette dcroissance :
La crise conomique avec pour corollaire la rduction des investissements ;
Une meilleure gestion de la consommation lectrique au sein des centres de
donnes ;
Une adoption massive de la virtualisation avec pour consquence une rduction
drastique du nombre de serveurs.
Il convient toutefois de tenir compte du fait que lorsquune machine virtuelle est en fonction,
elle consomme de la mmoire, elle utilise le processeur et le rseau et elle sollicite les
disques, augmentant ds lors la consommation lectrique totale de lhte, cette
consommation tant toutefois sans commune mesure avec celle dune machine physique
indpendante.
Ainsi, lheure o les considrations cologiques font galement parties des priorits, de
telles conomies dnergie savrent tre un argument supplmentaire lorsquil sagit de la
dfense du budget octroy la direction du systme dinformation.
Figure 3-1 : volution de la consommation lectrique au sein des centres de donnes aux USA (Source :
tude de Jonathan G. Koomey, Stanford University, aot 2011
http://www.analyticspress.com/datacenters.html)
26
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
La virtualisation offre la possibilit de consolider les serveurs, avec pour consquence une
rduction du nombre des machines physiques, les charges tant combines sur du matriel
plus rcent et par consquent plus fiable. Le nombre de machines virtuelles ncessaires la
gestion de ces charges peut galement tre optimis. En rsum, le matriel est utilis de
manire plus efficace, la consommation dnergie rduite et les services plus simples
grer. Les cots de maintenance peuvent tre rduits dautant puisque le nombre de
machines physiques est moindre.
27
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
TM
(Source : www.vmware.com)
http://www.vmware.com/fr/products/datacenter-virtualization/converter/overview.html.
28
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
VDP nest autre quune appliance virtuelle intgre VMware vSphereTM, lhyperviseur de la
socit ponyme. Cette solution a t spcialement dveloppe pour viter toute perte de
donnes au sein de lenvironnement virtuel, en assurant des sauvegardes rapides sur disque
et en permettant une restauration complte et tout aussi rapide des donnes. VDP sappuie
sur la dduplication (cf. section 7.1.4, Dduplication), le traitement parallle et lutilisation du
mode CBT 16 (Changed Block Tracking ou suivi des blocs modifis).
Le recours un algorithme de dduplication bloc de taille variable (cf. section 7.1.4.2, Bloc
variable) limite considrablement lespace disque ncessaire, limitant ainsi la croissance
continue du volume consacr aux sauvegardes. La dduplication des donnes est
effectues sur lensemble des machines virtuelles associes lappliance virtuelle VDP.
15
16
http://www.vmware.com/solutions/datacenter/business-continuity/data-protection.html.
Mthode mise au point par VMware permettant de faciliter les sauvegardes incrmentales.
VMware vSphere Data ProtectionTM15 (VDP) est un bon exemple des solutions de
sauvegarde et de restauration de machines virtuelles actuellement disponibles sur le
march. Cest ce titre que nous lvoquons brivement ce stade du document.
29
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
En outre, VDP rduit la charge des htes et la bande passante ncessaire sur le rseau. En
effet, en sintgrant troitement vStorageTM APIs for Data ProtectionTM17 (VADP), VDP
exploite pleinement le mode CBT, en limitant les transmissions sur le rseau aux
modifications effectue durant la journe en cours uniquement. Le processus est totalement
transparent, entirement automatis et peut assurer la sauvegarde de huit machines
virtuelles simultanment. VDP tant hberg dans une appliance virtuelle, les processus de
sauvegarde ne sont plus situs au sein des VM en production.
Les stratgies de sauvegarde peuvent tre dfinies de manire centralise, depuis le client
vSphereTM, soit linterface dadministration de lhyperviseur, sans avoir utiliser une autre
console. En effet, VDP est troitement intgr vCenter ServerTM18.
En effet les prrogatives des uns ne correspondent que trs rarement celles des autres.
Lutilisateur est soucieux de pouvoir utiliser le logiciel dont il a besoin au plus vite. Le chef de
projet se voit forc de passer par les experts systmes et rseaux pour lintgration. Ces
derniers, dbords, fournissent les spcifications ncessaires concernant lachat du serveur
prvu pour lhbergement de ladite application plusieurs semaines aprs la demande du chef
de projet. Le gestionnaire du centre de donnes souhaite connaitre les caractristiques du
nouveau serveur pour lintgrer au sein de ses locaux. Il prendra galement plusieurs
semaines pour donner son accord, le temps de procder lexamen de lespace disponible
et aux calculs relatifs lalimentation nergtique et la climatisation. Le directeur financier,
quant lui, dcide de faire patienter le fournisseur durant quelques semaines, le temps que
ce dernier rvise ses prix la baisse.
Mme si ce scnario est quelque peu exagr, il rsume parfaitement le processus
dintgration prcdemment voqu.
La virtualisation permet de faciliter grandement ce processus. En premier lieu, il nest
nullement ncessaire dacqurir du matriel supplmentaire puisquil suffit de crer une
17
API de stockage permettant aux clients et aux diteurs de logiciels indpendants doptimiser et dtendre les
TM
fonctions de lhyperviseur vSphere dans les domaines de la dtection de stockage, de lintgration des baies,
du Multipathing et de la protection des donnes.
18
TM
VMware vCenter Server, soit une plate-forme utilise pour la gestion de la virtualisation (anciennement
TM
appele VMware VirtualCenter ).
30
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
nouvelle machine virtuelle. Il nest nul besoin de mettre en rack, de cbler, de brancher, ni de
se proccuper des capacits de refroidissement pour le matriel supplmentaire.
Ensuite, ce procd peut tre mis en uvre rapidement et de manire automatise. Dans le
cas o plus dune machine virtuelle tait ncessaire, il suffirait den crer une, puis de la
cloner autant de fois que dsir.
De plus, lespace disque dvolu tout nouveau serveur peut tre facilement mis
disposition partie du SAN, par le biais de la virtualisation du stockage. Un disque virtuel
(donc logique) peut tre cr en quelques clics de souris partir dun LUN quelconque du
pool de stockage.
Une intgration peut ds lors se rsumer quelques heures en lieu et place des quelques
semaines, voire des quelques mois quelle aurait exig auparavant.
TM
31
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
32
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 3-4 : Migration d'un serveur obsolescent vers un nouveau serveur (Source : Virtualisation des
Le cycle de vie dune machine virtuelle est beaucoup plus facilement contrlable. Ce type de
matriel peut galement tre limin de manire totalement transparente, ce qui
contribue du mme coup optimiser la gestion du cycle de vie du matriel.
33
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 3-5 : Charge des serveurs, scnario 1 (Source : Virtualisation en pratique de Kenneth Hess et Amy
Newman)
Linconvnient dun tel scnario rside dans le fait quil contrevient sa raison dtre initiale,
savoir lquilibrage des charges. En effet, un trafic Web important dgraderait les
performances de cet unique hte.
Afin dattnuer laltration de performances lie aux entres/sorties sur un disque unique de
lhte partag, nous allons utiliser du stockage rseau auquel toutes les machines virtuelles
sont susceptibles de pouvoir se connecter (cf. section 5.4, Stockage) afin den obtenir le
contenu dsir.
19
Cette rpartition de charge rseau peut se faire par un logiciel ventuellement contenu au sein dune image
virtuelle prvue pour les solutions de virtualisation des principaux diteurs du march (par exemple ALOHA Load
Balancer Virtual Appliance), elle-mme disponible partir dune appliance d1U pouvant tre mise en rack.
La figure 3-6 illustre une configuration similaire mais comportant des machines virtuelles la
place des machines physiques. Dans ce cas, le nombre de machines physiques na pas
chang, eu gard au fait que les charges ainsi quilibres doivent tre isoles un certain
degr. Les trois machines virtuelles pourraient cependant cohabiter sur le mme serveur
physique car chacune dentre elles possde sa propre adresse IP. Il est galement possible
dallouer chaque machine virtuelle sa propre interface rseau associe son interface
virtuelle.
34
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 3-6 : Charge des serveurs, scnario 2 (Source : Virtualisation en pratique de Kenneth Hess et Amy
Newman)
Figure 3-7 : Charge des serveurs, scnario 3 (Source : Virtualisation en pratique de Kenneth Hess et Amy
Newman)
La figure 3-8 illustre par contre le mme service Web correctement quilibr, faisant appel
au stockage rseau mentionn plus haut.
La figure 3-7 illustre le cas dun hte unique hbergeant trois serveurs Web virtuels. Si les
trois machines virtuelles sont quilibres en charge, tant les capacits de traitement que la
scurit de linfrastructure sont, quant elles, nullement garanties.
35
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 3-8 : Charge des serveurs, scnario optimal (Source : Virtualisation en pratique de Kenneth Hess
et Amy Newman)
Notons que dans un centre de donnes rel, chacun des htes prsents sur la figure 3-8
hbergerait plus dune machine virtuelle.
Une fois la copie de travail cre (cration de la machine virtuelle, dmarrage, application de
correctifs, attribution dun nom et dune adresse IP), une sauvegarde de cette dernire est
ralise (snapshot). Cette copie de travail est par la suite utilise pour linstallation, la
modification ou la suppression de paquetages logiciels. Cette mthode permet ainsi dviter
tout conflit ou problme potentiel (plantage, crans bleus, vidages de mmoire, etc.) qui
pourraient survenir au moment de la mise en production desdits logiciels.
36
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Ce chapitre est en effet ddi aux avances techniques significatives ayant historiquement
permis lavnement de la virtualisation. Or, il se trouve que les premires recherches
menes dans ce domaine ont eu pour objectif de virtualiser des serveurs dapplications.
Aborder les fondements techniques de la virtualisation du stockage, des rseaux ou des
applications dans ce chapitre ou, a fortiori, dans ce document, aurait pour consquence
dalourdir passablement ce dernier, la mthode dabstraction de ce type de ressources
informatiques tant passablement diffrente de celle utilise pour la virtualisation des
serveurs ou des stations de travail.
Aussi, nous nous contenterons dvoquer ces sujets sous un angle plutt pratique au sein du
chapitre 5, dvolu aux domaines dapplications et sous un aspect plutt stratgique au sein
du chapitre 6, consacr la construction de linfrastructure virtuelle.
Avant dentrer dans le vif du sujet, soit la virtualisation, nous reviendrons, la section 4.1,
Notions lmentaires, sur un certain nombre de notions relatives aux lments matriels
composant un ordinateur, ainsi quaux mcanismes ou principes qui les rgissent. Nous
souhaiterions en effet nous assurer que le lecteur maitrise les bases ncessaires la
comprhension des notions abordes plus avant dans ce chapitre. En effet, la virtualisation
peut avoir un impact sur ces lments ou dpendre de ces derniers.
la section 4.2, La gense de la virtualisation, nous aborderons la gense de la
virtualisation en voquant les principes labors pour lencadrer et la premire mthode qui
fut mise au point.
37
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
38
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Il est utile de pouvoir fournir aux programmes la capacit de projeter un fichier en mmoire,
en lutilisant directement, comme si ce dernier faisait office de donnes en mmoire. Ce
mcanisme, appel mmap (pour Memory Map en anglais), offre au programme la flexibilit
et la rapidit de donnes en mmoire, tout en bnficiant de la persistance.
4.1.1.2.2 Hirarchie des mmoires
Il se trouve que la mmoire est soit rapide et trs chre, soit bon march mais
particulirement lente. De plus, la mmoire rapide nest jamais persistante.
Afin quun ordinateur soit mme de nous offrir des performances satisfaisantes, nous
sommes dans lobligation dutiliser diffrentes mmoires, certaines tant trs rapides mais
limites en quantit (par exemple, les registres), dautres tant lentes mais disponibles en
grande quantit (en particulier les disques durs). Les diffrents types de mmoire en
question, ainsi que leur taille courante et la vitesse daccs quelles offrent habituellement
sont mentionns dans le tableau 4-1, ci-dessous.
Fichiers mmaps
39
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Type de mmoire
1. Registres
2. Cache L1
3. Cache L2
4. Mmoire centrale
5. Disque dur
Taille typique
256 octets
16 Ko
2 Mo
2 Go
300 Go
Vitesse typique
0.5 ns
1 ns
2 ns
10 ns
10 ms
Tableau 4-1 : Hirarchie des mmoires (Source : Systmes dexploitation Gestion de la mmoire de Pilot
Systems 2007 par Gal Le Mignot)
Cette hirarchie de mmoires peut tre considre comme une hirarchie de caches, les
registres servant de cache au cache L1, le cache L1 faisant de mme pour le cache L2, qui
lui-mme sert de cache la mmoire centrale, cette dernire ntant quun cache pour le
disque dur.
Si le systme dexploitation na que peu de contrle sur les caches grs automatiquement
par le matriel (L1 et L2) ou sur les registres (qui sont grs par le compilateur), il intervient
sur la gestion de la mmoire centrale. Cest en effet lui quincombe de dcider ce qui doit
tre gard en mmoire et ce qui doit ltre uniquement sur le disque dur.
4.1.1.2.3 Backing Store
Pour tout systme de gestion de la mmoire un tant soit peu volu, les notions de swap et
de cache disque sont fusionnes. La mmoire est utilise comme cache pour le disque.
Dans un premier cas, nous pouvons librer de la mmoire en crivant sur le disque. Dans un
second cas, nous pouvons utiliser la mmoire disponible pour viter les accs disque.
40
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Cette unit effectue donc une traduction entre ladresse virtuelle demande par le
processeur et ladresse physique, au sens o lentend le matriel.
Nous explicitons les notions de segmentation et de pagination dans les sous-chapitres y
relatifs (voir plus bas), ces dernires tant lies la notion de mmoire virtuelle, le MMU
faisant partie intgrante de ce processus.
Le principe de protection de la mmoire consiste, quant lui, empcher un programme
donn daccder lespace mmoire utilis par un autre programme, voire par le systme
dexploitation lui-mme. Il sagit donc dallouer chaque programme une zone mmoire
protge, laquelle aucun autre programme na accs (en lecture comme en criture). Il va
de soi que cette caractristique savre cruciale pour la stabilit du systme.
Dans le cas o un programme tenterait daccder une zone mmoire situe hors de la
plage qui lui avait t rserve, une interruption est leve par le MMU. Cette dernire est
intercepte par le processeur qui fait ds lors parvenir une instruction au processus
concern, ayant pour effet de le stopper.
4.1.1.3 Segmentation
La segmentation est une technique gre par lunit de segmentation du MMU, utilise par
les systmes dexploitation pour diviser la mmoire physique (segmentation pure) ou de la
mmoire virtuelle (segmentation avec pagination) en segments.
La segmentation simple, comme celle utilise dans le mode rel (cf. section 4.1.1.5, Mode
d'adressage rel (real mode)) des processeurs x86, consiste spcifier, lors de chaque
accs la mmoire, un registre de segment. Ce dernier contient une valeur qui dtermine
partir do ladresse mmoire est spcifie.
titre dexemple, si un segment est indiqu comme commenant ladresse physique
0x1000 et que nous demandons ladresse 0x42, nous utiliserons en ralit ladresse 0x1042.
Ladresse spcifie en complment du segment est gnralement appele offset.
Le x86 possde un registre spcifique la pile et un autre spcifique au code (l o sont
charges les instructions), ce qui lui permet de dterminer parfois automatiquement le
registre de segment utiliser.
4.1.1.3.2 Segmentation avance
Dans le cadre de la segmentation avance, le registre de segment ne contient pas
directement ladresse physique de base du segment mais indique une entre dans une table
appele table de descripteurs de segments.
Cette dernire contient, pour chacun des segments, ladresse de dbut et de fin du segment,
ainsi que des informations de protection (i.e. lecture seule, utilisable uniquement par le
noyau, etc.).
41
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Dans le cas o seul le noyau est habilit spcifier les descripteurs de segments, la
segmentation permet dinstaurer une premire forme de protection de la mmoire. En effet,
toute zone mmoire qui ne se trouve par dans un segment configur pour lapplication ne
pourra pas tre utilis.
42
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
tant donn quun segment doit tre continu en mmoire physique, le risque de
fragmentation constitue ds lors un problme. Partons du principe quau sein dune mmoire
dune taille de 256 Ko, il existe un espace disponible de 96 Ko entre 32 Ko et 128 Ko et un
autre espace disponible de 64 Ko entre 192 Ko et 256 Ko. Il ne sera pas possible de loger un
segment de 128 Ko en mmoire, alors que cette dernire possde pourtant bien un espace
rsiduel de 160 Ko, les deux zones prcdemment voques tant respectivement trop
petites pour accueillir ces donnes.
Enfin, la segmentation nest pas parfaitement transparente pour le programme qui lutilise, en
particulier lorsquon utilise de la mmoire partage. Dans ce cas de figure, le programme doit
ncessairement tre conscient du fait quil utilise un segment. Or, les langages dun
niveau plus lev que lassembleur (comme par exemple le C) ne connaissent pas le
concept de segment.
4.1.1.4 Pagination
Le principe de la pagination, ou plus exactement de mmoire pagine (Expanded Memory
en anglais), consistait faire utiliser par les programmes une partie de la mmoire
initialement rserve aux priphriques, lpoque des architectures dadressage rel (cf.
section 4.1.1.5, Mode d'adressage rel (real mode)), au sein desquelles les programmes
ntaient autoriss qu 1 Mo dadressage dont uniquement 640 Kio 20 taient disponibles
pour la mmoire vive normale (appele galement mmoire conventionnelle).
Nous aborderons plus prcisment dans ce sous-chapitre, le principe de mmoire virtuelle
pagine qui nous intresse plus directement dans le contexte du prsent document.
Les adresses mmoires mises par le processeur savrent tre des adresses virtuelles, ces
dernires indiquant la position dun mot dans la mmoire virtuelle (cf. section 4.1.1.2,
Principe de la mmoire virtuelle).
Cette mmoire virtuelle est forme de zones de taille similaire, appeles pages. Une adresse
virtuelle peut donc tre considre comme un couple {numro de page, dplacement dans la
page}.
La mmoire vive se compose galement de zones de mme taille, appeles cadres (frames
en anglais), dans lesquelles les pages peuvent prendre place (taille dun cadre = taille dune
page).
Un mcanisme de traduction 21 assure la conversion des adresses virtuelles en adresses
physiques, en se basant sur une table des pages (Pages Table en anglais) qui permet
dobtenir le numro du cadre qui contient la page recherche. Ladresse physique obtenue
est le couple form par le numro de cadre et le dplacement.
20
10
Le symbole Kio correspond kibioctet qui est un prfixe binaire. Sa valeur est de 2 , tout comme un ko (kilooctet) en usage traditionnel.
21
Translation en anglais ou gnration dadresse.
La pagination a pour but de rgler les principaux problmes de la segmentation (cf. section
4.1.1.3, Segmentation).
43
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
La table des pages est indexe par le numro de page. Les lignes qui y sont contenues sont
appeles entres dans la table des pages (Pages Table Entry, abrg PTE en anglais) et
contient le numro de cadre. Cette table tant susceptible dtre situe nimporte quel
emplacement de la mmoire, un registre spcial est destin conserver son adresse,
sagissant de la Page Table Register ou PTR.
Le mcanisme de traduction prcit fait partie du MMU, lequel contient galement une partie
de la table des pages stocke dans une mmoire associative forme de registres rapides. La
table des pages situe en mmoire na donc pas tre consulte lors de chaque accs
mmoire.
La figure 4-2 illustre lexemple dune machine dont le processeur gnre des adresses
virtuelles sur 32 bits qui lui permettent ainsi daccder 4 Gio de mmoire. Les pages ont
une taille de 4 Kio. Nous pouvons dduire que le champ de dplacement occupe les 12 bits
de poids faible et le champ numro de page les 20 bits de poids fort. Nous pouvons
galement noter la prsence dun champ spcial appartenant chaque PTE, sa largeur
tant rduite un bit pour des raisons de simplification. Ce bit se trouve tre un bit de
validit. Si ce dernier est 0, le numro de cadre peut tre considr comme non valide.
Le nombre de pages peut tre suprieur au nombre de cadres et cest l tout lintrt du
mcanisme en question. Comme illustr la figure 4-1, les pages qui ne sont pas stockes
en mmoire le sont sur un autre support, gnralement un disque dur. Elles ne seront
ramenes dans un cadre que lorsque le systme en aura besoin.
44
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Il faut donc disposer dune technique permettant de mettre jour cette PTE afin de la rendre
valide doit tre disponible.
45
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Dautres usages, comme la possibilit dutiliser la pagination pour implmenter les fichiers
projets en mmoire (mmap) ou le Copy-On-Write (COW), ne seront pas dcrits plus en
avant dans la prsente section.
La mmoire partage peut tre implmente facilement avec la pagination, en indiquant tout
simplement les mmes cadres de pages pour des pages de deux espaces dadressage
diffrents. Ces pages peuvent se trouver des adresses virtuelles diffrentes.
46
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Les manires dont la main peut tre passe dun anneau lautre sont svrement limites
par le matriel qui impose galement des restrictions aux types daccs mmoire pouvant
tre excuts au travers des anneaux. Ces restrictions matrielles ont t conues pour
limiter les possibilits dinfractions accidentelles ou malveillantes de nature compromettre
la scurit du systme.
Lutilisation efficace de cette architecture en anneaux exige une coopration troite entre le
systme dexploitation et le matriel (plus particulirement le processeur). Gnralement,
seuls deux anneaux de scurit sont exploits, sagissant du mode noyau (ou kernel en
anglais) et du mode utilisateur.
Lobjectif consiste empcher divers composants applicatifs dun systme dexploitation de
se modifier les uns les autres, situation que nous pouvons considrer comme une faille
srieuses de scurit. Les composants qui nous intressent tous particulirement, dans le
cadre du systme dexploitation, sont prcisment le noyau et les applications. Sil est tout
fait envisageable que le noyau puisse apporter certaines modifications aux donnes
dynamiques appartenant une application, le contraire ne doit pas se produire.
Processeurs x86
Les processeurs de la famille x86 implmentent quatre anneaux de privilges mais, comme
prcis plus haut, seuls deux dentre eux sont rellement exploits par les systmes
dexploitation actuels (comme Windows ou les drivs dUNIX).
47
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Ces deux anneaux de protection sont le ring0, soit celui ayant le plus de privilges, et le
ring3. Comme illustr par la figure 4-3, les privilges octroys vont dcroissant de lanneau 0
lanneau 3. Le noyau du systme dexploitation fonctionne au niveau du premier, les
interactions avec le matriel (comme lunit centrale ou la mmoire) intervenant
gnralement ce niveau. Les applications fonctionnent, quant elle, au niveau du
deuxime.
La transition dun mode lautre est assure par linstruction SYSENTER (langage
assembleur).
48
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 4-4 : Systme de base microprocesseur (Source : Accs direct en mmoire de R. Beuchat)
Selon le dbit des informations transmettre aux priphriques, plusieurs mthodes sont
disponibles pour effectuer leur transfert. Ce choix doit tre effectu lors de la conception du
circuit.
Les trois principales mthodes existantes sont la scrutation, les interruptions ou les transferts
par accs direct en mmoire (DMA pour Direct Memory Access en anglais).
Cette mthode occasionne une perte considrable de temps pour le processeur, ce dernier
interrogeant de manire systmatique des interfaces qui nont pas besoin dtre servies.
Cette mthode nest utilisable que dans le cas o un nombre restreint de priphriques sont
utiliss, voire dans le cas o le processeur doit servir le mme priphrique pendant une
courte dure mais raison dun taux de transfert important.
Comme son nom lindique, la mthode de linterruption consiste interrompre le
processeur chaque fois que cela savre ncessaire. Dans les faits, un signal part de
linterface programmable en direction du processeur pour lui signaler quelle a besoin dtre
servie. Ce signal est communment appel requte dinterruption (IRQ pour Interrupt
Request en anglais). Le processeur va alors excuter une routine de service de linterruption
et servir linterface.
Lidentification de linterface qui a demand tre servie doit cependant tre identifie. Cette
phase est qualifie de quittance dinterruption (Interrupt Acknowledge). La mthode utilise
pour grer ladite phase diffre en fonction de la capacit du priphrique rpondre la
demande didentification gnre par le processeur. En effet, seulement certains
priphriques savrent tre capables de le faire.
49
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 4-5 : Principe des signaux de requte et quittance d'interruption (Source : Accs direct en mmoire
de R. Beuchat)
Quant au DMA, il vise en particulier viter limplication du processeur dans la gestion des
interfaces, ce dernier nayant pas vocation le faire lors dun transfert haut dbit. Il perd
trop de temps en scrutation ou en traitement dinterruption. Une unit matrielle
supplmentaire est capable de rcuprer des donnes de linterface programmable et de les
transfrer en mmoire sans passer par le processeur.
22
50
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Cette unit peut tre un simple circuit appel contrleur DMA, ce dernier ntant rien dautre
quune interface programmable autorise demander laccs au bus au processeur pour
effectuer des transferts sa place.
Figure 4-6 : Schma de principe de liaison dun contrleur DMA avec un microprocesseur et une interface
programmable (Source : Accs direct en mmoire de R. Beuchat)
Le schma 4-6, ci-dessous, illustre le principe de liaison dun contrleur DMA avec un
microprocesseur et une interface programmable.
51
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
4.1.3 Application
Lespace dadressage virtuel disponible pour un programme est dfini par le systme
dexploitation, le MMU (cf. section 4.1.1.2.4, MMU) lui permettant de le faire, tant prcis
que le systme dexploitation peut parfois faire voluer la hausse les quantits despace
dadressage virtuel maximales (cf. section 4.1.1.2, Principe de la mmoire virtuelle)
initialement prvues par larchitecture du systme. Le systme dexploitation donne en
quelque sorte lillusion au programme quil possde une mmoire qui lui est propre.
Nous rappelons que, conformment au principe du mode dadressage protg (cf. section
4.1.1.6, Mode dadressage protg (protected mode)), qui implique la mise en uvre du
principe de la mmoire virtuelle et des niveaux de privilges, les applications ne peuvent
empiter sur lespace mmoire dvolu au noyau du systme dexploitation.
Les applications sont excutes par le processeur au sein de lespace utilisateur (cf. section
4.1.1.7, Niveaux de privilges) et se servent des appels systme (system call en anglais,
abrg en syscall), soit de fonctions primitives fournies par le noyau dun systme
dexploitation, lorsquelles doivent solliciter le systme dexploitation pour accder aux
ressources matrielles.
52
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Lorsquune application utilise une telle primitive, le processeur bascule du mode utilisateur
au mode superviseur, permettant ainsi au noyau du systme dexploitation de lui fournir les
ressources matrielles ncessaires.
Figure 4-7 : Couches dune machine physique (Source : Virtualization de Steve Gribble)
Figure 4-8 : Couches et interfaces avec VMM (Source : Virtualization de Steve Gribble)
Quoique pertinente, cette manire de faire laisse toutefois entrevoir une difficult potentielle.
Un systme dexploitation est en effet prvu pour fonctionner au niveau noyau (ring0) et
rpartir les ressources du processeur entre les diffrentes applications en utilisant un certain
nombre dinstructions sensibles (cf. section 4.2.2.2, Classification des instructions
processeur). Lorsquil se trouve en situation dinvit, sur un VMM, ce mme systme
dexploitation ne doit pas pouvoir modifier les ressources matrielles, sous peine de
provoquer un plantage du systme. Ce privilge doit rester lapanage du seul VMM.
53
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
En dautres termes, comment tre certain quune application fonctionnant sur un systme
dexploitation invit ne cause des problmes ce dernier, le principe des niveaux de
privilges ntant pas intgralement respect ? Lapplication prcdemment voque
pourrait dailleurs gnrer des problmes au niveau du VMM lui-mme. Deux systmes
dexploitation clients diffrents (par exemple, LinuxTM et Windows) pourraient se
compromettre lun lautre ou ventuellement compromettre le VMM.
23
http://www.dc.uba.ar/materias/so/2010/verano/descargas/articulos/VM-requirements.pdf.
Il sagit des ordinateurs circuits intgrs, gnralement produits entre 1963 et 1971.
25
Fonctionne en lien avec le MMU et contient une constante qui, ajoute ladresse logique utilise par lunit
centrale, empche un programme de connatre la valeur relle utilise pour accder la mmoire.
24
Il convient de prciser que, mme si les recherches de Popek et Goldberg sont bases sur
des architectures de troisime gnration 24 (par exemple, IBM System/360, Honeywell 6000,
DEC PDP-10), le modle utilis est suffisamment gnral pour tre tendu des machines
modernes. Ce modle comprend un processeur fonctionnant soit en mode utilisateur, soit en
mode noyau, et possdant un accs linaire une mmoire uniformment adressable. Il est
suppos quun sous-ensemble du jeu dinstructions est disponible uniquement en mode
noyau et que la mmoire est adresse par rapport un registre de relocalisation 25. Les
entres/sorties et les interruptions ne sont pas modlises.
54
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Il convient donc de prciser que ce critre exclurait de facto lmulation (cf. section 4.3.1.3,
mulation) et les techniques de virtualisation totale (cf. section 4.3.1.1, Virtualisation totale
(traduction binaire)).
Le troisime critre est le contrle de ressources. Il sous-tend que le VMM doit bnficier
du contrle exclusif des ressources qui doivent tre partages. Toute application doit donc
passer par le VMM pour pouvoir accder une telle ressource.
Daprs Popek et Goldberg, un VMM doit se conformer ces trois proprits pour tre
considr comme tel. Daprs louvrage de rfrence Virtual Machines : Versatile Platforms
For Systems And Processes 26, la plateforme qui rpondrait aux critres dquivalence et de
contrle des ressources pourrait tre considre comme un VMM, alors que celle qui
rpondrait galement au critre defficacit pourrait tre considre comme un VMM
efficace.
Popek et Goldberg partent du principe que larchitecture de lISA (Instruction Set
Architecture) de la machine physique charge dexcuter le VMM, doit correspondre aux
trois critres mentionns ci-dessus.
55
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
en mode utilisateur lors de leur excution. Il sagit par exemple de certaines oprations
lmentaires comme laddition, la multiplication, etc.
Le second thorme nonce quil est possible de mettre en uvre une virtualisation
rcursive sur une architecture processeur donne, pour autant que :
cette dernire rponde au premier thorme ;
quun VMM sans dpendance temporelle (timing dependencies) peut tre labor
pour elle.
Certaines architectures, comme la x86 sans assistance du matriel (cf. section 4.3.3.1,
Virtualisation de laccs au processeur), ne rpondent pas cette condition et ne peuvent
ds lors pas tre virtualises selon la manire classique. Ces architectures peuvent
cependant tre totalement virtualises (dans le cas du x86 cela signifie au niveau de lunit
centrale et du MMU) en utilisant dautres techniques comme la traduction binaire qui permet
de remplacer les instructions sensibles qui ne gnrent pas de mcanisme dexception
(pige) (cf. section 4.3.1.1, Virtualisation totale (traduction binaire)). Ces dernires sont
souvent appeles instructions critiques.
Quant au troisime thorme, il prcise quun moniteur de machine virtuelle hybride
peut tre mis en uvre si le groupe des instructions sensibles excutables en mode
utilisateur est un sous-ensemble du groupe des instructions privilgies.
56
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
4.2.3 Trap-and-emulation
Cette mthode, dcoulant directement du premier thorme de Popek et Goldberg est
considre comme mettant en uvre la virtualisation au sens classique du terme. Il sagit
dune manire gnrique de faire qui est destine sappliquer toute architecture
disponible sur le march.
Le concept rpond aux conditions gnrales suivantes :
Figure 4-9 : Traitement d'une instruction sensible (Source : Concept de machine virtuelle d'Alain Sandoz)
Aprs avoir pig linstruction sensible en question, le VMM mule son effet, et ce, au niveau
du matriel virtuel quil fournit au systme dexploitation invit (cf. figure 4-9).
De plus, toute instruction sensible (cf. section 4.2.2.2, Classification des instructions
processeur) doit provoquer une exception (trap) lorsquelle est excute en mode utilisateur.
57
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
nombre dassistances de type matriel, divers niveau. Nous pouvions en compter jusqu
cent sur les dernires versions du System/370. Il convient de prciser que les solutions de
virtualisation contemporaines nchappent pas lassistance matrielle, les fabricants ayant
eux-mmes entrepris de modifier larchitecture de leurs produits dans le but dintroduire un
support matriel la virtualisation (cf. section 4.3.3, Assistance matrielle).
Le concept de mmoire virtuelle lui-mme a constitu un jalon important dans le
dveloppement de lassistance matrielle du System/370. En effet, lorsque le systme
dexploitation client implmente le principe de la mmoire virtuelle (cf. section 4.1.1.2,
Principe de la mmoire virtuelle), mme lexcution des instructions non-privilgies peut
subir un ralentissement, sagissant dune pnalit impose par la ncessit daccder aux
tables de traduction (translation tables) qui ne sont pas utilises lors de lexcution native.
Cest cette poque seulement que les leaders du march des processeurs, Intel et AMD,
firent voluer leurs produits (processeurs compatibles x86) pour que ces derniers prennent
en charge la virtualisation au niveau matriel (cf. section 4.3.3.1, Virtualisation de laccs au
processeur).
En effet, lISA x86 se prte mal la virtualisation cause de 17 instructions sensibles, mais
non-privilgies qui ne provoquent pas dexception lorsquelles sont excutes en mode
utilisateur. Ces instructions peuvent tre classes en deux groupes :
Les instructions sensibles affectant les registres, qui peuvent lire ou changer des
valeurs dans des registres sensibles et/ou dans des zones mmoire, sagissant par
exemple du registre de lhorloge ou des registres dinterruptions :
o SGDT, SIDT, SLDT ;
o SMSW ;
o PUSHF, POPF ;
Les instructions relatives la protection du systme, qui rfrence le systme de
protection de la mmoire ou le systme de relocation dadresses :
o LAR, LSL, VERR, VERW ;
o POP ;
o PUSH ;
o CALL, JMP, INT n, RET ;
o STR;
o MOV.
58
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Nous constatons ds lors que les instructions de cet ISA ne sont donc pas toutes sur un pied
dgalit. Les instructions mentionnes ci-dessus peuvent modifier la configuration des
ressources du processeur. Nous rappelons donc quelles doivent tre interceptes.
Comme nous lavons vu prcdemment, ce type de traitement est vident pour toutes les
instructions privilgies, le systme dexploitation tant alors excut en anneau 3, linstar
des applications. Dans ce cas, toutes les requtes dinstructions privilgies dclenchent
une erreur systmatiquement traite par le VMM. Cest nettement plus compliqu pour les 17
instructions critiques (sensibles et non privilgies) voques plus haut, car ces dernires
ne dclenchent pas dexception. Elles doivent ds lors tre dtectes au coup par coup
par le VMM, puis rinterprtes.
Diffrentes techniques permettent de virtualiser les architectures qui ne rpondent pas aux
critres de Popek et Goldberg, dont larchitecture x86 en mode dadressage protg. Nous
aborderons certaines dentre elles la section 4.3, quelles soient logicielles comme la
traduction binaire (utilise lorigine par WMware) et la paravirtualisation, ou matrielles
comme lvolution du jeu dinstructions des processeurs.
La machine virtuelle invite na donc absolument pas conscience dtre virtuelle dans un
tel contexte. Le systme dexploitation invit bnficie dun environnement physique mul
son attention par le VMM. Seul ce dernier est mme de dmarrer une machine virtuelle. Il
est galement le seul tre autoris accder la couche matrielle.
La figure 4-10, ci-dessous, illustre le principe de la virtualisation totale. Un systme
dexploitation est install de manire classique sur la couche matrielle. Un logiciel de
virtualisation (par exemple, VMware WorkstationTM) fait ensuite office de VMM et mule
autant de matriel virtuel quil y aura de machine virtuelle. Nous faisons rfrence, dans ce
cas prcis, la virtualisation hberge.
La traduction binaire (Binary translation) est une technique dmulation consistant traduire
le jeu dinstructions dune architecture source vers celui dune architecture de destination.
Cette technologie permet un VMM de virtualiser une plateforme non-modifie (donc
intgralement virtualise). Nous faisons dans ce cas rfrence au concept de virtualisation
totale ou complte.
59
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 4-10 : Virtualisation totale correspondant une mise en uvre de type virtualisation
hberge (Source : Les diffrents types de virtualisation : La virtualisation totale par Antoine Benkemoun
- http://www.antoinebenkemoun.fr/2009/07/les-differents-types-de-virtualisation-la-virtualisation-totale)
Pour se faire, le VMM est spar des systmes dexploitation des machines virtuelles en
tant plac au niveau du ring0. Quant aux systmes dexploitation des machines virtuelles,
ils sont positionns en ring1. Les applications fonctionnant au niveau des systmes
dexploitation des machines invites restent excutes au ring3 (cf. section 4.1.1.7, Niveaux
de privilges). Cette organisation est cependant propre larchitecture x86.
Figure 4-11 : Anneaux de protection avec ou sans virtualisation (Source : Les anneaux de protection
systme par Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/les-anneaux-de-protection)
La figure 4-11 illustre le principe des anneaux de protection. gauche, la virtualisation nest
pas mise en uvre. Le noyau volue donc en anneau 0 (mode superviseur) et les
applications en anneau 3 (mode utilisateur). droite, dans un contexte de virtualisation,
lhyperviseur prend en quelque sorte la place du superviseur qui volue cette fois en anneau
1. Quant aux applications, elles sont toujours excutes en anneau 3.
60
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
La figure 4-12 illustre nouveau les principes dcrits au prcdent paragraphe mais sous
forme de couche, en faisant correspondre ces dernires avec les diffrents anneaux. Le
schma met galement en vidence les instructions critiques lattention du processeur de
la machine virtuelle qui sont interceptes la vole au niveau de la couche de virtualisation
puis traduites laide de la traduction binaire afin de pouvoir tre traites par le processeur
physique du serveur hte.
LorsquAMD introduit sur le march lextension du jeu dinstructions x86 dIntel (AMD64),
reprise par Intel sous le nom de Intel 64, le nombre danneaux est rduit deux. En effet,
hormis certains dentre eux (comme OS/2 notamment qui en utilisait trois), la plupart des
systmes dexploitation nutilisaient que lanneau 0 et lanneau 3. Il tait cependant capital,
pour les solutions de virtualisation la virtualisation totale ntant pas la seule concerne par
cette problmatique dutiliser un troisime cercle pour cloisonner le VMM.
Il a donc t dcid de mutualiser lanneau 3 entre les applications et les systmes
dexploitation, lhyperviseur tant situ au sein de lanneau 0 (cf. figure 4-13).
Figure 4-13 : Mutualisation de lanneau 3 sur architecture 64 bits (Source : Les anneaux de protection
systme dans le cas du 64-bit par Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/lesanneaux-de-protection-systeme-dans-le-cas-du-64-bit)
Figure 4-12 : Virtualisation laide de la technique de la traduction binaire, du point du vue des anneaux
de protection (Source : La virtualisation des serveurs x86 par John Marcou - http://rootlab.fr/2011/06/04/la-virtualisation-de-serveurs-x86)
61
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
AMD et Intel, conscients de lintrt croissant port par les diffrents acteurs du march de
la virtualisation, ont finalement dcid dinclure dans leurs processeurs des instructions
propres la virtualisation (cf. section 4.3.3.1, Virtualisation de laccs au processeur). Par la
mme occasion, un anneau -1 a t ajout afin dviter la mutualisation de lanneau 3, ce qui
a permis de revenir une disposition plus aboutie des composants applicatifs parmi les
anneaux de protection (cf. figure 4-14).
Comme nous nous le laissions prcdemment entendre, la traduction binaire est utilise
pour traiter les instructions critiques rfrences la section 4.2.5, Virtualiser l'architecture
x86. Nous avons vu que ces instructions, lorsquelles proviennent du systme dexploitation
invit et quelles sont destines au processeur virtuel, sont en quelque sorte interceptes la
vole puis traduites afin de pouvoir tre excutes par le processeur physique (cf. figure 415).
Figure 4-15 : Virtualisation complte avec traduction binaire (Source : Questions actuelles dinformatique,
La virtualisation de Franois Santy et Gatan Podevijn)
Figure 4-14 : Ajout dun anneau supplmentaire, destin lhyperviseur (Source : Les anneaux de
protection systme dans le cas du 64-bit par Antoine Benkemoun http://www.antoinebenkemoun.fr/2009/08/les-anneaux-de-protection-systeme-dans-le-cas-du-64-bit)
62
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Il convient de prciser quen vertu des critres de Popek et Goldberg, cette technique de
virtualisation nen est a fortiori pas une, puisquelle ne rpond pas au critre defficacit. En
effet, le VMM excute de manire logicielle un nombre significatif dinstructions.
Nous prcisons que larchitecture physique mule prsente pour avantage un haut niveau
de compatibilit avec la plupart des systmes dexploitation. Il sagit dun lment primordial
lors de linstallation dune machine invite, lorsque cette dernire ne bnficie pas encore
des pilotes de la machine virtuelle. Toutefois, cette technique nest destine qu la
virtualisation dun systme dont larchitecture est similaire celle de la machine physique
hte. Un systme fonctionnant par exemple sur une architecture Intel x86 ne pourra pas
virtualiser un systme compil pour une architecture ARMv8.
Cette technique a t porte au niveau de larchitecture processeur x86 par WMware en
1999, ce qui a contribu de manire significative lencrage de la firme comme un des
diteurs leader du march de la virtualisation.
Les deux principaux types de traduction binaire sont la traduction binaire statique et la
traduction binaire dynamique.
Un traducteur fonctionnant sur la base de cette technique, convertit la totalit du code dun
fichier excutable provenant de larchitecture source en un code qui fonctionne sur
larchitecture de destination, sans avoir excuter le code pralablement (comme cest
dailleurs le cas avec la traduction binaire dynamique). Cette technique est difficile mettre
en uvre, ds lors que le traducteur ne peut dcouvrir de manire systmatique la totalit
du code. En effet, certaines parties dun code excutable ne peuvent tre atteignables quau
travers de branches indirectes dont la valeur nest connue quune fois le code en cours
dexcution.
Gnralement, lexcution dun code excutable par le biais de cette technique offre des
performances se situant en de de la rapidit observe nativement.
4.3.1.1.2 Traduction binaire dynamique
La traduction binaire dynamique se fait par slection de petites squences de code
typiquement de lordre dun seul bloc de base puis par mise en cache du rsultat de la
traduction de ces courtes squences. Le code est seulement traduit comme il est dcouvert
et quand cela savre possible. Des instructions de branchement sont prvues pour quil soit
possible de pointer vers les parties de code dj traduites et enregistres (Memoization).
La traduction binaire dynamique diffre de lmulation car elle limine la boucle lecturedcodage-excution propre cette technique - qui constitue de facto un goulot
dtranglement majeur au prix toutefois dun important surcroit de consommation implicite
(overhead). Ce surcot est heureusement amorti par le fait que les traductions de squences
de code sont excutes plusieurs fois par la suite.
Il convient de prciser que les traducteurs binaires dynamiques les plus avancs se servent
de la technique de la recompilation dynamique. Le code est tudi afin que les parties
63
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
excutes le plus grand nombre de fois puissent tre mises en vidence, ces dernires tant
ensuite drastiquement optimises.
4.3.1.2 Paravirtualisation
La paravirtualisation consiste modifier les instructions processeur du systme dexploitation
invit au niveau du noyau, afin que ce dernier puisse communiquer directement avec
lhyperviseur (VMM). Nous qualifions ds lors ces instructions dhyper-appels (hyper-calls).
Dans ce cas, lhyperviseur fournit une interface dhyper-appels pour les oprations critiques
du noyau, voques maintes fois (celles relatives notamment la gestion des interruptions
et celle de la mmoire). Dans ce cas de figure, les traditionnels appels systme sont
remplacs.
Conformment ce que nous avons dj pu observer dans le cadre de la virtualisation
totale, lhyperviseur est galement positionn au niveau de lanneau 0, le systme
dexploitation invit au niveau 1, les applications, quant elles, tant excutes au niveau 3.
Figure 4-16 : Virtualisation laide de la paravirtualisation, du point de vue des anneaux de protection
(Source : La virtualisation de serveurs x86 par John Marcou - http://root-lab.fr/2011/06/04/la-virtualisationde-serveurs-x86)
Cette technique a lavantage damliorer les performances du systme invit, les dispositifs
de bas niveau tant directement accessibles par ce dernier par lintermdiaire de pilotes
paravirtualiss. Son rendement est pratiquement comparable celui dun systme
dexploitation directement install sur la machine physique.
Contrairement au scnario en vigueur dans le cadre de la virtualisation totale, le systme
dexploitation invit a ici conscience dtre virtualis. En dautres termes, ce dernier doit
tre port , soit adapt pour tre mme de communiquer avec lhyperviseur plutt
quavec la machine physique. La figure 4-17, illustre ce portage . Les noyaux modifis
des systmes dexploitation invits sont mme de communiquer directement avec
lhyperviseur, ce dernier se chargeant dinteragir avec le matriel.
La figure 4-16 illustre le cheminement des hyper-appels et met en relation les diffrentes
couches avec les anneaux de protection correspondants.
64
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 4-17 : Paravirtualisation base sur lexistence dun hyperviseur (Source : La paravirtualisation par
Antoine Benkemoun - http://www.antoinebenkemoun.fr/2009/08/la-paravirtualisation)
La consquence principale de cette manire de faire rside dans le fait que si lditeur du
systme dexploitation que nous dsirons virtualiser ny a pas apport les modifications
ncessaires, il devient impossible de lutiliser dans un tel contexte. En outre, des
complications lies la maintenance et au support peuvent se manifester, le noyau du
systme dexploitation ayant t modifi.
Nous prcisons toutefois quil serait incorrect de rduire lusage des solutions bases sur la
paravirtualisation au monde des systmes dexploitation libres. En effet, depuis larrive de
nouveaux processeurs implmentant de nouvelles instructions propres la virtualisation (cf.
section 4.3.3.1, Virtualisation de laccs au processeur), les environnements non-modifis
comme Windows peuvent galement tre virtualiss selon cette mthode.
4.3.1.3 mulation
Lmulation peut tre considre comme la capacit substituer un dispositif informatique
par un logiciel. Il est ainsi possible de faire fonctionner un systme dexploitation invit sur un
systme dexploitation hte alors mme que larchitecture de leur processeur respectif nest
pas similaire. Nous pourrions ds lors envisager linstallation dun systme dexploitation
SolarisTM compil pour larchitecture SPARC (Scalable Processor ARCitecture) sur un
systme compil pour un processeur x86. Lordinateur entier est donc mul.
Dans ce cas de figure, le systme invit na pas conscience de son statut de systme
invit, pas plus que le fait quil fonctionne dans une architecture qui lui est trangre.
Lmulation matrielle, dordinaire particulirement lente, peut tre considre comme viable
en tant quoption de virtualisation de par le fait que les logiciels dmulation et pilotes
27
http://www.xen.org/.
Par consquent, cette technique de virtualisation ntait pas du tout adapte lorsquil
sagissait de virtualiser des environnements propritaires (Windows, par exemple). Cette
mthode savre plutt pertinente lorsquil sagit de virtualiser des environnements libres
(LinuxTM, par exemple), leur noyau pouvant tre modifi sans autre forme de procs. Cest la
raison pour laquelle les parties prenantes au Xen Project 27, dont le but tait prcisment la
mise au point dun hyperviseur, se sont passablement appuys sur le monde des systmes
dexploitation libres pour parvenir sa mise au point.
65
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
rcents, ainsi que les processeurs 64 bits des machines htes, offrent une qualit
dinfrastructure adquate.
Ce type de technologie est tout fait pertinente pour les dveloppeurs qui doivent travailler
sur llaboration de pilotes ou de diverses autres technologies prvues pour des plateformes
que les moyens de lentreprise qui les emploie ne permettent pas dacqurir ou de supporter,
faute de personnel en suffisance.
28
http://www.intel.com/technology/itj/2006/v10i3/1-hardware/5-architecture.htm.
66
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Chaque niveau dopration comporte les quatre niveaux de privilges (ring0 ring3). Le
noyau du systme dexploitation invit peut donc voluer au sein de lanneau 0, les
applications excutes en son sein, au niveau 3, le VMM disposant de son propre jeu
danneaux (parfois appel lanneau -1).
La figure 4-18 illustre le fonctionnement de la technologie VMX, tel que dcrit ci-dessus.
Figure 4-18 : Technologie VMX et anneaux de protection (Source : La paravirtualisation par Antoine
Benkemoun - http://www.antoinebenkemoun.fr/2009/08/la-paravirtualisation)
Nous observons donc que la modification du noyau des systmes dexploitation invits
(paravirtualisation) ou la traduction binaire nest plus ncessaire (quoi que cette dernire
reste ncessaire pour dautres besoins).
Le deuxime apport propre cette technologie est li au partage des ressources entre
systmes dexploitation invits. Ces derniers peuvent sexcuter sans connaissance aucune
de la prsence dautres systmes invits. Lhyperviseur fournit une tranche de temps
dexcution un systme invit avant de le suspendre pour en attribuer une un autre
invit. Ce processus est rpt inlassablement. Le contexte des invits doit donc tre
sauvegard et restaur lors de chaque bascule (par exemple, ltat des registres et des
caches).
VT-x dfinit ainsi deux nouvelles transitions : la premire, appele VM entry, est une
transition du VMX root operation vers le VMX non-root operation. La deuxime, appele VM
exit, est une transition du VMX non-root operation vers le VMX root operation. Ces deux
transitions sont gres par le Virtual Machine Control Structure (VMCS), un segment
mmoire de quelques kilo-octets rserv dans lespace dadressage physique du systme
sous-jacent, qui contient une guest-state area (zone dtat invit) et une host-state area
(zone dtat hte). Chacune de ces zones possde des champs contenant les diffrents
composants de ltat processeur. Un VM entry charge ltat du processeur depuis la zone
dtat invit alors quun VM exit sauvegarde ltat du processeur dans la zone dtat invit
puis charge ltat du processeur depuis la zone dtat hte.
Bascule assiste
67
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
VM entry et VM exit ne sont pas les seules nouvelles instructions dont dispose lhyperviseur.
VM launch, VM resume, ainsi que dautres instructions de contrle existent dsormais pour
effectuer plus rapidement les oprations voques plus haut.
Les oprations du processeur changent substantiellement au sein du VMX non-root
operation. Les changements les plus importants rsident dans le fait que plusieurs
instructions et vnements provoque des VM exits. Certaines instructions (par exemple,
INVD) causent des VM exits inconditionnels et par consquent ne peuvent jamais tre
excutes dans le VMX non-root operation. Dautres instructions (par exemple, INVLPG) et
tous les vnements peuvent tre configurs pour faire de mme mais conditionnellement
en utilisant le VM-execution control fields du VMCS. La main peut ainsi passer de
lhyperviseur une machine virtuelle et inversement de manire souple.
Cette technologie permet un niveau de contrle fin lhyperviseur pour grer le partage de
temps processeur entre les diffrents systmes invits chaque fois quun tat dtermin du
processeur un dclencheur qui indique quune interruption est possible est atteint.
Elle prsente aussi lavantage dtre peut coteuse en ressources puisque cette structure de
contrle est gre au niveau du processeur et non par la couche logicielle.
Les technologies Intel VT-c et VT-d seront abordes plus prcisment la section 4.3.3.3,
Virtualisation de laccs aux priphriques dentres/sorties, puisquelles concernent
respectivement lamlioration des performances au niveau des entres/sorties de type
rseau (soit la virtualisation de la communication) et laccs direct aux diffrents chipsets de
la machine hte par la machine invite.
29
http://www.amd.com/us/press-releases/Pages/Press_Release_98372.aspx.
Les spcificits dAMD-V tant trs proches de celles de lIntel VT-x, nous ne procderons
pas la sa description prcise dans la prsent chapitre. Toutes les informations relatives aux
processeurs dAMD comportant cette technologie tant bien videmment disponibles sur
Internet 29.
68
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Cest pour cette raison quIntel et AMD ont invent respectivement les Extended Page
Tables (EPT) et Rapid Virtualization Indexing (RVI). Ces deux technologies ont pour but
dimplanter le SPT au niveau matriel. Chaque systme invit dispose donc en plus dune
table des pages et dun MMU, dun EPT ou RVI, ce qui a pour consquence de leur
permettre un accs direct leur domaine dadressage rserv, sans provoquer lintervention
du VMM. Lensemble des adresses mmoire physiques des systmes invits est recompil
dans lEPT/RVI, la gestion de la mmoire du systme client tant ds lors entirement prise
en charge par le matriel, avec pour corollaire une rapidit accrue. Une valuation 30
effectue par la socit VMware dmontre par exemple que RVI offre un gain de
performance allant jusqu 42% par rapport lusage dune SPT.
AMD a intgr cette technologie dans ses processeurs Opteron de troisime gnration
(Barcelona) et Intel a fait de mme partir de larchitecture Nehalem. Il sagit pour Intel de
la seconde gnration de sa technologie prvue pour la virtualisation.
30
http://www.vmware.com/pdf/RVI_performance.pdf
Un simple accs la mmoire peut ds lors devenir une opration complexe, le VMM tant
dans lobligation de grer les accs mmoire de la VM, avec pour corollaire un
ralentissement substantiel du VMM au niveau de ses propres accs, en particulier lors de
priodes durant lesquelles les demandes daccs la mmoire sont frquentes.
69
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Il sagit en quelque sorte dun partage de type logiciel (software-based sharing). Des
techniques dmulation sont utilises pour fournir la machine virtuelle des priphriques
dE/S logiques. La couche mule sinterpose entre le systme dexploitation invit et le
matriel physique sous-jacent, permettant au VMM dintercepter tout le trafic gnr par le
pilote de la machine virtuelle.
La couche mule peut notamment rsoudre les multiples requtes dE/S provenant de
toutes les machines virtuelles et les srialiser (de langlais serialization) au sein dun unique
flux dE/S qui peut tre pris en charge par le matriel sous-jacent.
Les approches de type logiciel habituellement utilises en matire de partage de
priphriques sont lmulation de ces derniers ou les pilotes paravirtualiss.
Dans le cas de lmulation de priphriques par le VMM, les oprations dE/S doivent en
quelque sorte transiter par deux piles dE/S diffrentes. Lune tant situe au niveau de la
machine virtuelle, lautre au niveau du VMM.
Contrairement la technique de lmulation qui imite un priphrique existant et utilise le
pilote correspondant dj existant au sein du systme dexploitation invit, le modle bas
sur les pilotes paravirtualiss repose sur lusage dun pilote de type front-end au niveau de la
machine invite fonctionnant de concert avec un pilote back-end disponible au niveau de
lhyperviseur. Ces pilotes sont optimiss pour le partage et permettent dviter davoir
muler un priphrique entier. Le pilote back-end se charge de la communication avec la
couche physique. Nous avons prcdemment voqus ces diffrences de fonctionnement
au sein des sections dvolues la virtualisation totale et la paravirtualisation.
Figure 4-19 : Partage bas sur lusage de logiciel (Source : PCI-SIG SR-IOV Primer, An Introduction to SRIOV Technology de lIntel LAN Access Division)
70
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Une solution de virtualisation des E/S doit donc faire en sorte que les machines invites
soient isoles, au mme titre quelles le sont dj lorsquun environnement fonctionne sur
une machine physique spare. Nous lavons vu prcdemment, cette isolation est
ncessaire au niveau de laccs la mmoire, en sparant lespace totale de cette dernire
entre les diffrentes machines virtuelles. Pour les mmes raisons, il est impratif de sparer
les flux dE/S, les interruptions y relatives et dans le cas du partage de priphriques
disoler les oprations de contrle, les oprations dE/S et les erreurs.
Le partage de ressources matrielles exige parfois que nous passions outre la couche de
virtualisation en permettant la machine virtuelle daccder directement aux priphriques
concerns. Dautres mcanismes sont donc ncessaires pour renforcer le principe disolation
prcdemment voqu.
Tout comme dans le cas de la virtualisation de laccs la mmoire, les constructeurs ont
propos une nouvelle technologie cette attention, connue sous lappellation dIOMMU. Les
processeurs embarquant cette dernire sont connus sous les noms de VT-d pour Intel ou
de Vi pour AMD.
En informatique, lunit de gestion de la mmoire des priphriques dentres/sorties
(IOMMU) est semblable une unit de gestion de la mmoire (MMU) qui relie un bus
dentres/sorties compatible DMA (cf. section 4.1.1.8, Priphrique dentres/sorties) la
mmoire principale. Comme un MMU traditionnel, qui traduit les adresses virtuelles en
adresses physiques, lIOMMU se charge du mappage des adresses virtuelles
La virtualisation des E/S a pour but de rendre les systmes htes suffisamment volutifs
pour permettre la prise en charge dun nombre croissant dinvits. Il est ds lors impratif de
tirer parti des ressources inutilises autant que faire se peut. Obtenir des performances
quasi natives au niveau des oprations dE/S devient donc un impratif.
71
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 4-20 : Affectation direct (Source : PCI-SIG SR-IOV Primer, an Introduction to SR-IOV Technology de
Intel LAN Access Division)
Certaines units offrent galement une protection de la mmoire contre des priphriques au
comportement douteux.
La figure 4-21 compare le fonctionnement de lunit de gestion de la mmoire des
priphriques dE/S avec le fonctionnement de lunit de gestion de la mmoire (cf. section
4.1.1.2.4, MMU).
72
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 4-21 : Comparaison de lunit de gestion de la mmoire des entres/sorties (IOMMU) et de lunit
de gestion de la mmoire (MMU) (Source : en.wikipedia.org/wiki/IOMMU)
Les technologies dIntel et dAMD permettent donc de crer un accs virtuel aux
priphriques dentres/sorties.
73
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
31
Single Root I/O Virtualization and Sharing, sagissant dune spcification mise en place par le PCI-SIG
(Peripheral Component Interconnect Special Interest Group). Ce dernier est un consortium de lindustrie de
llectronique, responsable des spcifications des bus PCI, PCI-X, et PCIe.
Une fonction racine unique (Single Root Function) par exemple, un port Ethernet unique
peut apparaitre comme tant plusieurs priphriques physiques.
74
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 4-22 : Association des VF avec leur espace de configuration (Source : PCI-SIG SR-IOV Primer, An
Introduction to SR-IOV Technology de Intel LAN Access Division)
Nous faisions galement rfrence la technologie VT-c dIntel dans la section lie la
virtualisation de laccs au processeur. Lacronyme VT-c signifie Intel Ethernet Virtualization
Technology for Connectivity.
75
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
virtuelles invites qui, elles-mmes, oprent en tant que serveurs ou en tant que stations de
travail.
Le terme hyperviseur trouve son origine dans le fait quhistoriquement, au sein de
larchitecture x86, le noyau du systme dexploitation est le superviseur (cf. section 4.1.1.7,
Niveaux de privilges) qui, ce titre, gre les interruptions. Cest donc en toute logique quun
hyperviseur gre les interruptions en environnement virtuel.
Nous avons vu que dans le cas de la virtualisation de systmes dexploitation non-modifis
(contrairement ce qui se passe dans un contexte de paravirtualisation), la couche de
virtualisation se situe au-dessus dun systme dexploitation hte et donc du noyau de ce
dernier. Nous pouvons donc considrer que le superviseur (noyau) va grer lhyperviseur, ce
qui constitue tout de mme une contradiction. Les notions dhyperviseur de type 1 ou de type
2 ont donc t cres pour diffrencier lhyperviseur li un contexte de virtualisation totale
de celui li un contexte de paravirtualisation.
4.4.1.1.1 Type 1 ou natif
Les hyperviseurs de ce type occupant une bonne place sur le march sont :
Citrix XenServerTM32 ;
VMware ESX / ESX(i)TM33 ;
32
33
http://www.citrix.com/English/ps2/products/product.asp?contentID=683148.
http://www.vmware.com/products/vsphere/esxi-and-esx/index.html.
Ce type dhyperviseur, galement qualifi de bare metal (littralement mtal nu), sexcute
directement sur lenvironnement matriel, comme illustr par la figure 4-23. Il sagit en fait
dun noyau allg et optimis pour hberger les machines virtuelles invites. Il sinscrit
historiquement dans un contexte de paravirtualisation mme si, nous lavons vu
prcdemment (cf. section 4.3.1.2, Paravirtualisation), lassistance matrielle procure par
les processeurs AMD-VTM et Intel VT-x permet de virtualiser un systme dexploitation dont
le noyau na pas t modifi (cf. section 4.3.3.1, Virtualisation de laccs au processeur). La
machine invite a donc parfaitement conscience dtre virtuelle.
76
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Microsoft Hyper-VTM34 ;
Red Hat Entreprise VirtualizationTM35.
Les hyperviseurs de ce type, occupant une place de choix sur le march, sont :
VMware WorkstationTM36 ;
Oracle VirtualBoxTM37 ;
Parallels DesktopTM38 ;
Microsoft Virtual PCTM.
4.4.1.2 mulateur
Les meilleurs exemples dmulateurs logiciels que nous pouvons citer sont BochsTM39 et
QEMUTM40.
34
http://www.microsoft.com/en-us/server-cloud/hyper-v-server/default.aspx.
http://www.redhat.com/products/virtualization/.
36
http://www.vmware.com/fr/products/desktop_virtualization/workstation/overview.html.
37
https://www.virtualbox.org/.
38
http://www.parallels.com/fr/computing/.
39
http://bochs.sourceforge.net/.
40
http://wiki.qemu.org/Main_Page
35
Lhyperviseur de type 2 porte relativement mal son nom puisquil ne sagit pas vritablement
dun hyperviseur en tant que tel. En effet, nous ferons plus volontiers rfrence ici une
couche de virtualisation ou, pour tre prcis, un logiciel sexcutant lintrieur dun
systme dexploitation, la machine virtuelle invite sexcutant un troisime niveau audessus du matriel (cf. figure 4-24). Comme nous lavons vu prcdemment dans le cadre
de la virtualisation totale (cf. section 4.3.1.1, Virtualisation totale (traduction binaire)), la
machine invite na pas conscience davoir t virtualise.
77
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Bochs TM
Cet mulateur, crit en C++, est libre et gratuit. Il fonctionne sur les environnements UNIX,
LinuxTM, Windows et Mac OS/XTM mais prend en charge uniquement les architecture x86.
Ce logiciel trs sophistiqu prend en charge un vaste ventail de matriel, lui permettant
dmuler toutes les architecture IA-32 et Intel 64. Il prend galement en charge des
processeurs multi-curs mais ne tire pas compltement avantage du SMP ce jour.
QEMU T M
Cet mulateur est galement libre et gratuit et fonctionne sur un nombre limit
darchitectures, sagissant dIA-32, dIntel 64 et de PPC 41. Il est capable dmuler des
systmes IA-32, Intel 64, ARM, SPARC, PowerPC, MIPS et m68k.
Nous prcisons que les solutions de Microsoft que sont Virtual PCTM42 et Virtual ServerTM43
utilisent lmulation pour fournir lenvironnement ncessaire aux machines virtuelles. Il ne
sagit pas de solutions sur lesquelles nous pourrions envisager de baser une infrastructure
de production, ces dernires ayant t conues pour hberger gratuitement quelques
machines.
Il est noter que les performances des machines virtuelles quipes du systme
dexploitation Windows sont excellentes, tel point quil est difficile de savoir que nous
utilisons une machine virtuelle.
41
PowerPC.
http://www.microsoft.com/windows/virtual-pc/.
43
http://www.microsoft.com/windowsserversystem/virtualserver/.
44
http://www.linux-kvm.org/page/Main_Page.
45
http://user-mode-linux.sourceforge.net/.
42
KVM T M
78
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
accdons la machine virtuelle est simplement une session au sein dun terminal en ligne
de commande.
Utiliser UML peut est trs pratique lorsquil sagit dhberger des serveurs virtuels, mais
surtout :
Pour le dveloppement de noyau ;
Pour effectuer des exprimentations avec un nouveau noyau ou de nouvelles
distributions ;
Comme bac sable 46.
Procder de la sorte permet en effet de prserver son environnement LinuxTM principal.
UML est inclus dans tous les noyaux 2.6.x.
De langlais Sandbox, qui consiste en un environnement de test pour excuter des logiciels en cours de
dveloppement ou de provenance douteuse.
La mise uvre de cette mthode est base sur la fonctionnalit chroot, pour change root,
ou modifier la racine. Le systme de fichiers racine dun processus est donc modifi par
cette fonctionnalit afin quil soit isol, avec pour but de fournir un espace utilisateur
bnficiant dune certaine scurit. Ces espaces, au sein desquels les systmes de fichiers
racine sont isols, sont qualifis de prison chroot ou de conteneur.
79
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
de celui du systme hte. Diffrentes distributions 47 LinuxTM pourront par exemple tre
virtualises si le systme hte est bas sur un environnement LinuxTM. Il ne sera par contre
pas possible dhberger un systme dexploitation Windows sur le mme environnement.
Les hbergeurs web utilisent cette mthode depuis un certain temps pour proposer leurs
clients les espaces mutualiss dont ils ont besoin. Ces derniers ne sont pas conscients
daccder une machine virtuelle et ne peuvent en aucun cas accder au systme hte
depuis la machine virtuelle dont ils disposent.
Les zones SolarisTM (containers) 48 et OpenVZTM49 peuvent tre considrs comme des
exemples concrets de virtualisation noyau partag.
Solaris Containers TM
Cette solution est intgre au systme dexploitation SolarisTM dOracle. Les zones en
question sont en fait des prisons (jails) BSD (Berkeley Software Distribution). Chacune
dentre elles contient sa racine virtuelle propre qui imite un systme dexploitation et un
systme de fichiers complet.
Chaque zone ne voit que ses propres processus et systmes de fichiers. La zone croit
quelle est un systme dexploitation complet et indpendant. Seule la zone globale, qui peut
tre considre comme le VMM, conscience de la virtualisation mise en uvre.
Tout comme dans le cas dUML (cf. section 4.4.1.3, Niveau noyau), les zones SolarisTM
peuvent faire office de bac sable. Cette solution est trs professionnelle, facile dutilisation
et offre des performances natives.
Le noyau OpenVZTM est optimis pour la virtualisation et son fonctionnement est trs proche
de celui des zones SolarisTM, ceci prs que nous pouvons faire fonctionner plusieurs
distributions LinuxTM laide du mme noyau.
Les zones ainsi cres sont connues sous les appellations de VE ou VPS. Elles sont isoles
les unes des autres et parfaitement scurises. Chaque conteneur peut tre considr
comme un serveur propre. Il peut tre redmarr indpendamment des autres conteneurs,
bnficier dun accs root, dutilisateurs, dune adresse IP, de mmoire, de processus, de
fichiers, dapplications, dune librairie systme et de fichiers de configuration, au mme titre
que nimporte quel environnement.
Nous prcisons que lhyperviseur Parallels Server Bare MetalTM50 de la socit ponyme
est bas sur OpenVZTM.
47
TM
Ici, nous entendons par distribution un systme dexploitation bas sur le noyau Linux , incluant un large
panel de logiciels intgrs. Les distributions les plus utilises sont bases sur Debian, comme la distribution
TM
TM
ponyme, ainsi quUbuntu ou Mint .
48
http://www.oracle.com/technetwork/server-storage/solaris/containers-169727.html.
49
http://wiki.openvz.org/Main_Page.
50
http://www.parallels.com/products/server/baremetal/sp/.
OpenVZ T M
80
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
5 Domaines dapplication
Au cours de ce chapitre, nous voquerons les diffrents domaines au sein desquels la
virtualisation peut tre mise en pratique. Il sagit en quelque sorte du prolongement de la
section 4.4, relative la mise en uvre des techniques de virtualisation, ceci prs que
cette dernire faisait rfrence la virtualisation des serveurs uniquement.
Ce chapitre vise donc offrir au lecteur une vue densemble des domaines dune
infrastructure physique qui contiennent des priphriques susceptibles dtre virtualiss. Il
na cependant pas vocation apporter des dtails techniques fondamentaux mais plutt
mettre en vidence les concepts et avantages y relatifs.
Nous verrons galement que les mthodes dabstraction de la couche physique peuvent
diffrer en fonction des domaines concerns. En effet, si virtualiser un serveur ou virtualiser
une station de travail revient pratiquement mettre en uvre les mmes principes de
virtualisation, virtualiser les applications, le stockage ou le rseau fait appel dautres
concepts technologiques.
Nous passerons rapidement sur la virtualisation des serveurs dont nous avons
abondamment parl dans les chapitres prcdents pour nous concentrer sur la virtualisation
des stations de travail (cf. section 5.2, Stations de travail) et des applications (cf. section
5.3, Applications). Ainsi, nous sortirons quelque peu du centre de donnes pour nous
rapprocher des utilisateurs. Puis nous regagnerons ensuite le datacenter pour voquer la
virtualisation du stockage (cf. section 5.4, Stockage) et du rseau (section 5.5, Rseau).
5.1 Serveurs
Aussi, nous napprofondiront pas le sujet dans la prsente section, cette dernire tant
simplement destine rappeler au lecteur que la virtualisation des serveurs demeure un
domaine dapplication cl. En effet, il sagit gnralement de la premire tape du processus
menant la virtualisation complte du centre de donnes, puis du reste du systme
dinformation.
Nous rappelons toutefois brivement que la virtualisation des serveurs consiste consolider
plusieurs serveurs virtuels (quil sagisse de serveurs mail, de serveurs dapplications, de
serveurs de fichiers, de lActive Directory, etc.), gnralement ddis, sur le mme serveur
physique, ce dernier faisant ds lors office dhyperviseur (cf. section 4.4.1.1, Hyperviseur).
Les principes fondamentaux de cette technologie rsident dans le fait de faire abstraction du
matriel sous-jacent en le rendant virtuel, de telle manire pouvoir y installer un systme
dexploitation. Virtualiser un serveur ou une station de travail revient donc pratiquement au
mme. La virtualisation de serveur ou de station de travail est dailleurs rgulirement
Les serveurs ont t les premiers dispositifs avoir t virtualiss, et ce, pour les raisons
que nous avons prcdemment voques, tant au chapitre 1, Introduction, portant sur
lhistorique de la virtualisation, quau chapitre 3, Bnfices de la virtualisation, voquant les
bnfices apports par cette technologie. Nous avons galement voqu longuement la
virtualisation des serveurs au chapitre 4, Fondamentaux technologiques de la virtualisation,
portant sur les fondamentaux technologiques de la virtualisation.
81
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
qualifie de virtualisation de systme dexploitation, ce qui, de notre point de vue, nest pas
suffisamment prcis. En effet, comme nous lavons vu plus haut, installer un systme
dexploitation sur une machine virtuelle, exige au pralable quun matriel virtuel soit fourni
par lhyperviseur. En consquence, nous virtualisons aussi bien la machine sous-jacente que
le systme dexploitation qui y sera install.
Les principales solutions de virtualisation serveurs sont :
VMware vSphere 51 (ESX ou ESX(i))TM ;
Microsoft Hyper-VTM52 ;
Citrix XenServerTM53 ;
Oracle VM ServerTM54 (pour X86 ou SPARC et uniquement pour la virtualisation des
bases Oracle) ;
Red Hat Entreprise VirtualizationTM55.
TM
Figure 5-1 : Interactions avec un poste de travail virtuel (Source : VMware View , fiche produit)
51
http://www.vmware.com/products/vsphere-hypervisor/overview.html.
http://www.microsoft.com/en-us/server-cloud/hyper-v-server/default.aspx.
53
http://www.citrix.com/English/ps2/products/product.asp?contentID=683148.
52
54
http://www.oracle.com/us/technologies/virtualization/overview/index.html?origref=http://www.google.ch/url?sa=t&r
ct=j&q=oracle%20vm&source=web&cd=2&ved=0CDIQFjAB&url=http%3A%2F%2Fwww.oracle.com%2Fus%2Fte
chnologies%2Fvirtualization%2F&ei=2mRCUK_zM8fP4QS9sYD4Dw&usg=AFQjCNFG8ZPtny4cZu9MANF3cYdusrzJg.
55
http://www.redhat.com/products/virtualization/.
La figure 5-1 illustre le concept dcrit ci-dessus. Nous pouvons distinguer, au centre, un
poste de travail virtuel situ au sein du centre de donnes. Lutilisateur peut accder cette
station par le biais de tout type de client. La station de travail contient, quant elle, tant les
applications que les donnes, mais galement les paramtrages propres lutilisateur.
82
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Ce type de virtualisation rpond un certain nombre de dfis auxquels doivent rpondre les
services informatiques :
Les employs mobiles ont besoin dun accs complet aux ressources informatiques
(applications ou donnes), quel que soit le lieu o ils se trouvent ;
Le nombre de priphriques grer explose. Il existe, de plus, une varit toujours
plus importante de dispositifs. Nous sommes par exemple confront un nombre
croissant de demandes provenant des employs, relatives une connexion de
tablettes au rseau local de lentreprise ;
les tches en relation avec la gestion des ordinateurs de bureau doivent tre
simplifies et rationalises, afin dviter que les administrateurs soient
systmatiquement dtourns des tches stratgiques, dautant que les besoins des
utilisateurs se diversifient. Les cots relatifs certaines tches cls, comme la
configuration des stations de travail ou le dploiement de mise jour, de correctifs ou
de mise niveau, doivent tre rduits ;
Les employs attendent de leur employeur quil favorise lusage de dispositifs
personnels, tels que smartphones, laptop ou tablettes. Cette tendance, de plus en
plus patente au sein des socits, est qualifie de consumrisation ;
Laccroissement de la mobilit des employs, lexplosion du nombre de priphriques
et la consumrisation augmentent les risques lis la scurit.
5.2.2 Avantages
5.2.2.1 Amlioration de la gestion
Tout comme pour la virtualisation des serveurs, la virtualisation des postes de travail permet
de dplacer le systme dexploitation, les applications et les paramtres de lutilisateur des
stations clientes vers le centre de donnes. Cette centralisation de la gestion des postes
client vite donc aux administrateurs davoir se dplacer sur chaque poste pour rsoudre
diffrents problmes logiciels. Il en va de mme pour les problmes matriels, puisque un
terminal est moins complexe quun ordinateur et, de ce fait, moins sujet aux pannes.
TM
La figure 5-2 illustre un client lger (zero client) Dell WyseTM P20 conu pour la solution
VMware ViewTM.
83
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
De plus, vol et vandalisme sont vits ou les pertes financires y relatives limites, le
terminal ne servant rien lorsquil est utilis seul et ntant pas trs cher.
Les dpartements informatiques nont pas se soucier davoir grer un grand nombre
dimages systme provenant de configurations matrielles diffrentes, puisque
lenvironnement de bureau est centralis et peut tre dploy sur diffrents types de
priphriques, indpendamment du matriel composant ce dernier.
Des stratgies peuvent tre dfinies par les administrateurs pour fournir un niveau de
scurit supplmentaire. Laccs une station peut tre li un emplacement ou un type de
rseau. Laccs certaines donnes stratgiques peut par exemple tre limit en fonction du
lieu partir duquel lemploy se connecte. Lorsquun employ quitte lentreprise, ses
privilges daccs peuvent tre immdiatement supprims, vitant ainsi lexposition des
donnes.
Ces diffrents avantages contribuent relever les dfis mentionns au dbut de la prsente
section.
De surcroit, conformment la manire de faire lorsque nous travaillons avec des serveurs
virtuels, la sauvegarde des stations de travail virtuelles est centralise et simplifie (cf.
section 3.1.8, Optimisation de la sauvegarde).
84
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
5.2.3 Solutions
Les principales solutions de virtualisation des stations de travail sont :
VMware ViewTM56 ;
Citrix XenDestopTM57 ;
NEC Virtual PC CenterTM58 ;
Quest Desktop VirtualizationTM59 ;
Systancia AppliDis FusionTM60 ;
Neocoretech Desktop VirtualizationTM61 (NDV).
5.3 Applications
5.3.1 Concept
La virtualisation dapplications consiste crer un environnement virtuel propre
lapplication, comprenant ses propres cls de registre au sein dune base de registre propre,
son propre systme de fichiers, ses propres *.dll, voire des bibliothques tierces ou des
frameworks. Cet environnement virtuel est cr laide dune solution logicielle
dencapsulation prvue cet effet. Lapplication virtuelle fonctionne donc dans une bulle
qui lisole du systme dexploitation et des autres applications en cours dexcution. Les
conflits de *.dll sont vits et il devient parfaitement possible dexcuter, par exemple,
Internet Explorer 8 et 9 simultanment, sans quils ne se tlescopent, la couche virtuelle se
chargeant dintercepter les appels la base de registre ou au systme dexploitation.
Les cls de registre et le systme de fichiers ne constituent en rien des copies de ceux du
systme dexploitation sur lequel lapplication est excute. Ils contiennent simplement les
modifications effectues par lapplication pour pouvoir fonctionner.
Lapplication naura donc accs qu ses propres versions de *.dll et fichiers de configuration
systme. Sur le mme principe, elle ne pourra agir que sur sa propre base de registre.
Aucun conflit avec dautres applications nest donc craindre. Do le concept de bulle
applicative tanche.
Nous pouvons observer, sur la figure 5-3, la couche dintgration charge de linterception
des appels la base de registre et aux applications (1) et les fichiers systme propres
chaque application (2). Les applications demeurent indpendantes les unes des autres
puisquencapsules dans leur bulle respective (4).
56
http://www.vmware.com/fr/products/desktop_virtualization/view/overview.html.
http://www.citrix.fr/virtualization/desktop/xendesktop.html.
58
http://www.nec.com/en/global/solutions/vpcc/.
59
http://www.quest.com/desktop-virtualization/.
60
http://www.systancia.com/fr/AppliDis-Fusion-4.
61
http://www.neocoretech.com/produits/ndv-neocoretech-desktop-virtualisation/.
57
85
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
5.3.2 Avantages
5.3.2.1 limination des conflits dinstallation
Les bulles virtuelles applicatives ne ncessitent aucune modification de lordinateur hte et
sexcutent indpendamment les unes des autres, vitant ainsi tout conflit potentiel entre
applications ou entre les applications et le systme dexploitation. Les recours au Help Desk
et les interventions des administrateurs sont ainsi rduits.
Une application nest donc plus installe au sens traditionnel du terme. La bulle applicative
prcdemment voque est simplement dploye sur demande sur le priphrique cible,
soit entirement pour une utilisation en mode dconnect, sagissant alors de virtualisation
dapplications, soit en tant excute directement sur le serveur (streaming), sagissant ds
lors de virtualisation de sessions. Le mode de mise disposition est gnralement dfini par
le scnario daccs (type de priphrique, qualit du rseau, localisation). Si lapplication est
excute directement sur le serveur, elle bnficie en consquence dune puissance de
calcul accrue.
86
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
5.4 Stockage
La virtualisation du stockage, appele galement abstraction du stockage, existe depuis le
dbut des annes 2000. Son taux de pntration du march croit de faon rapide depuis
lors. En effet, les entreprises ayant acquis au fil des annes des volumes consquents de
62
http://www.citrix.fr/French/ps2/products/product.asp?contentID=186.
http://www.vmware.com/fr/products/desktop_virtualization/thinapp/overview.html.
64
http://www.microsoft.com/en-us/windows/enterprise/products-and-technologies/virtualization/app-v.aspx.
65
http://www.novell.com/fr-fr/products/zenworks/applicationvirtualization/.
66
http://www.systancia.com/fr/AppliDis-Fusion-4.
63
5.3.3 Solutions
87
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
5.4.1 Concepts
La virtualisation du stockage consiste fdrer plusieurs ressources de stockage
indpendantes et ventuellement htrognes en une ressource centralise. Des volumes
ou disques de stockage virtuels logiques sont crs partir de ces diffrentes ressources et
prsents par la suite aux serveurs concerns.
Ainsi, quoiquune entreprise ait fait lacquisition de NAS, de baies de stockage iSCSI 68 et/ou
de baies de stockage fibre optique, que ces dispositifs soient dots de disques SATA, SAS
ou SSD ou quils aient t produits par diffrents fabricants, la socit en question pourra
tout de mme centraliser la totalit de lespace disque disponible et ladministrer partir dun
seul outil. Lorsque lacquisition de matriel de stockage supplmentaire savrera
ncessaire, la socit naura pas se soucier de la marque ou de la technologie de ce
dernier puisque cette nouvelle ressource sera virtualise. Lajout dlments de stockage se
fait au sein de lespace logique, en toute transparence, rendant ce type de solution
extrmement volutive.
Un espace de stockage trs important peut ainsi tre mis la disposition dun serveur
partir de plusieurs baies originellement isoles, ce qui naurait pas t possible si elles
taient demeures spares. Un environnement rcent peut galement tre prennis par
ce biais (dans le cas, par exemple, dune fusion de socits ayant donn lieu lexistence au
sein de la nouvelle structure de baies de stockage htrognes issues des anciennes
entreprises). Enfin, ladministration du stockage peut tre ralise partir dune seule et
unique console.
La virtualisation du stockage consiste en une abstraction de la couche physique du
stockage, les serveurs stockant linformation sans se soucier de lemplacement rel des
67
Ensemble des frais se rapportant la dtention de matriel, comme les primes dassurances, la location ou
lamortissement du local au sein duquel le matriel est situ, le nettoyage, etc.
68
Protocole dencapsulation servant transporter un protocole de plus haut niveau, en loccurrence celui
correspondant au standard SCSI (Small Computer System Interface) qui dfinit un bus informatique dont la
particularit est de dporter la complexit vers le priphrique lui-mme. Il sagit donc dune interface plus rapide
et plus universelle mais galement plus complexe.
Nous pouvons partir du principe que la capacit de stockage ne dpend plus de la capacit
physique dun dispositif mais uniquement des contraintes budgtaires.
88
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
donnes. Laccs ces dernires devient donc logique et non physique. Considrons, titre
dexemple, trois baies de stockage virtualises. La solution de virtualisation de stockage est
capable de rpartir physiquement les informations, selon des algorithmes qui lui sont
propres, sur les trois baies, elles-mmes logiquement entrelaces (RAID 0 ou striping).
Lintgrit des donnes de chacune des baies est garantie par un RAID 5. Le serveur qui
lespace de stockage a t allou ne voit que la partie logique de ce stockage. Outre
loptimisation des performances daccs et lamlioration de la scurit, cette technologie
permet de simplifier considrablement ladministration des baies.
Lemplacement physique des donnes est rpertori laide de mtadonnes. Ces dernires
assurent la mise en cohrence (mapping) des emplacements physiques des donnes avec
les emplacements logiques correspondant. Lorsquun LUN est sollicit par une requte, la
solution de virtualisation du stockage interroge les mtadonnes afin de pouvoir dterminer
quelles sont les baies qui stockent les donnes. La requte logique est donc convertie en
requte physique. Ces mtadonnes, ainsi que les fichiers de configuration du SAN virtuel,
sont donc essentiels et doivent faire lobjet dune attention particulire, notamment au niveau
de leur sauvegarde. Cette remarque sapplique tout particulirement au SAN compos dune
unique baie de stockage. Les donnes contenues sur cette dernire ntant pas rpliques
sur une autre baie.
Ladministration du stockage se situe donc au niveau de la solution de virtualisation de
stockage. Ladministration des baies savre toujours ncessaire mais est de moindre
complexit. En effet, seuls les volumes (LUN) sont crs au niveau des baies. Tout le
paramtrage se trouve au niveau de la solution de virtualisation de stockage.
Les principaux fournisseurs de solutions de virtualisation de stockage sont DataCoreTM et
FalconStor. Le premier propose un produit nomm SANsymphonyTM-V, quil nhsite pas
qualifier de premier hyperviseur de stockage. Le second propose Network Storage Server
Virtual Appliance (NSS VA).
Larchitecture relative la virtualisation du stockage peut tre symtrique (in-band) ou
asymtrique (out-band).
Cette architecture, dsigne galement par le terme in-band, consiste faire en sorte que
les serveurs de production soient connects au stockage par lintermdiaire de lappliance de
virtualisation de stockage (qui peut galement tre un serveur ddi, voire tre intgr aux
commutateurs SAN). Ce dernier peut toutefois apparaitre comme un goulet dtranglement
(SPOF, Single Point of Failure) et doit ds lors imprativement tre scuris. Cette
scurisation peut se faire par le biais de la cration dun cluster comprenant un deuxime
serveur de virtualisation de stockage.
La figure 5-4, ci-dessous, illustre cette infrastructure et le goulet dtranglement potentiel,
puisque le serveur de virtualisation du stockage nest pas dupliqu.
89
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 5-4 : Symtrique ou In-Band (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot)
La plupart des solutions offertes par le march savrent tre in-band, limplmentation de
cette technique tant assez souple. Il est en effet inutile dajouter une couche logicielle sur
les serveurs, ce qui fait delle une solution totalement transparente.
90
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 5-5 : Asymtrique ou Out-Band (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot)
Cette architecture est plus performante car le serveur de virtualisation de stockage nest
sollicit que pour convertir les requtes logiques en requtes physiques. Les ventuels
engorgements (Bottleneck) sont inexistants car les donnes ne transitent pas par celui-ci.
Linstallation dun agent sur les serveurs peut toutefois savrer problmatique dans les
environnements de virtualisation, ce qui a pour effet de limiter le nombre de dploiements de
ce type darchitecture malgr des avantages vidents. Les entreprises prfrant opter pour
une architecture symtrique performante et simple mettre en uvre.
La figure 5-6 illustre le fait que lespace inhrent un disque logique peut tre rparti au sein
de plusieurs LUN, eux-mmes crs partir du pool de stockage.
Cette technique permet dallouer des blocs la demande pour un volume alors
quhabituellement lallocation de lensemble des blocs tait effectue au moment de la
cration dudit volume (Thick Provisioning).
91
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 5-6 : Thin Provisionning (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot)
Nous observons sur la figure 5-7 que le disque de gauche (vert) comprend un espace de 40
Go qui lui a dores et dj t allou de manire tout fait classique (Thick Provisioning).
Mme si les donnes contenues sur ce disque noccupent pas les 40 Go disponibles, cet
espace ne peut pas tre utilis dautres fins. Les autres volumes (rouge et bleu) bnficient
du Thin Provisioning. Mme si 60 Go ont t provisionns pour le disque rouge, les 20 Go
qui ne sont prsentement pas utiliss sont simplement rservs. Ils ne seront vritablement
utiliss que le jour ou le volume en aura rellement besoin et restent disponibles dans
lintervalle.
92
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Figure 5-7 : Regroupement des blocs dans un centre de donnes (Source : www.vmware.com)
Grce cette technique, il est par exemple possible de provisionner un volume de 1 To sur
un emplacement physique qui ne correspondrait qu 250 Go au sein du pool. Il est ds lors
possible dacqurir du stockage au fur et mesure de laccroissement de la demande. Les
investissements initiaux ddis au stockage peuvent ainsi tre reports sur un autre budget.
Nous attirons toutefois lattention du lecteur sur les risques inhrents au concept dOver
Provisioning ou Over Subscription. tant donn que le Thin Provisioning permet de signaler
un espace de stockage virtuel plus important que la capacit relle, un sur-provisionnement
de stockage peut apparaitre. Il est ds lors ncessaire de surveiller de prs lutilisation du
stockage, sans quoi lespace physique pourrait brusquement manquer. Cette situation peut
avoir pour consquence un achat non budgt de matriel coteux, et ce, dans lurgence.
93
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Pourcentage de la capacit
globale de stockage
15%
25%
60%
Type de disque
SSD
SAS (15'000 t/m)
SAS (10'000 t/m) ou SATA
(7'200 t/m)
Effectuer des migrations de donnes est grandement simplifi par le fait que laccs ces
dernires est bas sur des mtadonnes. Ainsi, lorsque le changement dune baie de
stockage savre ncessaire, les donnes dplaces doivent simplement faire lobjet dune
mise jour des mtadonnes. Ce procd est totalement transparent pour les serveurs en
production, ce qui rend ce type de solution extrmement flexible.
Les disques virtuels disponibles par le biais des solutions de virtualisation de stockage
peuvent tre configurs en haute disponibilit (HA) et apparaitre comme des disques
multiport partags uniques, mme si dans les faits ils se composent de deux images miroir
distantes mises jour simultanment. Ce type de procd est particulirement utile pour
assurer lintgrit des donnes en cas daccident compromettant le datacenter.
Tableau 5-1 : Bonnes pratiques, en termes de pourcentage de la capacit par niveau et de type de
disques dans un rseau de stockage (Source : Paul Santamaria, Storage Solution Architect chez DELL )
94
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
5.5 Rseau
Nous avons vu prcdemment que virtualiser consiste faire abstraction de la couche
matrielle physique en lui substituant du matriel virtuel. En toute logique, nous pourrions
voquer la virtualisation des cartes rseau des machines invites comme tant lie au
domaine de la virtualisation du rseau. Or, il nen est rien. La virtualisation dun tel
priphrique dE/S revient virtualiser une partie de lquipement et sapparente de ce fait
la virtualisation des serveurs ou des stations de travail. Cette carte rseau virtuelle (ou vNIC)
est toutefois indispensable pour se connecter un rseau virtuel.
Comme cest dj le cas dans les autres domaines dapplication voqus dans le prsent
chapitre, la virtualisation du rseau consiste partager la mme infrastructure rseau
physique entre plusieurs rseaux virtuels totalement isols. Des logiciels de gestion en
particulier les composants de rseau virtuel vont permettre dassurer la communication
entre les interfaces rseau voques ci-dessus et les interfaces physiques sous-jacentes.
Une partie de la complexit est ainsi transfre du matriel vers le logiciel. Cest dailleurs
galement le cas pour les autres domaines dapplication de la virtualisation.
Par rseau physique, nous faisons rfrence la bande passante, aux ressources
processeur des dispositifs rseaux tels que les routeurs, etc. Il ne sagit donc pas
uniquement dune partition logique du rseau base sur le VLAN (cf. section 5.5.1, VLAN).
Or les rseaux de communication se caractrisent par leur grande htrognit, tant au
niveau des couches basses regroupant linfrastructure, les accs divers, etc., que les
couches hautes rassemblant notamment les problmes dincompatibilit des diffrents
formats de donnes, ou celle des logiciels applicatifs. Les interconnexions entre les
diffrentes mdias (fils de cuivre, fibre optique, etc.), linteroprabilit et lchange doivent
pourtant tre de mise pour que les transactions soient possibles au travers du rseau.
La virtualisation des rseaux exige la leve dune quantit de verrous tous les niveaux du
modle OSI. Nous avons dcid de ne pas entrer dans les dtails ce niveau, ceci
dpassant le cadre du prsent document.
95
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
5.5.1 VLAN
Le VLAN (de langlais Virtual Local Area pour Rseau local virtuel) nest pas li la
virtualisation au sens o nous lentendons dans ce document, mme si son principe sen
rapproche. En effet, mme si le VLAN est un rseau local de type logique (regroupant un
certain nombre de priphriques de manire logique et non physique), il existe
indpendamment de la virtualisation, au travers dune infrastructure rseau physique
traditionnelle (routeurs et commutateurs physiques). Nous lvoquons ici pour nous assurer
que le concept sous-jacent est maitris, eu gard son importance dans la virtualisation du
rseau.
96
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
5.5.2 Commutateur
Tout comme un serveur physique a besoin dun commutateur physique pour se connecter au
rseau, une machine virtuelle ncessite un commutateur virtuel pour faire de mme. Les
solutions y relatives proviennent tant des diteurs de solutions de virtualisation que des
constructeurs de priphriques rseau physiques.
Le commutateur virtuel nest autre quun logiciel, intgr lhyperviseur, qui se comporte
lidentique de son homologue physique. Il est dailleurs raccord au commutateur physique
auquel est raccorde la machine physique hte. La virtualisation des rseaux nest donc
aucunement destine liminer les commutateurs physiques de linfrastructure mais
permettre aux machines virtuelles de sintgrer avec davantage de souplesse au rseau. Il
sagit notamment pour ces dernires de ne pas avoir se soucier du nombre de cartes
physiques disponibles.
Ces limitations ont t corriges en avril 2009 par VMware avec lavnement du
Distributed vSwitchTM (DVS), appel vSphere Distributed SwitchTM69 au sein de
lhyperviseur actuel de lditeur. Ce dernier permet de configurer la commutation daccs des
machines virtuelles de lensemble du datacenter grce une interface centralise, la mise
en rseau des machines virtuelles tant ds lors fortement simplifie.
Une fois un serveur physique ajout une ferme, le nouvel hyperviseur hrite simplement de
la configuration des autres, informations de monitoring y compris.
VMware et Cisco70 ont finalement collabor la mise au point du Nexus 1000vTM71 dont
les fonctionnalits tendent celles du DVS. Ce commutateur virtuel sintgre la console de
69
70
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/distributed-switch.html.
Entreprise leader dans le domaine des solutions rseau (http://www.cisco.com/web/FR/index.html).
97
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Cisco et hrite de toutes les fonctions de la gamme Nexus, tant en termes de supervision
quen termes de performances et de scurit. Il permet notamment danalyser le trafic aux
niveaux deux et trois (cf. modle OSI 72) et dagrger les liens en entre et sortie du serveur
physique. Il supporte galement les protocoles et mcanismes standards de supervision et
de scurit, comme Netflow, SNMP, Radius, ACL (Access Control List) ou Private VLAN.
Nous prcisons que le Nexus 1000v est payant, contrairement au DVS qui est intgr en
standard dans vSphereTM (hyperviseur de type 1 de VMware).
Il convient de prciser que si le DVS et le Nexus 1000vTM sont disponibles uniquement chez
VMware, la communaut Open Source a mis au point Open vSwitchTM73, commutateur
virtuel capable doprer au niveau de plusieurs hyperviseurs. Il sagit notamment du switch
virtuel par dfaut de XenServerTM 6.0, parmi dautres solutions dhypervision.
Limportance de ces solutions de virtualisation de la commutation rseau est capital, ds lors
quil sagit dindustrialiser la virtualisation, avec pour corollaire lobligation de grer
efficacement les problmatiques de haute disponibilit, de performances et de scurit. Les
fonctionnalits dun commutateur virtuel comme le DVS sont trs importantes quand le taux
de consolidation devient lev et que les applications savrent gourmandes en ressources
rseau. Un trafic lev entre certaines VM peut par exemple tre dtect, une association
logique de ces dernires pouvant tre mis en place pour viter le problme. En cas de
dplacement de ces machines virtuelles vers un autre serveur physique, via un outil tel que
VMware vMotionTM74, elles seront ainsi transfres toutes en mme temps, ce qui rduira par
la suite le trafic entre hyperviseurs.
Nous avons abord les notions de VLAN et de trunk au sein de la section prcdente dans
un but bien prcis. Un vSwitchTM peut parfaitement permettre aux machines virtuelles
daccder tout VLAN disponible. Nous nentrerons cependant pas outre mesure dans les
dtails ce sujet.
http://www.vmware.com/products/cisco-nexus-1000V/overview.html.
Au niveau de la couche liaison de donnes et rseau, soit au niveau des trames et des paquets
(http://fr.wikipedia.org/wiki/Mod%C3%A8le_OSI).
73
http://openvswitch.org/.
74
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/vmotion.html.
75
http://www.emulex.com/solutions/data-center-virtualization/lightpulse-virtual-hba-technology.html.
72
98
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
lvoquons au sein de cette section comme un exemple de virtualisation des HBA Fibre
Channel.
Cette technologie est prsente sur les contrleurs hte de bus Fibre Channel (FC) 4 et 8
Gbit/s dEmulex et sur les cartes convergentes (CNA pour Converged Network Adapter)
Fibre Channel over Ethernet (FCoE) que lon retrouvera au sein du matriel propos par de
nombreux constructeurs (notamment HP, IBM et Dell). Le CNA est un priphrique dE/S
combinant un HBA et une NIC (Network Interface Controller).
LightPulse Virtual repose sur les technologies N_Port ID Virtualization (NPIV) et Virtual
Fabric.
La premire offre la possibilit aux utilisateurs de virtualiser les fonctionnalits dun
adaptateur FC. Ainsi, un port physique FC peut tre partag en plusieurs N_Port virtuels.
En effet, la virtualisation des serveurs x86 est fortement dpendante du SAN qui est mme
de fournir lespace de stockage partag ncessaire la mise en uvre de la haute
disponibilit. Comme nous lavons vu prcdemment, lorsque des machines virtuelles sont
stockes sur une partition hberge par un SAN, les serveurs htes y accdent par le biais
de cartes HBA. Des liaisons bases sur la fibre optique sont souvent mises en place cet
effet (fonctionnant sur la base du protocole Fibre Channel).
Dans un tel contexte, une partition peut tre visible par plusieurs serveurs hte. Il sagit du
LUN Masking (qui est parfois qualifi tort de zoning). Des fonctionnalits qui permettent de
migrer des machines virtuelles dun hte un autre sans interruption de service, telles que
vMotionTM de VMware ou Quick MigrationTM de Microsoft sappuient sur ce procd.
Dans un tel contexte, NPIV permet dattribuer chaque machine virtuelle une adresse de
type WWN, autorisant ainsi plusieurs machines virtuelles partager la mme HBA et de
disposer de son N_Port. Il devient donc possible, pour ladministrateur, de grer au mieux le
SAN et les interactions des machines virtuelles avec ce dernier. En effet, le SAN, qui sans
lusage de NPIV ne voit que les HBA physiques, est capable de voir chaque machine
virtuelle grce cette technologie.
Il va sans dire que les ports ainsi attribus suivent la machine virtuelle en cas dplacement
dun hte un autre.
Quant la seconde technologie, Virtual Fabric, elle divise un SAN unique en plusieurs
SAN logiques, chacun possdant son propre jeu de services. Il est ds lors possible de
consolider plusieurs SAN indpendants en un seul et unique SAN, en conservant la mme
topologie logique quavant la consolidation.
Il convient de prciser que tous les LUN sont rfrencs comme tant connects
directement aux HBA des serveurs physiques, ces derniers (leurs HBA) tant eux-mmes
rfrencs au sein du SAN par un World Wide Name (WWN).
99
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
La figure 5-8, ci-dessous, illustre la virtualisation des fonctionnalits dun adaptateur Fibre
Channel et la division dun SAN unique en plusieurs SAN logiques, fonctionnalits qui sont
destines faciliter ce type de distribution.
Figure 5-8 : Virtualisation des fonctionnalits dun adaptateur Fibre Channel (Source :
http://www.emulex.com/solutions/data-center-virtualization/lightpulse-virtual-hba-technology.html)
100
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
la section 6.1.2, Dimensionnement des serveurs, les facteurs cls sur lesquels baser le
choix des serveurs htes de machines virtuelles sont mis en vidence. Il sagit en particulier,
au terme de la lecture de cette section, de disposer des comptences ncessaires pour
choisir une forme de serveur adapte aux besoins et pour choisir avec pertinence les
processeurs dont devront disposer les hyperviseurs. Au terme de la lecture de cette section,
le lecteur doit tre mme de choisir un type de mmoire vive pour ses serveurs htes et
den dfinir la quantit. Certains principes de gestion de la mmoire propres aux
hyperviseurs sont galement abords, leur fonctionnement influant sur les choix qui doivent
tre effectus en la matire. Enfin, ce dernier doit tre capable de dfinir avec soin le
nombre dinterfaces rseau dont les serveurs htes devront tre quips.
La section 6.1.2 sachve sur la conversion P2V et les outils susceptibles daccompagner le
lecteur dans cette opration.
La section 6.1.3, Dimensionnement du stockage, est au stockage ce que la section
prcdente est aux serveurs. En effet, comme nous lavons dj mentionn au chapitre 2,
Spcificits dun environnement virtualis, le stockage revt une importance toute
particulire en environnement virtuel puisquil hberge notamment les machines virtuelles. Il
Cette section est destine prparer la virtualisation des serveurs physiques existants. Il va
de soi que si le projet de virtualisation dans lequel le lecteur est impliqu concernait une
nouvelle implantation, la lecture de cette section ne serait pas vritablement utile. Nous
soulignons toutefois que si tel tait le cas, une planification adquate demeurerait
incontournable.
101
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
sagit ds lors pour lecteur de prendre des dcisions appropries, tant en matire de quantit
despace disque ou de mmoire cache, quau niveau des contrleurs de stockage ou des
types de disques durs dont disposerons les baies de stockage.
Quant la section 6.1.4, Choix du rseau de stockage, elle vise accompagner le lecteur
dans les choix qui simposeront lui en matire de type de rseau de stockage. En effet,
dimensionner correctement ses baies nest pas tout. Encore faut-il interconnecter
correctement ces dernires avec les serveurs htes. Cette section comporte ds lors des
informations relatives aux protocoles et aux mdias sous-jacents, permettant la connexion
haut dbit entre les serveurs et les systmes de stockage.
Les notions dagrgation, de redondance, ainsi que la rpartition des charges que cette
dernire autorise, sont galement abordes dans la section 6.1.4.
Enfin, la section 6.2, Choix des fournisseurs, clt le chapitre en dressant rapidement la liste
des diteurs de solutions de virtualisation, ainsi que celle des fabricants de matriel.
6.1 Planification
6.1.1 Capacits ncessaires
Une bonne planification est essentielle dans un projet de virtualisation. En effet, il est capital
de connaitre les caractristiques des donnes traites au sein du systme dinformation pour
dimensionner correctement linfrastructure matrielle ncessaire et pour parvenir la
paramtrer. Il convient galement dtre au fait des capacits offertes par le matriel
existant.
76
102
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Une bonne analyse de linfrastructure existante est ncessaire lobtention du meilleur ratio
de consolidation possible. Elle permet galement de prvoir au plus prs le budget relatif au
projet de virtualisation.
Les donnes les plus importantes collecter sont :
La quantit de mmoire installe et son taux dutilisation ;
La capacit des processeurs installs et leur taux dutilisation ;
La capacit des disques durs et lespace consomm ;
La capacit des liens rseau et leur taux dutilisation.
Sans analyser ces informations, nous aurions tendance acqurir la mme puissance
serveur dont nous disposons lheure actuelle. Il nest probablement pas ncessaire den
provisionner autant, puisque les serveurs sont gnralement surdimensionns. Les
conomies ainsi ralises pouvant tre alloues ailleurs.
Il convient dailleurs de tenir compte du fait que les serveurs ne sont pas utiliss de manire
uniforme. Chacun dentre eux occupe un rle prcis. En fonction de ces rles, lutilisation
peut varier fortement dune journe lautre ou durant une mme journe. Lutilisation
moyenne dun serveur peut en effet correspondre 20% de ses capacits, alors quelle
atteindra 60% durant les pics dactivit. Il sagit de tenir compte de ces pics dactivit que
dans le cas o ces derniers surviennent rgulirement.
Nous prcisons galement que pour tre considre comme fiable, une analyse doit tre
mene sur une semaine au moins.
Nous prcisons galement que certains serveurs ne peuvent tre virtualiss, lutilisation de
priphriques externes tant requise (USB, parallle, srie, etc.). Certains hyperviseurs
autorisent toutefois la connexion directe de ce type de dispositifs au matriel virtuel. Il
convient cependant de procder des tests prliminaires avant la mise en production de ce
type de serveur virtuel.
https://www.netiq.com/products/recon/.
http://www.vmware.com/products/capacity-planner/overview.html.
79
http://www.vkernel.com/.
78
103
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Un certain nombre doutils gratuits peuvent galement permettre une planification adquate
de la capacit ncessaire aux serveurs. Nous dressons, ci-dessous, une liste non exhaustive
de ces derniers, quils soient prvus pour les environnements Windows ou LinuxTM.
80
http://www.microsoft.com/en-us/download/details.aspx?id=7826.
http://www.microsoft.com/en-us/download/details.aspx?id=27284.
82
http://msdn.microsoft.com/en-us/performance/cc709422.aspx.
83
http://www.microsoft.com/en-us/download/details.aspx?id=20163.
84
http://technet.microsoft.com/fr-fr/library/dd723635(office.12).aspx.
81
Windows
104
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Disque logique (LUN) : donne des prcisions sur la latence (Moyenne disque
s/criture ou Moyenne disque s/lecture). Ainsi, des valeurs comprises entre 1
et 15 correspondent de bonnes performances. Si ces dernires se situaient
entre 15 et 25, elles ncessiteraient dtre mises sous surveillance, alors
quelles devraient dclencher un diagnostic si elles se situaient au-dessus de
25. Un compteur comme celui indiquant le temps daccs au disque
(Pourcentage du temps criture du disque et Pourcentage du temps lecture
du disque) devrait tre surveill de trs prs dans un environnement virtuel.
Les valeurs y relatives ne devraient pas tre suprieures 75% ;
o Lhyperviseur Hyper-VTM dispose de ses propres compteurs 85 ;
Microsoft Server Performance AdvisorTM86 est prvu pour offrir Windows 2003
Serveur, les outils qui ont t intgrs doffice partir de Windows 2008 Serveur. Il
dlivre des informations sur lusage du processeur, de la mmoire, etc. Il permet
galement dobtenir des donnes relatives aux rles Active Directory, IIS, DNS,
Service de fichiers, etc. ;
Microsoft File Server Resource ManagerTM permet de mettre en vidence des
informations relatives aux serveurs de fichiers, telles que lespace disque consomm
par utilisateur, les fichiers dupliqus ou ouvert le plus souvent, etc. Lanalyse peut
tre effectue pour une priode donne ou un instant T.
o
Linux T M
FIO 87 permet deffectuer des tests de stress mais galement de mesurer les
performances dun serveur en lui soumettant des travaux ;
IOTOP88 est un logiciel similaire la commande TOP mais sappliquant lutilisation
disque par processus, en temps rel ;
IOZONE 89 est destin mesurer les performances dun serveur. Il gnre des
rapports dans un tableur ;
Intel NAS Performance ToolkitTM90 est prvu pour simuler des charges sur des
serveurs de fichiers, comme des copies intensives, de la lecture de vidos HD, etc. Il
est capable de gnrer des graphiques.
http://technet.microsoft.com/en-us/library/cc768535%28BTS.10%29.aspx.
http://www.microsoft.com/en-us/download/details.aspx?id=15506.
87
http://freecode.com/projects/fio.
88
http://guichaz.free.fr/iotop/.
89
http://www.iozone.org/.
90
http://www.intel.com/products/server/storage/NAS_Perf_Toolkit.htm.
86
105
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
dautres formes de serveur et gnralement trop peu puissants pour prendre en charge la
virtualisation dans des conditions optimales.
Les serveurs ligibles pour la virtualisation sont gnralement des serveurs rack ou des
serveurs lame (blade).
Mme si les serveurs issus de ces deux familles sont parfaitement adapts la virtualisation,
le choix fait gnralement dbat. Dun ct, les cots relatifs lacquisition de serveurs rack
sont moindres et ces derniers nexigent aucune modification au niveau de lalimentation
lectrique du centre de donnes. Dun autre ct, ladministration centralise, par le biais
dune seule console, de plusieurs serveurs lame est trs apprcie. Au mme titre, la
mutualisation de plusieurs serveurs dans un mme chssis, ce dernier comprenant
alimentation lectrique, refroidissement et accs au rseau, est fortement apprcie alors
que la place disponible dans les centres de donnes nest pas extensible linfini.
Toutes ces affirmations sont exactes et parfaitement pertinentes. Aussi, nous ne prendrons
pas position pour lune ou lautre des familles, chacune dentre elles disposant de ses
propres avantages. Il incombe au lecteur en fonction de ses propres sensibilits et du
contexte au sein duquel son projet de virtualisation doit voir le jour de se forger sa propre
opinion, en sintressant au grand nombre de prises de position qui abondent sur la toile ou
dans la littrature y relative.
Toutefois, un lment incontournable, voire discriminant, dans le choix des serveurs est le
nombre de curs physiques quil sera possible de runir dans un nombre minimum de U. En
effet, le nombre de VM par serveur dpend du nombre de curs physiques dont ce dernier
dispose. Si lespace disponible au sein du centre de donnes nest pas suffisant pour pouvoir
atteindre le nombre souhait de curs en utilisant des serveurs rack, il sera peut-tre
ncessaire de privilgier des serveurs lame.
Nous prcisons quun des cots cachs dun centre de donnes est relatif la climatisation.
En privilgiant les serveurs de haute densit, comme les serveurs lame, la puissance de
rfrigration ncessaire est diminue, puisque ces derniers chauffent moins. Des conomies
substantielles peuvent donc tre gnres par ce biais.
Daucuns saccordent pour mettre en avant la console de gestion centralise, alors que
certains avancent que cette dernire est efficacement remplace par les consoles offertes
par les plateformes de virtualisation (comme VMware vSphereTM, pour ne citer quun
exemple). Les uns mettent en avant lexcellent rapport qualit/prix des serveurs rack, ainsi
que leur aptitude tre plus faciles entretenir par lquipe informatique que le serait un
chssis comprenant plusieurs serveurs lame. Les autres mettent en avant que les
commutateurs Ethernet et Fibre Channel intgrs au sein dun tel chssis rduisent la
complexit du cblage. Les premiers assurent quil est plus simple de faire voluer un centre
de donnes en utilisant des serveurs rack, en mettant en avant le fait quaucune adaptation
des alimentations lectriques nest ncessaire. Les seconds assurent que la consolidation de
ces mmes alimentations au sein du chssis en rduit le nombre ncessaire, arguant quil en
va galement ainsi du nombre de ventilateurs.
106
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Activation de lHyper
Threading)
Possible mais gains mineurs
non
non
Tableau 6-1 : Bonnes pratiques quant au nombre de VM par cur pouvant tre dployes en fonction de
lutilisation du processeur (Source : Bonnes pratiques, planification et dimensionnement des
infrastructures de stockage et de serveur en environnement virtuel de Cdric Georgeot)
Une fois les capacits processeur ncessaires identifies (cf. section 6.1.1, Capacits
ncessaires), il est important de prendre en compte les pics dutilisation du processeur
pour affiner les besoins. Ainsi, un processeur cadenc 2 GHz, ayant des pics dutilisation
nexcdant pas 15%, correspond en fait un besoin de 300 MHz. Il convient dy ajouter une
marge de 30%.
Un serveur excdant les valeurs stipules dans le tableau ci-dessus nest peut-tre pas un
candidat srieux pour la virtualisation (cf. section 6.1.1, Capacits ncessaires).
107
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Nous lavons vu plus haut, le nombre de curs embarqus est dcisif dans le calcul du
nombre de VM par serveur. La frquence associe est tout aussi importante. Certaines
tudes ont dmontr quune lvation de la frquence du processeur gnre un faible gain
de performances en comparaison de laugmentation importante de consommation lectrique
quelle provoque. En revanche, lajout de curs physiques dune frquence infrieure
naugmente que trs peu la consommation lectrique tout en dopant les performances.
Mieux vaut ds lors privilgier des processeurs de milieu de gamme mais quips du plus
grand nombre de curs possibles.
Si toutefois, le lecteur souhaitait faire le choix dune frquence de fonctionnement leve, il
devrait sassurer que les processeurs en question disposent dune taille de mmoire cache
L2/L3 la plus grande possible.
Un autre facteur cl dans le choix du processeur est sa consommation lectrique. Il sagit
dun cot cach qui mrite dtre pris au srieux. Cette consommation tant publie en Watts
dans les fiches techniques des produits, un calcul bas sur la dure damortissement du
produit peut savrer intressant.
Un dernier point prendre en compte dans la conception de linfrastructure est de faire en
sorte quun serveur ne dpasse pas 90% dutilisation du CPU, une fois le nombre de
91
http://www.vmware.com/products/vmmark/overview.html.
108
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
machines virtuelles consolides sur ce dernier atteint. En effet, il sagit de tenir compte des
technologies de tolrance de panne proposes par les hyperviseurs.
VMware Fault Tolerance (FT) maintient en permanence deux instances dun serveur virtuel
sur deux htes physiques diffrents. VMware High Availability (HA), quant lui, redmarre
le serveur virtuel sur un autre hte physique en cas de panne. Dautres technologies sont
disponibles sur le march, sagissant notamment de Citrix XenMotionTM ou Microsoft Live
MigrationTM. Elles exigent toutes que le double de ressources soit provisionn par serveur
susceptible dtre configur en haute disponibilit. Cest la raison pour laquelle limportance
des serveurs doit tre correctement identifie lors du capacity planning. Nous prcisons ce
propos que le modle idal exige que tous les serveurs soient en haute disponibilit, ce qui
implique des cots associs en consquence.
La rplication peut engendrer une certaines baisse de performances pendant les phases
dacquittement, en particulier en cas de rplication synchrone. Il convient tout de mme de
prciser que la baie de stockage primaire attend lacquittement de la baie secondaire pour
des raisons dintgrit des donnes. Nous consentons ds lors diminuer quelque peu les
performances potentielles pour accroitre la scurit.
Selon de type de rseau de stockage SAN, il est important de dimensionner correctement
les interconnexions de type iFCP et FCIP (cf. section 7.1.2, Protocole de rplication).
En cumulant au 10 Gb Ethernet, les trames Jumbo (Jumbo frames 92) et des technologies
telles que VMware NetQueueTM, il est possible dexploiter toute la puissance des interfaces
correspondantes (10 Gb) et de saffranchir ainsi des ventuels goulots dtranglement
voqus au dbut de cette section.
92
Ces trames Ethernet peuvent dpasser la longueur habituelle de 1500 octets pour atteindre une longueur allant
jusqu 9000 octets environ.
titre dexemples :
Afin quune carte 10 Gb Ethernet puisse tre exploite correctement, un slot de type
PCIe x8 est ncessaire. Si la carte en question est double port, il faut un slot PCIe
x16 ;
Si la baie de stockage permet un dbit de 320 Mo/s, plusieurs liens Ethernet doivent
tre agrgs afin de pouvoir soutenir ce dbit. Comme mentionn prcdemment, il
sagit donc de connaitre le type de stockage qui sera utilis, ainsi que le nombre de
liens Ethernet ncessaires, pour pouvoir correctement choisir son serveur.
109
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Il convient, en dernier lieu, de rester critique envers les dbits annoncs par les
constructeurs qui sapparentent bien souvent des valeurs marketing.
Pour dimensionner correctement la quantit totale de mmoire dun serveur hte, il faut
additionner les besoins identifis laide du capacity planning, tout en tenant compte des
pics.
En tenant comptes des lments mentionns dans le tableau 6-2, nous voyons quil est
inutile de provisionner 28 Go de mmoire, car nous voyons que cette dernire nest sollicite
qu hauteur de 12 Go avec des pics dexcdant pas 17 Go.
Serveurs
Mmoire disponible
Windows 2003
LinuxTM 2.6
Windows 2008 R2
Total
8 Go
4 Go
12 Go
28 Go
Consommation
moyenne
4 Go
2 Go
6 Go
12 Go
Consommation lors
de pics
6 Go
3 Go
8 Go
17 Go
Tableau 6-2 : Capacit mmoire disponible, ainsi que consommation moyenne et lors des pics (Source :
inspir de Bonnes pratiques, planification et dimensionnement des infrastructures de stockage et de
serveur en environnement virtuel de Cdric Georgeot)
110
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Il convient tout de mme dajouter 1 Go par tranche de 10 Go de pic mmoire, et ce, pour
viter une sollicitation trop importante du swap.
Enfin, il est capital de tenir compte de la consommation de lhyperviseur lui-mme et de
lajouter celle des pics mmoire prcdemment tablie. Nous retenons gnralement,
titre dexemple, une valeur de 2 Go pour VMware ESXTM, 640 Mo pour son successeur
ESX(i) et 1 Go pour Hyper-V. Ces valeurs doivent tre vrifies avec tout diteur auquel
nous pourrions avoir affaire.
Aussi, dans le cas o nous aurions 40 serveurs virtualiser par le biais de VMware ESXTM,
exposant un total de pic mmoire de 60 Go, le calcul serait le suivant : 60 Go + 2 Go pour
lhyperviseur + 6 Go = 68 Go au total.
Ce calcul est adapt pour des machines virtuelles obtenues partir de conversion P2V (cf.
section 6.1.2.6, Conversion P2V). Si les VM ne sont pas bases sur des machines
physiques et que, de ce fait, elles sont cres directement par le biais de lhyperviseur, la
sur-allocation mmoire permettra finalement de leur allouer plus de mmoire quen dispose
rellement le serveur hte physique (cf. Memory Overcommit).
Memory Overcommit
VMware pratique la sur-allocation de mmoire en cumulant diffrentes technologies,
sagissant du Ballooning, de la compression mmoire (Memory Compression) et du
Transparent Page Sharing (TPS), appuyes par des algorithmes optimiss au niveau du
noyau de lhyperviseur et du swapping effectu par ce dernier.
Le ballooning est mettre en relation avec le fait que le systme dexploitation invit
fonctionne de manire totalement isole. Ainsi, il nest pas conscient du fait quil volue au
sein dune machine virtuelle, au mme titre quil nest pas conscient de ltat des autres
machines virtuelles hberges sur le mme hte physique. Lorsque ce dernier excute
plusieurs machines virtuelles et commence tre court de mmoire, aucune des machines
invites ne peut librer de la mmoire puisquelles ne disposent daucun moyen qui leur
permette de dtecter ce manque. Cest donc le balloon driver qui va permettre aux VM de
prendre conscience du manque de mmoire en question.
Ce pilote est install sur la machine virtuelle par le biais des VMware ToolsTM93. Ce pilote ne
possde pas dinterface avec le systme invit. Il communique avec lhyperviseur par le biais
dun canal priv. Quand ESXTM ou ESX(i)TM dsire rcuprer de la mmoire prcdemment
alloue une machine virtuelle, il fait en sorte que le balloon driver gonfle dans la mmoire
de cette dernire pour y occuper un certain espace (par dfaut, le pilote peut rcuprer
93
Suite de pilotes qui doivent tre installs sur toute machine virtuelle dun environnement virtualis VMware .
111
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
jusqu 65% de la mmoire alloue la machine virtuelle, la valeur pouvant tre dfinie
laide de la commande Mem.CtlMaxPercent). Comme ce pilote est excut au niveau de la
VM cible, cest donc le systme dexploitation invit qui gre leffet du balloon driver laide
de ses propres algorithmes de gestion de la mmoire. Il cde ainsi dabord la mmoire quil
nutilise pas puis, si besoin est, dchargera une partie du contenu de cette dernire dans son
propre swap.
112
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
sur le sujet 94. Il a t ainsi dmontr que le ballooning provoque bien moins de dgradation
de performance que le swapping.
Lide de memory compression est relativement simple. Si les pages senses tre
swappes sont compresses et stockes dans un cache situ dans la mmoire
principale, le prochain accs une de ces pages provoquera simplement sa dcompression.
Laccs est donc infiniment plus rapide que lors dun accs disque. Tant que le cache en
question nest pas plein, peu de pages ont besoin dtre swappes . Cette technique
permet donc, tout comme le ballooning, dviter un usage trop intensif du swapping par le
biais de lhyperviseur. Les performances des applications sont videmment bien meilleures
lorsque lhte est soumis une intense pression au niveau de la mmoire.
La figure 6-2 illustre le mcanisme de compression mmoire par rapport au swapping. Nous
constatons quaucun accs disque nest ncessaire dans le cas de la compression mmoire,
ce qui la rend beaucoup plus rapide. Nous voyons que les pages A et B sont compresses et
stockes dans le cache comme deux demi-pages.
Quant la technique du Transparent Page Sharing, elle consiste partager les pages
mmoires identiques quon peut trouver sur diffrentes machines virtuelles hberges.
Lhyperviseur utilise le hachage (hashing) pour identifier les pages potentiellement
candidates au partage. Les cls ainsi obtenues sont stockes dans une table ad hoc. Ces
cls sont priodiquement compares et si certaines sont identiques, une comparaison bit
bit est effectue. Ainsi, lhyperviseur est en mesure de dtecter les pages identiques et de
faire en sorte que ces dernires ne soient enregistres quune fois en mmoire. Aussi, une
page mmoire physique peut tre adresse dans lespace mmoire virtuel de plusieurs VM.
Dans le cas o lune de ces dernires tenterait de modifier une page mmoire partage,
lhyperviseur en crerait une copie prive que seule la machine virtuelle concerne serait en
mesure dadresser.
94
113
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Quoiquun hyperviseur puisse fonctionner avec une seule interface rseau, il est fortement
recommand de scinder les services et chercher mettre en place une redondance. Ceci est
dautant plus vrai, lorsque des technologies de migration chaud de machines virtuelles en
cours dexcution, telles que Microsoft Live MigrationTM ou VMware vMotionTM, sont utilises.
Si le nombre de VM excutes est de surcroit important, lexistence de plusieurs liens est
essentielle. Il serait mme judicieux dopter pour des interfaces 10 Gbit/s dans ce cas de
figure.
Pour estimer le nombre de machines virtuelles quune carte rseau Gigabit est susceptible
de supporter, il convient de se baser sur les taux dutilisation du rseau des serveurs qui
doivent tre virtualiss. En additionnant ces valeurs, il est possible de mettre en vidence la
bande passante qui sera rellement consomme par les VM, une fois ces dernires en
production.
Le trafic gnr est relativement modeste en moyenne. Les applications lourdes doivent
toutefois faire lobjet dune attention particulire. Nous pouvons tout de mme partir du
principe quil est en gnral possible dhberger de 6 10 machines virtuelles par carte
rseau Gigabit.
114
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Les tableaux 6-3 et 6-4 ci-dessous mettent en vidence les configurations idales
recommandes par certains diteurs importants (en loccurrence Microsoft et son
hyperviseur Hyper-VTM et VMware avec vSphereTM). Nous prcisons que sils ne rfrencent
pas la totalit des cas de figure, ils permettent toutefois de se faire une certaine ide.
Les rgles suivantes doivent tout de mme tre prises en compte pour mettre en place un
dimensionnement correct du nombre dinterfaces rseau ncessaires :
Prvoir un service par interface soit une ou plusieurs carte(s) pour la production,
une carte pour la gestion, une carte pour le service de migration chaud, etc. ;
Une ou plusieurs cartes ddies pour isoler le trafic iSCSI des autres services ;
Regrouper sur la mme interface plusieurs services peut tre envisag, condition
que les services en question ne ncessitent quune faible bande passante. Il peut
sagir de la gestion et de la production par exemple ;
Crer des sous-rseaux par service et mettre en place diffrents VLAN au niveau du
commutateur pour isoler les trafics ;
Veiller ce que les pilotes soient jour.
Type de rseau
Production
iSCSI
CSV 95 / Heartbeat 96
Live Migration
Gestion
Microsoft Hyper-VTM
Nombre minimum de
cartes
2 x 1 Gb
2 x 1 Gb
1 x 1 Gb
1 x 1 Gb
1 x 1 Gb
Nombre maximum de
cartes
4 x 1 Gb
4 x 1 Gb
2 x 1 Gb
2 x 1 Gb
2 x 1 Gb
TM
Type de rseau
Production
iSCSI
Service Console
Fault Tolerance 97
High Availability
vMotionTM
Gestion
VMware vSphereTM
Nombre minimum de
cartes
2 x 1 Gb
2 x 1 Gb
1 x 1 Gb
1 x 1 Gb
Nombre maximum de
cartes
4 x 1 Gb
4 x 1 Gb
1 x 1 Gb
4 x 1 Gb
1 x 1 Gb
1 x 1 Gb
4 x 1 Gb
1 x 1 Gb
TM
Tableau 6-4 : Nombre de cartes ncessaire pour vSphere (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel par Cdric
Georgeot).
95
Cluser Shared Volume ou volume de stockage partag. Ces volumes sont visibles simultanment par tous les
nuds dun cluster de serveurs hte. Ces derniers peuvent ainsi accder tous les disques virtuels, ce qui
TM
autorise la mise en uvre de Live Migration, la technologie de migration chaud dHyper-V .
TM
96
Solution de monitoring permettant Hyper-V de mettre en uvre la haute disponibilit (Live Migration).
97
Technologie assurant la disponibilit permanente des applications en cas de panne des serveurs hte, en
crant une instance fantme active dune machine virtuelle reprsentant le pendant virtuel de linstance principale
et en permettant le basculement instantan entre les deux instances.
Tableau 6-3 : Nombre de cartes ncessaire pour Hyper-V (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel par Cdric
Georgeot).
115
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Les diteurs accompagnent volontiers leurs clients en les conseillant ce propos. Microsoft
publie par exemple un guide de configuration du rseau en cas dutilisation de Live
Migration. Ce dernier est disponible lURL suivante : http://technet.microsoft.com/enus/library/ff428137(WS.10).aspx.
Il faut savoir que certains types de serveurs physiques ne peuvent pas tre convertis en
serveurs virtuels. Le rle Active Directory ne supporte pas dtre migr laide dune
opration P2V car le systme dexploitation contrle en permanence lintgralit de la base.
Une corruption majeure peut ainsi survenir. La seule solution serait dans ce cas deffectuer
la conversion avec le serveur teint, ce qui se prte assez peu un tel rle. En conclusion,
certains rles doivent faire lobjet de tests avant la mise en production.
Parmi les bonnes pratiques en matire de conversion P2V, nous suggrons de dsinstaller
tous les outils des constructeurs installs avec le serveur, tels que les outils de gestion du
RAID et darrter temporairement lanti-virus. Suivant le type de disque, il peut tre judicieux
deffectuer une dfragmentation et de vrifier le systme disque. Larrt des services lis au
matriel est galement prconis.
Il faut tre galement conscient quaprs une migration P2V, les pilotes matriel doivent tre
dsinstalls et les outils dintgration de lditeur de la solution de virtualisation installs (par
exemple, les VMware ToolsTM).
98
http://www.vmware.com/fr/products/datacenter-virtualization/converter/overview.html.
http://www.microsoft.com/france/serveur-cloud/system-center/default.aspx.
100
http://www.acronis.com/backup-recovery/smallbusiness.html#ABR11-5SW.
101
https://www.netiq.com/products/migrate/.
99
Il est galement possible de raliser, laide de ces solutions, des oprations V2V (Virtual to
Virtual) lors du changement dun hyperviseur pour celui dun autre diteur.
116
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Il peut tre judicieux de procder une analyse prcise des donnes lors de la phase de
migration de ces dernires sur le SAN. Les donnes pourront tre ainsi segmentes en
fonction de leur degr de criticit. De telles mesures permettent gnralement de rduire les
volumes ncessaires, dajuster les dlais de sauvegarde et de restauration, etc., et de
raliser ainsi des conomies.
La mise en uvre du tiering (cf. section 5.4.5, Fonctionnalits avances) ne manquera pas
dtre facilite par une telle analyse.
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/esxi-and-esx/compare.html.
Lhyperviseur de VMware .
Il est galement possible de dmarrer un hyperviseur qui aurait t dploy sur le SAN (Boot
on SAN). Cette manire de faire demeure relativement complexe, en particulier lorsquon la
compare avec la facilit de mise en uvre de lhyperviseur sur les serveurs hte. Quant au
dmarrage partir dune cl USB ou dune carte SD, nous le dconseillons. En effet, mme
sil est tout fait possible de procder de la sorte (les constructeurs proposant des
connecteurs USB ou SD disponibles au niveau de la carte mre du serveur hte), la faible
performance au niveau des cycles lecture/criture et le manque de fiabilit sur le long terme
de ce type de mdia ne plaide pas pour cette manire de faire.
117
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
judicieux de prvoir un espace disque plus important que celui disponible sur les diffrents
serveurs appels tre virtualiss. Il est ainsi recommand de prvoir au moins 20%
despace disque supplmentaire afin danticiper la croissance potentielle des donnes.
De plus, il sagit de tenir compte de lexistence de la fonctionnalit permettant de raliser des
instantans (snapshot). Comme nous lavons prcdemment voqu, cette technique est
passablement utilise en environnement virtualis. Les solutions de sauvegarde intgres
aux hyperviseurs, comme VMware vSphere Data ProtectionTM (cf. section 3.1.8, Optimisation
de la sauvegarde), la cration de modle de machine virtuelle ou le clonage de machine
virtuelle, reposent sur cette technologie.
Il faut donc tenir compte de lespace ncessaire au stockage, mme provisoire, de ces
instantans. Les fabricants sont mme de fournir les renseignements y relatifs, ces
derniers pouvant varier en fonction des solutions de virtualisation ou de stockage
concernes. Nous recommandons toutefois de crer une rserve correspondant 20% de la
taille des diffrents volumes, afin de pouvoir utiliser cette fonctionnalit en vitant tout chec
potentiel. Il sagit galement de tenir compte du taux de changement (ROC pour Rate of
Change en anglais) des instantans et de la frquence laquelle ces derniers sont mis
jour.
Considrons, titre dexemple, le cas suivant :
100 Go de donnes ;
10% de ROC ;
10 jours de rtention ;
1 instantan par jour ;
Nous obtenons donc un total de 240 Go, soit 100 Go + 100 Go comprenant le ROC multipli
par 10 jours raison dun instantan par jour + 20 Go correspondant la rserve prvue
pour les instantans + 20 Go pour la croissance estime.
Selon les constructeurs et les modles de baies choisis, il est possible dopter pour la fibre
optique (Fibre Channel) ou liSCSI. La taille de la mmoire cache peut varier
considrablement, ainsi que le nombre de contrleurs.
Mme si la baie peut fonctionner avec un seul contrleur, il nest pas envisageable de
garantir la haute disponibilit de cette dernire sans disposer dau moins deux contrleurs.
Ces contrleurs peuvent tre configurs en mode actif/actif ou actif/passif. Les cas de
figure o il convient de mettre en uvre lune ou lautre des configurations sont dcrits cidessous.
6.1.3.2.1 Configuration actif/passif
Dans ce cas de figure, les deux contrleurs fonctionnent en mode redondant avec leurs
caches mis en miroir.
Dans le cas o un contrleur viendrait tomber en panne, son cache serait
automatiquement commut.
118
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Chaque contrleur dispose de ses propres LUN. Un contrleur bnficie de laccs primaire
aux LUN, alors que lautre est dfini comme tant le contrleur secondaire.
Cependant, les LUN disponibles sur la baie ne sont accessibles par le biais de chemins
alternatifs quen cas de changement dappartenance entre les contrleurs, chacun de ces
derniers disposant de ses propres LUN. Les performances peuvent ainsi tre fortement
dgrades en cas de panne dun des deux contrleurs.
Dans la figure 6-4 ci-dessous, laccs aux LUN seffectue par le biais du contrleur A. Le
contrleur B est prvu pour entrer en fonction en cas de dfaillance du contrleur A. Si
uniquement un port du contrleur A est dfaillant, laccs se fera par le biais du commutateur
B ou via un autre port, mais en aucun cas par le contrleur B.
119
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Dans un stockage de type Fibre Channel, les ports dinterconnexion agissent comme un
commutateur interne des fins de redondance. Si la disponibilit des donnes prime sur la
performance, linterconnexion de ports peut ainsi tre active afin de faire en sorte que les
deux contrleurs soient virtuellement relis. Le serveur aura alors accs aux volumes par
le biais de nimporte lequel des deux contrleurs. Lacquisition de commutateur FC externe
peut tre ds lors vite.
Si lun des contrleurs venait faillir, linterconnexion de ports autoriserait tout de mme
laccs continu aux donnes, sans quune intervention durgence doive tre prvue. La figure
6-5 illustre dailleurs ce cas de figure. Comme nous pouvons le voir, linterconnexion de ports
est ncessaire dans le cas o un attachement direct est prconis (sans passer par un
commutateur FC). Il est vident que si la baie ne dispose que dun contrleur, cette dernire
ne sera pas compatible avec une telle fonctionnalit.
Lorsque linterconnexion de ports nest pas active, les donnes appartiennent lun des
contrleurs. Il sagit en quelque sorte dune connexion point par point. Ce genre de
configuration sapparente une topologie base sur deux contrleurs connects un ou
plusieurs commutateurs FC, tel quillustr par la figure 6-6 ci-dessous.
Figure 6-6 : Topologie base sur deux commutateurs FC (Source : Bonnes pratiques, planification et
dimensionnement des infrastructures de stockage et de serveur en environnement virtuel de Cdric
Georgeot)
Figure 6-5 : Attachement direct au stockage avec mise en uvre de linterconnexion de ports (Source :
Bonnes pratiques, planification et dimensionnement des infrastructures de stockage et de serveur en
environnement virtuel de Cdric Georgeot)
120
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Ici, le serveur connait la totalit des chemins menant chaque LUN. Un LUN est atteignable
depuis nimporte lequel des HBA. Quant aux contrleurs, ils accdent simultanment ce
LUN.
Le mode Write Back amliore les performances tandis que le mode Write Through est
recommand par certains diteurs/constructeurs pour obtenir des instantans (snapshots)
consistants. En effet, les donnes prsentes en cache lors de prise de linstantan peuvent
nuire cette consistance.
Par ailleurs, il est important de considrer lachat donduleurs intelligents et adapts
linfrastructure pour scuriser cette dernire. Les serveurs et les baies de stockage doivent
en effet tre proprement teints en cas de panne lectrique afin que les caches puissent tre
entirement vids.
En dernier lieu, adapter le type de gestion du cache en fonction du niveau de RAID peut tre
judicieux. En effet, en cas de pile RAID 0, 1 ou 10, le Write Through est adapt pour les
accs squentiel alors que le Write Back lest plutt pour les accs alatoire. Sil sagit dune
pile RAID 5 ou 6, le Write Back sera le mieux adapt.
Les caches peuvent fonctionner de manire diffrente. Voici leurs diffrents principes de
gestion. :
Antmmoire criture directe (Write Through). Les donnes prsentes dans le
cache sont immdiatement crites vers les disques durs de la baie. Ce type de cache
est destin aux applications ncessitant un tat permanent de consistance (par
exemple, les bases de donnes) ;
Antmmoire criture diffre (Write Back). Les donnes prsentes dans le cache
sont crites de manire diffre vers les disques durs de la baie. Les donnes en
lecture sont dlivres par le cache alors que les donnes en criture sont diffres,
avec un accroissement de performance la cl. Ce procd tient compte du fait que
le cache est bien plus rapide quune pile RAID et que les donnes sont crites bien
plus lentement quelles sont lues. Il est impratif de disposer dune batterie coupler
au contrleur dans ce cas de figure. Toute perte de donnes sera ainsi vite en cas
de coupure de lalimentation lectrique ;
Antmmoire lecture anticipe (Ahead Cache Settings). Les lectures au niveau du
stockage peuvent tre anticipes laide de ces technologies. Ce mode de gestion
peut tre pratique mais il ne peut toutefois pas prdire les donnes qui vont tre
lues. Ce mode est ainsi adapt pour des accs squentiels consquents, tels que le
streaming vido ou laccs des fichiers de taille consquente.
121
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Larrive du SAS a boulevers le march des interfaces de disques qui jusqualors tait
partag entre deux ralits : la norme ATA qui se trouve majoritairement au sein des postes
de travail, et ce, en raison de son cot peu lev, et le SCSI, trs prsent au sein des
centres de donnes car plus rapide et plus performant (en particulier au niveau des
applications multi-utilisateurs ou la gestion des piles de disque RAID).
Ces deux interfaces, nes dans les annes 80, reposent sur un mode de transmission
parallle. Alors que les dbits observs avec ce mode de transmission nont jamais excd
2.56 Gbit/s (Ultra 320 SCSI), ils atteignent dores et dj 6 Gbit/s avec le mode de
transmission srie propre au SAS (pour arriver prochainement 12 Gbit/s). Il ne sagit
dailleurs que dun seul des nombreux avantages offerts par ce mode de transmission.
En outre, les dbits fournis par le SAS sont exclusifs. Ainsi, chaque disque dispose dun
dbit de 6 Gbit/s alors que dans le cas du SCSI, la bande passante de 2.56 Gbit/s est
rpartie entre tous les priphriques du contrleur. Quant la limitation de 15 disques par
Le SAS a dornavant supplant lancien bus SCSI pour devenir le standard en qualit de
stockage de niveau entreprise. Il dpasse bien videmment les limites en termes de
performances quoffrait le SCSI grce lapport du mode de transmission de donnes en
srie de linterface SATA.
122
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
contrleur en vigueur avec le SCSI, elle est maintenant de 128 disques par connexion pour
le SAS.
Les cbles dinterface sont communs entre le SAS et le SATA et le SAS peut cohabiter avec
le SATA au sein dune mme grappe de stockage.
Par ailleurs, ces disques sont plus fiables que les disques NL-SAS et SATA et restent
performants bien quils soient soumis des conditions difficiles. Leurs performances sont en
outre bien suprieures celles offertes par les disques NL-SAS et SATA.
En termes de fiabilit, le BER (Bit Error Rate) du disque SAS quivaut 1 sur 10^16 bits, soit
1 bit derreur tous les 10'000'000'000'000'000 bits. En comparaison, le BER du disque SATA
se monte 1 sur 10^15 bits, ce qui ne signifie pas pour autant que ce dernier ne soit pas
fiable.
De plus, le temps coul entre deux erreurs se monte 16 millions dheures pour le SAS
alors quil est de 12 millions dheures pour le SATA, ce qui correspond 182 ans pour le
SAS contre 136 pour le SATA. Ces chiffres constituent toutefois des moyennes. Ils
permettent simplement de mettre en vidence le niveau de qualit des disques SAS.
Les disques/contrleur SAS offrent galement une multitude de commandes additionnelles
prvues pour contrler le disque qui rendent le SAS bien plus efficace que le SATA.
Ces disques atteignent une vitesse de rotation de 15'000 t/m lheure actuelle, ce qui
permet un accs plus rapide aux donnes que celui offert par les disques NL-SAS ou SATA.
Le fait que les instructions soient pr-tries pour amliorer la performance en cas de
nombreux petits accs et lexistence dune gestion bidirectionnelle des flux sont dautres
raisons qui font de ses disques un choix optimal pour les applications les plus exigeantes.
moins que laccs des disques SSD soit financirement possible, les disques SAS ou
FC 15'000 t/m doivent tre privilgis pour le tier 1 au sein du SAN. Si le tier 1 est
compos de disques SSD, ces derniers composeront ds lors le tier 2.
6.1.3.4.2 NL-SAS
Le disque NL-SAS est en quelque sorte une fusion entre un disque SAS et un disque SATA,
puisque quil sagit dun disque SATA de niveau entreprise mont sur un contrleur SAS. En
dautres termes, il est comparable un disque SATA, notamment en matire de vitesse de
rotation ou de ttes de lecture, mais il dispose du jeu de commandes natives du SAS.
Ce type de disque est donc capable de fournir toutes les fonctionnalits de niveau entreprise
ncessaires, telles que les canaux de donnes simultans ou le support pour htes
multiples, sans que sa vitesse de rotation natteigne celle du SAS.
En rsum, seuls les disques Fibre Channel peuvent entrer en comparaison avec les
disques SAS, tant en termes de performances gnralement du plus haut niveau si lon fait
exception du SSD dont la technologie est base sur la mmoire flash quau niveau du cot
lev.
123
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
ce titre, il est capable de grer deux lectures ou deux critures simultanment ou une
lecture/criture simultanes, contrairement au SATA.
Il ne faut donc pas tre tromp par la mention SAS dans lappellation de ce type de disque,
sa fiabilit tant similaire celle du SATA. Il ne faut donc pas envisager lachat de disque
NL-SAS pour obtenir une fiabilit accrue par rapport au SATA.
Nous prcisons ce propos que l o le NL-SAS atteint gnralement 7200 t/m, le SATA
peut parfois atteindre les 10000 t/m.
Lavantage de NL-SAS est donc sa connectique de type SAS pour un prix plus abordable
quun disque SAS, tout en offrant une capacit plus importante que ce dernier. Ses
performances sont galement meilleures que celle offertes par un disque SATA.
Ce type de disque convient parfaitement pour le tier 2, au mme titre quun disque SAS
10'000 t/m, moins que ce niveau soit dj compos de disques SAS 15'000 t/m. Le cas
chant, les NL-SAS ou les SAS 10'000 t/m formeront le tier 3.
6.1.3.4.3 SATA
Le disque SATA ne dispose pas des avantages inhrents au SAS, voire au NL-SAS. Il
constitue tout de mme un lment vital de tout systme de stockage, tout particulirement
pour le stockage de tier 3 ou le stockage de masse.
La mtrique principale quant lachat de disque SATA est donc le cot par To, qui doit tre
le plus bas possible alors que celles lies au disque SAS porteront sur la performance
(optimale grce la vitesse de rotation de 10'000 ou 15'000 t/m qui autorise un nombre
significatif dIOPS par disque physique).
Les disques SSD (Solid State Drive) sont composs de mmoire flash en lieu et place des
traditionnels plateaux et ttes de lecture. Ils ne contiennent ds lors aucune pice
mcanique et sont par consquent trs peu susceptibles de tomber en panne. Leurs temps
daccs sont extrmement faibles et ils offrent des dbits de trs hauts niveaux. Ils grent
des taux dIOPS consquent (3 x plus importants que les disques SAS), consomment peu
dnergie et ne chauffe pratiquement pas.
Ces disques doivent tre bannis sils sont destins tre utiliss pour hberger des fichiers
journaux. En effet, sils sont sollicits par de nombreuses critures, leur dure de vie sera
considrablement amoindrie. Cest dailleurs pour cette raison que les constructeurs
prconisent dviter toute indexation des donnes situes sur ces disques et toute
dfragmentation.
Les disques SSD dont parfaitement adapts au stockage de tier 1.
Les disques hybrides, quant eux, sont des disques durs traditionnels embarquant une
mmoire flash SSD qui fera office de cache. La partie mcanique du disque nest sollicite
que lorsque la limite du cache est atteinte.
124
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Les temps daccs sont ds lors meilleurs que ceux offerts par les disques durs traditionnels.
Il est cependant important de veiller ce que la mmoire flash embarque soit suffisamment
importante. En effet, si tel nest pas le cas, la vitesse de rotation des plateaux du disque va
constamment passer dun tat dactivit faible (Spin down) un tat dactivit important
(Spin up), augmentant ainsi les temps daccs de manire importante.
Les disques hybrides peuvent tre de bons candidats pour des disques NL-SAS.
Ils peuvent galement se substituer aux disques SATA pour du stockage de tier 3.
6.1.3.4.5 Les disques 2.5 pouces
Ces disques durs contiennent des pistes magntiques plus petites qui rduisent dune part
les temps daccs et dautre part les contraintes mcaniques et la puissance absorbe.
Le taux de panne diminue ainsi denviron 15% et la consommation lectrique de prs de
50%, avec pour corollaire une diminution de la charge thermique. Les performances E/S
augmentent de manire significative non seulement grce au plus faible rayon de la piste
magntique mais galement par le biais de la densit plus importante dinformations
contenues dans le mme espace.
Lencombrement est galement moindre au sein du centre de donnes, les baies dotes de
ce type de disque occupant moins de U que les baies dotes de disque 3.5 pouces.
6.1.3.4.6 Duty cycle
Il faut donc tenir compte du fait que plus un composant est utilis, plus vite il cessera de
fonctionner. En consquence, plus lev est le duty cycle, plus courte est la dure de vie,
toute chose gale par ailleurs.
Or, les disques durs sont conus pour atteindre certains objectifs oprationnels. Les disques
FC ou SAS entreprise sont prvus pour offrir de hautes performances et un
fonctionnement en continu. Ils sont faits de composants robustes qui leur permettent
notamment de supporter une temprature plus importante. Leur cot est lev car ils
incluent des technologies additionnelles pour parvenir atteindre un tel niveau de qualit.
Les disques moindre prix ATA et SATA sont conus pour une utilisation tout fait
diffrente. Ils ne vont pas forcment tre en usage en permanence (ils ne vont pas tourner
constamment) et mme si ctait le cas, ils nauraient pas supporter un nombre aussi
important dE/S quun disque SAS.
Le duty cycle qualifie la dure durant laquelle un composant, un dispositif ou un systme est
sens oprer. Il est gnralement exprim sous forme de ratio ou de pourcentage.
Supposons, titre dexemple, quun disque fonctionne durant 1 seconde puis cesse ensuite
de fonctionner pendant 99 secondes pour ensuite fonctionner nouveau pendant 1 seconde
et ainsi de suite. Ce disque fonctionne donc 1 seconde sur 100, soit 1/100 du temps. Son
duty cycle est donc 1/100 ou 1%.
125
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
En conclusion, le duty cycle est une indication prcieuse pour connaitre lusage pour lequel
un disque a t conu et doit ds lors tre pris en compte lors du choix des disques durs
prvus pour une baie de stockage.
6.1.3.4.7 Hirarchie du stockage
La notion de tiering a dj t aborde la section 5.4.5, Fonctionnalits avances. Nous
voquions alors les fonctionnalits avances de la virtualisation du stockage. Certaines
baies proposent nativement cette fonctionnalit, gnralement appele Hierarchical Storage
Management (HSM). Certains constructeurs commercialisent des solutions qui automatisent
le dplacement des donnes dun support de donnes un autre (Automated Tiering
Storage), sagissant notamment de Dell CompellentTM104, EMC2105, HP 3PARTM 106,
Zarafa107 ou Quantum StorNext108. Virtualiser le stockage nest donc pas forcment
ncessaire pour bnficier de cette technologie.
Nous rappelons que le but est de parvenir une rduction des cots relatifs au stockage en
scindant les donnes sur des supports diffrents, en fonction de certains critres, tels que :
La performance ;
La frquence daccs ;
Limportance.
Nous avons dj mis en relation les types de disques avec les niveaux (tiers) auxquels ils
correspondent le mieux (cf. section 5.4.5, Fonctionnalits avances, ainsi que la prsente
section).
Limportance des donnes stockes sur un support rpond la loi de Pareto. En effet, les
utilisateurs estiment que 20% seulement des donnes ainsi stockes leur sont essentielles.
80% des donnes devraient ds lors pouvoir tre dplaces sur des supports de stockage
moins onreux. Une mme baie peut tre dote, cet effet, de diffrents types de disques
configurs en fonction des besoins. titre dexemple, des disques SSD peuvent tre
configurs en RAID 1 pour hberger les donnes critiques et des disques SAS en RAID 5
pour des donnes usuelles.
104
http://www.compellent.com/.
http://suisse.emc.com/index.htm?fromGlobalSiteSelect.
106
http://h18006.www1.hp.com/storage/disk_storage/3par/index.html.
107
http://www.zarafa.com/content/zarafa-archiver.
108
http://h71028.www7.hp.com/enterprise/cache/486414-0-0-0-121.html.
105
126
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Fibre Channel et lEthernet qui sappuie sur le protocole iSCSI (transport de donnes en
mode bloc en utilisant le protocole SCSI avec une encapsulation laide du protocole IP).
Si un rseau de stockage base de fibre optique savre plus complexe mettre en uvre
que son homologue iSCSI et est surtout plus couteux, les performances obtenues sont bien
meilleures.
Les dbits atteints au sein des infrastructures actuelles sont gnralement de 4 ou 8 Gbit/s
pour la fibre optique et 1 Gbit/s pour lEthernet, tant prcis que la norme 10 Gbit/s est en
train de faire progressivement sa place sur le march. Le dbit de 16 Gbit/s pour le Fibre
Channel est dores et dj atteint (Emulex, titre dexemple, fournit des adaptateurs
Dell, bass sur la technologie LightPulse calibre pour ce dbit).
Nous prcisons que, contrairement lEthernet, la fibre optique est capable de transfrer des
donnes sans pertes de paquets, ce qui en fait le meilleur choix pour les applications les
plus exigeantes.
La liste des rseaux de stockage possible ne serait pas complte sans que nous voquions
le Fibre Channel over Ethernet (FCoE). Cette norme permet une convergence, sur les
mmes rseaux, entre la fibre optique et lEthernet en utilisant les lments dj en place,
ainsi que des cartes rseau CNA (Converged Network Adapter). Nous naborderons pas
outre mesure cette technologie dans le prsent document. Nous souhaitions toutefois que le
lecteur ait connaissance de son existence.
127
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
gnralement utilise sur des distances plutt courtes alors que la fibre monomode est
privilgie pour les longues distances.
Cependant, il convient de tenir compte du fait que les distances maximales possibles
peuvent varier en fonction du diamtre de la fibre (50 ou 62.5 microns) et du dbit souhait
(1, 2, 4, 8 ou 16 Gbit/s).
La qualit de la fibre doit galement tre adapte en consquence.
Le lecteur est pri de se rfrer aux recommandations des fabricants cet gard.
Zoning
Mme sil existe diffrentes topologies utilises pour les rseaux Fibre Channel, comme le
point point (Point-to-Point) ou la boucle (Arbitrated Loop), seule la topologie commute
(Fabric) nous intresse ce stade. En effet, cest gnralement la topologie la plus mme
de faire correspondre le rseau de stockage aux attentes des entreprises.
Le zoning correspond, pour un rseau FC, au VLAN. Il consiste en un partitionnement dune
Fabrique (Fabric) FC, soit un commutateur fibre optique, en plusieurs sous-rseaux.
Chacune des zones peut ainsi tre isole afin des prvenir les dommages potentiels qui
peuvent corrompre les allocations ou dstabiliser lentier du rseau de stockage.
Un des buts habituels du zoning consiste faire en sorte que lhomognit des systmes
dexploitation puisse tre garantie au sein dune mme zone, ceci afin dviter certains
scnarios plutt dangereux. titre dexemple, lorsquun Windows Serveur accde des
LUN, il crit systmatiquement des blocs sur chacune dentre elles. Si des serveurs UNIX
accdent ces mmes LUN par le biais de la mme fabrique, leurs systmes de fichiers
sen trouveront ds lors totalement corrompus.
128
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
En dernier lieu, il convient dadopter une topologie de fabrique adapte aux diffrents types
daccs possibles. Ces derniers sont au nombre de trois :
Local (one-to-one) : les donnes sont accdes par un serveur et une baie de
stockage, tous deux connects sur la mme fabrique ;
Centralis (many-to-one) : les donnes sont accdes par plusieurs serveurs et une
baie de stockage ;
Distribu (many-to-many) : les donnes sont accdes par plusieurs serveurs et
plusieurs baies de stockage.
Les diffrents types de topologies sont les suivantes :
Fabrique unique ;
Fabriques cascades (cascaded) ;
Fabriques mailles (meshed) ;
Fabriques en anneau (ring).
Le tableau ci-dessous indique la topologie adopter en fonction du type daccs :
Topologie
Fabrique unique
Fabrique cascade
Fabrique mailles
Fabrique en anneau
Tableau 6-5 - Performances des diffrentes topologies en fonction des types d'accs. (Source : Bonnes
pratiques, planification et dimensionnement des infrastructures de stockage et de serveur en
environnement virtuel par Cdric Georgeot)
Sauvegarde et zoning
Il vaut mieux, ds lors, implmenter des adaptateurs fibre distincts sur les serveurs (ou alors
faire en sorte quils soient dot dadaptateurs multiports). Si un seul adaptateur est
disponible et quil ne possde quun port, une zone ddie la sauvegarde devrait tre
cre.
6.1.4.2 iSCSI
Les rseaux de stockage sont originellement lis la fibre optique et au protocole Fibre
Channel. Lavnement de la norme Gigabit Ethernet a cependant boulevers quelque peu la
donne. Il est en effet possible, moindre cot, de mettre en uvre une architecture SAN, en
se basant sur les quipements existants, tout en conservant des performances honorables.
Lagrgation des liens Ethernet est cependant conseille pour y parvenir.
Une infrastructure base sur la technologie iSCSI est plus simple mettre en uvre que son
quivalent Fibre Channel.
Les dispositifs de sauvegarde ne devraient pas tre situs sur la mme fabrique que celle du
stockage ou, tout le moins, dans la mme zone que le stockage. Il est en effet prconis
de sparer les deux genres de flux afin dviter tout problme.
129
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Les entreprises qui ne disposent pas des ressources financires ncessaires lachat des
dispositifs Fibre Channel et/ou qui ne possdent pas les ressources humaines qualifies
pour se faire, peuvent tout de mme mettre en place un stockage partag de qualit.
Les professionnels conseillent tout de mme de respecter les points suivants :
Les diffrents flux de donnes doivent tre isols. Le rseau de stockage doit, titre
dexemple, tre isol de la gestion, de la production, etc. Pour se faire, plusieurs
cartes rseaux peuvent tre mises en place. Limplmentation de plusieurs VLAN au
niveau des commutateurs et lutilisation de sous-rseau IP diffrents est galement
de mise ;
Plusieurs liens Gigabit Ethernet peuvent tre agrgs. Ces derniers peuvent
galement tre dploys de manire redondante. Les flux doivent ensuite tre
prioriss par le biais de la qualit de service (QoS), en fonction de limportance de
leur accs au stockage ;
Les cartes embarquant ou prenant en charge des techniques de dlestage, telles que
TOE (TCP Offload Engine) doivent tre privilgies. Des technologies telles que
NetQueue ou VMQ 109 (Virtual Machine Queue) qui assure le routage des flux rseaux
directement vers la mmoire de la machine virtuelle doivent galement tre prises en
compte, linstar de Microsoft Chimney Offload Architecture 110 (dlestage TCP/IP par
la carte rseau). Des optimisations de flux ou des conomies de charge processeur
sont ainsi possibles ;
Les trames Jumbo doivent tre actives car elles vont augmenter la capacit de
transmission maximale de donnes (MTU) vers un systme distant ;
Lauthentification CHAP (pour scuriser le flux de stockage) doit tre utilise au
minimum, mme si le flux de stockage est isol de la production.
Les fonctionnalits de dtection des temptes Unicast et de boucles (Spanning Tree) doivent
tre dsactives sur les ports par lesquels transitent les flux iSCSI. De plus, les vitesses
devraient y tre configures de manire statique et le contrle de flux (Flow Control) activ.
La puissance actuelle des processeurs vitent gnralement lusage dHBA iSCSI, mme si
en utilisation intensive un stockage iSCSI peut consommer jusqu 10% des capacits
processeur. Si lusage dune carte HBA iSCSI pourrait ventuellement tre recommand
dans ce cas prcis, les mcanismes de dlestage suffisent gnralement.
Ce type de carte devient indispensable si lhyperviseur doit tre dmarr partir du stockage
(Boot-On-San) ou si linfrastructure doit reposer sur la norme 10 Gigabit Ethernet.
109
110
http://technet.microsoft.com/fr-fr/library/gg162704(v=ws.10).aspx.
http://msdn.microsoft.com/en-us/library/windows/hardware/ff569969(v=vs.85).aspx.
Il convient galement, tant que faire se peut, dutiliser des commutateurs optimiss pour le
protocole iSCSI. Ces derniers sont mieux mme de supporter les dbits y relatifs et les
taux importants doprations dE/S. Ils sont de plus capables dattribuer la plus haute priorit
aux flux iSCSI.
130
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
6.1.4.3 NFS/CIFS
Jusqu il y a peu, les performances offertes par ces protocoles taient considres comme
insuffisantes. Mme si nous ne pouvons toujours pas considrer les performances obtenues
avec les solutions bases sur ces protocoles comme tant quivalentes celles obtenues
avec des solutions bases sur le Fibre Channel, ces dernires peuvent maintenant trouver
leur place au sein de petites infrastructures. Il est tout de mme ncessaire que les
exigences en matire doprations dE/S ne soient pas trs leves.
Ces protocoles sont en gnral implments dans les NAS. Le dploiement de ce type de
stockage est bien entendu trs ais. Le cot des NAS est faible et ils permettent datteindre
les mmes volumes de stockage que les SAN.
Microsoft dispose, par le biais de son systme dexploitation Windows Storage ServerTM
2012 111, dune solution permettant la mise en uvre dune infrastructure de stockage de type
NAS capable de proposer un stockage mutualis supportant aussi bien les protocoles
permettant laccs aux fichiers (SMB et NFS) quaux blocs (iSCSI). Cette solution est
capable de mettre en uvre les technologies de Thin Provisioning et de dduplication. tant
donn sa capacit grer le protocole iSCSI et pouvoir crer des disques virtuels, cette
solution peut galement tre apparente un SAN.
Dautres solutions, de type appliance, fournissant des fonctionnalits similaires Windows
Storage Server existent sur le march, sagissant par exemple de OpenFilerTM112, OpenETM113 ou FreeNASTM114.
Malheureusement, un stockage bas sur le CIFS ou le NFS est susceptible de restreindre
laccs aux fonctionnalits avances de certains hyperviseurs. titre dexemple, lusage du
NFS avec VMware nautorise pas la cration de partitions brutes (RDM).
http://www.microsoft.com/en-us/server-cloud/windows-storage-server/default.aspx.
http://www.open-e.com/.
113
http://www.openfiler.com/.
114
http://www.freenas.org/.
112
131
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
une seule session, les oprations dE/S tant ainsi expdies sur nimporte quelle connexion
TCP/IP de la cible.
Ces deux techniques ne permettent pas de partager une commande SCSI sur plusieurs
liens. Elles sont utilises pour mettre en uvre la redondance de liens.
Quant lagrgation de liens, elle permet plusieurs liens distincts dtre perus comme un
seul et unique lien. La bande passante peut ds lors tre dmultiplie. Il ne sagit pas du seul
avantage puisque la redondance est galement mise en uvre par ce biais, linstar de la
rpartition de charge.
132
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Le nombre de disques de rechange (spare) doit tre intgr au calcul du nombre de disques
ncessaires et limpact en termes de temps de reconstruction doit tre pris en compte, en
particulier dans le cas o les applications sollicitent normment et en permanence le
stockage. En effet, la dure ncessaire la reconstruction lors de la dfaillance dun des
disques peut varier en fonction du niveau de RAID. Il convient de se documenter ce
propos. La pnalit en criture, lie aux disques de parit, doit tre prise en compte, en
particulier en ce qui concerne le RAID 6 (double parit).
Chaque application est caractrise par un certain modle au niveau des oprations dE/S.
Les accs peuvent tre principalement alatoires ou plutt squentiels. Soit les oprations
de lecture prdominent, soit il sagit des critures. Le niveau de RAID doit galement tre
adapt ces divers modles. Tant le dbit que le nombre dIOPS sont concerns par ce
paramtre.
115
Les niveaux de RAID font lobjet dune abondante littrature. Il sagit principalement
dadapter le niveau de RAID en fonction des applications qui solliciteront le stockage
partag. Si ladaptation en question est optimale, les performances sen ressentent
immdiatement, et ce, au niveau des oprations dE/S comme du dbit.
133
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Quant au RAID 6, il offre une scurit accrue dans le cas o un grand nombre de disques
sont contenus dans une pile RAID. Mais il faut tre conscient que la double parit (2 disques
durs y sont ddis) a un prix. Du fait du nombre de disques, le cot est plus important. Les
performances sont moindres que celles offertes par le RAID 5 et le temps de reconstruction
est plus lev. Il faut savoir que certains contrleurs RAID embarquent un processeur dots
dalgorithmes spciaux, destins la gestion de la parit propre au RAID 6 (Application
Specific Integrated Circuit).
Il sagit, en consquence, de dfinir judicieusement une taille pour les files dattente et de
sassurer que chacune dentre elles soit paramtre selon cette taille. Cette dernire ne doit
tre ni trop faible ni trop importante, afin que les temps daccs et les IOPS soient
parfaitement optimiss.
134
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
latence. Une petite profondeur va, quant elle, amliorer la latence par le biais dun nombre
plus important de commandes.
Une grande profondeur de file dattente est idale lorsque nous disposons de larges piles
RAID et inversement une petite profondeur est recommande pour les petites piles RAID
(dans le cas, par exemple, dune base de donnes transactionnelles qui requiert des temps
de latence trs faibles).
Pour vrifier si une partition est aligne sous Windows, la commande suivante doit tre
entre :
Vmnic partition get blocksize, name, index, startingoffset
La commande similaire excuter au sein dun environnement VMware est :
fdisk -lu
Elle doit tre excute avec les privilges ROOT.
Il convient de prciser que lalignement de partitions provoque gnralement la destruction
des donnes qui y taient stockes.
VMware annonce dailleurs des gains de performance de lordre de 10% 40% avec des
partitions correctement alignes.
135
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
ce titre, les fabricants qui demeurent incontournables sur ce march sont Dell, HP et
IBM.
Nous prcisons toutefois que, le prsent document portant sur la virtualisation du systme
dinformation, les fabricants qui nous intressent en premier lieu, sont ceux qui sont mme
de fournir des serveurs destins des hyperviseurs. Il est noter que ces derniers
fournissent bien souvent des solutions de stockage ou disposent de partenariats avec les
socits qui sont susceptibles de les fournir. Ces fabricants disposent galement de
partenariat avec les principaux diteurs de solution de virtualisation, ce qui fait deux des
interlocuteurs privilgis pour la mise en place dune infrastructure virtuelle. Il est mme
souhaitable de prendre contact en premier lieu avec ces fabricants, plutt quavec les
diteurs de solutions de virtualisation.
136
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
De plus, nous apportons quelques prcisions quant la manire dvaluer les cots rels
relatifs aux machines virtuelles et la raison pour laquelle il peut tre avis dtre capable de
les produire.
Enfin, nous terminons ce chapitre en voquant les perspectives qui nous sont offertes par le
dveloppement consquent de la virtualisation au sein des centres de donnes, ainsi que le
changement de paradigme que ce dernier pourrait impliquer, tant dans llaboration des
systmes dinformation que dans leur gestion.
7.1 Scurisation
Quoiquun systme dinformation partiellement ou intgralement virtualis rponde
plusieurs critres qui lui sont propres, sa scurisation repose sur les mmes principes que
ceux auxquels nimporte quel systme dinformation classique est dores et dj soumis.
Ce document sadresse des professionnels qui sont dj censs faire face cette
problmatique. En effet, grer un systme dinformation revient sassurer que les actifs
matriels ne subissent aucun dgt susceptible den altrer lusage. Nous savons toutefois
137
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
que la vraie richesse dune socit rside dans ses actifs immatriels, autrement dit le
capital informationnel. Nous entendons par capital informationnel, le savoir-faire, matrialis
par les brevets, dont dcoulent les mthodes de production. Nous faisons rfrence
galement la clientle, la concurrence, etc. Ces informations sont contenues sous des
formes diverses au sein du systme dinformation, ce dernier revtant ds lors une
importance toute particulire.
Aussi, le lecteur est-il certainement au fait des grands principes inhrents la scurit des
systmes dinformation que sont :
La garantie que le systme dinformation soit accessible lorsque dsir, moyennant
un temps de rponse adquat (Disponibilit) ;
La garantie que seules les personnes autorises ont bel et bien accs au systme
dinformation, les accs indsirable tant prohibs (Confidentialit) ;
La garantie que les lments considrs du systme dinformation nont pas t
altrs fortuitement ou volontairement, et sont ds lors exacts et complets (Intgrit) ;
La garantie que les accs et tentatives daccs aux lments considrs du systme
dinformation sont journaliss puis conservs, et quils sont, ce titre, exploitables
(Traabilit).
138
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
voire des processeurs ou de la mmoire. Mais il est galement primordial de crer des
fermes (cluster) de serveurs physiques. Les machines virtuelles qui dpendent dun serveur
dfectueux peuvent ainsi tre exploites partir dun autre serveur du mme cluster de
basculement, et ce, grce aux diffrentes technologies de haute disponibilit.
Ceci nous amne traiter du stockage. Nous avons vu la section 2.1, volution du modle
de centre de donnes, que ce dernier devient la pice matresse de lenvironnement virtuel.
En effet, ne contient-il pas, en plus des donnes, les machines virtuelles elles-mmes, qui ne
sont ni plus ni moins que des fichiers. Au mme titre que les serveurs physiques, le stockage
doit donc disposer des technologies ncessaires sa haute disponibilit. Il sagit galement
dassurer la redondance des alimentations et autres ventilateurs mais galement des cartes
HBA. Il est galement primordial de garantir la perte dun ou plusieurs disques par le biais de
la cration de pile RAID (cf. section 6.1.5.1, Niveaux de RAID).
La scurisation des donnes est donc capitale en environnement virtuel, et ce, tant pour
garantir la disponibilit du systme dinformation que pour en assurer son intgrit.
Sont abordes, dans les sous-sections ci-dessous, un certain nombre de mcanismes qui
permettent dajouter la redondance des donnes la scurisation offerte par les piles RAID,
les clusters de basculement ou la redondance des lments matriels. Les mcanismes dont
il est question sont souvent mis en uvre simultanment afin dassurer au mieux la
redondance dsire et la sauvegarde des donnes.
Ces dernires sont intimement lies aux concepts de RTO (Recovery Time Objective) et
RPO (Recovery Point Objective). Le premier fait rfrence une dure maximale tolre
avant la reprise dactivit. Le second qualifie ltat minimal dans lequel le systme doit se
trouver au moment de cette reprise (lentreprise peut-elle fonctionner un certain temps en
mode dgrad ou la totalit des services informatiques doit-elle tre disponible, pouvonsnous nous passer des donnes de la dernire journe dactivit ou ces dernires doiventelles tre restaures, etc.).
Il est bien entendu souhaitable que les valeurs respectivement du RTO et du RPO soient le
plus proches possible de zro. Cependant, les cots y relatifs nen seront que plus levs.
Les types de sinistres potentiels tant malheureusement nombreux, il est impratif de dfinir
correctement la disponibilit dsire par type de donnes, le budget ncessaire tant
immanquablement conditionn par les dcisions y relatives (un serveur de dveloppement
na pas forcment tre protg comme celui hbergeant une solution ERP).
La redondance des lments physiques (comme les alimentations ou deux contrleurs par
baie) dun serveur ou dune baie de stockage ou les licences autorisant lusage des solutions
de haute disponibilit permettent uniquement de renforcer la disponibilit du systme
dinformation (PCA). Un virus ou une corruption des donnes peut survenir, malgr la mise
en uvre de telles mesures.
Enfin, nous faisons souvent rfrence, lorsque nous voquons les consquences dun arrt
de la production et les cots qui en rsultent, aux notions de Plan de reprise dactivit (PRA)
ou de Plan de continuit dactivit (PCA).
139
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
7.1.1 Rplication
Une condition sine qua non la mise en place dune synchronisation adquate des donnes
consiste connatre parfaitement ces dernires, en particulier leur volume et leur taux de
changement.
Il convient galement de slectionner convenablement de systme de stockage. Les
solutions de rplication peuvent en effet tre intgres au contrleur dune baie mais
peuvent galement se prsenter sous forme logicielle. La technologie en question doit tre
capable doptimiser le stockage par lusage dalgorithme de compression, de tiering (cf.
section 5.4.5, Fonctionnalits avances) ou de dduplication (cf. section 7.1.4,
Dduplication).
Ce type de rplication est prvu pour faire en sorte que la correspondance entre les donnes
prsentes sur la premire baie (source) et la seconde (cible) soient parfaite, et ce, tout
moment. Il sagit donc dune rplication en temps rel .
140
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
7.1.2.1 FCIP
Le Fiber Channel over IP, galement appel Fibre Channel Tunneling ou Storage Tunneling,
permet de relier deux SAN distants. Ce protocole est destin la mise en place de la
rplication sur des distances importantes.
7.1.2.2 iFCP
Internet Fiber Channel Protocol se trouve tre un protocole routable. Deux rseaux peuvent
ainsi tre connects entre eux. Il est galement possible de connecter des priphriques
dots dune connectique FC un SAN IP, en passant par un rseau TCP/IP.
Dans ce contexte, le RPO est donc quasiment nul, puisque les versions peuvent tre
restaures instantanment, sans perte de donnes. Dans un environnement protg par des
sauvegardes traditionnelles, toutes les donnes crites entre la dernire sauvegarde et le
dsastre auraient t dfinitivement perdues.
Contrairement la rplication, le CDP permet de protger les donnes de toute forme de
changement ou de corruption accidentelle (ventuellement provoque par lhumain) ou
cause par un malware quelconque, puisquil est possible de restaurer une version
prcdente des donnes en question.
Deux variantes de ces solutions sont disponibles sur le march, sagissant du True CDP et
du Near Continuous DP. La premire journalise chaque criture en mode bloc, permettant
ds lors la restauration dune version correspondant au moment choisi dans le temps, et ce,
pratiquement linfini. La deuxime est planifie en fonction dun intervalle dfini (par
exemple, toutes les 10 minutes). Ici galement, limportance des donnes sauvegarder
dtermine le type de technologie adopter.
Le CDP (Continuous Data Protection) est une sauvegarde en continu dont le mcanisme
sapparente la rplication synchrone, ceci prs quune nouvelle version comportant les
changements est crite vers le stockage distant. Le bloc ou le fichier modifi ne remplace
donc pas lancienne version comme cest le cas avec la rplication synchrone. La
restauration nest donc pas limite la dernire version en date du document mais
nimporte laquelle des versions disponibles.
141
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Le True CDP est destin effectuer des sauvegardes dites consistantes. Il convient de
considrer que les donnes prsentes dans le cache de la baie doivent tre vides (flush)
vers les piles RAID pour que True CDP puisse en avoir connaissance. Or, il nest pas
possible de vider le cache en permanence. De plus, True CDP capture chaque criture sans
se soucier de savoir si cette dernire prsente un tat cohrent, contrairement Near
Continuous DP qui fonctionne sur la base des snapshots (cf. section 7.1.5, Snapshot)
obtenus lors de chaque intervalle. Il faut donc tre particulirement vigilant ce genre de
dtail lors de lacquisition dune solution base sur ce principe.
7.1.4 Dduplication
La dduplication est incontournable lorsquil sagit de limiter lespace toujours plus
consquent occup par les donnes.
Cette technique consiste factoriser laide dun algorithme ad hoc des squences de
donnes identiques afin dconomiser lespace disque utilis. Chaque fichier est dcoup en
une multitude de tronons. chacun de ces tronons est associ un identifiant unique, ces
derniers tant stocks dans un index. Ainsi, un mme tronon nest stock quune seule fois.
Une nouvelle occurrence dun tronon dj prsent nest pas sauvegard nouveau mais
remplac par un pointeur vers lidentifiant correspondant.
La dduplication est trs efficace en environnement virtuel. En effet, les machines virtuelles
dployes sont souvent pilote par le biais de la mme version dun systme dexploitation.
Si linfrastructure comprend une cinquantaine de serveurs virtuels Windows Server 2012,
une quantit prodigieuse de fichiers (tels que des DLL) seront identiques. Ainsi, dployer les
serveurs sur la base dun modle peut savrer trs utile en matire dduplication, puisque
les nombreux fichiers similaires seront parfaitement pris en compte par lalgorithme de
dduplication.
142
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
produit des blocs de taille variable. Puisque ces derniers ne sont plus aligns, la recherche
est effectue octet par octet, avec pour corollaire un taux de dduplication nettement plus
important.
Considrons, titre dexemple, quune lgre modification affecte le dbut dun fichier. Ce
dernier nest pas trait dans sa totalit, comme il laurait t dans le cas dune dduplication
bloc fixe.
Il convient de prciser que cette mthode requiert une puissance de calcul suprieure celle
ncessaire pour la dduplication bloc de taille fixe. Cest la raison pour laquelle la
comparaison est gnralement effectue aprs la sauvegarde afin de prserver les
performances (post-processus). Ce nest pas le cas lors dune dduplication bloc de taille
fixe dont la norme est in-line. Dans ce cas, la comparaison est effectue durant la
sauvegarde, ce qui ncessite des capacits accrues en matire de cache.
7.1.5 Snapshot
Les snapshots, ou instantans, sont des copies en lecture seule correspondant ltat dun
systme (des donnes y relatives) un instant prcis. Par tat, nous entendons un tat
consistant des donnes un instant T.
Il ne sagit pas dune sauvegarde part entire puisque les donnes initiales sont
ncessaires pour restaurer un systme partir dun instantan. Ce clich peut toutefois tre
restaur un autre emplacement que celui dorigine, ce qui peut savrer intressant pour
crer un clone dune machine virtuelle ou pour effectuer des tests applicatifs.
Linstantan est un excellent moyen de scuriser les donnes et constitue dailleurs la base
de certaines stratgies de sauvegarde. En effet, il est tout fait possible de prendre des
instantans intervalle rgulier durant la journe et de les externaliser sur un support de
stockage distant (un NAS, par exemple). Cette mthode permet dapprocher un RPO dune
valeur de zro.
143
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
7.2 Postproduction
7.2.1 Prservation dune infrastructure fonctionnelle
La gestion quotidienne dune infrastructure virtuelle exige des administrateurs systmes
quils soient parfaitement conscients de ltat de ses divers lments, et ce, en permanence.
Les applications mtier sont hberges par des serveurs virtuels, la couche de virtualisation
simmisant entre eux et le matriel sous-jacent. Ce matriel, savoir les serveurs hte de
machines virtuelles fonctionnent dsormais en cluster. Les ressources physiques
ncessaires aux VM tant elles-mmes issues de lentier de ce cluster, identifier les serveurs
(virtuels) devient sensiblement plus difficile, tout le moins visuellement. Il en va de mme
pour les stations de travail, lorsque ces dernires sont galement virtuelles, et pour les
systmes de stockage, en particulier lorsque le pool est compos de diffrentes solutions
commercialises par diffrents fabricants.
Ainsi, certaines fonctionnalits inhrentes la virtualisation, telles que la migration de
machines virtuelles actives entre les diffrentes htes ou lobtention dun pool unique de
stockage partir de systmes htrognes, peuvent tre perues comme des sources
additionnelles de complexit. Or, il nen est rien, pour autant que les administrateurs
systmes concerns prennent la mesure des outils de supervision qui deviennent
primordiaux dans un environnement virtuel. Ds lors que le matriel sefface quelque peu
derrire la couche de virtualisation, ces derniers savrent tre des outils privilgis pour
vrifier que toute linfrastructure fonctionne parfaitement.
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/vmotion.html.
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/drs-dpm.html.
Une fois les outils de supervision maitriss, des fonctionnalits comme vMotionTM116 de
VMware ou comme Distributed Resource Scheduler 117 (DRS) de la mme socit,
contribueront rendre linfrastructure agile. Il sagit tout de mme de lun des buts que nous
recherchons dans la virtualisation.
144
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Dans le cadre dun environnement virtualis, il sagit gnralement de mettre en place une
rplication asynchrone entre le systme de stockage prsent dans le premier centre de
donnes et son pendant, situ sur un site distant. En cas de sinistre, la deuxime baie peut
tre configure manuellement en tant que nouvelle baie principale. Les donnes ayant t
rpliques sur cette dernire, lactivit est en mesure de reprendre. De plus, un nombre
adquat de serveurs hte de machines virtuelles doit galement tre disponible au sein du
deuxime centre de donnes. Ces derniers doivent tre en mesure de supporter seuls la
charge impose par la totalit des machines virtuelles et doivent faire partie du mme cluster
que les serveurs du centre de donnes principal. Une technologie telle que VMware vSphere
High Availability 118 (HA) doit avec t mise en uvre. Ainsi, les machines virtuelles peuvent
tre redmarres sur les serveurs hte du site distant.
Il existe cependant plusieurs niveaux possibles de basculement. Ces niveaux dpendent des
besoins exprims par les instances dirigeantes et ces derniers sont tablis en fonction du
RTO et du RPO. Un systme de basculement permettant datteindre des valeurs de RTO et
de RPO quasiment nulles peut coter passablement cher. Il sagit ds lors dvaluer les
besoins avec sagacit.
En effet, la mise en uvre dun PCA savre tre encore plus onreuse que celle dun PRA.
Il ne sagit plus, dans ce cas, de la remise en activit dune infrastructure mais de faire en
sorte que les utilisateurs puissent fonctionner en toute transparence en cas de sinistre.
118
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/high-availability.html.
145
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Une fois linfrastructure disponible, il convient de tenir compte des frais dexploitation de cette
dernire. Nous faisons notamment rfrence aux frais engendrs par la consommation
lectrique (qui devraient par ailleurs notoirement dcrotre), quelle soit gnre par les
dispositifs ou par leur refroidissement.
Le matriel doit, quant lui, tre amorti, au mme titre quil le serait dans un environnement
classique. Pour les serveurs hte, cet amortissement est habituellement bas sur leur dure
de vie qui est estime cinq ans au maximum. Il peut tre toutefois judicieux de se baser sur
le laps de temps durant lequel le constructeur garantit le matriel.
Les licences correspondant aux solutions de virtualisation fournies par les diteurs doivent
galement tre prises en compte. Bien que gnralement non limites dans le temps, il peut
savrer obligatoire de les faire voluer en cas de changement du matriel. Le prix de la
licence dun hyperviseur est en effet calcul, la plupart du temps, en fonction du nombre de
119
http://www.vmware.com/fr/products/datacenter-virtualization/vsphere/fault-tolerance.html.
http://www.vmware.com/products/site-recovery-manager/overview.html.
121
http://www.visionsolutions.com/world/francaiseu/francaiseu.aspx.
120
Plus que jamais dans lhistoire des entreprises, les aspects financiers font lobjet dexamens
attentifs. Les opportunits de retour sur investissement offertes par la virtualisation ont dj
t voques au sein de ce document, en particulier au chapitre 3, Bnfices de la
virtualisation, la hirarchie sintressant tout particulirement cet aspect pour dbloquer le
budget y relatif.
146
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
processeurs. Si les capacits des serveurs hte de machines virtuelles nouvellement acquis
augmentent, le prix des licences pourraient ds lors galement savrer plus important.
Si tous ces cots peuvent aisment tre estims, ce nest pas forcment vident de les
rpartir par dpartement. De plus, sil est possible destimer le cot du matriel, il nest pas
vident destimer le cot des machines virtuelles elles-mmes. Or, ces dernires ne sont pas
gratuites, mme si leur cot est infiniment moins important que celui dune machine
physique. De plus, les besoins en matire de machines virtuelles par dpartement sont
parfois ncessaires pour rpartir avec prcision les budgets informatiques sur lensemble de
lentreprise.
VMware propose dailleurs une solution qui permet de pallier ce manque de transparence,
sagissant en lespce de Chargeback Manager 122. Cette dernire permet de modliser les
cots rels associs aux machines virtuelles en donnant la possibilit aux administrateurs de
configurer les cots de base, les cots fixes, les cots de mise en uvre, ainsi que plusieurs
facteurs de taux. Elle offre galement la possibilit dassurer le suivi des cots en matire
dalimentation, de refroidissement ou de licences logicielles notamment. Les gestionnaires
des diffrents dpartements peuvent bnficier de rapports priodiques comprenant les
donnes relatives lutilisation et aux cots.
7.2.4 Perspectives
En effet, tant les solutions proposes par Nicira que celles commercialises par Xsigo sont
reposent sur le concept de Software Defined Networking (SDN), soit un nouveau
paradigme darchitecture rseau ayant pour particularit de dcoupler le plan de contrle du
plan de donnes. Une fois virtualis, le rseau physique est utilis uniquement pour la
transmission de paquets, sagissant ds lors simplement dun fond de panier IP. Les rseaux
virtuels sont crs par le biais dun programme et fonctionnent de manire totalement
dcouple du matriel sous-jacent, en offrant les mmes caractristiques et les mmes
garanties quun rseau physique. Un contrleur externe peut ainsi diriger toute
linfrastructure de commutation et/ou de routage, le rseau physique se transformant alors
en un pool de ressources rseau qui peuvent tre dynamiquement livres aux clients en
fonction des besoins.
Aprs la virtualisation des serveurs et du stockage, le SDN ouvre la porte la virtualisation
complte du centre de donnes ou Software Defined Datacenter (SDDC), avec pour
corollaire la simplification des centres de calculs base sur la virtualisation.
VWware fait dailleurs rfrence au Virtual Datacenter (VDC) et matrialise sa vision par le
biais de vCloud Suite 125, solution permettant la cration dinfrastructure de type nuage,
122
http://www.vmware.com/fr/products/datacenter-virtualization/vcenter-chargeback/overview.html.
http://www.xsigo.com/index.php.
124
http://nicira.com/.
125
http://www.vmware.com/products/datacenter-virtualization/vcloud-suite/overview.html.
123
Si nous nous rfrons aux achats rcents de Xsigo123 par Oracle, le 30 juillet 2012, et de
son concurrent Nicira124 par VMware sept jours plus tt, la virtualisation du rseau semble
faire office de pierre angulaire dans la stratgie de dveloppement des acteurs les plus
importants du monde de la virtualisation.
147
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
complte et intgre. Cette suite sappuie videmment sur lhyperviseur vSphereTM, mais
galement sur vCloudTM Director, vritable solution dorchestration permettant de crer et
de fournir des centres de donnes virtuels.
Ainsi, les concepts de SDDC et de solution dorchestration constituent manifestement le
socle dun nouveau paradigme en matire de mise en place et de gestion des centres de
donnes et devraient a priori faire parler deux lavenir, en particulier dans llaboration
dun nouveau modle de Cloud, plus en phase avec les attentes formules par les
entreprises.
En effet, la virtualisation a initialement t adopte par de nombreuses entreprises pour
rduire leurs dpenses grce la consolidation des serveurs et pour diminuer les charges
dexploitation grce lautomatisation. La diminution des pertes engendre par une meilleure
gestion des interruptions de service planifies comme non planifies a galement fortement
contribu cette adoption.
Aujourdhui, lheure o les diffrents dpartements formant une entreprise sollicitent les
quipes informatiques pour obtenir un accs toujours plus rapide aux ressources
informatiques et aux applications, la virtualisation parat tre la seule technologie capable
dapporter aux administrateurs systmes la ractivit attendue. Or, la mise en place de
solutions Cloud prives ou hybrides offrent des possibilits intressantes pour relever le dfi.
La virtualisation des applications permet dores et dj dencapsuler ces dernires dans leur
propre bulle applicative. lavenir, il sagira dtre capable de les distribuer par le biais
du Cloud, via des plateformes ad hoc, afin de rpondre la forte demande en matire
daccs mobile aux applications. VMware rpond dores et dj cette demande en
proposant une solution permettant de crer un catalogue applicatif et grer les espaces de
travail scuriss sur les terminaux mobiles (Horizon Application ManagerTM et Horizon
MobileTM). Cette solution a dailleurs fait lobjet dune annonce au VMworld 2012.
De plus, les utilisateurs, hormis le fait quils soient de plus en plus mobiles, ont tendance
vouloir utiliser leurs dispositifs personnels dans le cadre de leur travail. Cette tendance est
connue sous lappellation BYOD (Bring your own device) ou de consumrisation de lIT.
VMware propose, ce titre, de coupler sa solution ViewTM loffre MirageTM de Wanova126,
une socit rachete en mai 2012. Ainsi, la synchronisation et la gestion des applications sur
diffrents types de postes de travail physiques ou virtuels deviennent possibles.
126
http://www.wanova.com/.
148
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Ces concepts constituent toutefois une tendance et ne sauraient tre considrs comme
pleinement fonctionnels lheure o nous rdigeons ces lignes. De plus, le degr
dacceptation de ces technologies par les professionnels de la branche est encore mesur.
149
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
8 Conclusion
lorigine de linformatique, nous disposions dordinateurs capables de faire fonctionner un
unique processus. Il nous a alors sembl opportun de faire en sorte que plus dun seul
programme puissent y tre excuts. Les premiers systmes multitches virent ainsi le jour.
Ces systmes tant passablement coteux, nous nous sommes ds lors mis en tte de
pouvoir partager leur puissance de calcul entre plusieurs utilisateurs, dsir qui donna
naissance au pseudo-paralllisme. En effet, les ordinateurs taient souvent inactifs, puisque
lutilisateur tait rgulirement occup dautres tches. Or, il tait tentant dutiliser les
centaines de milliers cycles disponibles ce moment-l pour en faire bnficier un autre
utilisateur et rentabiliser ainsi au mieux linvestissement que reprsentait cet ordinateur.
Nous lavons voqu au sein de ce document, la virtualisation est ne du dsir de partager la
puissance de calcul des ordinateurs. Elle a par la suite permis de raliser de srieuses
conomies en consolidant un nombre important de machines virtuelles sur un nombre
restreint de serveurs physiques. Tout comme les environnements temps partag avant
elle, la virtualisation nous a permis damliorer drastiquement la rentabilisation du matriel
informatique. En dfinitive, cette technologie a donn lopportunit aux ingnieurs de pouvoir
franchir ltape qui devait logiquement succder au temps partag, savoir le fait de pouvoir
excuter plusieurs systmes dexploitation sur une seule et mme machine.
lheure actuelle, nous franchissons une nouvelle tape : faire abstraction de linfrastructure
pour permettre la mise disposition des ressources informatiques aux utilisateurs comme
autant de services. La virtualisation nous autorise envisager un tel concept et tout semble
indiquer que le systme dinformation est en train dvoluer dans ce sens.
Chapitre n8 : Conclusion
Le concept peut sembler sduisant car il suppose une simplification de la mise disposition
des ressources informatiques lattention des utilisateurs, que ces derniers se trouvent
linterne ou en dplacement. Nous sommes cependant face un vritable changement de
paradigme. Il savre donc essentiel que les DSI prennent la mesure des mutations venir et
adaptent en consquence leurs objectifs stratgiques, faute de quoi certaines entreprises
pourraient passer ct des bnfices potentiellement ralisables ou ventuellement perdre
la matrise de leur systme dinformation.
150
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Chunk : quivalent dun bloc dans le monde du RAID. Le boc tant un ensemble de
secteurs ;
Cluster : grappe de serveurs (ou ferme de calcul ) constitue de deux serveurs au
minimum (appel aussi nud) et partageant une baie de disques commune, pour
assurer une continuit de service et/ou repartir la charge de calcul et/ou la charge
rseau ;
DSI : Direction (ou Directeur) des systmes dinformation ;
Dispositif : toute machine ou composant qui fait partie dun ordinateur. Ces
dispositifs requirent, pour la plupart, un programme appel pilote pour pouvoir
fonctionner en adquation avec lordinateur. Ce pilote agit comme un traducteur en
convertissant les commandes gnrales dune application en commandes
spcifiques au dispositif en question ;
Framework : kit de composants logiciels structurels qui sert crer les fondations,
ainsi que les grandes lignes de tout ou partie dun logiciel. Ces outils et composants
logiciels sont organiss conformment un plan darchitecture et de patrons,
lensemble formant un squelette de programme ;
Hachage : Une fonction de hachage permet, partir dune donne fournie en entre,
de calculer une empreinte servant identifier rapidement, bien quincompltement, la
donne initiale. Elle sert rendre plus rapide lidentification des donnes ;
Hyperviseur : plateforme de virtualisation permettant plusieurs systmes
dexploitation de travailler sur une machine physique en mme temps ;
Interruption : en informatique, une interruption est un arrt temporaire de lexcution
normale dun programme par le microprocesseur afin dexcuter un autre
programme ;
IOPS : de langlais Input/Output Operations Per Second pour oprations
dentres/sorties par seconde qui est une mesure commune de performances ;
ISA : pour Instruction Set Architecture, sagissant de la spcification fonctionnelle
dun processeur, du point de vue du programmeur, en langage machine. Cet
ensemble dinstructions est cod au niveau du processeur et nest pas modifiable. Il
dfinit les capacits dun processeur dont larchitecture matrielle est ensuite
optimise pour excuter les instructions de lISA le plus efficacement possible ;
ITIL : Information Technology Infrastructure Library pour Bibliothque pour
linfrastructure des technologies de linformation qui est un ensembles douvrages
recensant les bonnes pratiques de la gestion des systmes dinformation. Ce
rfrentiel aborde diffrents sujets, tels que lorganisation dun systme dinformation,
lamlioration de son efficacit, la rduction des risques qui lui sont inhrents, ainsi
que lamlioration de la qualit des services informatiques ;
LAN : de langlais Local Area Network ou rseau local. Ce rseau dsigne par abus
un rseau dentreprise. Il sagit plus prcisment dun rseau comprenant des
dispositifs qui communiquent entre eux au niveau 2 du modle OSI, soit par le biais
de trames. Le protocole IP (Internet Transport) nest pas ncessaire cet chelon ;
LUN : pour Logical Unit Number. Dans un rseau SAN, un LUN est le numro
didentification dun espace de stockage prsent un ou plusieurs serveurs ;
Mainframe : terme trouvant son origine dans linformatique des annes soixante,
sagissant dun ordinateur ultra-performant, cr pour effectuer des traitements bass
Chapitre n9 : Glossaire
9 Glossaire
151
Le vendredi 28 septembre 2012
Lionel Berger
Chapitre n9 : Glossaire
Mmoire de Bachelor
152
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
Chapitre n9 : Glossaire
153
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
1. Wikipedia. Full system simulator. en.wikipedia.org. [En ligne] 22 avril 2012. [Citation : 28 juillet
2012.] http://en.wikipedia.org/wiki/Full_system_simulator.
2. Wikipdia. Hyperviseur. fr.wikipedia.org. [En ligne] 19 juillet 2012. [Citation : 28 juillet 2012.]
http://fr.wikipedia.org/wiki/Hyperviseur.
3. Wikipedia. SimOS. en.wikipedia.org. [En ligne] 16 dcembre 2011. [Citation : 28 juillet 2012.]
http://en.wikipedia.org/wiki/SimOS.
4. . VM (operating system). en.wikipedia.org. [En ligne] 12 juillet 2012. [Citation : 28 juillet 2012.]
http://en.wikipedia.org/wiki/VM_(operating_system).
5. La rdaction du magazine l'Informaticien. VMware : Une russite loin d'tre virtuelle.
www.linformaticien.com. [En ligne] 1 dcembre 2010. [Citation : 28 juillet 2012.]
http://www.linformaticien.com/dossiers/les-saga-de-lit/id/20086/vmware-une-reussite-loin-d-etrevirtuelle.aspx.
6. Wikipdia. Conversation Monitor System. fr.wikipedia.org. [En ligne] 8 octobre 2010. [Citation : 23
juillet 2012.] http://fr.wikipedia.org/wiki/Conversation_Monitor_System.
7. Wikipedia. CP/CMS. en.wikipedia.org. [En ligne] 6 fvrier 2012. [Citation : 23 juillet 2012.]
http://en.wikipedia.org/wiki/CP/CMS.
8. The Computer Language Company Inc. Definition of CP/CMS. www.pcmag.com. [En ligne] 2012.
[Citation : 23 juillet 2012.]
http://www.pcmag.com/encyclopedia_term/0,1237,t=CPCMS&i=58807,00.asp.
9. TechTerms.com. Hardware Terms, Mainframe. site Web TechTerms.com. [En ligne] 2012.
[Citation : 23 juillet 2012.] http://www.techterms.com/definition/mainframe.
10. Wikipedia. History of CP/CMS. en.wikipedia.org. [En ligne] 21 juillet 2012. [Citation : 23 juillet
2012.] http://en.wikipedia.org/wiki/History_of_CP/CMS.
11. Wikipdia. Ordinateur central. fr.wikipedia.org. [En ligne] 23 juillet 2012. [Citation : 23 juillet 2012.]
http://fr.wikipedia.org/wiki/Ordinateur_central.
12. VMware, Inc. Principes de base de la virtualisation. Site Web VMware, Inc. [En ligne] 2012.
[Citation : 23 juillet 2012.] http://www.vmware.com/fr/virtualization/virtualization-basics/history.html.
13. Le Journal du Net. Solution > Mainframe. Le Journal du Net. [En ligne] 2012. [Citation : 23 juillet
2012.] http://www.journaldunet.com/solutions/mainframe/.
14. Wikipdia. Temps partag. fr.wikipedia.org. [En ligne] 30 mai 2012. [Citation : 25 juillet 2012.]
http://fr.wikipedia.org/wiki/Temps_partag%C3%A9.
15. Multics. The IBM 360/67 and CP/CMS. www.multicians.org. [En ligne] 20 juillet 2012. [Citation :
23 juillet 2012.] http://www.multicians.org/thvv/360-67.html.
16. IBM. z/VM. vm.ibm.com. [En ligne] 13 avril 2012. [Citation : 25 juillet 2012.]
http://www.vm.ibm.com/.
17. Wikipdia. Architecture de processeur. fr.wikipedia.org. [En ligne] 7 avril 2012. [Citation : 28 juillet
2012.] http://fr.wikipedia.org/wiki/Architecture_de_processeur.
18. Mathieu Lamelot, Pierre Dandumont. Les dfis de la virtualisation. tom's hardware, THE
AUTHORITY ON TECH. [En ligne] 15 fvrier 2010. [Citation : 28 juillet 2012.] http://www.presencepc.com/tests/virtualisation-Intel-AMD-512/5/.
19. TechTarget. SearchServerVirtualization, Definition, Virtualization.
searchservervirtualization.techtarget.com. [En ligne] dcembre 2010. [Citation : 29 juillet 2012.]
http://searchservervirtualization.techtarget.com/definition/virtualization.
20. Webopedia. Virtualization. www.webopedia.com. [En ligne] 2012. [Citation : 29 juillet 2012.]
http://www.webopedia.com/TERM/V/virtualization.html.
21. Hess, Kenneth et Newman, Amy. Virtualisation en pratique. Paris : Pearson Education France,
2010.
22. Maill, Eric et Mennecier, Ren-Franois. VMware vSphere 5 au sein du Datacenter. St
Herblain : ditions ENI, 2012.
10 Bibliographie
154
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
155
Le vendredi 28 septembre 2012
Lionel Berger
46. . Anneau de protection. fr.wikipedia.org. [En ligne] 20 juin 2012. [Citation : 21 aot 2012.]
http://fr.wikipedia.org/wiki/Anneau_de_protection.
47. Wikipedia. Ring (computer security). en.wikipedia.org. [En ligne] 14 aot 2012. [Citation : 21 aot
2012.] http://en.wikipedia.org/wiki/Ring_(computer_security).
48. PC Magazine. Definition of : VM/386. www.pcmag.com. [En ligne] [Citation : 22 aot 2012.]
http://www.pcmag.com/encyclopedia_term/0,1237,t=VM386&i=54031,00.asp.
49. Sandoz, Alain. Concept de machine virtuelle. www.epfl.ch. [En ligne] 2007. [Citation : 22 aot
2012.]
http://lsrwww.epfl.ch/webdav/site/lsrwww/shared/Enseignement/SysExp07/chapitre%2005%20machin
e%20virtuelle.pdf.
50. Wikipdia. Histoire des ordinateurs. fr.wikipedia.org. [En ligne] 8 aot 2012. [Citation : 22 aot
2012.]
http://fr.wikipedia.org/wiki/Histoire_des_ordinateurs#Troisi.C3.A8me_g.C3.A9n.C3.A9ration_.2819631971.29.
51. Wikipedia. Popek and Goldberg virtualization requirements. en.wikipedia.org. [En ligne] 2 avril
2012. [Citation : 22 aot 2012.]
http://en.wikipedia.org/wiki/Popek_and_Goldberg_virtualization_requirements.
52. Benkemoun, Antoine. Virtualisation. http://www.antoinebenkemoun.fr. [En ligne] [Citation : 22
aot 2012.] http://www.antoinebenkemoun.fr/virtualisation/.
53. Wikipedia. Binary translation. en.wikipedia.org. [En ligne] 7 avril 2012. [Citation : 23 aot 2012.]
http://en.wikipedia.org/wiki/Binary_translation.
54. . x86 virtualization. en.wikipedia.org. [En ligne] 5 aot 2012. [Citation : 23 aot 2012.]
http://en.wikipedia.org/wiki/X86_virtualization.
55. Intel. Intel Virtualization Technology. www.intel.com. [En ligne] 10 aot 2006. [Citation : 27 aot
2012.] http://www.intel.com/technology/itj/2006/v10i3/1-hardware/5-architecture.htm.
56. . PCI-SIG SR-IOV Primer. www.intel.com. [En ligne] janvier 2011. [Citation : 1 septembre 2012.]
http://www.google.ch/url?sa=t&rct=j&q=pcisig%20i%2Fo&source=web&cd=10&cad=rja&ved=0CHcQFjAJ&url=http%3A%2F%2Fwww.intel.com%
2Fcontent%2Fwww%2Fus%2Fen%2Fpci-express%2Fpci-sig-sr-iov-primer-sr-iov-technologypaper.html&ei=eilCUMn1MIjasgbfkYGoCQ&usg=AFQjCNGW.
57. Wikipedia. PCI-SIG. en.wikipedia.org. [En ligne] 8 aot 2012. [Citation : 1 septembre 2012.]
http://en.wikipedia.org/wiki/PCI-SIG.
58. Wikipdia. NX Bit. fr.wikipedia.org. [En ligne] 24 juin 2012. [Citation : 8 septembre 2012.]
http://fr.wikipedia.org/wiki/NX_Bit.
59. SearchServerVirtualization. Blades v. rack servers for virtualization.
searchservervirtualization.techtarget.com. [En ligne] octobre 2009. [Citation : 8 septembre 2012.]
http://searchservervirtualization.techtarget.com/feature/Blades-vs-rack-servers-for-virtualization.
60. Wikipdia. Chemin de donnes. fr.wikipedia.org. [En ligne] 12 octobre 2011. [Citation : 19 aot
2012.] http://fr.wikipedia.org/wiki/Chemin_de_donn%C3%A9es.
61. Thierry Lvy-Abgnoli, indexel.net. Commutateur virtuel : six questions sur un concept en
pleine rvolution. www.indexel.net. [En ligne] 10 mars 2010. [Citation : 5 septembre 2012.]
http://www.indexel.net/materiels/commutateur-virtuel-six-questions-sur-un-concept-en-pleinerevolution-3052.html.
62. Wikipedia. Converged network adapter. en.wikipedia.org. [En ligne] 5 mars 2012. [Citation : 6
septembre 2012.] http://en.wikipedia.org/wiki/Converged_network_adapter.
63. Wikipdia. Framework. fr.wikipedia.org. [En ligne] 27 aot 2012. [Citation : 2 septembre 2012.]
http://fr.wikipedia.org/wiki/Framework.
64. . Interruption (informatique). fr.wikipedia.org. [En ligne] 30 mai 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Interruption_(informatique).
65. . Jeu d'instructions. fr.wikipedia.org. [En ligne] 4 juillet 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Jeu_d%27instructions.
Mmoire de Bachelor
156
Le vendredi 28 septembre 2012
Lionel Berger
66. Anicet Mbida, 01net Entreprises. La virtualisation d'applications. pro.01net.com. [En ligne] 24
aot 2006. [Citation : 2 septembre 2012.] http://pro.01net.com/editorial/324015/la-virtualisationdapplications/.
67. Wikipdia. Langage machine. fr.wikipedia.org. [En ligne] 6 novembre 2011. [Citation : 19 aot
2012.] http://fr.wikipedia.org/wiki/Code_machine.
68. . Processeurs. fr.wikipedia.org. [En ligne] 4 aot 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Processeur#Les_op.C3.A9rations_du_processeur.
69. . Registre du processeur. fr.wikipedia.org. [En ligne] 4 juillet 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Registre_de_processeur.
70. . Rseau local virtuel. fr.wikipedia.org. [En ligne] 30 juillet 2012. [Citation : 5 septembre 2012.]
http://fr.wikipedia.org/wiki/R%C3%A9seau_local_virtuel.
71. . Serveur lame. fr.wikipedia.org. [En ligne] 6 fvrier 2012. [Citation : 8 septembre 2012.]
http://fr.wikipedia.org/wiki/Serveur_lame.
72. . Surveillance (informatique). fr.wikipedia.fr. [En ligne] 21 juin 2012. [Citation : 5 septembre
2012.] http://fr.wikipedia.org/wiki/Surveillance_(informatique).
73. . Unit arithmtique et logique. fr.wikipedia.org. [En ligne] 4 juillet 2012. [Citation : 19 aot 2012.]
http://fr.wikipedia.org/wiki/Unit%C3%A9_arithm%C3%A9tique_et_logique.
74. . Unit de contrle. fr.wikipedia.org. [En ligne] 4 juillet 2012. [Citation : 19 juillet 2012.]
http://fr.wikipedia.org/wiki/Unit%C3%A9_de_contr%C3%B4le.
75. Bonnin, Aurlien. Virtulalisation d'application : App-V 4.6 SP1. www.itpro.fr. [En ligne] 11 juin
2012. [Citation : 2 septembre 2012.] http://www.itpro.fr/a/virtualisation-application-app-v-4-6-sp1/.
76. Jeff. VLAN - Rseaux virtuels. www.commentcamarche.net. [En ligne] 20 avril 2011. [Citation : 5
septembre 2012.] http://www.commentcamarche.net/contents/internet/vlan.php3.
77. Wikipedia. Fibre Channel over IP. en.wikipedia.org. [En ligne] 19 avril 2012. [Citation : 8
septembre 2012.] http://en.wikipedia.org/wiki/Fibre_Channel_over_IP.
78. . Internet Fibre Channel Protocol. en.wikipedia.org. [En ligne] 20 juin 2011. [Citation : 8
septembre 2012.] http://en.wikipedia.org/wiki/Internet_Fibre_Channel_Protocol.
79. Alberto Farronato, Group Product Marketing Manager for VMware Storage and Availability
Products. Memory Overcommit - Real life examples from VMware customers. blogs.vmware.com. [En
ligne] 8 octobre 2008. [Citation : 9 septembre 2012.]
http://blogs.vmware.com/virtualreality/2008/10/memory-overcomm.html.
80. Emeriau, Jean-Baptiste. La gestion de la mmoire dans ESX 4. wattmil.dyndns.org. [En ligne] 30
janvier 2010. [Citation : 9 septembre 2012.] http://wattmil.dyndns.org/vmware/19gestionmemoiresousesx4?start=2.
81. VMware. Understanding Memory Resource Management in VMware ESX 4.1. www.vmware.com.
[En ligne] 2010. [Citation : 9 septembre 2012.]
http://www.vmware.com/files/pdf/techpaper/vsp_41_perf_memory_mgmt.pdf.
82. Shieds, Gred et Siebert, Eric. Hyper-V dynamic memory allocation vs. VMware memory
overcommit. searchservervirtualization.techtarget.com. [En ligne] mai 2011. [Citation : 9 septembre
2012.] http://searchservervirtualization.techtarget.com/tip/Hyper-V-dynamic-memory-allocation-vsVMware-memory-overcommit.
83. Wikipdia. Fonction de hachage. fr.wikipedia.org. [En ligne] 4 septembre 2012. [Citation : 9
septembre 2012.] http://fr.wikipedia.org/wiki/Fonction_de_hachage.
84. . Appel systme. fr.wikipedia.org. [En ligne] 30 mai 2012. [Citation : 12 septembre 2012.]
http://fr.wikipedia.org/wiki/Appel_syst%C3%A8me.
85. DataCoreTM. SANsymphonyTM-V Hyperviseur de stockage, Fonctionnalits - Rcapitulatif.
www.datacore.com. [En ligne] 2012. [Citation : 12 septembre 2012.]
http://www.datacore.com/Libraries/Language_-_French/SANsymphonyV_Abbreviated_Feature_Description_DataSheet_-_Fr.sflb.ashx.
86. Wikipedia. NPIV. en.wikipedia.org. [En ligne] 14 septembre 2012. [Citation : 14 septembre 2012.]
http://en.wikipedia.org/wiki/NPIV.
87. GuVirt. Le NPIV. www.guvirt.org. [En ligne] [Citation : 14 septembre 2012.]
http://www.guvirt.org/serveurs/2-esx/78-npiv-la-virtualisation-des-cartes-hba.
Mmoire de Bachelor
157
Le vendredi 28 septembre 2012
Lionel Berger
Mmoire de Bachelor
88. CoArSys Conseils, Architecture et Systmes. Une avance de plus dans le monde de la
virtualisation. www.coarsys.fr. [En ligne] 2009 avril 2009. [Citation : 14 septembre 2012.]
http://www.coarsys.fr/index.php?option=com_content&view=article&id=105:une-avancee-de-plusdans-le-monde-de-la-virtualisation&catid=57:virtualisation&Itemid=79.
89. Loc Thobois, Direction filire technologies Microsoft. Prsentation des Cluster Shared
Volume pour Hyper-V 2.0. www.espace-microsoft.com. [En ligne] 20 mai 2009. [Citation : 15
septembre 2012.] http://www.espace-microsoft.com/fr/articles/18914-presentation-cluster-sharedvolume-hyper-v-2-0.html.
90. Seng, Lai Yoong. Virtual Machine Heartbeat in A Cluster Hyper-V Host. www.ms4u.info. [En
ligne] 15 juillet 2011. [Citation : 15 septembre 2012.] http://www.ms4u.info/2011/07/virtual-machineheartbeat-in-cluster.html.
91. Josephes, Chris. Understanding Snapshot Consumption. broadcast.oreilly.com. [En ligne] 5
fvrier 2009. [Citation : 17 septembre 2012.] http://broadcast.oreilly.com/2009/02/understandingsnapshot-consump.html.
158
Le vendredi 28 septembre 2012
Lionel Berger