Escolar Documentos
Profissional Documentos
Cultura Documentos
Th`
ese
pr
esent
ee pour obtenir le grade de docteur
de lEcole Nationale Sup
erieure des T
el
ecommunications
Sp
ecialit
e : Informatique et R
eseaux
M. Ramon CASELLAS
Partage de Charge et Ing
enierie de Trafic dans les R
eseaux MPLS
Annie Gravey
Ravi R. Mazumdar
Philippe Nain
James Roberts
Samir Tohm
e
Jean-Louis Rougier
Daniel Kofman
Pr
esident
Rapporteurs
Examinateurs
Directeur de th`
ese
Remerciements
Cette th`ese naurait jamais vu le jour sans laide et le soutien dun certain nombre de personnes
auxquelles jaimerais exprimer ici toute ma reconnaissance. Je voudrais tout dabord remercier mon
directeur de th`ese, M. Daniel Kofman, pour sa confiance renouvelee et ses encouragements continus
tout au long de ces trois annees. Ses commentaires et ses remarques mont ete tr`es precieux et mont
aide `a developper un esprit critique indispensable pour mener `a bien un tel travail.
Je suis profondement redevable aux membres de mon jury : merci `a Mme. Annie Gravey, directrice
du departement Informatique de lENST Bretagne, dont les commentaires toujours pertinents et la
jovialite ont souvent relance ma motivation ; merci `a M. Ravi R. Mazumdar, Professeur `a lUniversite
de Purdue, dont les commentaires et les remarques mont ete tr`es utiles pour le developpement de la
derni`ere partie de ce document, et qui a accepte detre rapporteur de mon travail, et `a M. Philippe
Nain, directeur de recherche `
a lINRIA, qui a egalement bien voulu etre rapporteur du document.
M. Jim Roberts, de France Telecom Recherche et Developpement ma fait lhonneur de bien vouloir
faire partie de ce jury ; M. Jean-Louis Rougier a ete un excellent coll`egue et un tr`es bon ami. Je le
remercie davoir egalement accepte de faire partie de ce jury. Finalement, merci `a M. Samir Tohme,
responsable du groupe Reseau Haut Debit du departement INFRES de lENST, pour avoir accepte
de faire partie de mon jury de th`ese.
Dans le contexte de mes travaux de recherche, jai eu des discussions tr`es enrichissantes avec plusieurs
membres du departement INFRES, notamment MM. Laurent Decreusefond et Hayri Korezlioglu ;
quils en soient grandement remercies.
MM. Francois Baccelli, Laurent Massoulie et Jean Mairesse, responsables du DEA Probabilites
Appliquees et Processus Ponctuels `a lUniversite Paris VI, mont facilite le premier contact avec
la theorie des grandes deviations et son application aux reseaux de files dattente. Je leur en suis
sinc`erement reconnaissant.
Merci `
a M. Anthony Busson, colocataire de bureau et ami, qui a ete parfois oblige de me rappeler
quune probabilite ne peut etre superieure `a un, et `a M. Christian Roche qui sest gracieusement
charge de la lourde t
ache de relire les versions preliminaires de ce document et de maider `a aplanir
mes difficultes avec la langue de Moli`ere. Il se peut quun certain nombre de fautes de frappe soient
encore presentes dans la version finale de ce document. Je fais appel `a ce sujet `a lindulgence du
lecteur.
Lors de mon sejour `
a lENST jai eu la chance de cotoyer un grand nombre denseignants-chercheurs
et de thesards dhorizons divers avec lesquels jai partage de tr`es bons moments : M. Sergio Beker,
M. Philippe Monnier, M. Philippe Martins, Mlle. Nadia Boukhatem, M. Gwendal Legrand et tant
dautres, trop nombreux pour etre tous cites ici.
Finalement, je tiens `
a remercier mes amis `a Barcelone, Juan et Ramon San-Martin et Sergio Cormano, qui mont soutenu et encourage pendant tout mon sejour en France. Merci `a Jes
us Garca et
Celia Costeja, mes chers colocataires, qui ont supporte mes moments de fatigue et de pessimisme.
Enfin, un grand merci `
a ma m`ere et `
a mon fr`ere pour leur affection qui ma ete extremement precieuse
durant ces annees loin deux.
R
esum
e
Dans cette th`ese, nous nous sommes interesses `a loptimisation du partage de charge dans un reseau
supportant le routage `
a la source. Une modelisation generique en files dattente alimentees par un
trafic caracterise par sa bande passante effective et lutilisation de la theorie des Grandes Deviations
nous a permis de deduire de r`egles dingenierie dans divers contextes en optimisant des fonctions
de co
ut qui refl`etent les besoins des reseaux operationnels. Des proprietes structurelles sur les politiques optimales ont ete demontrees pour des cas particuliers mais importants dans le domaine de
lingenierie du trafic.
La variabilite de la capacite des chemins dun reseau a ete integree `a laide du concept de capacite effective. Nous avons mis en evidence quun dimensionnement base sur une capacite moyenne
peut saverer sous optimal et nous avons quantifie cela. Ainsi, une approche dingenierie de trafic
adaptative a ete proposee en faisant evoluer le partage en fonction des mesures realisees sur le reseau.
Dans la derni`ere partie de ce travail nous avons regarde le reseau dans sa globalite, modelisant les
interactions entre lensemble des couples entree-sortie, nous permettant de mieux optimiser le reseau
mais au co
ut dune grande complexite de calcul.
Abstract
In this dissertation, we propose and optimize load sharing mechanisms adapted to a network supporting source routing. A generic model using queues fed by traffic which is represented by its effective
bandwidth is defined, and the use of the large deviations theory allows us to obtain traffic engineering rules and guidelines for several scenarios by optimizing cost functions that reflect the needs of
operational networks. Structural properties about optimal load sharing policies have been obtained
in particular but important cases with regard to traffic engineering.
The time varying property of the end to end capacity of network paths has been taken into account
by means of what we call effective capacity. We have shown that a load sharing based on average
values may not be optimal, and we have quantified this. In this sense, we have also proposed and
adaptive measurement based load sharing mechanism.
In the last part of our work, we have extended our model in order to consider the whole network,
taking into account the interactions between all origin-destination couples, allowing a better optimization of the network but with a high computation complexity.
Administrativia
Le present document est le manuscrit de th`ese pour obtenir le grade de docteur de lEcole Nationale Superieure des Telecommunications specialite Informatique et Reseaux. La th`ese Partage
de charge et Ingenierie de Trafic dans les reseaux MPLS a ete realisee par M. Ramon Casellas <casellas@infres.enst.fr> et dirigee par M. Daniel Kofman <kofman@infres.enst.fr> .
Cette th`ese a ete financee `
a laide dune bourse allouee par France Telecom, division Recherche et
Developpement (FTRD/DAC/ISIS, responsable M. James Roberts ), contrat NUM 991B174.
Les travaux de recherche de cette th`ese ont eu lieu `a lEcole Nationale Superieure des Telecommunications, 46, rue Barrault 75634 Paris Cedex 13.
Contexte
Le contexte de cette th`ese est constitue par un ensemble de projets developpes `a lENST et `a France
Telecom Recherche et Developpement ayant pour objectif la conception dun reseau haut debit
multi-service. Dans la conception dun tel reseau on peut decoupler (au moins jusqu`a un certain
degre) les differents domaines de recherche et developpement : au niveau du transport, au niveau
de la definition des services, au niveau de ladaptation des applications pour bien tirer parti des
services offerts par le reseau. Au niveau de transport, la conception et le deploiement dun reseau
multi-services doivent absolument prendre en compte le fait que differents services ont des besoins
de QoS differents. Dans cette perspective, le routage sensible `a la QoS, (ou de mani`ere generique
routage contraint) et lingenierie de trafic jouent des roles tr`es importants dans le dimensionnement,
la conception, la mise en place et loptimisation dun reseau performant.
Structure du document
Cette th`ese est structuree de la facon suivante : Apr`es le chapitre 1, Introduction Generale, la premi`ere
partie illustre le cadre architectural et technologique et soul`eve les probl`emes de lingenierie de trafic :
le chapitre 2 fait une synth`ese de larchitecture MPLS et le chapitre 3 identifie les extensions de cette
derni`ere en cours de normalisation. Nous donnons une introduction succincte `a lingenierie de trafic
dans le cadre des reseaux MPLS tout en presentant ses elements les plus significatifs dans le chapitre
4.
La deuxi`eme partie, Optimisation et Dimensionnement, commence au chapitre 5, Outils Mathematiques, qui definit la notion de bande passante effective, son role dans la modelisation du trafic et
levaluation de performances, ainsi que les principaux resultats de cette theorie appliquee aux files
dattente. Les chapitres suivants presentent le noyau des travaux de cette th`ese : un mod`ele nous
permettant de trouver des r`egles de dimensionnement pour le partage de charge (chapitre 6, Partage
de charge sur une topologie multi-lien), les extensions du mod`ele pour le support de capacites variables (chapitre 7, Partage de charge `
a Capacite variable), les enjeux de leur extension aux reseaux
(chapitre 8, Extensions aux Reseaux) et finalement une approche heuristique pour loptimisation
des reseaux qui tente de generaliser et dunifier les resultats precedents (chapitre 9, Ingenierie de
trafic). On donne `
a la fin nos conclusions et perspectives. Les annexes presentent des notes de lecture concernant la theorie des grandes deviations (annexe A, Techniques des Grandes Deviations),
le projet MPLS et Linux, qui a comme objectif limplementation des plans dusager et de controle
MPLS et leur integration au noyau du syst`eme dexploitation Linux et quelques elements logiciel
que nous avons utilises.
10
Structure du Document
Introduction
Gnrale
Chapitre 1
Architecture
MPLS
Extensions
GMPLS
Chapitre 2
Chapitre 3
Contexte
Technologique
Annexes
Elments
dIngnierie de
Trafic.
MPLS et Linux
Annexe III
Partage de
Charge,
Premire Visite
Chapitre 4
Elments Logiciel
Annexe II
Outils
Mathmatiques
Optimisation et
Dimensionnement
Thorie des
Grandes
Dviations
Annexe I
Chapitre 5
Partage de Charge
Chapitre 6
Partage de Charge
Capacit Variable
Extensions aux
Rseaux
Chapitre 7
Chapitre 8
Ingnierie de Trafic
Chapitre 9
Conclusions et
Perspectives
Conclusions et
Perspectives
Chapitre 10
11
12
1. Introduction G
en
erale
19
I.
25
Contexte Technologique
2. Larchitecture MPLS
2.1. Introduction et Motivation
27
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
29
31
31
31
32
33
34
35
2.2.6.1. LDP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
2.2.6.2. RSVP-TE
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.2.6.3. CR-LDP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
37
37
37
37
37
38
38
2.4. Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
3. GMPLS ou MPLS G
en
eralis
e
41
3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
41
42
43
44
45
46
47
48
13
48
49
49
49
3.7.3. Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
3.8. Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
4. El
ements dIng
enierie de Trafic
4.1. Introduction et Motivation
51
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
51
52
53
54
54
55
4.6.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
56
56
56
57
57
57
57
58
59
59
59
60
60
61
62
62
63
64
64
64
4.11. Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
67
5. Outils Math
ematiques
71
5.1. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
5.2. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
14
72
73
74
76
77
77
78
78
79
79
82
82
84
85
86
5.8.3.2. Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
90
91
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
91
93
93
94
96
96
99
101
121
15
. . . . . . . . . . 133
151
161
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
16
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
III. Conclusions G
en
erales et Perspectives
10.Conclusions et Perspectives
183
185
. . . . . . . . . . . . . . . . . . . . . . 187
IV. Annexes
191
193
17
. . . . . . . . .
. . . . . . . . .
Library (STL)
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
213
213
213
213
213
C. MPLS et Le syst`
eme dexploitation Linux
215
C.1. MPLS for Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
Bibliographie
221
18
1. Introduction G
en
erale
Lenorme succ`es de lInternet provient principalement de deux facteurs : la simplicite dacc`es au
reseau et la disponibilite de services adaptes aux besoins des utilisateurs. A lorigine, le protocole IP
avait ete concu comme un protocole permettant linterconnexion des reseaux heterog`enes (IP over
everything) pour le transport de donnees de bout en bout. Cela avait permis aux developpeurs de
services de faire abstraction de la technologie de transport et de developper, sur des API ouvertes
1
, la premi`ere generation de services : le courrier electronique (e-mail), le transfert de fichiers (FTP)
ou lacc`es distant (telnet, rlogin). Ces services nimposaient pas de contraintes de QoS fortes et
larchitecture IP ne les avait pas prises en compte. Par ailleurs, lusage non commercial avec un
faible trafic global ne justifiait pas la mise en place dune ingenierie de trafic. Lingenierie de trafic,
ou optimisation des reseaux operationnels, peut etre resumee de facon simpliste par la phrase put
the traffic where the resources are, par opposition `a put the resources where the traffic demand is
qui pourrait definir la planification des reseaux (bien que ces deux notions ne sappliquent pas `a la
meme echelle de temps).
La deuxi`eme generation de services se centre sur le developpement du Web, louverture commerciale
du reseau et la croissance du trafic qui sensuit. Pourtant, jusqu`a un certain niveau, le reseau
sav`ere raisonnablement gerable : lingenieur reseau connat lemplacement des serveurs importants,
il peut donc identifier les points de concentration du trafic et dimensionner et planifier le reseau en
consequence.
La troisi`eme generation de services, par contre, impose des contraintes bien plus fortes. En effet,
il y a dune part lav`enement de services de donnees du type peer-to-peer qui rendent le trafic
beaucoup plus imprevisible. Nous ne faisons pas reference ici aux phenom`enes de dependance longue
connus depuis longtemps, mais `
a une tr`es forte non stationnarite du trafic, provenant du fait que
linformation est beaucoup plus distribuee que sur le Web. Dautre part, on passe au everything
over IP qui sajoute au IP over everything. En effet, on observe une tendance vers des reseaux
multi-services bases sur IP (Telephonie sur IP, Next Generation Networks, Web Services, UMTS
release 5).
Le reseau se doit donc doffrir des mod`eles de service evolues et son utilisation en tant que reseau
doperateur multi-services impose le developpement dune ingenierie de trafic adaptee `a cet usage.
En effet, lobjectif dun operateur consiste `a trouver un compromis entre (a) une gestion optimale
de ses ressources, (b) une minimisation des co
uts associes `a lexploitation et `a la gestion du reseau,
et (c) la possibilite doffrir un large eventail de services `a ses clients.
Larchitecture Multi Protocol Label Switching (MPLS), en cours de normalisation par lIETF, sav`ere
un outil interessant pour permettre une ingenierie de trafic evoluee dans le contexte des reseaux de
paquets tout en evitant lapproche historique IP sur ATM qui necessite deux plans de controle.
Neanmoins, de nombreux probl`emes lies `a lIngenierie de Trafic doivent etre resolus avant quun
1 Citons,
19
1. Introduction Generale
reseau MPLS ne puisse fournir de mani`ere efficace des service heterog`enes operationnels.
Dans cette th`ese nous proposons des mecanismes dingenierie de trafic applicables dans le cadre dun
reseau doperateur. Le contexte technologique est fourni par larchitecture et la technologie MPLS,
mais certains resultats sont suffisamment generiques pouvant etre appliques `a dautres contextes.
Lobjectif de nos travaux est double : tout dabord, evaluer les performance des reseaux autorisant
le partage de charge en proposant des mod`eles mathematiques adequats, puis proposer des r`egles
simples pour le dimensionnement de ces reseaux.
Plus precisement, nous nous interessons dans une premi`ere etape `a la problematique du partage de
charge entre differents chemins reliant deux points. La premi`ere partie de letude porte sur la topologie multi-lien. La possibilite quoffre MPLS dintroduire quand cest necessaire une approche orientee connexion l`eve la contrainte de partage de charge uniquement entre chemins de co
uts egaux,
caracteristique des protocoles de routage IP classiques comme Equal Cost Multipath (ECMP). Cela
nous permet de prendre en compte des chemins de longueur arbitraire afin de repondre plus efficacement au probl`eme de la sporadicite du trafic. Nous obtenons des conditions doptimalite du partage
de charge et nous determinons, sous certaines conditions, des r`egles simples de dimensionnement.
La deuxi`eme partie de letude etend le mod`ele precedent au partage de charge de bout en bout : nous
proposons un mod`ele qui prend en compte la nature non deterministe de la capacite de chaque chemin
vue par un observateur place `
a un point dentree du reseau. La variabilite temporelle de la capacite
de transmission dun tunnel MPLS est prise en compte dans les probl`emes doptimisation `a laide
de la notion de capacite effective. Nous montrons linsuffisance des r`egles de dimensionnement se
basant sur des moyennes et proposons des solutions plus precises.
Lextension des travaux precedents `
a un reseau sav`ere complexe, principalement du fait de la difficulte de caracteriser les modifications des proprietes stochastiques des flots de trafic lors de leur
passage par un lien de transmission et de leffet tronquant et lissant des files dattente. Neanmoins,
nous proposons une approche pragmatique sous lhypoth`ese de petits buffers nous permettant une
extension aux reseaux. Nous formulons un probl`eme doptimisation, analysons differentes topologies
et faisons le lien avec des probl`emes de theorie des graphes et doptimisation combinatoire.
Nos travaux sappuient sur la theorie des bandes passantes effectives et sur la theorie de grandes
deviations appliquee aux files dattente. La notion de bande passante effective correspond `a un changement dechelle de la transformee de Log Laplace du processus stochastique representant le travail
produit par une source sous les hypoth`eses assez generiques de stationnarite et dergodicite. Cette
notion caracterise les proprietes statistiques de la source, telles que sa sporadicite. Cette sporadicite est prise en compte lors de la formulation que nous faisons des probl`emes doptimisation. Les
fonctions objectives que nous proposons refl`etent des crit`eres reels de QoS et leur calcul utilise des
resultats recents de la theorie des grandes deviations. Dune mani`ere generale, la theorie des grandes
deviations nous permet dobtenir des estimateurs probabilistes de certaines metriques interessantes,
telles que le taux de perte ou le delai, sous un regime asymptotique determine (c.-`a.-d. quand un
param`etre du syst`eme est assez grand). Citons, notamment, le resultat connu comme lasymptotique de grand nombre dusagers, qui donne des equivalents logarithmiques et/ou des expressions
asymptotiquement correctes de la queue de distribution stationnaire du travail cumule dans une file
dattente ainsi que du taux de pertes quand le nombre de sources multiplexees est suffisamment
grand, hypoth`ese largement verifiee dans le contexte dun coeur de reseau doperateur.
20
1. Introduction Generale
Cet outil mathematique sest avere particuli`erement efficace pour analyser les probl`emes de dimensionnement cites et pour deduire des r`egles dingenierie que nous considerons utiles dans un contexte
de reseau doperateur.
21
1. Introduction Generale
22
Introduction
The huge Internet growth of the past years is mainly due to the sum of two factors : the simplification
of network access for users and the availability of a wide range of services adapted to the users needs.
At the beginning, the IP (Internet Protocol) protocol was conceived in order to interconnect several
heterogeneous networks (IP over everything), thus allowing end-to-end data transfers. Service implementors could abstract from a particular transport technology and develop, using open Application
Programming Interfaces (APIs) \footnote{For example, the BSD sockets library} the first generation
of services : e-mail, file transfer or remote login. These services were not particularly demanding in
terms of quality of service, and the non commercial usage of the network did not justify traffic
engineering. Traffic engineering, or optimization of operational networks, may be simply put as put
the traffic where the resources are, compared to put the resources where the traffic demand is which
applies to the notion of network planning (although these terms do not usually operate in the same
time scale).
The second generation of services is given by the development of the World Wide Web, the deployment of commercial services and the increase of network traffic. However, to some extent, the
network is still easy to manage : network operators know the placement of the most demanded
servers and can identify traffic concentration points and dimension / plan the network according to
these factors.
The third generation of services, however, adds a new set of constraints. Indeed, new data services
like peer-to-peer networks make network traffic much more difficult to predict. Moreover, the
network evolves to the everything over IP, paradigm, on top of the aforementioned IP over
everything : there is steady and clear evolution towards multi-service networks based on the IP
protocol (Voice over IP, Next Generation Networks, Web Services, UMTS release 5).
Todays evolved data service models require the deployment of an adapted traffic engineering. Network operators must find a trade-off between (a) an optimal use of network resources, (b) a reduction
of management costs (OPEX, CAPEX) and (c) the possibility of offering a wide range of services
to customers.
The Multi Protocol Label Switching (MPLS) architecture, provides an excellent framework for an
advanced traffic engineering, without the limitations of having two unrelated control planes like in
legacy architectures (as in IP over ATM). Nevertheless, some issues and open problems remain and
must be solved before being able to provide advanced data services.
In this dissertation, we propose traffic engineering mechanisms in a carriers network. Although these
mechanisms are conceived in the framework of MPLS networks, they also apply to other contexts. Our
objective is twofold : first, evaluate their performance in load sharing enabled networks by proposing
adequate mathematical models and second, obtain simple engineering rules and guidelines for an
adequate network dimensioning.
23
1. Introduction Generale
More concretely, we first consider the load sharing problem between two network endpoints. In a first
step, we focus on the multi-link topology : two network devices are connected by a given number
of links. Since the MPLS framework adds a connection oriented layer to IP networks, it is possible
to implement load sharing schemes that are not constrained by the load sharing between equal cost
paths only property which characterizes legacy IP routing protocols like Equal Cost Multi-path
(ECMP). In this sense, it is possible to use arbitrarily length paths in order to better respond to
the problem of traffic burstiness. We obtain optimality conditions and we determine, under certain
hypothesis, simple dimensioning rules.
The second part extends the previous model by taking into account the non deterministic nature
of the end to end capacity of the paths as seen by a user placer an the network ingress. The time
varying property is included in the revised optimization problem by using the notion of effective
capacity. We show that some rules based on average values may not be appropriate.
The extension of the obtained results to a network is not simple, since it is difficult to characterize
the changes of the stochastic properties of flows when they are multiplexed in a queue modelling
a transmission link. Nevertheless, we propose a pragmatic approach for traffic engineering under
the assumption of small buffers. We formulate a new optimization problem, we analyze different
topologies and we establish the link with graph theory and classical combinatorial optimization
problems.
Our work is based on the theory of effective bandwidths and the large deviation theory. The notion
of effective bandwidth corresponds to the scaled logarithmic moment generating function of the
stochastic process modelling the work produced by a data source, under the quite realistic hypothesis
of stationarity and ergodicity. This characterization takes into account the traffic burstiness, and
appears in the different optimization problems that are proposed. The objective cost functions that
we formulate map directly to real world QoS criteria, re-using recent results from the large deviation
theory. In general terms, this results concern the estimation of interesting metrics, like asymptotic
overflow probabilities and loss rates.
This framework appears well adapted to our objectives : the analysis of the aforementioned dimensioning problems and the deduction of engineering rules of interest in core notworks.
24
Premi`
ere partie .
Contexte Technologique
25
2. Larchitecture MPLS
2.1. Introduction et Motivation
Le but de ce chapitre et du suivant est de presenter les principaux elements de larchitecture Multi
Protocol Label Switching, (MPLS) que lon peut traduire par commutation detiquettes multi
protocolaire ainsi que ses extensions connues sous le terme GMPLS (MPLS Generalise). Cette
architecture constitue le contexte technologique de cette th`ese.
Le chapitre est structure de la facon suivante : apr`es la presente section, qui presente succinctement
larchitecture et son evolution historique, nous presentons dans la section 2.2 les elements et les entites
importants, la terminologie utilisee et les mecanismes et protocoles de distribution detiquettes. La
section 2.3 enum`ere les principaux objectifs de larchitecture, et la section 2.4 presente les conclusions.
Larchitecture MPLS a ete developpee autour du paradigme de commutation detiquettes : les informations necessaires pour acheminer (aiguiller) 1 une unite de donnees sont obtenues `a laide
dune valeur (dont lappellation generique est etiquette) que nous allons, pour linstant, supposer
etre codee dans lunite elle-meme. Ce paradigme, existant dej`a dans le contexte des reseaux Frame
Relay (letiquette = DLCI) ou ATM (VPI/VCI), sapplique principalement au plan dusager MPLS
(forwarding user plane). Nous allons voir dans la suite comment les premiers efforts autour de la
technologie MPLS essaient dadapter ce paradigme au monde IP, en substituant lacheminement
IP classique par un acheminement base sur une valeur de taille fixe, permettant une amelioration
des performances des equipements reseaux. A ce propos, la figure 2.1 (a) illustre lacheminement IP
classique : suite `
a la reception dun paquet IP, le routeur parcourt la table construite `a partir des
informations topologiques et choisi lentree verifiee par le paquet ayant le masque le plus longue. La
figure 2.1 (b) illustre lacheminement de cellules ATM, qui utilise le paradigme de la commutation
detiquettes (commutation de cellules) : le port et les VPI/VCI de sortie sont choisis `a partir dune
table `a laide du port et des VPI/VCI dentree. Le plan de controle, qui definit lensemble de procedures et protocoles de signalisation pour letablissement de tunnels MPLS nommes Label Switched
Paths ou LSPs, est separe formellement du plan dusager. Plusieurs auteurs sont daccord pour voir
de facon simpliste MPLS comme une couche permettant une meilleure integration des couches 2 et
3. Le qualificatif de multi protocolaire est justifie par son caract`ere a priori agnostique en ce
qui concerne le protocole de niveau 3, meme si le protocole IP est clairement lacteur dominant et
influence dune certaine facon son developpement, et en ce qui concerne le niveau 2. Autrement dit,
larchitecture ne fait pas dhypoth`eses limitant la technologie de transport, `a quelques normes pr`es
specifiant limplementation pour une technologie de niveau 2 comme ATM ou FR. Cet agnosticisme
(au moins theorique) par rapport au protocole de niveau 3 est d
u `a la separation du plan de controle
1 Il
27
2. Larchitecture MPLS
"
!!
$
%&%
# %& ' (
! )*
(a)
(b)
Fig. 2.1: Acheminement dans les reseaux IP et dans les reseaux ATM
Avant de decrire les elements de larchitecture MPLS, on doit considerer les architectures ayant fortement influence son developpement et sa normalisation posterieure. Parmi celles-ci, deux solutions
proprietaires sont notables : Cisco Tag Switching et Ipsilon IP switching [48]. Ces deux solutions presentent quelques notions cles : dabord, un equipement mixte, integrant une matrice de commutation
ATM et une partie de contr
ole IP ; ensuite, une vraie separation des plans de controle et usager. Le
routage IP dynamique contr
ole letablissement de circuits virtuels, `a la place des methodes comme
lutilisation de logiciels dadministration, la configuration manuelle, ou meme le protocole de routage
PNNI.
28
2. Larchitecture MPLS
29
2. Larchitecture MPLS
multiplexage (rappelons, par exemple, quun certain nombre de protocoles comme ICMP ou ARP
sont indissociables dIP) et assure les mecanismes de detection de trames et de detection derreurs.
Cette transition est motivee par les co
uts associes `a la gestion des differents plans de controle et de
gestion, et par une efficacite protocolaire denviron 90%, inefficace dans les liens transoceaniques.
De lautre cote, la conception de solutions visant `a une meilleure integration des couches 2 et 3, qui
a donne naissance `
a larchitecture MPLS. Si lon se pose la question de la raison detre `
a lepoque
de larchitecture MPLS (ou plut
ot, des architectures proprietaires qui lont fortement influencee) la
reponse est immediate : le besoin de concevoir des dispositifs de plus en plus performants, facilitant
une meilleure integration IP et ATM, avec un taux de transfert3 de plus en plus eleve pour repondre
`a laugmentation du trafic et sans la complexite inherente aux architectures CLIP ou MPOA.
Lapproche classique pour le transport dIP sur ATM utilise la couche dadaptation AAL5 et
necessite que les equipements reseaux recup`erent la charge utile de la couche AAL5 pour consulter
lentete du paquet et decider du routeur suivant vers lequel acheminer le paquet, procedure co
uteuse
qui doit etre realisee `
a chaque saut. A ce propos, plusieurs architectures proprietaires et concurrentes
sont apparues, avec des promesses concernant la performance de leurs equipements. Lidee geniale
peut se resumer dans les points suivants :
1. Lutilisation dequipements mixtes, avec les matrices de commutation ATM sous plan de
controle IP. Le r
ole de la technologie ATM est reduit `a un role de transport.
2. Lassociation dune valeur de taille fixe `a des flots ou `a des agregats de trafic. Cette valeur est
codee dans les champs VPI/VCI.
3. Lacheminement IP est realise en consultant letiquette, et non en consultant lentete IP. On
est desormais capable dacheminer sans besoin de recuperer la charge utile de la couche AAL5.
Ceci permet une amelioration de la performance de lacheminement IP classique.
4. La definition dune composante du plan de controle IP qui soccupe dassocier une valeur `a des
flots ou `
a des agregats IP et de les distribuer aux equipements concernes.
5. Ladressage et les composantes du plan de controle ATM comme la signalisation et le routage
deviennent superflus.
Ipsilon IP Switching
Larchitecture proprietaire IP Switching utilisait la detection au vol des flots IP et une procedure
de signalisation se declenchait pour letablissement, la gestion et le relachement des connexions. La
relation connexion ATM - flot IP etait geree par un plan de controle et utilisait un protocole de
distribution proprietaire. Cette solution etait penalisee en cur du reseau par la difficulte de gerer
un etat par flot.
Cisco Tag Swithing
30
2. Larchitecture MPLS
ainsi, un routeur susceptible de recevoir du trafic communiquait ses tags `a ses voisins, grace `a des
protocoles de distribution adaptes. La construction de tables de correspondance entre tags et prefixes
permettait dameliorer les performances des routeurs en realisant un acheminement des paquets base
sur la commutation de tags.
La raison d
etre de MPLS, aujourdhui
2.2. El
ements de larchitecture MPLS
2.2.1. Label Switch Router
Dune mani`ere generique on appelle Label Switch Router ou LSR tout routeur (dispositif ou element
reseau) faisant partie du domaine MPLS. Plus particuli`erement, un LSR est capable dacheminer des
paquets dans le plan usager en utilisant le paradigme de commutation detiquettes et dinterpreter
les protocoles du plan de contr
ole associes. 4
2.2.2. Classe dEquivalence pour lAcheminement
De facon abstraite, lensemble de tous les paquets appartenant `a un protocole de niveau 3 peut etre
vu comme un espace, sur lequel on peut definir une partition etant donne un ensemble de proprietes. Cette partition va definir des classes dequivalence. Ainsi, la notion de Classe dEquivalence pour
4 Bien
s
ur, vis-`
a-vis des produits disponibles sur le march
e, il y a toujours la probl
ematique de la conformit
e aux
diff
erents protocoles et normes.
31
2. Larchitecture MPLS
lAcheminement (ang. Forwarding Equivalence Class ou FEC) correspond `a chaque classe resultante
dune partition du trafic en ce qui concerne lacheminement, et implique que tous les paquets appartenant `a une meme classe seront traites, a` niveau de lacheminement, de facon identique 5 . Meme
si la notion de FEC apporte une generalite et une granularite importante, aujourdhui, la FEC la
plus utilisee est la FEC prefixe dadresse destination : deux paquets appartiennent `a la meme FEC
si leur prefixe dadresse destination est identique. Ex : on parle de la FEC 137.194/16 pour designer
lensemble de paquets destines `
a lENST. Remarquons que la notion de FEC est `a la base de tous
les mecanismes concernant la repartition de trafic.
Formalisation de lacheminement IP classique : en utilisant la notion de FEC, lacheminement
IP classique peut etre vu comme la succession de deux taches : (a) faire correspondre (classer) le
paquet entrant `
a une FEC, et (b) faire correspondre la FEC au routeur suivant. Ces deux taches
se rep`etent `a chaque saut. Nous allons voir comment MPLS realise le classement une seule fois, `a
lentree du domaine.
Relation FEC-Etiquette : nne
etiquette (label) est une representation non ambigue dune FEC entre
deux LSR. Pour un transfert de donnees unidirectionnel entre les routeurs Ru et Rd , on nomme Ru
le routeur Upstream (amont) et Rd le routeur Downstream (aval). Le terme distribution detiquettes
designe toute procedure destinee `
a associer FEC et Etiquette globalement dans le reseau.
2.2.3. Le paradigme de la commutation d
etiquettes
Nous avons dej`
a evoque le paradigme de la commutation detiquettes. En utilisant une terminologie
MPLS, le mecanisme de base de MPLS est le suivant 6 : au niveau du plan usager, le paquet IP entre
dans le domaine MLPS via le routeur dentree (Ingress LSR ou I-LSR). Le I-LSR classe le paquet
dans une FEC, selon des crit`eres tels que les adresses source et destination. Le I-LSR consulte
la table FTN (FEC to NHLFE, Next Hop Label Forwarding Entry). Cette table pointe vers une
deuxi`eme table, NHLF, qui indique le routeur suivant et loperation `a realiser, cest `a dire, lajout
dune etiquette (Label Push)et sa valeur. Remarquons la base de ling
enierie de trafic MPLS :
un routeur d
etermine le routeur suivant (le next hop) `
a partir de la table NHLF, et
celui-ci peut
etre diff
erent de celui impos
e par le protocole de routage. Lacheminement
dans le domaine MPLS est base sur letiquette (et donc, les LSRs ne regardent pas lentete IP) en
utilisant le paradigme de la commutation detiquettes (label swap / switching) et une table nomme
ILM (Incoming Label Map). Finalement, le paquet etiquete est recu par le routeur de sortie du
domaine (Egress LSR ou E-LSR) qui enl`eve letiquette (label pop) et proc`ede `a un acheminement
classique. La figure 2.2 (a) illustre ce paradigme dans un domaine MPLS plat.
Ce paradigme peut etre generalise `
a un contexte hierarchique (cf. figure 2.2 (b)) sous les conditions
suivantes :
1. La notion detiquette est generalisee `a une pile detiquettes (Label Stack).
2. Le traitement dun paquet IP est realise `a laide de letiquette de plus haut niveau.
3. Les roles I-LSR et E-LSR sont maintenant conditionnes par le niveau hierarchique concerne.
5 Autrement
32
2. Larchitecture MPLS
!"
(a)
&
"$
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
$
&
%
%
%
&'
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
"#
!
$
%
%
%
"#
(b)
33
2. Larchitecture MPLS
2.2.5. La hi
erarchie MPLS
La hierarchie MPLS generalise celle de la technologie ATM `a deux niveaux ( VPI/VCI ). Les avantages de la hierarchie MPLS sont les suivants : (a) lagregation de trafic sur plusieurs niveaux, (b)
la possibilite de commuter les etiquettes sur differents niveaux hierarchiques, en assurant un acheminement de bout en bout transparent pour un niveau donne. La figure 2.3 illustre ces notions.
(a)
!"
# $ !
# &!
(b)
D
etail dencapsulation : larchitecture MPLS fait lhypoth`
ese que letiquette apparat explicitement
codee dans le paquet (nous verrons au chapitre suivant comment GMPLS l`eve cette contrainte). Deux
possibilites existent : la premi`ere, consiste `a tirer parti de certaines particularites de la technologie
de transport sous-jacente pour y coder letiquette (citons, par exemple, lutilisation des champs
VPI ou VCI ATM ou du champ DLCI FR). Linconvenient de cette approche, cest que le nombre
maximal de niveaux hierarchiques est limite par la technologie. La deuxi`eme consiste `a prefixer le
34
2. Larchitecture MPLS
paquet IP avec la pile detiquettes (permettant donc un nombre de niveaux hierarchiques arbitraire
7
). Autrement dit, la pile detiquettes est codee entre lentete de niveaux 2 et lentete de niveau
3 suivant un format particulier dit Shim Header. LIETF a de plus defini un ensemble de normes
permettant de trouver un compromis entre ces deux possibilites, voir p.ex. [64].
2.2.6. La distribution d
etiquettes
Larchitecture MPLS ne fait aucune hypoth`
ese concernant le protocole de distribution
d
etiquettes utilis
e. Cette propriete, consequence directe de la separation des plans de controle et
dusager, est plut
ot positive : vis-`
a-vis du plan usager, rien ne change si les tables FTN ou ILM ont
ete approvisionnees manuellement ou resultant dun etablissement dynamique `a laide des protocoles
de signalisation concus `
a cet effet. Le premier LDP Label Distribution Protocol sav`ere simple, mais
fortement limite. Deux protocoles de signalisation plus complets (au sens o`
u ils permettent de mettre
en place des mecanismes dingenierie de trafic) sont en cours de normalisation par lIETF : RSVP-TE
[95] et CR-LDP [12].
2.2.6.1. LDP
Le protocole LDP Label Distribution Protocol est un protocole de signalisation (plus precisement,
de distribution detiquettes) heritier du protocole proprietaire TDP Tag Distribution Protocol. Pour
en decrire le fonctionnement, rappelons la notion de larbre de plus court chemin : pour un prefixe
dadresse, le protocole de routage classique definit implicitement un arbre de plus court chemin,
arbre ayant pour racine le LSR de sortie (celui qui a annonce le prefixe) et pour feuilles les differents
routeurs dentree. Le routeur de sortie va annoncer le prefixe `a ses voisins, tout y en associant une
etiquette. Les messages de signalisation vont monter jusquaux routeurs dentree, permettant `a
chaque LSR intermediaire dassocier une etiquette au prefixe. Pourtant ce protocole (par ailleurs
raisonnablement simple) presente deux grandes limitations :
LSPs contraints par le protocole de routage : les LSPs
etablis en utilisant le protocole LDP sont
contraints par le protocole de routage. Il est impossible de specifier des routes autres que celles
definies par le protocole de routage (ang. IGP default route).
Impossibilit
e de r
ealiser une r
eservation de ressources : le protocole na aucun moyen de sp
ecifier
nombre de niveaux hi
erarchiques reste quand m
eme limit
e par la MTU de la technologie de transport
35
2. Larchitecture MPLS
3. Prise en charge des mecanismes de restauration bases sur MPLS (ang. MPLS based recovery)
(voir chapitre 4, Elements dIngenierie de Trafic), avec une gestion de priorites `a letablissement
et modification de LSPs.
Deux protocoles verifient ces proprietes (dans une certaine mesure) : RSVP-TE, et CR-LDP. En
bref, ces deux protocoles ont des fonctionnalites tr`es similaires, letablissement dun LSP suit une
approche aller-retour et consiste en lenvoi et le traitement dun message de signalisation initial
qui parcourt les routeurs qui seront traverses par le LSP `a etablir, et le message correspondant
dacquittement et de distribution detiquettes.
2.2.6.2. RSVP-TE
Le protocole RSVP-TE ou Extensions au protocole RSVP pour lingenierie de trafic reprend le
protocole RSVP de lIETF, initialement concu pour la reservation de ressources pour des micro
flots (par exemple des connexions TCP entre deux points terminaux), et il ajoute les extensions
necessaires pour la prise en charge de routes explicites MPLS. Le probl`eme du passage `a lechelle
de RSVP est resolu en faisant une reservation de ressources entre deux routeurs (typiquement le
routeur dentree et celui de sortie) pour un agregat de trafic (pouvant etre constitue de plusieurs
centaines de connexions).
36
2. Larchitecture MPLS
2.2.6.3. CR-LDP
Le protocole CR-LDP ou Extensions pour le routage sous contraintes du Protocole de Distribution
detiquettes, LDP a la lourde t
ache dajouter au protocole LDP les extensions necessaires pour le
support de routes explicites et la reservation de ressources.
Commentaires : entre 1999 et 2002, il n
etait pas clair si lun de ces deux protocoles allait simposer
a` lautre, et cette question avait ete deleguee aux constructeurs. Il apparait actuellement que RSVPTE tend `
a simposer comme protocole de signalisation8 .
2.3.1. Int
egration IP et ATM
Cette integration est generalisable aux couches 2 et 3, grace au caract`ere multi protocolaire de MPLS.
La couche orientee connexion ajoutee par MPLS ouvre la porte `a lintroduction dune qualite de
service et dune ingenierie de trafic a` des flots IP.
2.3.2. Am
eliorer les performances des routeurs IP
Lapplication du paradigme de commutation detiquettes au plan dusager peut ameliorer les performances des routeurs IP, meme si ceci nest pas le plus notable de ses atouts. Dune facon generique,
il nexiste pas aujourdhui une difference de performances importante entre le paradigme de la commutation detiquettes et un acheminement IP optimise.
2.3.3. S
eparation des plans dusager et de contr
ole
La separation des plans dusager et de controle permet le caract`ere multi-protocolaire de MPLS.
Au niveau du plan dusager, les informations sont acheminees sans necessiter une connaissance du
protocole transporte. Cest au niveau du plan de controle que cette information est necessaire. Par
exemple, dans le message detablissement dun LSP utilisant RSVP-TE, un des objets dinformation
contient le protocole de niveau 3 achemine. Ceci permet par exemple au routeur de sortie de savoir
comment acheminer lunite dinformation une fois que celle-ci quitte le domaine MPLS.
Ao
ut 2002, le groupe de travail de lIETF `
a propos
e labandon des travaux de normalisation de CR-LDP, et son
passage `
a l
etat de RFC informationnel.
37
2. Larchitecture MPLS
chapitre 3, GMPLS ou MPLS Generalise, est de permettre le deploiement de technologies heterog`enes mais gardant une homogeneite en ce qui concerne le plan de gestion et de controle afin de
minimiser les co
uts de gestion et doperation du reseau.
2.3.5. Gestion de la QoS et de lIng
enierie de Trafic
Les elements du plan de contr
ole MPLS concernant lIngenierie de Trafic sont exposes en detail
dans le chapitre 4, Elements dIngenierie de Trafic. Dune facon tr`es simpliste, on peut resumer la
gestion de la qualite de service et de lingenierie de la facon suivante : la notion de FEC fournit
une granularite suffisante pour la partition du trafic et letablissement de LSPs avec ou sans une
reservation de ressources non contraint par le protocole de routage permet `a lingenieur reseau
doptimiser son reseau en realisant une repartition de trafic convenable, sans etre limite par la
technologie sous-jacente.
2.3.6. Les R
eseaux Priv
es Virtuels MPLS (MPLS/BGP VPN)
La possibilite doffrir des services de Reseau Prive Virtuel en utilisant la technologie MPLS a ete
identifiee comme un des facteurs motivant une migration progressive. Lavantage est davoir un seul
reseau `a gerer, avec la possibilite dun seul plan de controle. Aujourdhui, MPLS permet la gestion
de reseaux prives virtuels de niveau 2 et 3.
Il est interessant de noter que larchitecture MPLS est suffisamment generique pour permettre plusieurs facons de deployer le service VPN en utilisant la commutation detiquettes. Neanmoins, le
standard de facto est le RFC 2547 et le RFC 2547 bis.
Le RFC 2547bis prend en charge differents protocoles de routage et envisage la possibilite de VPN
inter-AS.
MPLS/BGP VPN : Architecture : deux grandes classes de LSRs dans le r
eseau doperateur sont
definies. Les routeurs de la peripherie, notes PE (ang. Provider Edge) et les routeurs du cur, notes
P. Les sites clients sont connectes `
a un routeur PE, responsable de leur gestion. Les routeurs P nont
aucune connaissance du service VPN.
MPLS/BGP VPN : Plan de Contr
ole. Une instanciation dun protocole de routage (typiquement
OSPF) est executee par tous les LSRs du domaine MPLS. Les routeurs PE sont connectes deux-`adeux : il existe un LSP entre deux routeurs quelconques PE. Bien s
ur, letablissement de ces LSP
peut etre realise avec une reservation de ressources. Dans la configuration la plus simple, il existe un
maillage complet (ang. full mesh) de sessions MP-iBGPv4 entre les routeurs PE. Nous verrons par
la suite que ce protocole est utilise comme protocole de signalisation.
Etant donne que lacheminement des paquets IP dans le reseau du fournisseur de service est realise
en utilisant MPLS, le fournisseur de service peut utiliser des adresses privees. En plus, des adresses
IP nappartenant pas au meme VPN peuvent etre reutilisees. Ceci est possible car larchitecture
definit une nouvelle famille dadresses : la famille resultant de prefixer `a ladresse IPv4 classique un
identificateur de VPN (VPN Id) unique. Autrement dit, un hote quelconque est identifie par son
adresse IPv4 et son identificateur de VPN. Larchitecture MPLS BGP/VPN utilise les extensions
multi protocolaires de BGPv4 comme protocole de distribution detiquettes. Les extensions multi
protocolaires sont necessaires car BGPv4 est concu pour IPv4 (donc pas de prise en charge de
38
2. Larchitecture MPLS
2.4. Conclusions
lidentificateur de VPN). Le message update est utilise pour annoncer des prefixes dadresse et
letiquette associee au prefixe 9 . Cette approche utilise seulement des FEC equivalentes `a des prefixes
dadresse. Lorsque les routeurs PE autres que celui qui a initie le message recoivent cette annonce, ils
ajoutent `
a la table de routage virtuelle correspondante des informations telles que le routeur suivant
(routeur suivant logique PE), le site qui a annonce le prefixe, et le VPN. Ceci est illustre par la figure
2.5 (a).
MPLS/BGP VPN : Plan usager Nous allons exposer lacheminement de bout en bout dun paquet
2.4. Conclusions
Grace `
a sa nature orientee connexion, MPLS offre un cadre architectural tr`es prometteur pour
limplementation dune ingenierie de trafic efficiente dans le monde IP et, en particulier, pour le
partage de charge. Dans ce chapitre, nous avons presente levolution historique de larchitecture
MPLS, ses elements les plus importants (LSR, LSP, FEC,..), leurs differents roles, et les objectifs de
MPLS. Dans les chapitres suivants, nous allons voir les extensions de larchitecture MPLS (GMPLS),
et les composants du plan de contr
ole concernant lingenierie de trafic.
9 le
10 Comment
39
2.4. Conclusions
2. Larchitecture MPLS
#
X
*
*
!
#
$
!"
"
#
$
%
%%
%
&
&'
'
(
()
) $
$
!
!"
"
#$
+
+
#
$
#
$(
()
)
$
$
+
+
&
&
%
%%
%
,
*
,
*
,
, &
&
.
.%
%
,
,*
*
-
!
!"
"#
#
#
#
X
#
#
40
3. GMPLS ou MPLS G
en
eralis
e
3.1. Introduction
Ce chapitre est structure de la facon suivante : la presente section illustre levolution historique des
reseaux et justifie le besoin dune simplification protocolaire. La section 3.2 presente une premi`ere
reponse de lIETF `
a ce besoin dans le contexte IP et MPLS, le Multi Protocol Lambda Switching
MPS, terme qui designe une extension de MPLS visant `a une meilleure integration des domaines
reseaux `
a commutation de paquets et reseaux optiques. Levolution vers ce que lon connat aujourdhui comme GMPLS est presentee dans la section 3.3. Cette architecture generalise la notion de
commutation, et la section 3.4 en enum`ere les objectifs. La section 3.5 illustre la notion de hierarchie
GMPLS, et la section 3.6 presente les extensions architecturelles et protocolaires necessaires `a MPLS
afin de concevoir un cadre architectural pouvant repondre aux besoins et aux objectives enumeres.
Finalement, la section 3.7 cite les deux mod`eles possibles de deploiement de cette architecture et la
section 3.8 conclut le chapitre.
3.1.1. Evolution technologique : vers une simplification protocolaire
Levolution historique des architectures reseaux des operateurs est motivee dune part par le besoin
constant de repondre rapidement `
a la demande de nouveaux services et `a la croissance du trafic
Internet de leurs clients et, dautre part, est contrainte par la necessite damortir les investissements
en equipements reseaux et de maintenir les services existants. Cette evolution explique le deploiement
actuel des reseaux avec une importante superposition de couches protocolaires (Overlay Networks),
superposition illustree sur la figure 3.1. Cette superposition presente quelques inconvenients notables :
(a) laugmentation des co
uts de gestion du reseau, (b) la necessite dune competence technologique
diverse, (c) le surco
ut protocolaire et (d) la redondance indesirable de certaines fonctionnalites.
Certes, dautres facteurs justifient larchitecture actuelle des reseaux doperateurs : ayant comme
objectif la convergence vers un reseau multiservice, on ne peut pas negliger les avantages des differentes technologies existantes : DWDM repond au besoin de bande passante et SDH propose des
mecanismes de protection et de restauration necessaires pour les services que lon offre aujourdhui.
Neanmoins, lintegration de dispositifs heterog`enes reste encore une tache complexe.
Dans le chapitre precedent, nous avons vu une premi`ere reponse `a cette situation qui remplit les deux
objectifs principaux : la simplification protocolaire et lunification des technologies sous un plan de
controle unique. Larchitecture MPLS reprend quelques idees innovatrices et permet une premi`ere
simplification protocolaire, assimilable `a une integration des architectures de niveaux 2 et 3 (par
exemple IP et ATM), et fournit un plan de controle unique.
Neanmoins, cette architecture basee sur le concept de commutation detiquettes est limitee par
lhypoth`ese que lon peut englober sous le terme de commutation de paquets : letiquette est codee
explicitement quelque part dans le paquet, soit en utilisant un codage normalise connu sous le terme
41
R3
R1
R2
IP
C3
C2
C1
C4
ATM
SDH
WDM
(a)
(b)
shim header , soit en utilisant les possibilites offertes par une technologie de transport particuli`ere.
A cet egard, lIETF est alle plus loin encore avec labstraction associee au paradigme de la commutation detiquettes. Les premiers efforts apparaissent avec le terme Multi Protocol Lambda Switching
MPS, concernant lintegration de larchitecture MPLS et les reseaux optiques. Lidee est simple :
la longueur donde avec laquelle on transmet un bloc dinformation determine implicitement une
etiquette. Commuter une etiquette correspond `a une commutation de longueur donde. Cette architecture est decrite dans la section suivante.
De nombreuses similitudes entre les deux architectures ont rapidement ete identifiees. Citons entre
autres :
Du point de vue conceptuel, un LSP et un canal optique sont une route unidirectionnelle.
Un LSR et un OCX font la separation entre la plan de controle et le plan de donnees (plan usager)
Le plan de donnees utilise letiquette entrante pour acheminer un paquet etiquete entre un port
dentree et un port de sortie. Un OCX utilise sa matrice de commutation pour connecter un path
Och entre un port dentree et un port de sortie.
42
Commutateur Optique
Contrle
1 2 n
Matrice
1 2 n
1 2 n
2
1 2 n
Les equipements optiques sont capables detablir des circuits de plus en plus rapidement. Certes, ces
equipements ne sont pas des routeurs au sens o`
u ils ne peuvent pas examiner les paquets entrants
et choisir de mani`ere dynamique le routeur suivant, mais lintegration avec MPLS devient possible `a
partir du moment o`
u lon envisage la possibilite dutiliser lannonce dune route vers une destination
(prefixe donne) se propage `
a travers le reseau pour y etablir un chemin optique (ang. light path).
Lensemble des paquets destines `
a un tel prefixe seront achemines sur le chemin optique ainsi etabli,
sans la contrainte davoir `
a examiner linformation de niveau 3 `a chaque nud, procedure necessitant
une conversion O/E et E/O.
Les principaux atouts de MPS sont les suivants :
Un cadre pour la gestion de la bande passante et la creation des canaux optiques, qui constitue un
premier pas vers la normalisation des interfaces permettant doffrir des services evolues de bande
passante `
a la demande.
Lintegration de lIngenierie de Trafic MPLS et du savoir-faire du routage IP.
La reutilisation des modules logiciels existants.
La coordination entre dispositifs a` commutation de paquets et dispositifs optiques.
La simplification de la gestion du reseau en fournissant une semantique uniforme pour la gestion
et le contr
ole des reseaux aussi bien dans le domaine de la commutation de paquets que dans le
domaine optique.
3.3. Vers la g
en
eralisation : GMPLS
La technologie MPS a continue a` evoluer vers ce que lon nomme MPLS generalise (GMPLS),
architecture dans laquelle MPLS et MPS apparaissent comme deux declinaisons possibles dune architecture plus generale. Lobjectif de GMPLS est multiple : tout dabord, identifier les operations et
43
R3
R1
R2
IP
C3
C1
C2
SDH
C4
ATM
$
%
&!$
$
LSR
' (
!
!
"! #
10Gbps
10Gbps
10Gbps
10Gbps
10Gbps
10Gbps
OCX
OCX
!
!
"! #
44
Au moyen de :
Lintegration des differents paradigmes de commutation
La commutation detiquettes classique (sous forme dobjets binaires codes et ajoutes au bloc de
donnees), la commutation de longueurs donde (objectif de MPS) ou la commutation spatiale des
intervalles de temps des reseaux synchrones deviennent des cas particuli`ers dune commutation
abstraite.
Lunification du plan de controle
La definition dun plan de contr
ole et de gestion unifie.
Lajout de nouveaux elements
GMPLS requiert lextension des protocoles de controle et de signalisation herites de larchitecture
MPLS, la generalisation de la notion detiquette, la prise en charge de LSPs bidirectionnels et
lutilisation de nouveaux protocoles (tels que LMP, ou Link Management Protocol).
Abstraction de la technologie
Les equipements reseaux sont heterog`enes du point de vue du plan de controle.
3.5. La hi
erarchie GMPLS
La hierarchie GMPLS generalise celle de MPLS : de facon similaire, la hierarchie GMPLS est developpee autour de la notion de LSP imbrique, dans laquelle plusieurs LSPs sont agreges dans un
LSP trunk. Dans larchitecture MPLS, la hierarchie etait definie par rapport `a une pile detiquettes
qui etait explicitement codee dans le paquet lui-meme. La hierarchie GMPLS est definie par rapport
aux differentes technologies et capacites de commutation, qui vont definir implicitement comment
les LSPs peuvent etre imbriques, de la facon suivante :
1. Un LSP commence et finit dans des equipements ayant une fonctionnalite identique.
2. Des LSPs ayant lorigine `
a un equipement capable de commuter des paquets (PSC) peuvent
etre imbriques dans un LSP de type TDM. Plusieurs LSPs de type TDM peuvent etre `a
leur tour imbriques dans un LSP de type LSC-LSP et ceux-ci, imbriques dans un LSP de
type FSC-LSP. Ceci est possible car les extensions aux protocoles de routage vont considerer
des LSPs comme des liaisons au niveau du routage, mais en respectant la hierarchie definie.
Imbrication de LSPs (ang. LSP nesting)
45
PSC
PSC
PSC
TDM
TDM
LSC
TDM
PSC
LSC
TDM
PSC
TDM
LSC
TDM
TDM
Router
SONET/SDH
CrossConnect
Router
WDM
(a)
PSC
PSC
PSC
TDM
TDM
LSC
TDM
PSC
LSC
TDM
PSC
TDM
LSC
TDM
TDM
(b)
3.6. Extensions n
ecessaires
MPLS manque de certaines fonctionnalites necessaires pour les objectifs cites. Les tunnels MPLS
sont unidirectionnels, limitant lapplication `a des reseaux optiques. Lidee detiquette doit etre generalisee, afin de prendre en charge les differents paradigmes de commutation existants. Les extensions
necessaires peuvent se resumer dans les categories suivantes : lextension des protocoles de routage
et des fonctionnalites de gestion, lextensions des protocoles de signalisation et lintroduction de nouveaux protocoles et de nouvelles fonctionnalites. Nous presentons dans la suite les elements les plus
46
importants. Une analyse detaillee des extensions necessaires en cours de normalisation est donnee
dans [38] et [37].
Le deploiement de GMPLS suscite un certain nombre denjeux :
1. Lespace detiquettes MPLS est relativement grand. Par contre, le nombre de longueurs donde
disponibles ou des intervalles de temps dans les reseaux SDH reste limite.
2. Lallocation de la bande passante `a un LSP dans un contexte optique ou dans un contexte
SDH doit etre realisee en utilisant un ensemble de valeurs finies.
3. Le nombre de liens geres par deux LSRs adjacents peut etre de lordre de plusieurs centaines
(par exemple, on peut concevoir deux LSRs ayant plusieurs fibres en parall`ele ou chaque fibre
g`ere de centaines de longueurs donde). Lordre de grandeur du nombre de liens `a gerer par
ces LSRs peut etre beaucoup plus grand que dans un contexte MPLS classique.
4. Il nest pas possible dattribuer `a chaque lien (localement) une adresse IP, non seulement parce
que celles-ci sont limitees, mais aussi parce que une telle attribution est co
uteuse en termes de
gestion.
Les extensions que nous presentons dans la suite ont ete concues pour faire face `a ces enjeux.
3.6.1. Extensions des protocoles de routage et des fonctions de gestion
Les protocoles de routage interne (IGP) tels que OSPF ou IS/IS sont en cours de normalisation en
ce qui concerne leur extension pour la prise en charge de lingenierie de trafic [75]. Dans la section
precedente, nous avons vu linteret de la hierarchie MPLS. La prise en charge dune telle hierarchie est
realisee en annoncant des LSPs actifs comme des liens dans le protocole de routage IGP, respectant
lordre hierarchique defini. Lutilisation de ces protocoles dans un contexte GMPLS necessite la
definition dun certain nombre de TLVs (en cours de normalisation), comme le Link Type TLV pour
identifier le type de lien et ses capacites de commutation ou le Shared Risk Link Group (SRLG) TLV
destine aux mecanismes de protection et `a la tolerance aux pannes. En resume, les extensions des
fonctionnalites de routage sont : (a) la definition de nouveaux TLV et de nouveaux attributs des liens
comme le type, (b) lassimilation des LSPs `a des liens logiques dont les informations topologiques et
attributs sont redistribues par les protocoles de routage, en respectant la hierarchie definie, (c) la
notion du regroupement de liens et (d) la gestion des liens non numerotes.
Adjacence dacheminement (ang. Forwarding adjacency)
Les LSPs sont annonces par le protocole de routage IGP et donc pris en compte par les differentes
heuristiques de calcul de routes. Notons que ces heuristiques (comme CSPF, presentee au chapitre
suivant) devront aussi etre adaptees au contexte GMPLS.
Regroupement de liens (ang. Link bundling).
Des nuds peuvent etre connectes par des centaines de liens en parall`ele (citons par exemple, les
longueurs donde).
Le regroupement de liens permet que plusieurs liens soient annonces comme un seul lien par le
protocole IGP.
47
Letablissement dun LSPs necessite la connaissance des LSRs et des liens traverses. Lattribution
dune adresse IP `
a chaque interface connecte `a un lien peut ne pas etre envisageable quand les LSRs
sont connectes par un nombre important de liens (citons par exemple, N longueurs donde possibles
sur une meme fibre optique). Une solution possible `a ce probl`eme consiste `a attribuer `a chaque
nud ou LSR un identificateur unique (on utilise typiquement une adresse IP de loopback comme
identificateur du nud) et ensuite identifier localement chacun de ses liens. Pour ceci, les protocoles
de routage et les protocoles de signalisation doivent etre etendus pour la prise en charge de ce type
de liens que lon nomme des liens non numerotes . Ainsi, un lien est globalement identifie `a laide
du couple (LSR Id, Link Number). Les avantages dune telle approche sont (a) la reduction des co
uts
de gestion associes `
a ladressage IP et (b) la duplication dadresses.
3.6.2. Extensions des protocoles de signalisation
Les protocoles de signalisation tels que RSVP-TE ou CR-LDP doivent aussi etre etendus pour la
prise en charge de GMPLS. Dune facon succincte, les principaux elements `a ajouter actuellement
en cours de normalisation sont les suivants :
Prise en charge de letablissement de LSPs hierarchiques.
Normalisation de la notion dEtiquette Generalisee (integrant les differents paradigmes de commutation).
Generalisation du message de Label Request.
Prise en charge de LSPs bidirectionnels, pour une meilleure integration avec les reseaux optiques.
Notion detiquette suggeree.
Utilisation des ensembles et espaces detiquettes.
Generalisation des mecanismes de protection et de restauration.
Generalisation des messages de notification.
3.6.3. Nouveaux Protocoles et fonctionnalit
es
Voie de Contr
ole (ang. Control Channel)
Parmi les nouvelles fonctionnalites necessaires dans larchitecture GMPLS, le protocole Link Management Protocol ou LMP est particuli`erement important. La normalisation de LMP a ete motivee
par la constatation que dans le contexte GMPLS, deux LSR adjacents peuvent etre connectes par un
48
nombre relativement important de liens en parall`ele. Ceci pose un certain nombre de probl`emes de
passage `
a lechelle, resolus dans une certaine mesure grace `a la notion de Link Bundling. Le protocole
LMP, execute entre deux nuds adjacents assure quatre fonctionnalites principales :
Permet letablissement et la gestion de la voie de controle. Sur cette voie, une instance dun
protocole simple de type Hello Keep-Alive est executee. Remarquons que la voie de controle peut
etre separee des liens composants, par exemple, en utilisant une connexion de type Ethernet dediee.
Realise la verification et la gestion de la connectivite des canaux de transmission de donnees
dusager (bearer channels)
Correlation des proprietes des liens.
Isolation de pannes.
3.7. Mod`
eles de D
eploiement
Plusieurs mod`eles pour larchitecture GMPLS sont susceptibles detre deployes : le mod`ele superpose
(ou Overlay) et le mod`ele integre (ou Peer).
3.7.1. Mod`
ele Superpos
e ou Overlay
Dans le mod`ele Overlay (propose par lorganisme Optical Interworking Forum, OIF) le reseau client
est, au niveau du routage, independant du reseau optique. Le reseau de transport est cache, et deux
plans de contr
ole independants coexistent avec une interaction minimale. Les fonctions dinterfonctionnement sont realisees en definissant des interfaces, et pour cela deux interfaces sont normalisees,
linterface UNI (User to Network Interface) et linterface NNI (Network to Network Interface). Linterface UNI, (par exemple, entre le routeur de sortie du domaine et le dispositif optique) permet
aux equipements clients de realiser des requetes detablissement de tunnels optiques, dont le reseau
client beneficie de facon transparente. La decouverte des voisins, la distribution des informations
topologiques (routage) et les protocoles de signalisation sont independants.
Le mod`ele Overlay est illustre dans la figure 3.5(a).
3.7.2. Mod`
ele Int
egr
e ou Peer
Le mod`ele Peer est propose par lIETF. Dans ce mod`ele, tous les dispositifs sont censes executer
une ou plusieurs instances dun protocole de routage (par exemple, O-OSPF), quils soient optiques
ou `a commutation de paquets. Les routeurs MPLS agissent comme des peers (partenaires) des
commutateurs optiques. Les informations de routage sont echangees entre eux, et donc tous les
equipements ont une connaissance plus ou moins detaillee de la topologie du reseau.
Bien evidemment, le mod`ele peer implique lextension et la generalisation des protocoles existants.
Il parat raisonnable que dans un contexte reseau o`
u le protocole IP est le protocole dominant,
les protocoles de routage developpes `a ce propos soient des versions etendues de protocoles IGP
classiques tels que OSPF ou IS/IS.
Le mod`ele Peer est illustre dans la figure 3.5(b). Lavantage du mod`ele peer par rapport au mod`ele
superpose est la possibilite detablir O(N 2 ) chemins de donnees en gerant seulement O(N ) adjacences
de routage.
49
3.8. Conclusions
"
!
(a)
"
(b)
3.7.3. Remarques
Remarquons que le mod`ele Peer est un sur-ensemble du mod`ele Overlay. Lensemble des fonctionnalites necessaires pour la prise en charge du mod`ele Overlay est inclus dans celui pour la prise en
charge du mod`ele Peer. Concr`etement, le mod`ele Overlay peut etre implemente en desactivant les
fonctionnalites dechange de topologie tout en gardant les fonctionnalites de signalisation. Il existe
dautre part des mod`eles hybrides.
3.8. Conclusions
Larchitecture GMPLS est tr`es prometteuse, et permet lintegration sous un seul plan de controle
de technologies heterog`enes. A ce propos, larchitecture MPLS est devenue une declinaison possible
dune architecture plus generique, GMPLS, dont les objectifs sont bien definis et justifies mais, etant
en cours de normalisation, le nombre dimplementations est tr`es reduit, et de nombreuses questions
autour de GMPLS restent ouvertes.
50
4. El
ements dIng
enierie de Trafic
4.1. Introduction et Motivation
Dans les deux chapitres precedents nous avons presente larchitecture MPLS et comment celle-ci
fournit de nouveaux mecanismes pour lingenierie de trafic. Dans les sections suivantes, nous allons
detailler les approches existantes pour mettre en place lingenierie de trafic, ainsi que leurs relations
avec les plans de contr
ole et de gestion. Sauf mention explicite, nous nous placons dans le contexte
IP sur MPLS.
La structure du chapitre est la suivante : la notion dIngenierie de Trafic est detaillee dans la section
4.2, et la section 4.3 enum`ere les differents composants dingenierie de trafic du plan de controle de
MPLS, qui sont detailles ensuite : la decouverte des ressources (section 4.4), la diffusion de letat du
reseau (section 4.5), le calcul et selection de routes (section 4.6), lassignation du trafic (section 4.7)
et les mecanismes de restauration (section 4.8). Un exemple de serveur pour lingenierie de trafic
MPLS est donne dans la section 4.9.
La section 4.10 presente la notion de partage de charge, les mecanismes implementes par les protocoles de routage IP classiques pour le partage de charge et leurs limitations. Ensuite, nous formulons
le probl`eme du partage de charge dans les reseaux MPLS, et nous donnons un apercu de letat de
lart et des travaux existants ainsi que de certains aspects architecturaux du partage de charge et
de leur etat de normalisation. Finalement la section 4.11 conclut le chapitre.
4.2. Ing
enierie de Trafic
Dapr`es la definition donnee dans [88], lingenierie de trafic a pour but loptimisation, du point de
vue des performances, des reseaux operationnels. Dune facon generale, lingenierie de trafic englobe
lapplication de principes technologiques et scientifiques `a la mesure, la modelisation, la caracterisation et le contr
ole du trafic et lapplication de ces principes et du savoir-faire correspondant pour
obtenir des objectifs de performance concrets.
Historiquement, lingenierie de trafic dans lInternet etait limitee `a la gestion isolee des files dattente des routeurs et des elements reseaux et `a lapprovisionnement manuel de routes alternatives `a
celles imposees par le protocole de routage, en utilisant par exemple des routes statiques. Ceci est
principalement explique par le fait que les protocoles de routage etaient (et dans un certain sens
restent) limites en ce qui concerne la prise en charge des extensions pour lingenierie de trafic. Une
consequence dune telle limitation est que pour un couple origine / destination donne, lutilisation
de lacheminement classique IP restreint le trafic `a la route dite de plus court chemin, ou route par
defaut.
La notion de FEC, introduite dans larchitecture MPLS, fournit une meilleure granularite pour
la repartition du trafic que lapproche IP classique qui utilise uniquement ladresse destination.
51
&
'
%
;
&
'
Fig. 4.1: LSP layout : correspondance entre la matrice de trafic et la topologie physique du reseau.
D
ecouverte de Ressources La decouverte et la gestion des ressources disponibles par chaque equipement reseau est letape prealable a` la diffusion aux entites concernees de letat du reseau.
52
Cette decouverte est realisee automatiquement (p.e. pour des ressources configurees manuellement) ou suite `
a la reception de messages des protocoles de controle.
Diffusion de l
etat du r
eseau La diffusion de letat du reseau est faite `a laide des protocoles de
routage existants, eventuellement modifies et etendus. Les informations concernees sont la
topologie et la disponibilite de ressources comme la bande passante nominale ou residuelle.
Ces messages sont appeles de facon generique (par abus du langage suite `a leur definition
dans un protocole particulier) des messages de notification detat des liens (ang. Link State
Advertisements ou LSA) .
S
election de Route Le terme calcul et selection de route englobe les procedures, les algorithmes et
les heuristiques destines au calcul dune structure de donnees contenant la liste de routeurs entre
deux elements du reseau. Cette liste verifie un certain nombre de contraintes administratives
et de qualite de service. Dune facon generale, la complexite des algorithmes destines `a un tel
calcul devient intraitable lorsque la taille du reseau et le nombre de contraintes augmente. Une
heuristique pour le calcul de routes largement utilisee est lheuristique du Plus Court Chemin
Contraint (ang. Constrained Shortest Path First - CSPF) [88].
Gestion des Routes La gestion de routes concerne les mecanismes, algorithmes, procedures et protocoles permettant letablissement, la gestion et le relachement de routes (LSPs) dans un domaine MPLS, et notamment la distribution detiquettes. Comme evoque precedemment, deux
protocoles sont aujourdhui normalises et utilises `a cette fin : CR-LDP [12] et RSVP-TE [95].
M
ecanismes de Protection et de Restauration Les mecanismes de protection et de restauration
assures par les protocoles de routage dynamiques existants peuvent saverer insuffisants pour
certaines applications. Larchitecture MPLS apporte des mecanismes nouveaux visant une restauration en des temps de lordre de quelques millisecondes, correspondant aux crit`eres et
exigences actuels. Remarquons quil ne sagit pas seulement de proposer de nouveaux mecanismes pour la protection et la restauration mais aussi de les synchroniser avec les autres
mecanismes fournis par les differentes couches protocolaires.
4.4. D
ecouverte de Ressources
Certaines ressources dites locales aux routeurs sont decouvertes automatiquement. Citons par exemple
les differentes interfaces reseaux et leurs adresses IP. La decouverte des voisins topologiques est realisee gr
ace `
a lechange de messages de decouverte, designes, par abus de langage sous le nom de
Messages de Hello, envoyes `
a des adresses de diffusion normalisees et specifiques aux protocoles de
routage.
53
4.5. Diffusion de l
etat du r
eseau
Un certain nombre de procedures necessitent une connaissance plus ou moins detaillee de letat du
reseau (lexemple classique est la selection dune route explicite suite une requete detablissement
dun chemin). Les metriques statiques sav`erent parfois insuffisantes lorsque le reseau doit fournir
des services avec un certain niveau de qualite. Les mecanismes et protocoles de routage dynamiques
de type `a etat de liens sensibles `
a la qualite de service1 tels que OSPF-TE, Q-OSPF ou ISIS-TE
sont une facon (non exclusive) de garantir la diffusion des informations susceptibles detre prises
en compte dans les differentes heuristiques (cf. section 4.6.3.1). La diffusion de letat du reseau est
realisee grace `
a lechange de messages (par exemple, le protocole OSPF [74] definit les messages
LSA (Link State Advertisements) permettant la synchronisation, entre les LSR appartenant `a un
domaine, de leurs bases de donnees topologiques.
Caract
erisation des Liens
Chaque lien du reseau est caracterise par ses metriques detat. Certains travaux font lhypoth`ese
que chaque nud du reseau a une connaissance parfaite de letat dynamique du reseau, grace `a un
protocole de routage sensible `
a la QoS. Les effets dus `a la frequence de rafrachissement des mises `a
jour, les differents delais de transmission et de propagation des messages des protocoles de routage
et dune mani`ere generale, les effets de la synchronisation ne sont pas toujours pris en compte. Il est
souvent admis que si les changements des mod`eles de trafic sont lents par rapport au delai maximal
dun transfert de bout en bout, ces approches restent valides.
4.5.1. Le routage hi
erarchique
Le routage dit hierarchique est une reponse `a lexplosion des informations de la base de donnees
topologique du routage et permet dagreger de facon elegante ces informations lorsque la taille du
reseau est importante. Considerons par exemple le routage hierarchique des reseaux ATM (cf. [52]) :
afin de simplifier les bases de donnees topologiques et les tables de routage, chaque nud g`ere des
informations topologiques detaillees concernant le plus bas niveau hierarchique auquel il appartient,
ainsi que des informations agregees concernant le reste du reseau. Ceci necessite la definition de
groupes de nuds, partageant un attribut commun (geographique, administratif, etc.)
Un mod`ele souvent utilise pour levaluation des performances du routage hierarchique [5], [60], [6]
est le suivant : le reseau physique est represente par un graphe oriente, representant le niveau ou
couche 0. Les nuds du niveau 0 sont groupes en grappes (ang. cluster). Ces clusters deviennent les
nuds logiques du niveau 1, etc. Autrement dit, le syst`eme est la superposition dun ou plusieurs
niveaux hierarchiques, chaque niveau etant constitue de nuds logiques interconnectes par des liens
logiques. Le niveau 0 correspond `
a la topologie physique. Chaque nud a une vision topologique
differente, selon le groupe ou cluster auquel il appartient. Dans les reseaux ATM 2 utilisant PNNI
[82] comme protocole de routage, les clusters sont nommes Peer Groups .
Le nombre optimal de niveaux hierarchiques est une question difficile, qui depend fortement du
1 en
2 Comme
54
16
%
$
$
%
%
$
$
3*$
$
$
$
$
%
3*%
3*$
3*$
)ODW1HWZRUN
+LHUDUFKLFDO1HWZRUNV'HILQLWLRQRI3*
PG(A2)
PG(B)
PG(A1)
B.2
A.1
A.2.1
A.1.2
A.2.1 A.2.3
%
A.2.3
B
A.1.1
A.2.2
$
$
B.1
B.3
A.2.4
$
$
A.2.2
A.2.4
%
%
B.4
$
PG(A)
$
%
PG(A.1)
A.1.2
A.2
B.2
B
A.1.1
A.1
PG(B)
A
A.2
B.1
B.3
B
PG(NS)
+LHUDUFKLFDO1HWZRUN7KUHH/D\HUV
'LIIHUHQW$JJUHJDWHG7RSRORJLHVDFFRUGLQJWR3*
crit`ere considere. Avec un nombre limite de niveaux, les effets de la hierarchisation du routage ne
sont pas notables, et avec un nombre trop eleve, la complexite de gestion devient trop importante
pour un benefice negligeable [52]. Citons par exemple les 3 niveaux de la hierarchie de lInternet
actuel (en Syst`emes Autonomes et en aires de routage OSPF). La notion de routage hierarchique,
dans le contexte des reseaux ATM / PNNI est illustree sur la figure 4.2. On peut noter comment la
quantite dinformations de routage geres par chaque nud diminuent.
Des etudes concernant la performance des differentes methodes dagregation dinformation sont
presentees dans [6], [71], [72]. Des techniques de passage `a lechelle sont decrites dans [43], [44], [45].
Finalement, une approche pour le calcul distribue de routes dans les reseaux ATM est presentee
dans [31].
4.6. Calcul et S
election de Route
4.6.1. D
efinition
Le terme calcul des routes (Path computation), et son extension le calcul de routes multiples
(Multipath computation) definissent lensemble des procedures, algorithmes et heuristiques ayant
55
56
prune) les nuds dont limage vaut zero, ainsi que les liens (entrants / sortants) correspondants
(ang. incoming and outgoing links). Un exemple est lamincissement qui `a lieu au niveau des nuds
logiques representant des Syst`emes Autonomes, suite `a lapplication de contraintes politiques et
administratives.
Lheuristique MPLS / CSPF consiste `a appliquer iterativement des contraintes de caract`ere politique,
economique, technologique, administratif, etc., o`
u chaque contrainte induit un amincissement du
graphe modelisant le reseau. Lalgorithme de Dijkstra calcule, sur le sous graphe resultat, le plus
court chemin par rapport `
a une metrique donnee. Remarquons que les sous graphes resultants `a
chaque iteration peuvent ne pas etre connexes.
4.8. Les m
ecanismes de restauration bas
es sur MPLS
Afin de fournir un service fiable, larchitecture MPLS a besoin dun ensemble de procedures destinees
`a assurer la protection du trafic transporte sur les LSPs3 . Ceci impose que les routeurs faisant parti
du domaine MPLS fournissent des mecanismes de detection, de notification et de restauration des
pannes. De plus, la signalisation associee doit aussi supporter ces extensions. La protection du trafic
dans le contexte MPLS, connue sous le terme generique de Restauration MPLS (ang. MPLSbased Recovery) presente des avantages importants : Dune part, la possibilite dameliorer la fiabilite
du reseau en permettant une reaction aux pannes plus rapide quavec une architecture IP classique.
Dautre part, les mecanismes de protection MPLS peuvent saverer utiles dans le cadre darchitectures
IP sur canaux optiques WDM, en evitant une couche SDH.
Justification des m
ecanismes
Le re-routage de niveau 3 (re-routage IP) peut saverer trop lent dans le cur dun reseau MPLS necessitant une grande fiabilite et une grande disponibilite. Certes, les technologies comme DWDM ou
3 Le
57
4.8.1. Mod`
eles de Restauration
Les protocoles de routage classiques sont relativement robustes, mais le temps quils necessitent
pour retablir le bon fonctionnement du reseau suite `a une panne peut etre important, de lordre
de plusieurs secondes ou minutes, pouvant entraner une interruption serieuse du service pour les
applications. Afin dassurer un service fiable et tolerant aux pannes, les temps de restauration doivent
etre de lordre de la dizaine de millisecondes. Etant donne que les temps de restauration des protocoles
de routage actuels ne peuvent etre reduits du fait de limitations intrins`eques de ces protocoles, les
mecanismes de restauration bases sur MPLS peuvent ameliorer cette situation. Deux mod`eles sont
aujourdhui proposes et en cours de normalisation : la restauration par re-routage et la protection
par commutation.
Ces deux mod`eles qui seront decrits dans la suite, ne sont pas mutuellement exclusifs. Par exemple,
la protection par commutation peut etre utilisee pour une restauration rapide garantissant la connectivite pendant que les mecanismes de re-routage determinent une nouvelle configuration du reseau,
avec un nouveau calcul des chemins si necessaire.
La restauration par re-routage est definie comme letablissement de nouveaux chemins (ou morceaux
de chemin) sur demande afin dassurer la restauration du trafic suite `a loccurrence dune panne.
Les nouveaux chemins peuvent utiliser des informations concernant la panne elle-meme, concernant
des politiques administratives et des politiques de routage, des configurations predefinies et des
informations topologiques du reseau. Ainsi, suite `a la detection de la panne, les chemins ou morceaux
de chemin utilises pour contourner la panne en detournant le trafic sont etablis par signalisation.
Les mecanismes de re-routage sont intrins`equement plus lents que les mecanismes de protection par
commutation definis dans la suite, du fait de la procedure `a suivre suite `a la detection dune panne.
Neanmoins, ils sav`erent moins gourmands en ressources, car ils ne necessitent pas de reservation de
ressources avant loccurrence de la panne ni la connaissance de celle-ci. Une fois que les protocoles
de routage ont converge, il peut etre preferable de re-optimiser le reseau en realisant un re-routage
dapr`es le nouvel etat du reseau et dapr`es toute politique existante. La restauration par re-routage
utilise des chemins etablis par signalisation sur demande avec reservation de ressources sur demande.
Les chemins (ou morceaux de chemin) sont calcules dynamiquement.
58
Les mecanismes de restauration MPLS dits de Protection par Commutation (ang. Protection
Switching) pre-etablissent des chemins (ou morceaux de chemin) de secours, selon des politiques
de routage, selon les besoins de restauration du trafic `a acheminer sur les chemins principaux et
selon les politiques administratives. Les chemins de secours peuvent etre ou non disjoints lien-`a-lien
ou nud-`
a-nud avec le chemin principal. Neanmoins, si les chemins de secours partagent avec
les chemins principaux des sources potentielles de panne, la tolerance du reseau aux pannes en est
reduite. Suite `
a la detection dune panne, le trafic est achemine sur le ou les chemins de secours et
restaure. La Protection par Commutation utilise des chemins de secours preetablis. Si une reservation
de ressources est necessaire, la protection par commutation utilise aussi des ressources reservees `
a
lavance.
4.8.3. Op
erations de Switch Back
Les drafts actuels identifient deux modes doperation suite `a la detection dune panne : reversible
et non-reversible (ang. revertive / non revertive). Dans le mode reversible, on identifie un etat de
reference. Suite `
a une panne, le trafic est achemine sur des liens ou chemins de secours. Lorsque
cette panne est identifiee et reparee, le reseau revient (switch back) `a letat prefere. Par contre, dans
le deuxi`eme mode, le reseau ne revient pas au mode prefere.
59
est basee sur un algorithme proprietaire dit de Routage `a Inference Minimale, ayant pour objectif
une utilisation optimale des ressources reseau.
B
en
efices du partage de charge
On peut identifier plusieurs benefices importants au partage de charge : dune part, le partage de
charge reduit la congestion et les pertes, car par definition il permet la repartition du trafic. Dautre
part, il offre un temps de reponse plus petit en cas de panne, car il est admis que le re-calcul dun
partage est plus rapide que le calcul dune route alternative et devient un moyen dimplementer la
protection par commutation. Dans lintegralite de cette th`ese, nous faisons lhypoth`ese quil est toujours possible de calculer un nombre donne de chemins entre deux points du reseau. Cette hypoth`ese
est essentielle pour permettre aux operateurs doptimiser leurs reseaux au moyen dune repartition et
dune distribution du trafic et, en meme temps, detre capable dassurer un certain degre de fiabilite
60
Solutions Possibles
Modulo-N chemin Le choix du NH parmi une liste de N possibilites est realise en evaluant une
fonction de hachage modulo N sur les champs de len-tete permettant didentifier un flot. Le
principal inconvenient est que lajout ou la suppression de nouveaux candidats dans la liste des
NH peut affecter lacheminement des flots existants.
Hash-Threshold Lespace darrivee de la fonction de hachage est divise en intervalles, et chaque
intervalle est attribue `
a un candidat. Avec cette approche il est possible de mieux controler leffet
sur les flots existants de lajout ou de la suppression de candidats.
Highest Random Weight (HRW) La fonction de hachage prend en compte non seulement les
champs de len-tete permettant didentifier un flot, mais aussi ladresse des NH candidats. Ici
aussi, lavantage de cette approche est une minimisation du nombre de flots affectes par une
modification de la liste des candidats, mais est plus co
uteuse en puissance de calcul.
Ainsi, la plupart des mecanismes proposes sappuient sur des fonctions de hachage, et peuvent obtenir
une distribution equitable si le nombre de flots est eleve. De ce fait, leur application est limitee au
contexte des reseaux doperateur.
61
Dans les methodes orientees connexion, les flots de donnees sont caracterises par un nombre (idealement reduit) de param`etres, et les decisions de routage et (ou) dacheminement affectent le flot dans
son ensemble. A ce sujet, on remarquera lanalogie avec le routage sensible `a la Qualite de Service
classique.
Dans les methodes orientees paquet, les decisions dacheminement sont prises concernant chaque
paquet individuellement. Les methodes orientees paquet sav`erent bien adaptees dans les reseaux `a
commutation de paquets non orientes connexion tel que les reseaux IP.
M
ethodes hybrides
Il est generalement admis que le desequencement des paquets nest pas souhaitable (elle affecte en
particulier la performance de protocole tels que TCP). Ceci justifie la necessite de mecanismes orientes paquet dits hybrides capables de garantir que des paquets appartenant `a une meme connexion ou
micro-flot sont achemines sur un meme LSP. Comme evoque precedemment, une approche classique consiste `
a utiliser des tables de hachage. Rappelons que la quantite de connexions constituant
le trafic agrege doit etre suffisamment elevee pour assurer la granularite des mecanismes de hachage.
Nous considerons que cette hypoth`ese est respectee dans le contexte dun reseau doperateur.
Dans un reseau sans classes de trafic, le probl`eme du partage de charge peut se reduire, de facon
simpliste, au calcul dun vecteur de coefficients, un partage, donnant pour chaque LSP la proportion
de trafic `a acheminer. Si le mod`ele de service prend en compte plusieurs classes de service (par
exemple une architecture `
a Differentiation de Services), on peut parler du calcul dune matrice de
proportions (par LSP et par classe). Si lon etablit un LSP par classe on peut reduire le prbol`eme
au cas precedent.
62
(a)
(b)
(c)
Fig. 4.3: Groupe de LSPs. Le groupe est considere comme une donnee du probl`eme. Le partage de
charge entre des chemins non disjoints peut etre pris en compte par le partage de charge
hierarchique : un noeud du reseau est responsable dagreger les informations de routage
et dannoncer une seule adjacence au routeur dentree (ingress).
Hypoth`
ese
Dans la suite, nous faisons lhypoth`ese que le groupe de LSPs est fixe, et donc que son optimisation
est faite sur une echelle de temps plus grande que les mecanismes de partage de charge que nous
proposons. Le groupe des LSPs est suppose stable, sauf dans le cas o`
u des evenements tels que des
liens tombant en panne ou des mises `a jour du routage imposent un re-calcul du groupe. Finalement,
notons que le groupe peut etre egalement le resultat dune optimisation prenant en compte des
contraintes administratives, telles que linterdiction de traverser un certain Syst`eme Autonome. Le
groupe peut varier (lentement) dans le temps et etre communique aux routeurs concernes au moyen
dun protocole tel que COPS ou SNMP.
Notre probl`eme du partage de charge peut etre enonce de la facon suivante : etant donne un groupe
de LSPs 4 entre un nud A et un nud B, et etant donnee une caracterisation du trafic (la caracterisation utilisant des processus stochastiques etant la plus utilisee), determiner la proportion
relative du trafic qui doit etre acheminee sur chaque LSP du groupe. Lobjectif dun tel partage est
doptimiser le reseau par rapport `
a un certain crit`ere.
4 Rappelons
63
priv
ee avec M. Marco Carugi, membre du groupe de travail.
traduction du terme Policy Managed Networks
7 http ://www.ietf.org/internet-drafts/draft-allan-mpls-loadbal-00.txt
6 Libre
64
POLICY
DECISION POINT
(PDP)
-$9$/'$3
3ROLF\
3ROLF\
6HUYHU
5HSRVLWRU\
&2366103
1HWZRUN1RGH
('*(/65
('*(/65
POLICY
ENFORCEMENT
POINT (PEP)
LOCAL POLICY
DECISION POINT
(LPDP)
instances individuelles des tables FTN (FEC TO NHLFE) et ILM (Incoming Label Map) pointent
vers plusieurs entrees dans la table NHLFE (Nex Hop Label Forwarding Entry), en garantissant
lunicite de lelement choisi. La procedure de selection de lentree dans la table NHLFE indiquant
le routeur suivant et letiquette de sortie nest pas specifiee. Cette ouverture permet denvisager
un partage de charge entre plusieurs LSPs differents entre deux points du reseau. Neanmoins, les
mecanismes de selection dentree doivent respecter certaines contraintes :
Unicit
e Quun element et un seul ne soit choisi.
R
e-ordonnancement minimal de paquets dun m
eme flot Cette contrainte est respectee en sassurant que des paquets appartenant `a un meme flot selectionnent la meme NHLFE.
Equit
e (Fairness) et famine Concernant la distribution du trafic entre lensemble de NHLFEs
candidats, les normes ne specifient rien quant au choix des NHLFE (par round robin, mecanismes de hachage etc.), mais insistent sur la necessite dune equite.
Coh
erence Le trafic de test, associe `a un flot (agregat ou non) doit utiliser la meme entree NHLFE
que le trafic usager, car dans le cas contraire, les mecanismes mis en place pour detecter ou
diagnostiquer de facon pro-active (preventive) des pannes eventuelles ou la degradation de la
65
4.11. Conclusions
qualite de service, peuvent donner des resultats incoherents. Autrement dit, les procedures
destinees `
a surveiller le trafic `
a laide de trafic de test doivent prendre en compte le partage de
charge.
Pr
eservation des caract
eristiques DiffServ Le fait dimplementer le partage de charge ne doit pas
modifier les caracteristiques concernant la differentiation du trafic.
4.11. Conclusions
Dans ce chapitre, nous avons presente les composantes relatives `a lingenierie de trafic du plan de
controle MPLS, et leurs relations. Nous avons insiste sur la notion de partage de charge, en presentant
ses avantages notables et comment celui-ci peut etre implemente de facon relativement simple dans
les reseaux MPLS.
66
Deuxi`
eme partie .
Optimisation et Dimensionnement
67
Avant Propos
Even if you could afford it, over provisioning doesnt satisfy all application service-level requirements
[...]. Each application requires different service from the network and behaves in different ways. Even
generous over provisioning, in fact, may not provide the assurance that the network will handle the
specific demands of certain applications adequately. 9
The best way to get answers is to just keep working [at] the problem, recognizing when you are stalled,
and directing the search pattern.[...] Dont just wait for The Right Thing to strike you, try everything
you think might even be in the right direction, so you can collect clues about the nature of the problem.
10
Il nexiste pas une approche unique pour la resolution dun probl`eme : les approches mathematiques
fournissant des resultats analytiques sont basees sur la conception dun mod`ele qui impose parfois
des hypoth`eses non realistes ou qui ne prend pas en compte toutes les interactions ayant lieu dans
le syst`eme reel que lon essaie de modeliser, devaluer ou tout simplement de comprendre. Les approches basees sur des simulations peuvent nous aider `a mieux comprendre ces interactions, et elles
constituent normalement letape prealable `a la proposition dun mod`ele mathematique. Pourtant,
les simulations presentent le risque de ne pas prendre en compte tous les cas possibles, de negliger
certains cas pathologiques importants et detre limitees par les outils sous-jacents. Les conclusions
tirees de certains scenarii (utilisant, par exemple, des topologies reseau simplistes) peuvent ne pas
etre generalisables `
a tous les cas envisages. Meme si un mod`ele analytique generique est concu ou si
lon envisage des simulations exhaustives, on rencontre toujours les probl`emes lies `a la complexite,
le temps ou la puissance de calcul necessaire. La solution fait souvent appel `a lexperience, `a une
connaissance approfondie du syst`eme dans sa globalite et `a une matrise des outils disponibles.
Dans cette deuxi`eme partie, nous presentons le noyau theorique de cette th`ese. Le lecteur est suppose
avoir une connaissance de base de la theorie des probabilites, notamment des notions de variables
aleatoires et de processus stochastiques, ainsi que les elements essentiels de la theorie des grandes
deviations. Pour le lecteur non familier avec cette theorie, nous conseillons la lecture de lannexe
8 Libre
69
A, Techniques des Grandes Deviations dans laquelle nous presentons les elements essentiels de cette
theorie dans le contexte de levaluation de performances des reseaux de files dattente.
Les travaux presentes dans cette partie ont ete developpes dans le contexte technologique presente
dans la premi`ere partie. Neanmoins, certains resultats sont suffisamment generiques pour etre applicables non seulement `
a des reseaux `
a commutation de paquets autres que MPLS, mais egalement
`a dautres domaines dans lesquels les syst`emes physiques peuvent etre modelises de facon similaire
aux mod`eles que nous developpons dans la suite, comme le controle automatique.
70
5. Outils Math
ematiques
5.1. Motivation
Comme evoque dans lintroduction, un des objectifs de cette th`ese est doptimiser et evaluer des
mecanismes de partage de charge et dingenierie de trafic en proposant des mod`eles analytiques
generiques. La caracterisation utilise des processus stochastiques modelisant les processus des arrivees
de paquets dans ces mod`eles est un crit`ere important pour determiner lapplicabilite dun mod`ele
et `a cet egard, nous avons considere la theorie des bandes passantes effectives qui nous permet de
prendre en charge une famille importante de processus.
5.2. Introduction
La caracterisation du trafic a toujours ete un sujet dimportance capitale dans le contexte de la
modelisation et de levaluation de performances des reseaux. Dans un premier temps, des mod`eles
utilisant des processus de Poisson ont ete utilises, notamment dans le contexte de loptimisation
des reseaux telephoniques. Ce type de processus modelise bien les arrivees des appels telephoniques
classiques, et sont relativement simples : ce sont des processus `a accroissements independants, et ils
presentent certaines proprietes interessantes comme PASTA (Poisson Arrivals See Time Averages).
La forte expertise acquise justifiait son application aux reseaux de paquets.
Neanmoins, on sait que lutilisation de processus de Poisson pour la modelisation des arrivees de
paquets dans un reseau `
a commutation de paquets nest pas realiste. Un certain nombre detudes
ont mis en evidence les limites des mod`eles theoriques utilises historiquement et montre que le trafic
presente des proprietes de memoire longue et dauto-similarite (notions definies dans la suite). La
communaute scientifique na cesse de developper de nouveaux mod`eles de trafic, utilisant des processus stochastiques plus complexes, ou developpant et appliquant de nouvelles theories mathematiques.
Dans ce cadre, la theorie des bandes passantes effectives (b.p.e.) fournit une caracterisation elegante,
utile et relativement compl`ete des processus modelisant le trafic.
Les travaux de cette th`ese sont developpes autour de cette theorie. Lobjectif de ce chapitre est den
presenter les elements les plus importants. Neanmoins, on ne peut pas decoupler la theorie des bandes
passantes effectives de celle des grandes deviations mais, pour alleger lexpose, nous donnons ici la
definition de bande passante effective, ainsi que quelques proprietes des bandes passantes effectives
et ses applications directes aux reseaux de files dattente. Les resultats des grandes deviations sousjacents sont detailles en annexe (cf. annexe A, Techniques des Grandes Deviations). Dans la section
5.3 nous etudions le probl`eme du controle dadmission en utilisant une approche classique ce qui nous
permet de mettre en evidence certaines limitations dune telle approche tout en presentant quelques
definitions qui seront reprises apr`es avoir defini la notion de bande passante effective. La section 5.4
definit quelques notions de la theorie du tele-trafic qui nous seront utiles dans la suite. Ensuite, nous
definissons la notion de bande passante effective dans la section 5.5. Nous donnons lexpression de la
71
5. Outils Mathematiques
bande passante effective pour quelques mod`eles de trafic simples dans la section 5.6, nous parlons de
facon succincte de lestimation de bandes passantes effectives dans la section 5.7 et dans la section
5.8 nous formalisons le lien avec la theorie des grandes deviations et les applications connues sous le
nom de Asymptotique du Grand Buffer et Asymptotique du Grand Nombre dUsagers.
5.3. Le probl`
eme du contr
ole dadmission
Le probl`eme du contr
ole dadmission, et de mani`ere generale, le probl`eme du controle et evaluation de performances du partage dune ressource entre plusieurs sources concurrentes a motive le
developpement de la theorie des bandes passantes effectives.
A ce propos, avant de presenter la notion de bande passante effective, nous etudions bri`evement
un probl`eme classique adapte `
a notre contexte, le probl`eme du controle dadmission, qui consiste `a
determiner si une nouvelle connexion peut etre acceptee en respectant le niveau de qualite de service
promis `a toutes les sources acceptees. Considerons un ensemble de classes dusagers {1..I}. A classe
dusagers appartiennent un nombre fini de sources, note mi pour la classe i. Toutes les sources dune
meme classe ont un meme debit de transfert, que nous supposons constant et que nous notons ri pour
la classe i.
Ladministrateur reseau dispose dun lien de transmission de capacite C. Nous faisons egalement lhypoth`ese que le fait daccepter une source de classe i rapporte `a ladministrateur un benefice bi . Lobjectif de ladministrateur est de maximiser son revenu en choisissant un vecteur n , (n1 , . . . , nI ), ni
IN o`
u ni est le nombre de sources de classe i admises, tout en garantissant un syst`eme sans depassement de la capacite. Ce probl`eme peut etre formule de la facon suivante :
max
n
I
X
n i bi
(5.1)
i=1
n i ri C
i=1
0 ni mi
(5.2)
Ce probl`eme correspond `
a celui du remplissage du sac `a dos (ang. bounded knapsack problem) car
on a fait lhypoth`ese que le nombre de sources de chaque classe est connu et fini. Ce probl`eme peut
etre resolu `a laide de la programmation lineaire ou des methodes branch and bound. Nous ne
discutons pas ici de la complexite de ce type de probl`emes, mais presentons lanalogie avec la notion
de bande passante effective, qui sera formalisee dans la Section 5.5. Notons les points suivants :
Objectif et crit`ere de performance : il sagit de maximiser le revenu total connaissant la capacite
disponible.
Contraintes et contr
ole dadmission : ne pas depasser la capacite du lien de transmission, controlant
le partage de la ressource entre les sources concurrentes.
Region Admissible (ang. acceptance region) : lensemble des combinaisons de sources respectant
les contraintes.
72
5. Outils Mathematiques
Sous - optimalite : lensemble des combinaisons de sources qui apportent un revenu K definit
une region, sous-ensemble de la region admissible, qui depend de K.
Combinaison lineaire et caract`ere additif : le debit total offert au lien de transmission est obtenu
comme combinaison lineaire des debits de chaque source : les coefficients de la combinaison lineaire
correspondent aux composantes du vecteur n. Ceci est d
u `a la propriete additive de la bande
passante.
Un tel dimensionnement sav`ere relativement simple, principalement du fait que les valeurs ri et bi
sont constantes. Helas, une telle formalisation ne prend pas en compte les proprietes statistiques
des sources. Nous allons voir que la theorie des bandes effectives permet un dimensionnement plus
efficace par rapport `
a des approches classiques : dune part, les approches basees sur le pire cas
(ne considerant que les debits cretes, par exemple) m`enent `a une mauvaise utilisation des ressources
et un tel dimensionnement neglige leffet du multiplexage statistique. Dautre part, les approches
simplistes, considerant uniquement les debits moyens peuvent ne pas etre adaptees : `a debit moyen
egal, la sporadicite des sources peut avoir un impact tr`es different sur les crit`eres de performance
envisages, comme par exemple le taux de pertes ou la probabilite de debordement dune file dattente.
5.4. Quelques d
efinitions n
ecessaires
Dans cette section, nous donnons les definitions des principaux concepts dont nous aurons besoin
par la suite.
D
efinition 5.4.1 (Processus stationnaire). Un processus stochastique x(t) est dit stationnaire
si n N, , t0 < t1 < t2 < . . . < tn on a :
(x(t0 ), . . . , x(tn ))
=L
(x(t0 + ), . . . , x(tn + ))
( ) = p
var[x(t + )]var[x(t)]
73
5. Outils Mathematiques
Traffic Process
30
400
350
25
300
250
Work
Work
20
15
200
150
10
100
5
0
50
0
10
15
20
25
t
30
35
40
45
50
10
15
20
25
t
30
35
40
45
50
D
efinition 5.4.3 (Processus `
a accroissements ind
ependants). Un processus x(t) est dit `
a
accroissements ind
ependants si pour nimporte quelle suite dinstants de temps 0 = t0 < t1 <
t2 < . . . < tn , les accroissements du processus x(tn ) x(tn1 ), x(tn1 ), . . . , x(t1 ) x(t0 ) sont independants.
D
efinition 5.4.4 (Processus `
a borne stationnaire). Un processus daccroissements x(t) est
borne stationnairement si h
lim sup P {x(t + h) x(t) a} = 0
(5.3)
D
efinition 5.4.5 (Processus `
a m
emoire longue (ang. Long Range Dependent)). Un processus x(t) stationnaire est dit `
a memoire longue (ang. Long Range Dependent) si
|x (k)| =
(5.4)
k=
D
efinition 5.4.6 (Mod`
eles de Trafic `
a Queue Lourde). Une variable aleatoire X est dit `a
queue lourde si , 0 < < 2 et C tel que x P(|X| > x) C, quand x , o`
u C est une
constante et est lindex de la distribution. Un processus avec des distributions marginales `a queue
lourde est dit un processus `
a queue lourde.
D
efinition 5.4.7 (Auto-similarit
e). Un processus x(t) est dit auto similaire (self-similar) de
H
param`etre H, si le processus c x(ct) et le processus x(t) sont equivalents en distribution. Lexemple
classique de processus auto similaire est le processus mouvement fractionnaire Brownien (fBm). Voir
par exemple [96] pp. 34 ou [73].
74
5. Outils Mathematiques
Le terme ressource est souvent assimile `a lidee de capacite dun lien de transmission et celui de
crit`ere de performance `
a la probabilite de certains evenements non souhaitables, ou `a des metriques
comme les delais moyens. Le caract`ere additif est souvent associe `a lidee de bande passante effective,
par analogie au cas `
a debit constant, de sorte que la bande passante effective dun agregat de sources
independantes est la somme de leurs bandes passantes effectives.
La notion de bande passante effective (certains auteurs francophones utilisent le terme bande
passante equivalente) est assez recente. Les premiers travaux de Hui [47] definissaient la notion de
envelope rate, similaire mais moins compl`ete que la notion de bande passante effective que nous
verrons par la suite. La theorie des bandes passantes effectives a ete developpee en sappuyant sur
celle des grandes deviations, theorie qui concerne letude et lestimation de la probabilite de certains
evenements consideres comme rares ou dans certains regimes asymptotiques.
D
efinition de Bande Passante Effective
La Bande Passante Effective (b.p.e.) dun processus daccroissements ergodique `a borne stationnaire
est definie par [53] :
n
o
1
s(X(t0 +t)X(t0 ))
(s, t) = sup
log E e
(5.5)
st
t0
Si la source est stationnaire, le travail produit par la source pendant lintervalle de temps (t0 , t0 +
t),X(t0 + t) X(t0 ) est une variable aleatoire, notee X(0, t] dependant uniquement de la duree de
lintervalle. La Bande Passante Effective 1 devient :
(s, t) =
n
o
1
log E esX(0,t)
st
(5.6)
Remarques
Pour des raisons historiques, la notion de bande passante effective est souvent mal interpretee et
utilise par abus de langage :
1. La notion de b.p.e. dune source correspond `a la definition (eq. 5.6) qui fait intervenir la
transformee de Log-Laplace dune source. A cet egard, la bande passante effective depend
uniquement des proprietes stochastiques des processus daccroissements modelisant les arrives
au syst`eme, et est une caracterisation formelle intrins`eque `a la source. La b.p.e. est definie
comme une fonction de deux param`etres, un param`etre spatial note s et un param`etre temporel
note t. Cest la connaissance de ces deux param`etres, determinant un point de travail note
(s , t ), qui determine quantitativement la valeur de la bande passante effective de la source.
La facon exacte de determiner le point de travail dependra du crit`ere choisi et sera definie
ulterieurement.
2. La formalisation que nous utiliserons du probl`eme dallocation de ressources entre differentes
sources appartenant `
a un certain nombre de classes distinctes afin de garantir un certain crit`ere
de performance fait intervenir les b.p.e. des differentes sources. Sous certaines hypoth`eses
(par exemple, si les sources son independantes) cette formalisation sexprime en termes de
1 Certains
auteurs parlent aussi de Scaled Logarithmic Moment Generating Function comme transformation de la
transform
ee de Laplace de la variable al
eatoire.
75
5. Outils Mathematiques
76
5. Outils Mathematiques
La transformee de Log-Laplace dune v.a. est convexe (cf. annexe). Cette propriete nous permettra
dassurer lunicite du point de travail spatial (s ).
La bande passante effective associee `a un agregat de sources independantes est la somme de
leurs bandes passantes effectives. Nous retrouvons ici la propriete dadditivite que nous avons
evoquee precedemment. Cette additivite provient du fait que lesperance du produit de deux v.a.
independantes est le produit de leurs esperances, et du fait que le logarithme dun produit est la
somme des logarithmes.
Si le processus de trafic est `
a accroissements independants, sa bande passante effective ne depend
pas de t.
Pour un t fixe, la b.p.e. est croissante avec s, et on peut montrer que :
(0, t)
E [X (0, t)]
X
6 (s, t) 6
t
t
(5.7)
(5.8)
En pratique, cela veut dire que la valeur quantitative de la bande passante dune source se trouve
toujours entre sa le debit moyen et le debit crete de la source.
Interpr
etation
Il est difficile de donner une interpretation physique des param`etres s et t, et cette interpretation
depend en effet du crit`ere choisi qui permet de calculer le point de travail. Pour tout t, la bande
passante effective varie entre le debit moyen du processus de trafic instantane et son debit crete. Le
param`etre spatial s refl`ete cette idee : plus il est petit, plus la b.p.e. est proche du debit moyen, et
plus il est grand, plus la b.p.e. est proche du debit crete. Formellement :
1
s
E [X (0, t)] + Var [X (0, t)] + o (s)
t
2t
1
1
(0, t) + o 1
(s ) (s, t) = X (0, t) + log P X (0, t) = X
t
st
s
(s 0) (s, t) =
(5.9)
77
5. Outils Mathematiques
!
M
X
1
sk
(s, t) = log
e P(Xi = k)
s
k=0
1
log (pes + 1 p)
s
(5.10)
0.9
0.8
EffBw
0.7
0.6
0.5
0.4
0.3
0.2
0.1
10
Fig. 5.2: Bande passante effective associee `a XBern (n), pour differents valeurs de p.
h
i X
X
n
(e )k
E e(Y ) =
en e = e
= e ee
n!
k!
n=0
n=0
(5.11)
(e 1)
=e
Pour un processus de Poisson, le nombre darrivees pendant lintervalle de temps (0, t] est une v.a.
de Poisson de param`etre t. Nous avons donc :
s
1
log et(e 1)
st
s
= (e 1)
s
Poisson (s, t) =
78
(5.12)
5. Outils Mathematiques
2000
EffBw
1500
1000
500
5
s
10
La dependance du param`etre t napparat pas dans les expressions 5.10 et 5.12, du fait de la propriete
daccroissements independants.
5.7. M
etrologie et Estimation des Bandes Passantes Effectives
Dans la section 7.6, nous proposons un mecanisme de partage de charge adaptatif base sur la metrologie et lestimation de bandes passantes effectives `a partir de traces. Nous donnons ici quelques
elements importants. A ce sujet, `
a la base de cette estimation on trouve lidee cle dergodicite.
Le nombre detudes portant sur lestimation des bandes passantes effectives `a partir de traces est
relativement limite. Cette t
ache sav`ere encore plus difficile si le trafic est `a memoire longue, car
lanalyse statistique necessite alors pour une estimation correcte lobtention dun nombre important
de traces independantes. Ceci pose un certain nombre de probl`emes : la correlation entre echantillons
temporellement distants peut etre importante dans le cas dun trafic `a memoire longue. Dautre
part, nous verrons que sous certains regimes asymptotiques, les evenements interessants tels que les
debordements de capacite se succ`edent dans des intervalles de temps pouvant beaucoup varier pour
differents mod`eles de trafic, et ces intervalles de temps vont egalement definir la duree minimale des
traces ; enfin, le calcul des intervalles de confiance depend du mod`ele de trafic considere. En resume,
sauf dans certains cas particuliers, lestimation des bandes passantes effectives `a partir de traces
reste aujourdhui un sujet complexe necessitant des etudes approfondies.
Les travaux concernant lestimation des bandes passantes effectives sont complementaires `a nos
79
5. Outils Mathematiques
Considerons une source de trafic generant x[t] unites de travail `a linstant t. Amir Dembo ([96] pp.43)
propose une methode destimation de la transformee de Log-Laplace du processus daccroissements
de la source : on dispose de n traces dune realisation du processus. Considerons la taille de bloc b
pour laquelle les sommes :
X1 ,
b
X
x[t], X2 ,
t=1
2b
X
x[t], . . .
(5.13)
t=b+1
sont i.i.d. Lestimateur de la transformee de Log Laplace du processus est alors donne par :
bn/bc
X
1
1
log
eXi
b
bn/bc i=1
(5.14)
(s, t) =
1
1
log
st
bn/tc
bn/tc
esXi
(5.15)
i=1
Cet estimateur est utilise dans les mecanismes de partage de charge adaptatifs que nous proposons
dans la section 7.6, o`
u nous discutons de ses avantages et inconvenients.
Exemple
effectives, notamment des methodes basees sur le re-echantillonnage et des mecanismes de bootstrap
et surrogate data, en utilisant des methodes appelees de blocs lissants. Sa principale contribution
80
5. Outils Mathematiques
est lestimation des b.p.e. pour les flots de trafic presentant une dependance longue, et pour lesquels
lapplication des mecanismes destimation de b.p.e. classiques est limitee. Finalement, il est interessant de noter que pour lestimation de certains evenements, comme les probabilites de pertes ou des
debordements, il nest pas necessaire destimer la bande passante effective de la source. Rabinovitch
[96] propose pour cela une methode graphique basee sur la simulation et les regressions lineaires, et
utilisant certaines principes des grandes deviations.
Traffic Process
60
50
50
40
40
Work
Work
Traffic Process
60
30
30
20
20
10
10
10
15
20
25
t
30
35
40
45
50
20
40
(a) n=50
60
80
100
t
120
140
160
180
200
(b) n=200
55
55
50
50
Eff.Bw.
Eff.Bw.
45
45
40
40
35
35
30
30
(a) n=50
(b) n=200
Commentaires
Dune mani`ere generale, lestimation de bandes passantes effectives pour des valeurs arbitraires de s
et t reste une t
ache complexe. Comme les mod`eles de trafic differents presentent des echelles de temps
caracteristiques differentes (nous verrons ceci dans la suite, lorsque nous parlerons de lasymptotique
de grand nombre dusagers), on ne dispose pas delements suffisants pour savoir a priori pendant
quel intervalle de temps mesurer.
81
5. Outils Mathematiques
55
55
50
50
Eff.Bw.
Eff.Bw.
45
45
40
40
35
35
30
1e05
0.0001
0.001
0.01
s
0.1
30
1e05
0.0001
(a) n=50
0.001
0.01
s
0.1
(b) n=200
5.8.1. R
esultats Pr
eliminaires
Transformations de Mesures (Cram
er, cf. [21][23], pag.32)
Soit une distribution de probabilite sur R, et soit X (dx). Soit L() (resp. ()), sa transformee
de Laplace (resp. LogLaplace),
L() = E [eX ] =
ex (dx)
(5.16)
() = log L()
Soit (x), la transformee de Fenchel-Legendre (transformee convexe) de la transformee de LogLaplace de cette distribution de probabilite, definie par :
(x) = sup {x ()}
(5.17)
()
c Rt.q.({c}) 6= 1 et que c D, solution de lequation LL()
= c. Cette condition est equivalente
`a trouver largsup de la transformee convexe (egalement appelee fonction de taux) evaluee en c. Si
82
5. Outils Mathematiques
e x
c (dx) =
(dx)
L( )
(5.18)
alors une v.a. X de distribution c (dx) a tous ses moments finis et Ec [X] = c et V arc [X] =
00
L ( )
L( )
c2 > 0
Exemple 5.8.1 (v.a. Gaussienne). Afin dillustrer cette notion, un cas simple particuli`erement interessant pour la suite est le suivant : Considerons une v.a X N (p, p2 2 ), avec 0 < p < 1. Les
transformees de (Log) Laplace de X sont donnees par :
L() = p
2 2 p2
ex e
(xp)
2 p2
dx
(5.19)
1 2 2 2
= e(p+ 2 p )
1
() = p + 2 2 p2
2
et la transformee de Fenchel-Legendre
1
(c) = sup c p 2 2 p2
2
p
c = 2 2
p
(5.20)
et donc
2
(c) =
1 (c p)
2 2 p2
(5.21)
1 (cp)(2x(c+p))
ex
2
p2 2
=
e
L( )
(5.22)
et donc
1
Ec [eX ] = p
2 2 p2
ex
ex 12 (xp)
2 p2 dx
e
L( )
1 2 2 2
= e(c+ 2 p )
Ec [eX ]
|=0 = c
2 Ec [eX ]
|=0 = p2 2 + c2 V arc [X] = p2 2 > 0
2
83
(5.23)
5. Outils Mathematiques
Th
eor`
eme de Bahadur-Rao (cf. p.ex. [58])
Th
eor`
eme 5.8.1 (Bahadur Rao). Soit L() (resp. ()) la transformee de Laplace (resp. LogLaplace) dune v.a. X. Soit (Xn |n IN ) une suite de v.a. i.i.d. de meme loi que X. Supposons que
n
P
() est finie sur IR, et que la loi de X est absolument continue. soit Sn =
Xi , alors :
i=1
P (Sn nc) =
1
p
enI(c) 1 + o(1)
2
c 2nc
(5.24)
o`
u
I(c) = sup c ()
c = argsup c () , c.`
a.d. solution de lequation
c2 =
()
=c
(5.25)
2 (c )
2
Dans la suite, nous presentons les deux resultats asymptotiques evoques. Ces deux resultats sont
obtenus `a partir des principes de grandes deviations, ou P.G.D. Ce terme, formalise en annexe
(section A.3.3), permet dapproximer la probabilite de certains evenements interessants lorsquun
param`etre du syst`eme est suffisamment grand.
(5.26)
84
5. Outils Mathematiques
J
X
1
nj j (s, t) s(b + ct) =
log Q(N c, N b, N n) = sup inf st
lim
s
N N
t
j=1
J
X
= inf sup s(b + ct) st
nj j (s, t) = I
t
j=1
et donc
P [W B] eN I
Si nous definissons un crit`ere de performance comme une probabilite de pertes maximale e , note
eN 0 , alors la relation
Q(N c, N b, N n) e = eN 0
determine un ensemble de vecteurs n verifiant ce crit`ere. Cet ensemble A(N 0 , N c, N b) est appele
region admissible, et sa caracterisation est complexe. Dapr`es Kelly [53]
\
A(N 0 , N c, N b)
=
At = A
N
N
0<t<
X
At = (n1 , n2 , ..., nJ ) : inf st
nj j (s, t) s(b + ct) 0
s
lim
j=1
85
(5.27)
5. Outils Mathematiques
En consequence, pour des valeurs de N assez grandes, cette region peut etre approximee par une
region lineaire (affine) avec N, determinee par :
J
X
Nj j (s, t) C +
j=1
1
B
= C
t
s
(5.28)
Kelly etend cette region en utilisant lamelioration de Bahadur Rao (cf. [53]).
Traffic Process
18
16
14
120
12
100
10
80
Work
Work
100
140
60
6
40
20
2
0
10
15
20
25
t
30
35
40
45
50
(a) 1 Source.
10
15
20
25
t
30
35
40
45
50
5.8.3.1. Principaux r
esultats de Likhanov et Mazumdar [58]
Comme evoque precedemment, Likhanov et Mazumdar ont obtenu des expressions asymptotiquement exactes pour les probabilites de debordement et le taux de pertes dans certains cas particuliers.
Une de leurs contributions consiste `
a identifier les coefficients apparaissant devant les exponentielles
et permet donc, dobtenir une amelioration notable de la precision des approximations. Pour que
le lecteur puisse avoir une reference compl`ete de lasymptotique, nous reprenons les resultats de
Likhanov et Mazumdar [58]. Le point de depart de ces resultats est le theor`eme de Cramer avec
lamelioration de Bahadur-Rao, et donc la caracterisation de la queue de distribution dun agregat
de trafic.
Notation
Les points suivants definissent la notation utilisee, ainsi que les definitions des coefficients de variance
et de la fonction de taux apparaissant dans le theor`eme 6.7.3 et les propositions 6.7.1 et 6.7.2. On
note le debit moyen dune source et h son debit crete. Considerons un syst`eme `a temps discret
(t, n Z), compose dune file dattente de capacite C et taille de buffer B, alimentee par un agregat
de N sources i.i.d.
86
5. Outils Mathematiques
(5.29)
xi [n], `
a valeurs dans [0, h]
2. Hypoth`ese de stabilite
h>c>>0
(5.30)
xi (t1 , t2 ] =
xi [m]
m=t1 +1
i
x [t1 , t2 ) =
tX
2 1
(5.31)
x [m]
m=t1
X (N ) (t1 , t2 ] =
N
X
xi (t1 , t2 ]
i=1
X (N ) [t1 , t2 ) =
N
X
(5.32)
xi [t1 , t2 )
i=1
(5.33)
Notons que
0
(5.34)
2
00
00
var[X[0, t)] = LtX (0) LtX (0)
t
2
00
LtX ()
2 tX ()
X ()
=
+
LtX ()
2
6. Coefficient de variance
00
t2 =
LtX ()
(ct + b)2
LtX ()
87
(5.35)
5. Outils Mathematiques
(5.36)
tX ()
Lt ()
= X
= ct + b
LtX ()
Queue de Distribution Asymptotique dun agr
egat de trafic Par la suite on consid`
ere une file
1
eN It (c,b) 1 + O
2
N
2t N
1
(5.37)
Syst`
emes `
a buffer infini.
En appliquant lequation de Lindley, il est possible dobtenir des expressions asymptotiques pour la
queue de distribution du travail cumule dans une file dattente infinie. Lequation suivante caracterise
la dynamique du processus de travail cumule et son developpement recursif permet dobtenir une
equation simple pour la distribution stationnaire.
(N )
Wt
= max
(N )
0, Wt1
N
X
!
i
x [t] N c
(5.38)
i=1
W (N ) =
sup
(N )
Xt N ct
t{1,...}
min
t{0,1,...}
It (c, b) > 0
et
lim inf
t
It (c, b)
>0
log t
alors
P(W (N ) > N b) =
1
eN It0 (c,b) 1 + O
N
2
2t0 N
1
t0
88
5. Outils Mathematiques
W(N)
B=Nb
-t0
W(N)
-1 0 1 2 3
C=Nc
Syst`
emes `
a buffer fini
(N )
Yt
= min max
(N )
0, Yt1
N
X
x [t] N c , N b
(5.39)
i=1
min
t{0,1,...}
It (c, b) > 0
et
lim inf
t
It (c, b)
>0
log t
i=1
(N )
E[t
1
1
N It0 (c,b)
q
=
e
1+O
N
2
(t0 )2 E[x[i]] 2t0 N 3
Multiplexage Sans Buffer
Dans le cas o`
uB=0
1
1
N I1 (c,0)
p
PL =
e
1+O
2
2
3
N
(1 ) c 21 N
(5.40)
Le multiplexage sans buffer (ou avec lhypoth`ese de petits buffers) sera utilise dans le chapitre 9,
89
5. Outils Mathematiques
Ingenierie de trafic.
Approximations de petits buffer
Grace `a la continuite de la fonction de taux, [58] ont obtenu des approximations du taux de pertes sous
lhypoth`ese de buffers `
a croissance sous-lineaire. Sous les hypoth`eses mentionnees precedemment,
nous avons :
PL
1
1
(N I1 (c,0)1 Bo (N ))
p
e
1
+
O
N
(1 )2 c 212 N 3
(5.41)
Cette approximation sera utilise dans le chapitre 6, Partage de charge sur une topologie multi-lien.
5.8.3.2. Remarques
Il est interessant de noter quun nombre important detudes de performance utilisent uniquement la
borne de Chernov et travaillent seulement avec les equivalents logarithmiques. Comme mentionne,
Likhanov et Mazumdar insistent sur lamelioration de la precision des expressions asymptotiques
comparee `a lutilisation simpliste des equivalents logarithmiques. Pour des raisons de simplicite,
les resultats que nous presentons dans cette th`ese utilisent ces equivalents. Neanmoins, il est facile
de les completer avec les expressions presentees ici.
Une des hypoth`eses utilisees pour lobtention des estimateurs suppose que le debit crete des sources
est fini. Cependant certains mod`eles de trafic (citons par exemple le mouvement Brownien fractionnaire) ne verifient pas cette hypoth`ese et sont neanmoins souvent utilises [19]. Likhanov et
Mazumdar ont montre que si les sources multiplexes nont pas un debit crete borne, la probabilite
que le travail total produit par la totalite de sources de lagregat depasse un seuil et des metriques
derivees comme la probabilite de debordement ou le taux de pertes ne peuvent pas presenter une
decroissance exponentielle avec le nombre de sources N.
En pratique, le debit crete des sources est intrins`equement borne.
Certains auteurs utilisent le terme infsup formula, pour faire reference `a la double optimisation
necessaire pour calculer la fonction de taux de lasymptotique de grand nombre dusagers ainsi que
les equivalents logarithmiques des queues de distribution du travail cumule et du taux de pertes.
90
6.2. Mod`
ele du Syst`
eme
Dans la suite, nous appelons trafic dentree le trafic qui est offert au syst`eme dans sa globalite.
Le mecanisme de partage de charge nous permettra dobtenir une caracterisation du trafic offert `
a
chaque lien, que nous appelons simplement trafic offert.
Trafic dentr
ee
Le syst`eme est modelise de la mani`ere suivante (figure 6.2) : chaque lien du syst`eme est indexe par
l, l {1..L}. Nous appelons trafic (agregat) dentree, lagregation dun nombre N de sources i.i.d.
Le debit moyen dune source sera note , et son debit crete sera note h. Afin detre generiques
par rapport au trafic dentree, nous utilisons la theorie des bandes passantes effectives presente au
chapitre precedent. (s, t) denote la b.p.e. dune source faisant partie de lagregat dentree. La b.p.e.
PN
de lagregat est notee T (s, t), et sous les hypoth`eses i.i.d.T (s, t) = n=1 (s, t) = N (s, t).
91
/LQN
/LQN
,QJUHVV/65
(JUHVV/65
/LQN/
(GJH/65
Trafic offert
Nous verrons dans la section 6.3 que pour certains mecanismes de partage de charge, il est possible
dobtenir une b.p.e. offerte par source, qui dependra de la b.p.e. par source dentree, et du mecanisme
de partage de charge. Cette b.p.e. offerte au lien l sera notee l (s, t).
92
Trafic Externe
1(s,t)
p1X(N)[0,t)
Lien 1
X
(N)
p1(p1s,t)
pL(pLs,t)
C1 = N c 1
B1 = N b1
[0,t)
(s,t)
Lien 2
pLX(N)[0,t)
Lien L
CL = N c L
N
L(s,t)
BL = N b L
L
X
gl (x) = x,
x 0
l=1
1 Un
r
esultat similaire est donn
e dans [13] dans le contexte de lasymptotique du grand buffer
93
p1 X(0,t]
(p1 s,t) p1
X(0,t]
(s,t)
X(0,t]
(s,t)
Input
Interface
Broadcast
Forwarding
Engine
X(0,t]
X(0,t] (s,t)
(s,t)
Input
X(0,t] Interface
(s,t)
Load Sharing
Forwarding
Engine
p2 X(0,t]
(p2 s,t) p2
p3 X(0,t]
(p3 s,t) p3
X(0,t]
(s,t)
X(0,t]
(s,t)
Input
Interface
Multicast
Forwarding
Engine
X(0,t]
(s,t)
Input
X(0,t] Interface
(s,t)
Generic
Frowarding
Engine
f(X(0,t] )
(s,t)
Si gl (X[0, t)) est le travail offert au LSP l selon un mecanisme de partage donne (cf. figure 6.3), la
b.p.e. offerte au LSP l est :
l (s, t) = (st)1 log E(esgl (X(0,t)) )
Si xi [0, t) (resp. X (N ) [0, t)) est la quantite de travail produit par la source i (resp. la quantite de travail
produit par lagregat de N sources) pendant lintervalle [0, t), alors gl (xi [0, t)) (resp. gl (X (N ) [0, t)))
est la quantite de travail produit par la source i (resp. quantite de travail total) offerte au lien l.
Considerons le mecanisme de partage lineaire, o`
u gl (x) = pl x. Intuitivement, pl est la proportion
deterministe de travail achemine sur le LSP l. Remarquons que ce mecanisme correspond `a une
approche fluide (ce qui revient `
a dire que le travail est infiniment divisible).
Suivant cette approche, nous definissons par abus de langage un partage comme un vecteur dont la
dimension depend du nombre de liens et dont la l-i`eme composante represente la proportion fluide
de trafic `a acheminer sur le lien l. Les b.p.e. des processus de trafic par source et par agregat offert
sont donnees par les expressions suivantes :
1
log E(espl x[0,t) ) = pl (pl s, t)
st
(N )
1
(N )
l (s, t) =
log E(espl X [0,t) ) =
st
l (s, t) =
N
P
pl s
xn [0,t)
1
=
log E(e n=1
) = pl T (pl s, t)
st
6.4. Crit`
ere doptimisation et fonction objective
Apr`es avoir detaille notre mod`ele, nous allons formuler le probl`eme du partage de charge comme
un probl`eme doptimisation : le partage de charge optimal est le minimum sous contraintes dun
probl`eme doptimisation non lineaire. Les proprietes de convexite et lapplicabilite des techniques
classiques doptimisation vont dependre du mod`ele de trafic choisi. Remarquons que si les bandes
passantes effectives ont ete estimees `
a partir de traces, il est possible que le syst`eme necessite un
94
traitement enti`erement numerique. Dautre part, il est possible dobtenir pour certains mod`eles de
trafic des formules analytiques simples et explicites permettant une etude analytique compl`ete et
detaillee.
Les proprietes simples doptimisation des fonctions convexes a motive le choix de ce type de fonctions
comme fonctions de co
ut associees `
a des liens ou `a des routes dans la litterature. Ces fonctions ont
parfois ete choisies en nimposant que des contraintes de monotonie (croissance avec le trafic achemine
sur un lien) et de convexite. Dautres auteurs ont propose des fonctions de co
ut derivees du delai
moyen dune file dattente M/M/1 [10].
Dans le contexte de nos travaux, nous proposons des fonctions de co
ut plus realistes. A laide de la
theorie des bandes passantes effectives, nous prenons en compte une famille de processus et classes
de trafic, et en utilisant les principes des grandes deviations et les resultats asymptotiques donnant
des bornes stochastiques `
a des evenements de perte ou debordement dun seuil, nous proposons
des fonctions de co
ut saverant mieux adaptees lorsque des garanties de QoS deviennent necessaires.
Nous definissons une fonction de co
ut globale (la fonction objective) notee K, combinaison lineaire
dautant de fonctions de co
ut au niveau du lien ou de la route Kl que de liens disponibles. Les
fonctions de co
ut de chaque route dependent de la bande passante effective du trafic offert et du
mecanisme de partage de charge que nous presenterons dans la suite.
Nous considerons le crit`ere doptimisation consistant `a minimiser, pour chaque file, la probabilite de
debordement dun certain seuil et le taux de pertes. Dans le cas `a buffers infinis, nous definissons
un seuil critique pour le travail cumule dans chaque file dattente. Pour le cas de buffers finis, ce
seuil est donne par la taille du buffer, note Bl . Nous obtenons une approximation de la probabilite
de debordement et du taux de pertes. Il est important de noter que, meme si ces deux metriques
ne sont pas directement liees, [101] ont montre que lon peut utiliser la probabilite de perte comme
approximation du taux de pertes. Likhanov et Mazumdar [58] ont donne des expressions asymptotiquement exactes et ils ont prouve quelles sont logarithmiquement equivalentes (`a un coefficient
multiplicatif pr`es).
En utilisant lequivalent logarithmique, nous unifions dans un meme mod`ele la minimisation du
taux de pertes et la minimisation de la probabilite de pertes : la fonction de co
ut par route que
nous proposons donne une approximation du taux de pertes ou du taux de debordement et
correspond au produit de p par lequivalent logarithmique.
Notons que le fait de negliger ce coefficient a un effet sur la precision de lapproximation, car on
surestime alors la vraie valeur du taux de pertes.
En synth`ese, les equivalents logarithmiques de lasymptotique du grand nombre dusagers,
1. Nous donnent une approximation de la probabilite de pertes (saturation) et du taux de pertes.
2. Font intervenir les param`etres du syst`eme (capacites et buffers), et les proprietes du trafic en
utilisant la b.p.e.
3. Presentent (dans certaines configurations) des proprietes de convexite par rapport aux variables
de decision pouvant garantir loptimalite globale de la solution.
Les fonctions de co
ut de chaque route dependent de la bande passante effective du trafic offert (et
donc de la bande passante effective du trafic dentree), de la fraction (share) offerte pl et du trafic
externe concurrent dans le lien ainsi que des capacites nominales et des tailles des buffers associes.
95
s0
min
p1 ,...,pl [0,1]
K=
min
p1 ,...,pl [0,1]
Kl (pl )
l=1..L
o`
u
Kl (pl ) , pl exp(N Jl (pl ))
Jl (pl ) , inf sup {(bl + cl t)s stpl (pl s, t) stl (s, t)}
t
= inf
t
Itl (cl , bl )
pl = 1
l=1..L
0 pl 1, l
lim pl (pl s, t) + l (s, t) < N 1 Cl
s0
Comme certains auteurs le remarquent [18], cest la resolution de la double optimisation (connue
comme infsup formula) qui peut saverer compliquee. Remarquons que pour un t donne, le terme
s(b + ct) st(s, t) est concave en s, car la transformee de Log Laplace est convexe. Une approche
recente pour le calcul du point de travail utilisant une methode iterative est donnee par Courcoubetis
et al. [19], basee sur la substitution de trafic. (ang. Traffic Substitution).
96
Conditions dOptimalit
e
K,
L
X
Kl (pl )
l=1
Kl , pl exp (N Jl )
Jl , inf sup{(bl + cl t)s stpl (pl s, t) stl (s, t)}
t
L(p, v, u, w) =
L
X
l=1
pl exp (N Jl ) +
L
X
u l pl +
l=1
L
X
vl (1 pl ) + w
l=1
L
X
(1 pl )
l=1
Supposons que les coefficients ul et vl associes au probl`eme doptimisation sont nuls (les contraintes
sont inactives). Les derivees partielles du Lagrangien secrivent alors :
L
= eN Jl (pl ) 1 + pl N
Jl (pl ) w = 0
pl
pl
L
= eN Ji (pi ) 1 + pi N
Ji (pi ) w = 0
pi
pi
97
K
= eN Jl (pl ) 1 + pl N
Jl (pl )
pl
pl
K
= eN Ji (pi ) 1 + pi N
Ji (pi )
pi
pi
sont egales `a loptimum :
N Jl (pl )
N Ji (pi )
Jl (pl ) = e
1 + pi N
Ji (pi )
1 + pl N
pl
pi
Il est alors possible dobtenir des conditions doptimalite locale. [10] utilisent la notion de Longueur
Egale de la Premi`ere Derivee (ang. equal first derivative length) :
N (Jj(pj )Ji(pi ))
=
e
(1+pi N
(1+pj N
Ji (pi )
)
pi
Jj (pj )
)
pj
i, j L
(6.1)
L
P
pl = 1
l=1
Donc,
(1+p
iN
(1+p
jN
Ji (p
i))
pi
Jj (p )
j
)
pj
i, j L
pl = 1
(6.2)
l=1
Validation de lhypoth`
ese de contraintes din
egalit
e inactives
Les contraintes dinegalite sont inactives, autrement dit, le partage optimal na aucune composante
egale `a 0 ou `a 1. Intuitivement, ceci correspond `a lidee que dans notre probl`eme il vaut toujours mieux
ajouter de nouvelles files dattente, quel que soit le seuil ou la taille de buffer associe : considerons
un syst`eme avec une seule file dattente, pour laquelle il est possible destimer la probabilite quil y
ait des pertes, ou le taux de pertes. Supposons que nous ajoutions une deuxi`eme file dattente. Il est
toujours possible de trouver une fraction, meme infinitesimale de trafic (du fait de la propriete fluide
de notre approche) `
a acheminer sur la deuxi`eme file qui reduise le taux de pertes total du syst`eme,
cest `a dire la fonction de co
ut. Nous allons formaliser cette idee : considerons un groupe de L liens,
et prenons la probabilite de debordement comme crit`ere. A loptimum, la fonction de co
ut est :
K=
L
X
pl Ppl (Wl Bl )
l=1
o`
u Ppl (Wl Bl ) est la probabilite de debordement pour le lien l pour un partage pl . Supposons que
lon ajoute au syst`eme un nouveau lien (L + 1) avec pour seuil critique BL+1 , et supposons quune
fraction du partage pi est deviee sur le nouveau lien. Alors ,
(0, pi ) | Ppi (Wi Bi ) P (WL+1 BL+1 ) > 0
98
Notons que Pp (Xl > Bl ) et pPp (Xl > Bl ) sont croissantes avec p,
pi Ppi (Wi Bi ) pi P (WL+1 BL+1 ) > (pi )Ppi (Wi Bi ) (pi )P (WL+1 BL+1 )
Finalement,
pi Ppi (Xi Bi ) > (pi )Ppi (Wi Bi ) + P (WL+1 BL+1 )
> (pi )Ppi (Wi Bi ) + P (WL+1 BL+1 )
et
L
X
l=1
l=1..L
l6=i
2
2
Jl (pl ) >
J
(p
)
l l
pl
p2l
(6.3)
Demonstration. Afin detendre les conditions de minimum local `a des conditions de minimum global
il est suffisant de prouver la convexite de la fonction objective dans lensemble dadmission (lensemble
des vecteurs de partage respectant les contraintes), et que cet ensemble est un ensemble convexe.
Dapr`es la proposition (7.5.1), le terme exp (N Jl ) est croissant avec pl et Kl est convexe si exp (N Jl )
est convexe. Si lon calcule la derivee partielle seconde (par rapport `a pl ) :
2 !
2
2 N Jl (pl )
N Jl (pl )
e
=N e
Jl (pl ) + N
Jl (pl )
>0
pl 2
p2l
pl
2
2
Jl (pl ) + N
Jl (pl ) > 0
p2l
pl
Notons que lon ne peut pas a priori garantir lexistence dun partage optimal. Dans ce cas, lechec
de la procedure pour trouver une solution doit etre signale et eventuellement declencher une requete
pour le recalcul ou la modification du syst`eme (augmentation de la capacite, reduction du nombre
de sources multiplexees, etc.)
99
6.6. Exemples
6.6. Exemples
Dans cette section nous presentons plusieurs exemples illustrant lapproche que nous avons presentee.
Les deux premiers utilisent des mod`eles de trafic correspondant `a des sources de type Mouvement
Fractionnaire Brownien (fBm) et Poisson.
Remarque importante
Nous avons vu dans le chapitre 5 que si les sources de trafic nont pas un debit crete borne (hypoth`ese
non verifiee pour ces deux types de trafic), lasymptotique de grand nombre dusagers ne peut pas etre
appliquee. Il possible de montrer que dans ce cas, le taux de pertes et la probabilite de debordement
ne presentent pas une decroissance exponentielle [58]. Autrement dit, lagregation dun grand nombre
de sources avec debit crete non borne nimplique pas une decroissance exponentielle du travail total
produit avec le nombre de sources multiplexes. Ce resultat remet en cause lutilisation des sources
de type fBm dans le contexte de lasymptotique du grand nombre dusagers [105].
Neanmoins, il est toujours possible dutiliser lexpression de la bande passante effective dune source
de type fBm comme borne superieure : considerons une source de trafic `a debit crete borne dont la
b.p.e.
(s, t) verifie :
1
(6.4)
(s, t) + s 2 tH1
2
s, t R+ pour des valeurs de , H et . Etant donne que la fonction de taux qui apparait dans les
equivalents logarithmiques est decroissante avec (s, t) nous avons donc :
et
1
I(.,
(s, t)) I(., + s 2 tH1 )
2
(6.5)
1
LR (.,
(s, t)) LR (., + s 2 tH1 )
2
(6.6)
Si nous considerons une file dattente avec capacite C et taille de buffer B, alimentee par lagregation
dun grand nombre N de sources i.i.d, et dont la b.p.e. est bornee par la b.p.e. dune source fBm
pour certaines valeurs des param`etres , et H, alors le syst`eme presente un taux de pertes qui
est borne par le taux de pertes quon approxime en utilisant lexpression de la b.p.e. dun processus
fBm : I(.,
(s, t)) I(., + 21 s 2 tH1 ).
En synth`ese, lutilisation des mod`eles de trafic fBm nous permettra lanalyse du comportement du
syst`eme et de son optimum `
a laide dun nombre reduit de param`etres.
Finalement, le troisi`eme exemple que nous presentons correspond `a un cas plus realiste, dapplication
immediate, o`
u les sources sont caracterisees par leurs debits moyens et leurs debits cretes, et o`
u nous
utilisons une borne superieure de la b.p.e.
Remarque
Si les sources constituant lagregat sont a` debit constant, tout partage respectant les contraintes
de stabilite (debit moyen offert `
a nimporte quel lien inferieur `a la capacite nominale du lien) est
optimal : le travail cumule dans les differentes files dattente est toujours zero et les pertes sont
100
6.6. Exemples
inexistantes. Pourtant, et afin detre en accord avec les resultats que nous allons presenter par la
suite, certaines r`egles de dimensionnement pourront quand meme etre appliquees.
6.6.1. Exemple I : Partage De Charge Multi Chemin `
a un seul saut (Single Hop Multipath
Load Sharing) avec des sources mouvement fractionnaire Brownien
R
esultats pr
eliminaires
t
P
s=1
maZ(t),
lim
1
x2(1H)
2H
1
1H
log P (W x) =
(c m)
2am(1 H)2
H
(6.7)
Remarquons que pour H > 1/2, lapplicabilite de lasymptotique du grand buffer est limitee, car la
queue de distribution nest pas exponentielle (le logarithme de la probabilite ne decrot pas lineairement avec la taille du buffer). Dautre part, dans son article sur les b.p.e., Kelly [53] consid`ere
egalement des processus daccroissements Y (0, t) = t + V (t) o`
u V (t) est une variable aleatoire normale de moyenne zero, et il insiste sur le fait que la forme analytiquement simple des b.p.e. des sources
gaussiennes et lobtention de formules simples, justifie le probl`eme des accroissements negatifs. Le
cas dune source modelisee comme un mouvement fractionnaire Brownien (ang. Fractional Brownian
101
6.6. Exemples
1H
H
b
H1 1
1
2H
nj j2
jJ
nj j c
jJ
et le point de travail :
s = 2 (1 H)
b
H
b
P
t =
1 H c nj j
j
T (s, t) =
N
X
m=1
l +
M
1 X 2 2H1
1
l st
= N l + N l2 st2H1
2 m=1
2
Remarquons que dapr`es [19], nimporte quel trafic externe (pour le calcul de la fonction de taux)
peut etre remplace par une source fBm, meme sil nest pas `a memoire longue.
La fonction de taux par file correspond `
a:
1
1
Il = inf sup{(bl + cl t)s stpl st 2 p2l st2H1 stl st l2 st2H1 }
t
2
2
s
1 2 2
2 2 2H
= inf sup{bl s + (cl pl l )st ( pl + l )s t }
t
2
s
Les differents points de travail pour chaque lien sont donnes par :
102
6.6. Exemples
bl + (cl l pl )t
( 2 p2l + l2 )t2H
bl
H
tl =
cl l pl 1 H
sl =
Jl =
2(1H)
bl
1
2( 2 p2l + 2 )
1
)2(1H)
( 1H
H 2H
(cl l pl )2H
2bl (cl l pl )
2 p2l + 2
(6.8)
b (c p )
2N i i2 2 i 2 i
( 2 p2i i2 )2 2 pi (ci i ))
(
p +
i
i
e
1 pi 2N bi
=
( 2 p2i +i2 )2
bj (cj j pj )
2N
i, j L
P
L
pl = 1
l=1
Remarque
6.6.1.1. Analyse
Fonction de Co
ut par Lien
103
6.6. Exemples
B = 30 (b = 1.00)
B = 35 (b = 1.16)
B = 51 (b =1.70)
0.45
0.4
0.35
Cost
0.3
0.25
0.2
0.15
0.1
0.05
0
0.6
0.65
0.7
0.75
0.8
p
0.85
0.9
0.95
sigma = 2
sigma = 3
sigma = 4
0.6
h = 0.3
h = 0.4
h = 0.5
0.4
0.35
0.5
0.3
Cost
Cost
0.4
0.3
0.25
0.2
0.15
0.2
0.1
0.1
0
0.6
0.05
0.65
0.7
0.75
0.8
p
0.85
0.9
0.95
(a) Effet de
0
0.6
0.65
0.7
0.75
0.8
p
0.85
0.9
0.95
(b) Effet de H
Fonction de Co
ut du Syst`
eme
104
6.6. Exemples
0.4
0.6
N=30
N=40
0.35
0.3
0.4
0.25
0.2
0.3
0.15
0.2
0.1
0.1
0.05
0
0.2
0.25
0.3
0.35
0.4
0.45
p1
0.5
0.55
0.6
0.65
0.7
0
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.55
p1
capacites nominales.
Approximation `
a faible charge
Une approximation grossi`ere est l, rl . Dans ce cas, le partage optimal correspond `a lexpression
suivante :
bi r i
pi = L
P
(6.9)
bl rl
l=1
Il est clair que lhypoth`ese i, Ri nest pas toujours verifiee. Nous allons voir que le partage optimal pourra neanmoins etre approxime par lexpression 6.9. Dautre part, sous lhypoth`ese
l2 l l = 1..L,si les tailles des buffers bl sont proportionnelles aux capacites residuelles,
bl = drl l , (d correspond `
a un delai virtuel maximal), alors les conditions doptimalite deviennent :
2N
dri (ri pi )
2 p2
i
2N
drj (rj pj )
2 p2
j
e
e
(2ri pi )
1 + 2N dri
2 p2i
1 + 2N drj
(2rj pj )
2 p2j
=
!
i, j L
Autrement dit, le delai virtuel etant fixe, une augmentation de la capacite implique une augmentation de la taille du buffer. Dans ce cas, le partage de charge optimal correspond au cas pragmatique
et intuitif de Proportionnel `
a la capacite residuelle. Dun point de vue mathematique, ce cas correspond `
a celui o`
u legalite est verifiee au meme temps par lexponentielle et par le terme entre
parenth`eses. Ainsi :
pi =
ci i
L
P
(cl l )
l=1
105
6.6. Exemples
es 1
s
(s, t) =
N
X
m=1
es 1
s
= N
es 1
s
sl =
bl + cl t
tl pl
1
= sup Hl =
pl
s
log
bl + cl t
tl pl
(bl + cl t) (bl + (cl pl )t)
cl t log
bl + cl t
tl pl
2 Itl (cl , bl ))
b2l
> 0,
=
2
t
(bl + cl t)t2 pl
(bl + (cl pl )t)
(6.10)
Remarquons que
1
Itl (cl , bl )
=
t
t
pl
lim
cl log
106
cl
pl
(cl pl )
6.6. Exemples
100
c = 10
c = 11
c = 12
3.5
c = 10
c = 11
c = 12
3
10
2.5
1.5
1
0.5
0
0.1
0.0001
0.001
0.01
0.1
10
100
La figure 6.7 illustre levolution en fonction de t pour quelques configurations. Notons le caract`ere
lineaire quand t . Largmin de la fonction de taux correspond au point de travail t > 0 et est
solution de :
log
bl + cl t
tl pl
cl t = (bl + (cl pl )t)
(6.11)
Itl (cl , bl )
bl
= log
pl
bl + cl tl
tl pl
(6.12)
K=
L
X
N pl log
pl e
bl +cl t
l
t pl
l
l=1
L
X
p l log
pl e
bl +cl t
l
t pl
l
l=1
L
X
l=1
pl
bl + cl tl
tl pl
Bp l
l
o`
u le point de travail temporel t est donne par lequation (6.11).
6.6.2.1. Analyse
Fonction de Co
ut par Lien
107
6.6. Exemples
Nous reprenons la meme configuration que dans le cas avec des sources de type fBm, avec des sources
Poissoniennes (cf. figure 6.10).
La figure 6.11 (a) illustre levolution du partage de charge optimal pour un syst`eme avec L = 2,
pour N = 40, B1 = 20, C1 = C2 = 350 et = 15. Lorsque B2 /B1 = 1 le syst`eme est symetrique et
correspond `a un partage optimal (0.5, 0.5). En augmentant la taille du buffer du deuxi`eme lien, le
partage optimal favorise celui-ci. La figure 6.11 (b) illustre levolution du partage de charge optimal
pour le meme syst`eme, mais avec = 10. Remarquons que la variation du point optimal est beaucoup
plus notable `a faible charge, comparee `
a celle que nous pouvons evaluer `a plus forte charge. A priori,
il parat raisonnable de dire qu`
a forte charge, leffet des differentes tailles des buffers devrait faire
108
6.6. Exemples
B = 30 (b = 1.00)
B = 35 (b = 1.16)
B = 51 (b =1.70)
0.5
B = 30 (b = 1.00)
B = 35 (b = 1.16)
B = 51 (b =1.70)
0.45
0.4
0.35
0.4
Cost
Cost
0.3
0.3
0.25
0.2
0.2
0.15
0.1
0.1
0.05
0
0.6
0.65
0.7
0.75
0.8
p
0.85
0.9
0.95
0
0.6
0.62
(a) = 9.9
0.64
0.66
p
0.68
0.7
(b) = 14
N=30
N=40
0.35
0.5
0.3
0.4
0.25
0.2
0.3
0.15
0.2
0.1
0.1
0.05
0
0.2
0.25
0.3
0.35
0.4
0.45
p1
0.5
0.55
0.6
0.65
0.7
0
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.55
p1
(a)
(b)
changer le partage optimal. Lexplication en est simple : `a forte charge, les contraintes de stabilite
limitent fortement lensemble realisable. Nous pouvons affirmer, encore une fois, qu`a forte charge
les contraintes de stabilite vont fortement influencer le partage optimal.
Effet de la capacit
e
Nous illustrons sur la figure 6.12 (a) la variation du partage optimal dans le cas dun syt`eme avec
L = 2, N = 30, B1 = B2 = 20, C1 = 350 et = 21 en fonction de la proportion C2 /C1 , `a tailles
de buffers constantes, ainsi que les approximations basees sur la r`egle de la racine carree et sur la
proportionnalite. La figure 6.12 (b) montre levolution du co
ut optimal pour ces trois cas.
109
6.6. Exemples
0.5
0.5
0.495
0.48
0.49
0.46
0.48
0.44
0.475
0.42
p1
p1
0.485
0.47
0.4
0.465
0.38
0.46
0.36
0.455
0.45
1.5
2.5
3
B2/B1
3.5
4.5
0.34
1.5
2.5
3
B2/B1
3.5
4.5
Fig. 6.11: Trafic Poissonien : Evolution du partage optimal en fonction de la taille des buffers
0.5
0.01
Optimal
Proportionnal
sqrt rule
Optimal
Proportionnal
sqrt rule
0.0001
0.45
1e06
1e08
p1
p1
0.4
0.35
1e10
1e12
1e14
0.3
1e16
0.25
0.8
1.2
1.4
1.6
1.8
2
C2/C1
2.2
2.4
2.6
2.8
1e18
1.2
1.4
1.6
C2/C1
1.8
2.2
Fig. 6.12: Trafic Poissonien : Evolution du partage optimal en fonction du rapport de capacites.
X(0,t)
t
xmax
xmin
f (xmin ) +
f (xmax )
xmax xmin
xmax xmin
110
6.6. Exemples
(s, t) =
1
log 1 + esht
st
h h
Utilisant notre caracterisation de la b.p.e. offerte `a chaque lien, nous pouvons ecrire
pl sht
1
log 1 + e
l (s, t) = pl
pl st
h h
Lemme 6.6.1 (Convexit
e de la borne sup
erieure de la b.p.e.). La b.p.e. offerte `
a chaque lien
est convexe par rapport `
a p.
Demonstration.
l (s, t)|m,h
1
pl sht
= pl
log 1 +
e
1
pl st
h
m pl sht
1
log 1 +
e
1
=
st
h
= log (1 + (ep 1))
l (p)
ep
=
p
1 + (ep 1)
2 ep (1 + (ep 1)) ep (ep )
2 l (p)
=
2
2
p
(1 + (ep 1))
= 2 ep + 2 2 e2p 2 2 ep 2 2 e2p
= 2 ep (1 )
>0 < 1
m
<1
h
Les tailles des buffers de chaque lien ne croissent pas lineairement avec le nombre de sources multiplexees, mais avec sa racine carre. Ainsi, nous ecrivons :
Cl = N cl
Bl = N bl
111
6.6. Exemples
une file dattente generique avec une capacite par source c et un buffer de taille B = N b nous
avons :
1
1
(N I1 (c,0)1 Bo (N ))
p
PL
1+O
e
2
2
3
N
(1 ) c 21 N
(6.13)
o`
u
n
m m spht o
+ e
It (c, b) = sup (b + ct)s log 1
h
h
s
Bo (N ) = N b
Dans les probl`emes doptimisation que nous proposons, nous gardons lequivalent logarithmique,
cest `a dire (index l supprime pour des raisons de clarete) :
PL e(N I1 (c,0)1 Bo (N ))
(6.14)
b + ct
mptespht
m spht = 0
1 m
h + he
donc
s =
1
log
pht
(m h)(b + ct)
m(b + (c ph)t)
Les cas qui nous interessent sont (afin de garantir la stabilite du syst`eme et quil y ait des pertes)
b + ct
h
>
b + (c hp)t)
hm
b
c > mp
t
b
c < hp
t
La fonction de taux resultante est donnee par lexpression :
(b + ct)
It (b + ct) =
log
pht
(m h)(b + ct)
m(b + ct pht)
log
pt(m h)
b + ct pht
Sous lhypoth`ese de petit buffer, nous calculons I1 (c) et nous derivons la fonction de co
ut par lien :
K=pe
c(mh)
c
N ( hp
log( m(cph) )log(
p(mh)
cph
))s |b=0 b
t=1
ff
N
(6.15)
112
6.6. Exemples
0.8
b=0
b=1
b=2
0.7
h = 20
h = 35
h = 55
0.9
0.8
0.6
0.7
0.6
Cost
Cost
0.5
0.4
0.5
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0
0.4
0.5
0.6
0.7
p
0.8
0.9
0
0.4
0.5
0.6
0.7
p
0.8
0.9
(b) D
ebit cr
ete variable variable.
0.49
0.48
0.48
0.46
0.47
0.44
p1
0.5
p1
0.5
0.46
0.42
0.45
0.4
0.44
0.38
0.43
5
b2/b1
(a) h = 45
0.36
5
b2/b1
(b) h = 30
Fig. 6.14: Evolution du partage de charge optimal dans un syst`eme `a 2 liens, symetrique o`
u le trafic
dentree est lagregation de N = 30 sources
caract
e
ris
e
es
par
leur
b.p.e.
de
Hoeffding
de la proportion de trafic p achemine sur le lien est illustre dans la figure [?] o`
u le trafic dentree est
lagregation de N = 30 sources caracterisees par leur b.p.e. de Hoeffding (m = 9) avec une capacite
par source c = 10 (unites de travail produit/servi par unite de temps). Nous pouvons remarquer que
les fonctions de co
ut par lien ne sont pas strictement convexes. Ensuite, le partage de charge optimal
est calcule dans un syst`eme `
a 2 liens, symetrique o`
u le trafic dentree est lagregation de N = 30
sources caracterisees par leur b.p.e. de Hoeffding (m = 10, h = 45) et (1) C1 = N 10, B1 = N 1 (2)
113
1
0.4
0.8
0.6
0.2
0.4
0.2
0
0 0.1
0.2 0.3
0.4 0.5
0.6 0.7
0.8 0.9
p1
0.91
0.70.8
0.50.6
0.4
p2
0.3
0.10.2
1 0
0.1
0.2
0.3
p2
0.4
0.5
(a) G
en
eral
0.6
0.4
0.45
0.3
0.35
0.2
0.25
0.1
0.15
0
0.05
p1
(b) D
etail
Fig. 6.15: Fonction objective pour un syst`eme `a 3 liens, avec trafic dentree agregation de N = 40
sources caracterisees par leur debit moyen (m = 15) et leur debit crete (h = 45), utilisant
la borne superieure de
elises comme une file dattente
avec
la b.p.e. Les liens sont mod
(1) C1 = N 10, B1 = N 4, (2) C2 = N 15, B2 = N 2 et (3) C3 = N 12, B3 = N 1. Le
partage optimal correspond au vecteur (0.31, 0.39, 0.30). Remarquons dans la figure (a)
les zones rayees correspondant `a des combinaisons ne respectant pas les contraintes de
stabilite. Dans la figure (b), remarquons le caract`ere assez plat autour dun voisinage de
loptimum.
un partage de 0.5, 0.5). Notons leffet des differents rapports de taille de buffer par source (cf. 6.14).
Avec ces exemples, nous avons mis en valeur linteret dune approche pour le calcul du partage de
charge qui prend en compte les proprietes stochastiques du trafic et les differentes contraintes de
delai et de taux de pertes applicables a des routes differentes (par exemple, les differents seuils dans
le dernier exemple).
Lanalyse detaille de ces cas nous a permis didentifier une famille de probl`emes doptimisation dont
la solution est invariante et peut etre generalisee, que nous presentons dans la suite.
6.7. G
en
eralisation du partage de charge
Notons que certains resultats presentes peuvent etre generalises, dapr`es le theor`eme suivant :
Th
eor`
eme 6.7.1 (Partage Proportionnel). Soit f (x) une fonction continue, positive, strictement convexe et croissante. Le probl`eme doptimisation non lineaire de la forme :
pRL
pRL
L
X
l=1
pl f
pl
Kl
l 1 . . . L
pl = 1
l=1
114
(6.16)
Ki
L
P
Kl
(6.17)
l=1
Demonstration. La demonstration est similaire `a celle utilisee pour trouver les conditions doptimalite. La matrice Hessiene est definie positive. Formalisons les contraintes :
gk (p) = pk 0
k = 1...L
cm (p) = 1 pk 0
h(p) =
L
X
m = 1...L
pl 1 = 0
l=1
Remarquons que les contraintes degalite et les contraintes dinegalite sont lineaires. Le Lagrangien
est donne par :
L(p, u, w, v) =
L
X
pl f
l=1
pl
Kl
L
X
gl (p)ul
L
X
l=1
cl (p)wl v
L
X
l=1
!
pl 1
l=1
=f
pi
Ki
+ Df
pi
Ki
pi
ui + wi v = 0
Ki
= 1{l=i}
= 1{l=i}
=1
pi
Ki
pi
Ki
+ Df
+ Df
pi
Ki
pi
Ki
pi
=v
Ki
pi
=f
Ki
i = 1 . . . L
pj
Kj
+ Df
pj
Kj
pj
Kj
(6.18)
Etant donne que f est strictement croissante et convexe, alors f (x) + xDf (x) est strictement croisp
pi
sante et lequation ( 6.18) est verifiee si et seulement si K
= Kjj . La solution optimale respectant
i
les contraintes est :
pi =
Ki
L
P
Kl
l=1
115
(6.19)
i = 1 . . . L
gi (p ) 0
ci (p ) 0
h(p ) = 0
wi ci (p ) = 0
wi 0
ui gi (p ) = 0
ui 0
Egalisation de la charge
Un exemple
min
N
L
X
Nl LRl
l=1
116
(6.20)
o`
u
, lim (s, t)
s0
LRl
Nl = NT
Contrainte de partage
Nl lim < Cl
Contrainte de stabilite
l=1
s0
(6.22)
0 Nl NT l = 1..L
Nl IN l = 1..L
250
200
150
100
50
0
30
35
40
45
50
N1
55
60
65
70
Fig. 6.16: Repartition optimale du trafic avec L=2 en fonction du nombre de sources routees sur le
lien 1, avec NT = 100 sources de hoeffding, m=9, et h=20
La figure 6.16 illustre la fonction objective en fonction du nombre de sources N1 routees sur le
lien 1 (donc N2 = NT N1 ). Nous utilisons la borne de Hoeffding, avec m = 9, h = 20, pour
un agregat dentree compose de NT = 100 sources i.i.d, avec une topologie `a L = 2 liens, pour
differentes combinaisons de capacites et de tailles de buffer Cl , Bl . Le taux de pertes est calcule avec
Commentaires
1. Nous avons illustre cette deuxi`eme approche avec des mod`eles de trafic utilisant la borne de
Hoeffding. Plusieurs classes de trafic (en respectant la discipline FIFO) peuvent etre aussi
supportees en choisissant une matrice, dont les composantes correspondent au nombre de
117
Notons que meme dans les cas relativement simples que nous avons presentes, il parat difficile
dobtenir des expressions explicites pour les quantites qui nous interessent. Citons par exemple
le point de travail t du deuxi`eme exemple : sa valeur est donnee sous la forme dune equation
implicite necessitant le calcul des derivees implicites.
Il est relativement simple detendre la fonction objective en utilisant les expressions asymptotiquement exactes obtenues dans [58], au lieu des equivalents logarithmiques utilises. Nous avons
choisi cette deuxi`eme approche pour sa relative simplicite par rapport `a la premi`ere, dans laquelle
il sav`ere tr`es difficile dobtenir des conditions doptimalite. A lexception du terme de variance, le
calcul des coefficients apparaissant devant les exponentielles sont fonction de param`etres comme
le point de travail spatial, le nombre de sources multiplexees ou le rapport entre le debit moyen
dune source et la capacite par source.
Synth`
ese des contributions
Dans ce chapitre, nous avons propose un mod`ele pour le partage de charge sur une topologie multilien. Letude etait concue pour larchitecture MPLS, mais la plupart des resultats peuvent etre
appliques `a dautres contextes. De facon generale, le partage de charge optimal depend des proprietes
statistiques de lagregat de trafic. Lapproche proposee est leg`erement penalisee par la complexite
des calculs intervenant dans les probl`emes doptimisation, mais certains auteurs ont propose des
heuristiques pour resoudre la double optimisation qui apparat dans le calcul des fonctions de taux.
Avec les calculateurs actuels, pour des syst`emes de taille petite ou moyenne, une simple approche
de recherche exhaustive peut etre acceptable.
Dans le mod`ele propose, nous nimposons pas de limites ou dhypoth`eses non realistes. La caracterisation du trafic dentree est realisee au moyen des bandes passantes effectives, avec des
hypoth`eses assez generiques dergodicite et de stationnarite.
118
Nous utilisons une approche fluide pour la caracterisation du trafic offert `a chaque lien. Ainsi, les
b.p.e. offertes sont une version amincie (ang. thinned) correspondant `a un changement dechelle
en p et en s (le param`etre spatial). Ceci presente lavantage quil est facile de determiner des
expressions pour les bandes passantes effectives offertes `a partir des b.p.e. dentree.
R
esultats
Nous avons etudie un crit`ere particulier consistant `a minimiser le Taux de Pertes/Overflow. Il est
important de noter que la probabilite de depasser un seuil dans une file `a buffer infini et le taux
de pertes ont des equivalents logarithmiques egaux (meme fonction de taux), ce qui nous permet
dunifier les deux crit`eres. Ainsi, dans un syst`eme de tailles de buffers finies, nous pouvons voir la
fonction de co
ut comme le taux de pertes global du syst`eme. Bien entendu, il est toujours possible
de proposer dautres crit`eres de performance, et lon pourrait appliquer des techniques similaires.
Pour ce crit`ere, nous avons obtenu des conditions doptimalite et nous avons illustre lapproche avec
des exemples significatifs.
Les fonctions de co
ut (et la performance du syst`eme dans des etat sous optimaux) dependent
des proprietes de trafic. Neanmoins, dans certaines configurations particuli`eres dans lesquelles les
seuils sont proportionnels aux capacites, le partage de charge optimal est insensible aux proprietes
du trafic et correspond `
a des r`egles simples et pragmatiques comme proportionnalite par rapport
a la capacite residuelle, qui am`enent `a legalisation de la charge.
`
Nos etudes permettent lobtention du partage de charge optimal et levaluation de la degradation
des performances quand le syst`eme travaille dans des etats non optimaux (par exemple, suite `a
une panne ou dans le cas ou lon travaille avec des informations de routage obsol`etes). Il suffit de
comparer les valeurs de la fonction de co
ut dans loptimum et dans letat non optimal.
Dans les chapitres suivants, nous proposons des mod`eles qui essaient de lever certaines limitations
du mod`ele presente ici, notamment en introduisant la variabilite temporelle de la capacite dun LSP
et en proposant des approches qui generalisent les resultats obtenus `a un reseau dans sa globalite.
119
120
7. Partage de charge `
a Capacit
e variable
Extensions de bout en bout du partage de charge
7.1. Introduction
Dans le chapitre precedent, nous avons obtenu des conditions doptimalite pour le partage de charge
lorsque le syst`eme peut etre modelise par une topologie multi-lien. Les resultats obtenus peuvent etre
etendus de mani`ere directe `
a un contexte de bout en bout 1 si lon fait lhypoth`ese que la capacite
associee `
a chaque tunnel est issue dune reservation stricte de ressources. Rappelons que loptimalite
du partage est locale au routeur dentree.
7.1.1. Motivation
Lobjectif de ce chapitre est dincorporer au mod`ele une notion de bout en bout sous lhypoth`ese dun
mod`ele de service uniclasse (sans distinction de classes de trafic), dans lequel les LSPs sont etablis
sans reservation stricte de ressources, toujours dans la perspective dun partage optimal local. Une
caracteristique notable de ce syst`eme est la variabilite temporelle de la capacite associee `a chaque
LSP, due principalement aux multiplexages statistiques ayant lieu dans les liens traverses par le LSP.
Dans ce cadre, plusieurs approches de modelisation sont possibles et seront presentees dans la suite.
Lidee de base est dintegrer les phenom`enes aleatoires de la capacite residuelle vue du routeur
dentree.
Solution Statique
121
charge importante que ceci impose au CPU et les phenom`enes possibles doscillation et dinstabilite,
associes aux delais de distribution dinformation du protocole de routage.
Solution Stationnaire
7.2. Mod`
ele du Syst`
eme
B1=N b1
p1 X [0,t)
B2=N b2
1
p2 X [0,t)
B3=N b3
xi[t]
C1[0,t)
C2[0,t)
L
LSPs
X [0,t)
N
xN[0,t)
BL=N bL
pL X [0,t)
CL[0,t) = N cL[0,t)
122
7. Partage de charge `
a Capacite variable
description du syst`eme sera realisee en trois etapes : dabord, la caracterisation du trafic dentree,
ensuite la caracterisation du trafic offert `a chaque LSP et finalement, la caracterisation de chaque
LSP appartenant au groupe de LSPs.
Caract
erisation et Notation du Trafic dEntr
ee
(N )
t1
X
xi [m] travail total produit par une source pendant lintervalle [0,t)
m=0
X[t] =
N
X
i=1
X[0, t) =
(N )
Xt
N X
t1
X
i=1 m=0
(7.1)
Caract
erisation du trafic offert par LSP
Nous reprenons la caracterisation utilisee aux chapitres precedents : le trafic offert `a chaque LSP l
(N )
sera determine par le trafic agrege dentree Xt
et par un param`etre pl [0, 1], nomme partage
associe au LSPl. Ainsi, le trafic total offert au LSP l pendant lintervalle [0, t) sera note pl X[0, t) ou
(N )
(N )
simplement Xt,l , pl Xt .pl correspond `a la proportion fluide de travail par source achemine sur
le LSP l. On a alors :
t1
X
m=0
(N )
Xt,l =
pl xi [m] travail total produit par une source pendant [0,t) et achemine sur le lien l
(N )
pl X t
Caract
erisation des LSPs
Chaque LSPs est modelise par une file dattente et indexe par l {1..L}. La taille du buffer associe
`a la file dattente est note Bl = N bl , cest-`a-dire que la taille du buffer crot lineairement avec le
nombre de sources constituant lagregat de trafic. Les differents processus de service sont supposes
123
(N )
Cl
(N )
Ct,l , Cl [0, t) =
N cl [m] Travail total servi par le serveur de la file l pendant [0,t) (7.3)
m=0
cl [0, t) =
Cl [0, t)
idem, normalise par le nombre de sources de lagregat
N
On introduit la notion de Trafic Residuel par source et par agregat. Pour chaque file l :
ril [0, t)
t1
X
m=0
(N )
(N )
Rt,l = Rl
(N )
Rt,l
[0, t) =
(N )
pl X t
N
X
ril [0, t)
i=1
(N )
Ct,l =
(N )
(N )
Xt,l Ct,l
Wl (N ) [t] = max 0, Wl (N ) [t 1] + pl X (N ) [t] Cl (N ) [t]
(7.4)
(N )
Yl (N ) [t] = min max 0, Yl [t 1] + pl X (N ) [t] Cl (N ) [t] , N bl
(7.5)
Dans la suite, nous analysons une unique file dattente isolee. Nous commencons par caracteriser la
queue de distribution du processus de trafic offert residuel, en appliquant directement le theor`eme de
Cramer. En utilisant les memes arguments que Likhanov et Mazumdar [58], il est possible dobtenir
des expressions pour les asymptotiques de la queue de distribution du travail cumule dans le cas `a
buffer infini ou du taux de pertes. A partir des equivalents logarithmiques obtenus, nous formulons le
probl`eme du partage de charge `
a capacite variable comme un probl`eme doptimisation non lineaire
sous contraintes.
124
7. Partage de charge `
a Capacite variable
(7.6)
Proposition 7.2.1 (Comparaison Stochastique). Soient X[0, t) et C[0, t) deux processus stochastiques `
a valeurs dans R+ . Soit f : R+ R+ , une fonction mesurable et croissante. Si X[0, t)st C[0, t),
alors :
log E[eC[0,t) ] log E[eX[0,t) ]
t, 0
(7.7)
t pl x1 [0,t)
X
]
t,l (t ) , log E[e
t Cl [0,t)
K
]
t,l (t ) , log E[e
t c[0,t)
C
] = K
t,l (t ) , log E[e
t,l (
t
)
N
X
C
R
t,l (t ) , t,l (t ) + t,l (t )
R
It,l
(bl ) , sup bl t R
t,l (t )
125
Hypoth`
ese de stabilit
e
Dans le contexte du partage de charge, cette hypoth`ese sapplique `a toutes les files dattente composant le groupe de LSPs et concerne les moyennes des processus de trafic offerts et la capacite
moyenne du LSP. Cest une condition suffisante de stabilite impliquant lexistance dune distribution stationnaire du travail cumule dans les files dattente.
R
t,l (t )
|t =0 < 0
t
(7.8)
Nous verrons que cette hypoth`ese impose une famille de contraintes au probl`eme doptimisation que
nous proposerons par la suite.
Levenement debordement correspond `
a la caracterisation de la queue de distribution du trafic
residuel de la file dattente.
P
(N )
Xt,l
(N )
Ct,l
N X
t1
X
> N bl = P
pl xi [n] N
i=1 n=0
t1
X
!
cl [n] > N bl
n=0
P
N t1
t1
P
P
pl xi [n]
cl [n]
i=1 n=0
N n=0
> bl
= P
N
N
P
N
i=1
= P
(7.9)
ril [0, t)
> bl
La queue de distribution du trafic residuel, sous les hypoth`eses mentionnees, est obtenue en appliquant le theor`eme de Bahadur Rao
P
(N )
Rt,l
> N bl =
R
N It,l
(bl )
2t2 N
1+O
1
N
o`
u t est appele le point spatial de travail et correspond `a la valeur qui realise le maximum de la
fonction de taux, et o`
u t2 est obtenu comme indique dans la section 5.8.3.1. Nous verrons par la
suite que les crit`eres de performance que nous utilisons font intervenir cette fonction de taux. Si lon
neglige le terme apparaissant devant lexponentiel, on parle dequivalents logarithmiques.
Remarque :
Dans un contexte de capacite fixe, il est possible de demontrer lexistence et lunicite de la valeur
realisant le supremum apparaissant dans la fonction de taux (terme ItR (b)). Ceci est illustre par
la figure 7.2 car la difference entre la droite y(t ) = (b + ct)t et la fonction X
t (t ) est concave
(et unimodale, car X
(
)
est
convexe,
figure
(a)).
A
droite,
les
m
e
mes
arguments
sappliquent aux
t
t
extensions `a capacite variable (figure (b)). Remarquons que dans le cas `a capacite fixe, la pente de
la courbe en = 0 est determinee par lesperance du processus de trafic. Dans le cas `a capacite
variable cette pente est negative (hypoth`ese 7.8) et est egale `a E[x1 [0, t)] E[c[0, t)].
126
7. Partage de charge `
a Capacite variable
tX(t)
y(t) = (b + ct)t
t*
(a) Capacit
e fixe.
y(t) = (b)t
t*
(b) Capacit
e variable.
La queue de distribution du travail cumule (stationnaire) dans une file dattente est donnee par
lexpression :
(N )
P(Wl
> N bl ) eN It (bl )
Syst`
emes `
a buffer fini
127
7.3. Approximations
N
P
E max 0, Y (N ) [t 1] +
pl xi [t] N bl N cl [t])
i=1
(N )
E[Xt,l ]
Pl =
R
eN It ,l (bl )
o`
u t correspond `
a la valeur qui minimise ItR (b). Dans notre cas, nous allons utiliser lequivalent
logarithmique uniquement, nous permettant dunifier les syst`emes `a buffer infini (probabilite de
depasser un seuil) et les syst`emes `
a buffer fini (probabilite de saturation, avec le meme equivalent
logarithmique que le taux de pertes).
7.2.4. La notion de capacit
e effective
Plusieurs auteurs utilisent la notation introduite par Kelly [53] concernant les bandes passantes
effectives. De la meme mani`ere, nous introduisons le terme de capacite effective definie par :
ct (s)
st
= (st)1 log E[esc[0,t) ]
(s, t) ,
(7.10)
Propri
et
es de la capacit
e effective
s0
E[c[0, t)]
t
(7.11)
Quand s , la capacite effective associee au processus de service tend vers sa capacite minimale :
ess inf(c[0, t))
t
(7.12)
(7.13)
lim (s, t) =
(7.14)
7.3. Approximations
Il est parfois difficile de caracteriser les transformees de Laplace des processus intervenant dans les
differents probl`emes doptimisation, leurs formes analytiques presentant une certaine complexite,
2 un
128
7. Partage de charge `
a Capacite variable
7.3. Approximations
ou etant tout simplement inconnues. Comme evoque dans les chapitres precedents, en utilisant
les proprietes des fonctions convexes, il est possible dobtenir des bornes sur les bandes passantes
effectives ainsi que sur les capacites effectives, dans notre cas les fonctions x exp(sx) et x
exp(sx), s 0 :
Proposition 7.3.1 (propri
et
e des fonctions convexes). Soit f (x) une fonction mesurable,
convexe dans lintervale [a, b]. Pour tout x [a, b] :
bx
xa
f (a) +
f (b)
ba
ba
f (x)
exp(sx)
Xmin T
X(0,T)
(7.15)
exp(sx)
Xmax T
Xmin T
(a) esx
X(0,T)
Xmax T
exp(sx)
Cmin T
C(0,T)
Cmax T
(c) esx
(b) esx
Borne Sup
erieure de la bande passante effective
E[X[0,t)
t
(7.16)
Borne Inf
erieure de la capacit
e effective.
Afin de trouver des r`egles de dimensionnement faisant intervenir un nombre limite et facilement
identifiable de param`etres, on fait lhypoth`ese quil est possible de definir, pour chaque capacite
virtuelle, les param`etres suivants : valeur moyenne, valeur minimale et valeur maximale. Ces trois
valeurs seront utilisees pour determiner des bornes inferieures de la capacite effective. Dapr`es la
proposition precedente :
ex x +
log E[ex ] log (E[x] + )
1
1
log E[ex ]
log (E[x] + )
t
t
(7.17)
o`
u , vont dependre de lintervalle [a, b] et de . Autrement dit, si lon utilise la notation de capacites
129
7.3. Approximations
(7.18)
Remarque :
130
7. Partage de charge `
a Capacite variable
7.3. Approximations
effectives obtenues font intervenir les valeurs de lintervalle considere et les moyennes (premiers
moments) des processus.
Nous avons etudie la possibilite dutiliser des approximations paraboliques, avec lidee de borner
(inferieurement ou superieurement) les fonctions exponentielles par une famille de paraboles, faisant
intervenir egalement les moments de deuxi`eme ordre.
Dans certains cas, ceci correspond `
a lapproximation de la fonction exponentielle autour dun point
par son developpement de Taylor.
Approximation Parabolique de la fonction e(sz)
y(z) = a(z z0 ) + b
2
b = e(sza )
a=
(zb z0 )
2
(zb z0 ) (za z0 )
e(sza )
(za z0 )
2
(zb z0 ) (za z0 )
e(szb ) e(sza )
2
(zb z0 ) (za z0 )
Les equations precedentes definissent une famille de paraboles avec une erreur nulle aux extremites de
lintervalle. La valeur de z0 donne un troisi`eme degre de liberte, et peut correspondre `a : a) la parabole
de pente 0 en xmin b) la parabole ayant la meme pente en xmin que la fonction exponentielle ou c)
des cas plus complexes faisant intervenir des optimisations pour trouver la parabole qui minimise
une certaine distance, e.g.
min max e(sz) y(z)
z0 za zzb
(s, t)
st
estxmax estxmin
2
(xmax xmin ) t2
!
stxmin
+e
Il est a priori difficile de borner lerreur commise. Afin davoir une idee de la validite de lapproximation nous illustrons cette approche dans un cas simple, dans lequel on suppose que le processus
X[0, t) suit une distribution uniforme en temps continu. Dans ce cas :
stxmax
e
estxmin
1
log
st
(xmax xmin )st
xmax t + xmin t
E[X[0, t)] =
2
(xmax 2 + xmin 2 + xmax xmin )t2
Var[X[0, t)] =
3
(s, t) =
On peut donc comparer cette bande passante effective avec lexpression obtenue directement analy-
131
sX[0,t)
E[e
1
]=
(xmax xmin )t
xZ
max t
esx dx
xmin t
estxmax estxmin
=
(xmax xmin )st
stxmax
1
e
estxmin
(s, t) =
log
st
(xmax xmin )st
Remarquons que les approximations paraboliques peuvent egalement etre obtenues pour les capacites
effectives, de facon directe. Les approximations paraboliques peuvent etre utiles lorsque lon souhaite
obtenir des approximations plus fines ou faire intervenir dans le mod`ele les moments de deuxi`eme
ordre. Par contre, il sav`ere difficile de trouver des conditions pour definir des bornes inferieures. Par
exemple, meme avec des paraboles de pente zero au point za , on ne peut pas assurer que lexpression
obtenue soit une borne inferieure, car pour des valeurs de s (autrement dit, de ) petites, la derivee
de la fonction exponentielle au voisinage de s est inferieure `a celle de la parabole.
p1 ,...,pL [0,1]
K=
min
p1 ,...,pL [0,1]
Kl (pl )
l=1..L
o`
u
Kl (pl ) , pl exp(Jl (pl ))
R
Jl (pl ) , N inf It,l
(bl )
t
pl = 1
l=1..L
0 pl 1, l
E[pl x[0, t)] < E[cl [0, t)]
Nous reprenons le probl`eme doptimisation propose au chapitre precedent, `a quelques details pr`es :
le terme (b + ct)s est remplace par bs + st(s, t)
7.5. Exemples
Afin dillustrer les principaux resultats obtenus, nous presentons ici deux exemples. Le premier est
caracterise par sa simplicite et le deuxi`eme par son applicabilite directe. Les deux exemples seront
presentes de la meme facon : nous analysons dabord une file dattente isolee, afin de caracteriser
le point de travail et directement la fonction de co
ut par route ou LSP. Ensuite, nous illustrons la
132
7. Partage de charge `
a Capacite variable
7.5. Exemples
Caract
erisation de la fonction de co
ut par LSP
1 2 2
x p + c2 2 t2H
2
Notons que, avec lhypoth`ese de param`etres de Hurst egaux, le terme ItR (b) correspond `a celui dun
syst`eme `
a capacite fixe, servi par un serveur de capacite nominale egale `a la capacite residuelle
moyenne N N p > 0 (par lhypoth`ese de stabilite), alimente par un agregat de sources fBm o`
u
2
2 2
chaque source est de moyenne zero, et de variance c + p x . Autrement dit, le syst`eme equivaut `a
un syst`eme `
a capacite fixe egale `
a la capacite moyenne du syst`eme N , alimente par un agregat de
sources fBm avec une moyenne de lagregat de N p et une variance egale `a la somme des variances.
133
7.5. Exemples
Le point de travail et le terme ItR (b)| pour cette file dattente isolee sont donnes par les expressions suivantes :
=
b + ( p)t
t2H (p2 x2 + c2 )
2
ItR (b)| =
1 (b + ( p)t)
2 t2H (p2 x2 + c2 )
b
H
p 1 H
2
1 (b + (( p)t )
K(p) = p exp N
2 t 2H (p2 x2 + c2 )
(a) H = 0.8
(b) H = 0.2
La figure 7.7 (a) illustre le partage de charge optimal pour deux LSPs, avec les param`etres suivants :
N = 10, = 40, x = 20, H = 0.8, premier LSP 1 [40.1..50], 1c = 18, deuxi`eme LSP 2 =
40.1, 2c = 18. On peut remarquer son evolution : pour 1 = 40.1, le syst`eme est symetrique et
correspond `a un partage optimal de 0.5, 0.5. En augmentant la moyenne de la capacite du premier
LSP, la fonction de co
ut favorise celui-ci. Dans (b), la fonction objective est representee en fonction
du partage p et de la variance associee au premier LSP. Notons quil est preferable davoir un syst`eme
de capacite moyenne stable, car la fraction de trafic optimal allouee au premier LSP decrot avec 1c .
Notons egalement que dans lexemple presente ici, le syst`eme est stable pour toute valeur de p.
134
7. Partage de charge `
a Capacite variable
7.5. Exemples
(a) H = 0.8
(b) H = 0.2
(a) 1
(b) 1
Remarques
135
7.5. Exemples
(7.19)
Dans le cas o`
u xmin = 0, xmax , h et xavg , m lexpression precedente se simplifie et devient :
(s, t)
1
m m sht
log 1
+ e
st
h
h
(7.20)
Ce qui nous donne comme borne superieure de la b.p.e. offerte par source :
l (s, t)
m m spl ht
1
log 1
+ e
st
h
h
(7.21)
Lobjectif est devaluer leffet des differents param`etres des processus de service et davoir des elements de reponse `
a des questions comme Quelle est lerreur commise si lon approxime un processus
de service `a deux etats par un autre `
a capacite constante de meme valeur que la moyenne du processus ? ou Quelle est levolution du partage de charge optimal, si lon fait varier les moments des
differents processus ?.
Caract
erisation du processus de service
Les processus de service (un par file dattente ou LSP) sont modelises de la facon suivante : `a chaque
intervalle de temps, le syst`eme travaille `
a Kmax avec probabilite phigh et `a Kmin avec probabilite
plow . Le service est suppose independant entre intervalles consecutifs. Nous definissons :
cmax , N 1 Kmax
cmin , N 1 Kmin
,
+
phigh ,
plow
(7.22)
La transformee de LogLaplace et la capacite effective associees `a ce processus sont donnees par les
expressions suivantes :
cmax t
cmin t
C
()
=
log
e
+
e
t,l
+
+
1
(s, t) =
log escmax t
+ escmin t
st
+
+
136
(7.23)
7. Partage de charge `
a Capacite variable
7.5. Exemples
Remarque :
Notons le rapport entre la capacite effective ainsi calculee et lexpression derivee au paragraphe 7.3.
En effet, la borne obtenue correspond au cas o`
u:
cavg cmin
=
+
cmax cmin
cmax cavg
,
=
+
cmax cmin
phigh ,
plow
X
t (, p)
C
t ()
=
=
(7.24)
mphtepht
h m + mepht
ecmax cmax + ecmin cmin
ecmax + ecmin
7.5.2.1. Syst`
eme sans buffer
Nous ajoutons lhypoth`ese sans buffer (Bl = 0), afin de supprimer les influences des tailles de
buffers et de se centrer sur leffet des capacites. Dans le contexte sans buffer, rappelons que le
point de travail temporel t* est egal `a 1 (cest-`a-dire, que les debordements et pertes ont lieu sur
un seul intervalle de temps, le r
ole tampon du buffer nexistant plus). De plus, la complexite du
probl`eme est largement reduite. Dans ce cas, la valeur realisant le supremum est solution de
lequation :
t = argsup b log ecmax t
+ ecmin t
+
+
m m pl ht
log 1
+ e
h
h
b = 0, t = 1
Dans notre cas,
C
X
1,l ()
1,l (, p)
=
16
EffBw
14
12
10
8
6
0.5
1.5
2.5
theta
3.5
137
4.5
7.5. Exemples
Caract
erisation de la fonction de co
ut par LSP
Evolution de Theta*
0.5
8
h=8
h=4
h=2
0.45
h=8
h=4
h=2
0.4
6
0.35
5
Theta*
Cout
0.3
0.25
0.2
4
3
0.15
2
0.1
1
0.05
0
0.1
0.2
0.3
0.4
0.5
p
0.6
0.7
0.8
0.9
(a) Co
ut LSP
0.1
0.2
0.3
0.4
0.5
p
0.6
0.7
0.8
0.9
Caract
erisation de la fonction de co
ut du Syst`
eme
Dans cet exemple, nous considerons un syst`eme avec L=2 LSPs. La contrainte de partage de charge
nous impose p2 = 1 p1 . Nous pouvons dune facon grossi`ere distinguer deux regimes de travail : `a
faible charge et `
a forte charge. A faible charge (figure 7.10 (a) ), le fonctions de co
ut presentent
de zones plates et varient peu autour de loptimum. Dans ce regime, de mani`ere intuitive, des etats
non optimaux ne representent (toujours relativement) presque aucune degradation de performance.
Au contraire, `
a forte charge, nous voyons que des contraintes de stabilite apparaissent explicitement,
definissant des intervalles possibles et que les variations de la fonction de co
ut sont importantes d`es
que lon seloigne de loptimum. La figure (a) montre la fonction de co
ut pour une configuration
particuli`ere, dans laquelle les contraintes de stabilite sont inactives : N = 10, m = 1.2, h = 3,
1
2
1 = 2 = 0.7, 1 = 2 = 0.3, Kmin
= Kmin
= 10 et
1
2
Kmax
= Kmax
= 20
1
2
Kmax = Kmax = 25
1
2
Kmax
= Kmax
= 30
(cmax = 2.0)
(cmax = 2.5)
(cmax = 3)
Pour ces configurations, tout partage est possible, car on respecte toujours les contraintes de stabilite.
Par contre, comme illustre la figure (b), si chaque source a m = 1.8, h = 3, et les processus
1
2
1
= Kmin
= 20, Kmax
de service sont determines par 1 = 2 = 0.7, 1 = 2 = 0.3, Kmin
=
2
l
Kmax = 30, le nombre de sources multiplexees N definit lensemble admissible, l, N pl m < Kmax +
l
Kmax
. Ainsi, les fonctions de co
ut du syst`eme (et lensemble admissible) sont traces pour N =
18, 20, 25. En consequence, plus le nombre de sources est grand, plus le co
ut du syst`eme est grand,
138
7. Partage de charge `
a Capacite variable
7.5. Exemples
et plus lensemble des partages respectant la stabilite est petit. Evidemment, il est possible que pour
certaines configurations, aucun partage ne respecte les contraintes de stabilite.
Symmetric System Cost for lambda1,lambda2=0.7 mu1,mu2=0.3 h=3 m=1.2 N=10 Cmin1=Cmin2=1 System Cost for lambda1,lambda2=0.7 mu1,mu2=0.3 h=3 m=1.8 Cmin=20/N Cmax=30/N
0.6
0.9
Cmax=2
N=18
Cmax=2.5
N=20
0.8
Cmax=3
N=25
0.5
0.7
0.6
System Cost
System Cost
0.4
0.3
0.2
0.5
0.4
0.3
0.2
0.1
0.1
0
0.1
0.2
0.3
0.4
0.5
p1
0.6
0.7
0.8
0.9
0.2
0.4
0.6
0.8
p1
Considerons un deuxi`eme exemple. Cette fois, N = 15,h = 3,m = 1.8. Pour le processus de service 1,
1
1 = 0.5 et 1 = 0.5, avec Kmin
= 15(c1min = 1). Pour le processus de service 2, 2 = 0.5 et 2 = 0.5,
2
2
ut en
avec Kmin
= 15(c1min = 1) et Kmax
= 45(c2max = 3). La figure 7.11(a) montre la fonction de co
fonction de p1 , pour differentes valeurs de c1max . Le cas symetrique a un optimum de (0.5, 0.5). Pour
c1max = 1.1, loptimum p (0.37, 0.63)..
Afin devaluer limpact des moments dordre superieur, considerons encore un syst`eme avec L = 2,
N = 10 sources i.i.d., m = 1.7, h = 4, 1 = 0.5 = 2 = 0.5, 1 = 2 = 0.5, c1min = 2, c1max = 2 (le
premier LSP est vu comme un lien conservatif de capacite constante K1 = 20)), avec :
c2min
c2min
c2min
c2min
= 0.0,
= 1.0,
= 1.5,
= 2.0,
c2max
c2max
c2max
c2max
= 4.0.
= 3.0.
= 2.5.
= 2.0.
Comme illustre par la figure 7.11(b), plus lintervalle de capacites est grand, `a moyenne egale, plus
la proportion de trafic allouee au LSP est petite. Nous reviendrons sur ceci dans la suite.
Partage de charge Optimal
La figure 7.12 montre levolution du partage de charge optimal pour deux files dattente en fonction
de la variation de la valeur maximale de la capacite du premier LSP (a) et par rapport `a la variation
de sa valeur minimale (b).
Insuffisance des approches bas
ees sur des moyennes
139
7.5. Exemples
0.3
Cmax1=1.1
Cmax1=2.1
Cmax1=3.1
Cmax1=4.1
0.25
0.4
Sytem Cost
0.2
Cost
Cmin2=0 Cmax2=4
Cmin2=1 Cmax2=3
Cmin2=1.5 Cmax2=2.5
Cmin2=2 Cmax2=2
0.5
0.15
0.3
0.1
0.2
0.05
0.1
0
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
0.1
0.2
0.3
0.4
p1
0.5
p1
0.6
0.7
0.8
0.9
(b) Cmin 1
(a) Cmax 1
Opt p1
Opt p1
0.65
0.6
0.52
0.5
0.55
0.48
0.5
0.46
0.45
0.4
6
Cmax1
10
(a) Cmax 1
0.44
0.5
1.5
Cmin
2.5
(b) Cmin 1
de chaque LSP est la meme. La figure 7.13 illustre cette notion : le partage de charge optimal depend
fortement de lintervalle des valeurs, `
a moyenne constante (et est donc fortement lie `a la variance
des processus). Bien s
ur, le partage optimal favorise le LSP de plus petite variance.
140
7. Partage de charge `
a Capacite variable
7.5. Exemples
0.7
0.65
Opt p1
0.6
0.55
0.5
0.45
0.4
0.35
5
6
7
Cmax1 Cmin1 with Cavg1 = 6
141
10
7.5. Exemples
142
7. Partage de charge `
a Capacite variable
7.6.2. Caract
eristiques g
en
erales
1. Des conditions initiales definissent le partage de charge `a appliquer.
2. A certains instants dits de Mise `
a Jour le syst`eme declenche une procedure destimation des
b.p.e. des sources et des capacites effectives des processus de service, en utilisant une fenetre
de temps connue et predeterminee.
3. Une entite (par exemple le routeur dentree acheminant le trafic) calcule le nouveau partage
de charge optimal, `
a partir des estimations des b.p.e. et le nouveau partage est deploye.
Lexemple le plus simple consiste en une mise `a jour instantanee. A tout instant t, le syst`eme dispose
dune estimation des b.p.e. et le partage de charge `a appliquer `a linstant t + 1, note p[t + 1], est la
solution du probl`eme doptimisation propose dans la premi`ere partie du chapitre.
7.6.3. Mod`
ele du Syst`
eme
Le mod`ele que nous proposons est une variante du mod`ele presente initialement. Il est illustre sur
la figure 7.14. En resume, `
a certains instants de mise `
a jour t + 1, le routeur dentree calcule une
estimation de la b.p.e. des sources
(s, t) et des capacites effectives
(s, t), en utilisant une fenetre
W (c.-`
a.-d. `
a partir des traces (tW, t]), et le partage de charge `a appliquer est solution du probl`eme
doptimisation que nous avons presente, en utilisant comme donnees dentree les estimations realisees.
Remarquons que du fait du caract`ere additif des b.p.e. des processus independants et de lhypoth`ese
que lagregat est constitue de sources i.i.d., il suffit de realiser lestimation pour une seule source.
Dautre part, le mecanisme de partage de charge adaptatif necessite de connatre, aux instants de
mise `a jour, la trajectoire recente des processus de service, hypoth`ese pouvant limiter lapplicabilite
`a des cas reels.
7.6.4. Simulations
Nous avons considere deux estimations possibles : la premi`ere, lestimateur de Dembo, et la deuxi`eme
en considerant les bornes de Hoeffding. Remarquons que le nombre limite de simulations que nous
avons realisees supposent que les arrivees dans deux intervalles de temps consecutifs sont independantes, hypoth`ese qui simplifie lobtention de lestimation.
143
Work
120
100
80
40
60
10
15
20
25
30
35
40
45
50
11.5
12
11
100
Eff.Cap.
90
80
Work
70
10.5
10
60
50
9.5
40
30
20
10
0
10
15
20
25
30
t
Estim. Eff. Bw.
35
40
45
50
Service Process2
14
120
13
100
Work
11
Eff.Bw.
12
80
10
60
9
40
10
15
20
25
30
35
40
45
50
10
Eff.Cap.
4
0
Remarques
1. Avec les hypoth`eses du mod`ele t = 1, donc la taille des blocs est b = 1. Ceci facilite lestimation
des b.p.e.
2. Si x[t0 ] et x[t0 + k] sont independantes, on peut calculer les sommes Xi en utilisant des blocs
de taille b espaces de k unites de temps.
3. Dans les simulations que nous presentons, le trafic dentree est compose de N sources, notees
xi [t], de sorte que xi [t] et xi [t + 1] sont independantes, ce qui nous permet destimer les
bandes passantes et les capacites effectives `a partir de traces consecutives. Pour des mod`eles
de trafic plus complexes (presentant une dependance entre intervalles de temps consecutifs),
lechantillonnage de traces devrait prendre en compte la remarque 2.
144
7. Partage de charge `
a Capacite variable
R
egimes Transitoires et Convergence
Service Process1
250
185
180
200
175
150
Work
Work
170
100
165
160
50
155
0
10
15
20
t
25
30
35
150
40
10
15
10
15
20
25
t
Service Process2
30
35
40
25
30
35
40
185
p1
p2
180
0.8
175
0.6
Work
p1,p2
170
0.4
165
160
0.2
155
0
10
t
15
20
150
20
t
Exemple
145
Service Process1
140
180
120
160
100
140
Work
Work
80
60
120
100
40
80
20
60
0
20
40
60
80
100
120
140
160
180
20
40
60
20
40
60
t
Adaptive Optimal
Load Share
1
80
100
t
Service Process2
120
140
160
180
120
140
160
180
180
p1
p2
160
0.8
140
Work
p1,p2
0.6
0.4
120
100
80
0.2
60
0
20
40
60
80
100
120
140
160
180
80
100
t
correspond `a une distribution discr`ete uniforme entre [6, 26] unites de travail. Le syst`eme est compose
de deux chemins. Le processus de service 1 presente 4 zones stationnaires :
1. t [0, 100), travail C1 [t] U [160, 180]
2. t [100, 200), travail C1 [t] U [120, 140]
3. t [200, 300), travail C1 [t] U [60, 100]
4. t [300, 400), travail C1 [t] U [190, 220]
Le processus de service 2 est globalement stationnaire avec une distribution C1 [t] U [60, 1800]. Les
simulations correspondent aux cas o`
u la fenetre de mesure W est a) 20 et b) 45 intervalles te temps.
Effet de la taille de la fen
etre de mesure
Dans les deux cas, le partage de charge optimal est capable de suivre les changements des proprietes stochastiques du syst`eme. Notons leffet de la taille de la fenetre W : une valeur relativement
grande de la fenetre a un effet lissant, mais il prend plus de temps `a sadapter `a des changements
stochastiques. Par contre, une valeur plus petite presente des oscillations leg`erement plus marquees
(dependantes de la trajectoire), mais arrive `a sadapter plus rapidement aux differentes periodes
stationnaires.
7.6.5. Remarques
1. Intervalle Optimal : le fait de considerer un syst`eme sans buffer implique que t = 1, ce qui
nous permet destimer des b.p.e. pour cette valeur.
146
7. Partage de charge `
a Capacite variable
Service Process1
220
p1
p2
200
0.8
180
160
p1,p2
Work
0.6
0.4
140
120
100
0.2
80
0
50
100
150
200
250
t
Adaptive Optimal Load Share
300
350
60
400
50
100
150
50
100
150
200
250
t
Service Process2
300
350
400
300
350
400
220
1
p1
p2
200
0.8
180
160
p1,p2
Work
0.6
0.4
140
120
100
0.2
80
0
50
100
150
200
t
250
300
350
400
60
200
t
250
2. Independance : les arrivees sur chaque intervalle sont independantes. Ceci nous permet de
calculer un estimateur assez fiable (dont la precision depend de la taille de la fenetre de mesure).
Pour des processus darrivees plus complexes, nous aurons besoin de methodes destimation
de b.p.e. plus efficaces, et notamment, dobtenir des blocs de donnees independants.
3. Oscillations : cette approche presente des probl`emes doscillation connus de longue date. En
resume : les periodes stationnaires doivent etre suffisamment longues, et le calcul du partage
de charge optimal aux instants de mise `a jour doit pouvoir etre realise en un temps relativement
petit par rapport `
a la duree de lintervalle de temps. Observons, par exemple, la figure 7.18 :
le processus de capacite 1 est defini par : xi [n] = max(U [100, 120] + 50 sin(4n/T ) + 25), 0),
et le processus de capacite 2 est C2 [t] U [100, 120]. Lalgorithme presente des probl`emes
doscillation, dependants entre autres facteurs de la taille de la fenetre, car p1 prend sa valeur
maximale pour t 270 et la sinusode prend sa valeur maximale pour t 250.
4. Profiling : Nous nous sommes interesses `a la faisabilite de lapproche. Lapplication de techniques pour ameliorer la performance du partage de charge adaptatif (amelioration des algorithmes, optimisation des calculs numeriques, etc.) ainsi que la mise en place de mecanismes
dhysteresis restent des questions ouvertes.
5. Utilisation de bornes : Au vu de nos simulations, lutilisation des bornes des b.p.e. et des
capacites effectives donne des resultats largement satisfaisants, avec des temps de calcul tr`es
reduits en comparaison de lapproche utilisant lestimation de Dembo.
147
Service Process1
200
1
p1
p2
180
0.8
160
0.6
p1,p2
Work
140
120
0.4
100
0.2
80
60
50
100
150
200
t
250
300
350
400
50
100
150
200
t
250
300
350
400
7.7.2. Conclusions
Dans ce chapitre nous avons propose un mod`ele, similaire `a celui du partage de charge sur la topologie
multi-lien, pour levaluation du partage de charge dans un contexte de bout en bout, en utilisant
la notion de capacite effective, pour des processus de service dont les caracteristiques statistiques
sont connues. Encore une fois, lidee de base est de modeliser la variabilite temporelle de la capacite
associee `a chaque LSP de facon simple. Nous soulignons le manque de procedures fiables pour
lobtention de telles statistiques, mais nous considerons que des travaux autour de la metrologie
(techniques type packet pair, etc.) peuvent saverer tr`es utiles dans ce cadre.
148
7. Partage de charge `
a Capacite variable
A partir de la connaissance des proprietes stochastiques des processus de trafic et de service, nous
proposons un probl`eme doptimisation non lineaire sous contraintes pour lequel nous avons obtenu
des conditions doptimalite (au moins locales) dont la complexite depend quasi exclusivement des
mod`eles des processus choisis. Lapproche est illustree `a laide dexemples qui ont ete analyses en
detail. Avec des mod`eles simples (Exemple II) on obtient dej`a des resultats significatifs qui peuvent
saverer suffisants.
Enfin nous avons propose une solution adaptative, basee sur lestimation des b.p.e. `a partir de traces,
necessitant la connaissance des processus de service. Cette approche est cependant complexe et il
est important de mieux comprendre les enjeux lies `a lestimation `a partir de traces pour des cas
non triviaux. Neanmoins, des solutions basees sur la mesure des debits cretes, minimaux et moyens
peuvent saverer suffisantes.
149
150
8. Extensions aux R
eseaux
8.1. Introduction
Dans les chapitres precedents, nous avons etudie lutilisation de lasymptotique du grand nombre
dusagers dans le contexte de files dattente isolees. Ce nest que tr`es recemment que la communaute
scientifique a tente detendre les expressions asymptotiques existantes `a un contexte reseau de bout
en bout. Wischik [106] a prouve que la transformee de LogLaplace dun seul flot composant de
lagregat de trafic nest pas modifiee du fait de traverser un nud si ce flot est multiplexe avec un
nombre important de flots similaires. Eun et Shroff [30] ont etudie un syst`eme de deux files dattente
en tandem, dans lequel la premi`ere file sert un nombre O(N) important de flots et un nombre fixe et
fini de flots sont routes vers la deuxi`eme. Leur conclusion est que la premi`ere file peut etre ignoree
en ce qui concerne le calcul de la probabilite de debordement quand N augmente. Neanmoins, leurs
resultats ne sappliquent pas quand le normbre de flots routes vers la deuxi`eme file est aussi de
lordre O(N).
Dune facon generale, on ne sait pas aujourdhui caracteriser le processus de sortie dune file dattente
dans le contexte dun agregat de sources independantes. Leffet lissant dun buffer de taille non
negligeable rend cette t
ache difficile, qui necessite la connaissance de lhistoire du processus.
Neanmoins, certains resultats peuvent etre etendus `a des reseaux de files dattente, notamment sous
lhypoth`ese de buffers de petite taille, plus precisement, si la taille du buffer crot moins vite que la
dimension du syst`eme, cest-`
a-dire :
B(N )
0
N
N
lim
(8.1)
Ozturk et al.[81] presentent les travaux recents autour des extensions aux reseaux de files dattente et,
sous lhypoth`ese de petit-buffer, les auteurs ont obtenu des expressions asymptotiquement correctes
pour la queue de distribution, appliquees aux reseaux de files dattente en utilisant le principe de
contraction et, en particulier, le resultat de la section 8.2. Les auteurs obtiennent egalement les
regions dadmission associees.
151
8.1. Introduction
Demonstration.
indep
(8.2)
yC
Th
eor`
eme 8.1.1 (Principe de Contraction [23]). Soient E, F deux espaces topologiques de
Hansdorff. Soit Xn une suite de variables aleatoires `
a valeurs dans E qui suivent un PGD de fonction
de taux I(x). On fait lhypoth`ese que les ensembles XA , {x : I(x) A, A > 0} sont compacts.
Soit : E F une fonction continue sur chaque ensemble XA . Alors, la suite Yn = (Xn ) `
a valeurs
dans F verifie un PGD de fonction de taux J(y) = inf x:(x)=y I(x).
1
X[0,t)+Y [0,t)
Z
It (c) = sup x
log E[e
]
N
(8.3)
Proposition 8.1.2 (Fonction de Taux dune somme (cf. [13])). Soient X, Y deux variables
aleatoires independantes de transformees de LogLaplace X () et Y (). La transformee convexe de
152
8.1. Introduction
X (x)
Y
(8.4)
, sup {x X ()}
(8.5)
k>0
(8.6)
on obtient :
lim
1
log P(W > B(N )) = I Z
N
(8.7)
La fonction de taux associee au PGD du travail cumule dans la file dattente peut etre exprimee `a
laide des fonctions de taux des deux agregats (8.5). Pour une capacite C = N c, la valeur k qui
realise le minimum doit etre interpretee comme la capacite attribuee `a chaque source de lagregat
X. La capacite residuelle par source c k est donc attribuee `a chaque source de lagregat Y.
1.8
x
y
z
1.6
1.4
Rate Function
1.2
1
0.8
0.6
0.4
12
11
10
9
8
7
0.2
0
x
y
13
10
15
20
25
6
14
16
18
20
22
24
(a)
(b)
La figure 8.2 en donne un exemple numerique. Les agregats X et Y sont composes de sources pour
lesquelles on utilise linegalite de Hoeffding pour borner inferieurement leur fonction de taux, avec
comme debit crete et comme debit moyen respectivement hx = 14, mx = 8, hy = 10 et my = 6. A
gauche, (a) on represente les fonctions de taux respectives ainsi que la fonction de taux de lagregat
Z. Notez que les fonctions de taux prennent leur valeur minimale aux debits moyens correspondants
153
et sont finies sur lintervalle [0, h]. A droite, (b), pour chaque valeur de c, les differents valeurs de k
realisant le minimum, valeur determinant la capacite attribuee `a chaque source des deux agregats.
8.2. Caract
erisation de lagr
egat de sortie
La caracterisation dans notre contexte de la fonction de taux associee `a lagregat de sortie est due
`a Mazumdar et al., et utilise le principe de contraction `a partir de la fonction de taux du meme
agregat `a lentree de la file dattente.
Proposition 8.2.1 (Caract
erisation de la fonction de taux de lagr
egat de sortie). La
(N )
fonction de taux de lagregat de sortie Xout est donnee par lexpression :
I Xout (s) =
inf
xc
I X (x) + I Y (y)
(8.8)
x,y| max(x+y,c) =s
(a)
f(x,6,12)
Zone linaire
(b)
Fig. 8.3: Fonction intervenant dans le Principe de Contraction pour la caracterisation de lagregat
de sortie
x
xz
f (x, y, z) =
=
max(x + y, z) x z
x+y
154
z >x+y
z <= x + y
(8.9)
Interpr
etation de f(x,y,z)
Y1
X1
Yi+1
Y2
C 1 X2
C2
YI
Xi+1
C i+1
XI
CI
Lapplication directe des resultats precedents nous permet decrire le syst`eme dequations suivant :
I1 (c1 ) = inf I X1 (y) I Y1 (c1 y)
y>0
...
Ii (ci ) = inf I Xi (s) + I Yi (ci s)
s>0
Ii+1 (ci+1 ) = inf I Xi+1 (s) + I Yi+1 (ci+1 s)
(8.10)
s>0
...
II (cI ) = inf I XI (y) I YI (cI y)
y>0
Dapr`es (8.8),
I Xi+1 (s) =
inf
xc
i
x,y| max(x+y,c
=s
)
155
I Xi (x) + I Yi (y)
(8.11)
(8.12)
Soit le debit moyen dune source, et soit son debit crete. Dapr`es linegalite de Hoeffding,
E[ex(0,1) ]
e +
(8.13)
Il est donc possible de determiner une borne inferieure de la fonction de taux associee au processus
(ici, avec lhypoth`ese de N sources i.i.d.) :
1
X(0,1)
log E[e
]
I (x) = sup x
N
I X (x) sup x log
e +
(8.14)
La valeur realisant le maximum est obtenue facilement car le terme f (, x, , ) est concave par
rapport `a .
f (, x, , ) = x log
e 1 + 1
1) + 1
(e
x( )
1
= log
( x)
f (, x, , ) = x
(8.15)
finalement
x
x (xi xi )
xi xi
log
log
xi
x (xi x)
xi x
i
y
y
(
yi
yi
y i y i
I Yi (y) =
log
log
y i
yi (yi y)
y i y
I Xi (x) =
I Xi+1 (s) =
inf
xc
i
x,y| max(x+y,c
i)
I Xi (x) + I Yi (y)
(8.16)
(8.17)
=s
156
IXi(x)
IXi+1(s)
(x , x)
X(N)[0,t)
Y(N)[0,t)
C2 = Ns
(y , y)
C1 = Nc
Yout(N)[0,t)
Demonstration.
I Xi+1 (s) = inf
inf
I Xi (x) + I Yi (y) ,
x,yIR|x=s,x+yci
inf
xc
o
I Xi (x) + I Yi (y)
(8.18)
i =s,x+y>c
x,yIR| x+y
i
I Xi (s) + I Yi (y) ,
y[0,hy ]|s+yci
o
s
+ I Yi (y)
inf
I Xi (
(ci s)y
y[0,hy ]|s+y>ci
inf
(8.19)
(8.20)
s
y) + I Yi (y) I Xi (s) + I Yi (y) I Xi (s)
ci s
(8.21)
I Xi (
et donc
I Xi (
car
I Yi (y) 0
y [0, hy ]
(8.22)
y = N 1
Yi
I (y ) = 0
157
(8.23)
inf
I Yi (y)
inf
I Yi (y)
(8.24)
y[0,hy ]|s+y>ci
y[0,hy ]|s+yci
inf
I Yi (y) = I Xi (s)
(8.25)
y[0,hy ]|s+yci
Exemple
La figure 8.6 illustre les differentes fonctions de taux de sortie I Xi+1 (s) dun agregat de trafic pour
differentes valeurs de ci . Dans lexemple, les differents debits moyens et cretes sont xi = 8, xi =
14, yi = 5.5, yi = 10. Les fonctions de taux de sortie peuvent etre comparees `a celle `a lentree
I Xi+1 (s). Autre que la proposition precedente, on peut remarquer `a quel point plus la capacite est
elevee, plus la file presente un caract`ere transparent. Evidemment, pour des valeurs de ci xi +yi ,
la file i est compl`etement transparente.
1.2
Rate Function
1
0.8
0.6
I x i (s)
0.4
0.2
0
10
11
12
13
14
8.4. Interpr
etation et commentaires
Nous allons interpreter la proposition precedente `a laide de la figure 8.5. De facon intuitive, sous
lhypoth`ese de stabilite, la valeur s peut etre interpretee comme la capacite (normalisee par N ) vue
par lagregat X `
a lentree de la file i + 1 (downstream). Autrement dit, le calcul de metriques telles
que la probabilite de pertes ou le taux de pertes de la file i + 1 est realise en evaluant la fonction de
taux I Xi+1 (x) en s. Vis-`
a-vis de ce calcul, si la file i (upstream) a une capacite ci telle que s < ci yi ,
la file i a un comportement transparent, et on peut faire lhypoth`ese que le passage par la file i ne
modifie pas la fonction de taux de lagregat X. Ceci peut simplifier lapplication `a des reseaux de
taille non triviale, car on nest pas toujours oblige de calculer la fonction de taux `a la sortie de la
file i.
158
Perspectives
Les resultats presentes dans ce chapitre laissent la porte ouverte `a de nouvelles etudes. A titre
dexemple, citons le routage dynamique de flots. Ceci serait realise en choisissant une route pour
laquelle, au goulet detranglement, lajout dun flot a un impact minimal sur une metrique telle que
la probabilite de pertes ou le taux de pertes. Le calcul de cette metrique utiliserait les equations
recursives presentees ici, en tirant si possible parti de la proposition dinvariance.
159
160
9. Ing
enierie de trafic
Approche basee sur les bandes passantes effectives pour lingenierie de
trafic dans les reseaux MPLS
9.1. Introduction et Motivation
Lextension aux reseaux des travaux presentes dans le present document sav`ere une tache complexe.
Neanmoins, avec lobjectif de trouver des r`egles applicables `a un reseau, nous proposons dans ce
chapitre une premi`ere approche pour lingenierie de trafic, et plus precisement, pour la repartition
du trafic dans un reseau. Lapproche presentee ici a un caract`ere exploratoire et est susceptible
detre amelioree lorsque lon disposera de nouveaux elements nous permettant de mieux comprendre
le comportement asymptotique du trafic dans les reseaux, en particulier, comment dans le contexte
de lasymptotique du grand nombre dusagers, le passage par un lien de transmission modifie les
proprietes stochastiques des agregats de trafic. Lapproche que nous allons developper est caracterisee
par les proprietes suivantes :
Heuristique
Nous allons formuler le probl`eme de la repartition de trafic dans un reseau MPLS comme un probl`eme
doptimisation globale pour lequel les fonctions de co
ut seront basees sur les resultats precedents,
au lieu dutiliser des fonctions de co
ut arbitraires. Nous utiliserons les transformees de LogLaplace
des agregats dentree et les fonctions de co
ut utiliseront lasymptotique du grand nombre dusagers
qui nous permettra dobtenir des equivalents logarithmiques des taux de pertes au niveau de chaque
lien. Nous construirons une fonction objective du syst`eme pour laquelle les variables de decision
correspondront `
a la repartition du trafic aux points dentree. Nous sommes conscients que dun
point de vue rigoureux, certaines des hypoth`eses que nous allons utiliser ne seront pas toujours
verifiees. Nous analysons ici ces hypoth`eses et leurs consequences.
Un buffer de taille non negligeable (de lordre de O(N)) modifie les proprietes stochastiques des
agregats multiplexes dune facon difficilement caracterisable, faisant intervenir lhistoire des processus
concernes. Nous allons nous limiter aux cas o`
u les buffers des liens de transmission du reseau sont
de petite taille, condition que nous avons etudiee au chapitre 8. Cette hypoth`ese est cruciale : elle
nous permet de quantifier leffet de lhypoth`ese dinvariabilite statistique, definie par la suite. En
labsence de buffers, leffet lissant de la file dattente est limite.
161
9. Ingenierie de trafic
Invariabilit
e statistique
En utilisant les resultats developpes au chapitre precedent, il est possible de caracteriser les fonctions
de taux des agregats de sortie, sous lhypoth`ese de buffers `a croissance sous lineaire. Cependant, cette
caracterisation devient trop complexe dans un reseau de taille moyenne, dont lespace detats crot de
facon importante. Pour pallier `
a cette difficulte, nous allons faire lhypoth`ese que dans ce contexte,
la bande passante effective dun flot est reduite, amincie (ang. thinned) par son passage `a travers un
lien, mais conserve ses proprietes structurelles. Cette caracterisation est analysee en detail dans la
section 9.2.6.
Ind
ependance
Il est evident que, lors du passage par une file dattente commune, les flots multiplexes ne sont `a
priori independants. Neanmoins, sous certains regimes asymptiques, les travaux de Wischik [106]
ont donne certaines conditions concernant lindependance des flots de sortie, hypoth`ese necessaire
pour assurer ladditivite des bandes passantes effectives dans de topologies en tandem. En ce sens,
nous allons faire lhypoth`ese que les differents flots multiplexes sur un lien de transmission sont
independants, afin de respecter le caract`ere additif des bandes passantes effectives : cette hypoth`ese
est vraie seulement si les flots nont pas etes multiplexes auparavant.
9.2. Mod
elisation du syst`
eme et notation utilis
ee
Comme toujours, N represente le param`etre du syst`eme intervenant dans lasymptotique du grand
nombre dusagers. Chaque composante de la matrice de trafic (que nous allons caracteriser formellement dans les sections suivantes) sera lagregat de N sources i.i.d. En consequence, les capacites
des liens de transmission seront du meme ordre de grandeur O(N).
9.2.1. Le r
eseau vu comme un graphe...
Soit G = (U, L), le graphe oriente modelisant le reseau.
Soit U = {1, 2, . . . , u, . . . , U }, lensemble de nuds du graphe, cest-`a-dire les LSRs du domaine
MPLS. U = E P, ou E correspond `
a lensemble des nuds de la peripherie du reseau (Edge
LSR ou E-LSRs) et P est lensemble des LSRs du backbone. Nous allons definir des couples
Origine-Destination (a, b), a, b E.
Soit L = {1, 2, . . . , l, . . . , L}, lensemble des liens du graphe. Chaque lien l L est modelise par
une file dattente sans buffer 1 , de capacite totale Cl = N cl o`
u cl est la capacite du lien par source.
Lapplication de lasymptotique du grand nombre dusagers nous permettra dobtenir, pour chaque
lien, une approximation (un equivalent logarithmique) du taux de pertes, note LR(l) [0, 1]. Nous
definissons q(l) = 1 LR(l), avec q(l) [0, 1]. Ce terme correspond intuitivement au param`etre
damincissement (reduction) des processus de trafic (ang. thinning) par le passage `a travers le lien.
Soit OD = {1, 2, . . . , g, . . . , G} lensemble des couples origine-destination. g = (a, b)|a, b E. En
accord avec la terminologie des chapitres precedents, nous appelons un couple origine-destination
un groupe de LSPs ou simplement un groupe.
1 Plus
pr
ecisement, avec lhypoth`
ese des petits buffers, cf. chapitre pr
ec
edent, B(N )/N 0
162
9. Ingenierie de trafic
!#"%$"%&'"%()" *"%+-,
. (!/0)"%10" /0+-"%&'10,
/!#" *10/!*243"%24310" /0+-"%&'1!*/!*2:3" *2431
243*/!"%"%1
243*/!"%8"%91
243*/!"%71
Sources
243*/!5"%6"%1
PLSR
D
PELSR
E
C(l)
C(L l + 1)
163
9. Ingenierie de trafic
p1 1(p1s,t)
p1 n(p1s,t)
p1 N(p1s,t)
1(s,t)
n(s,t)
N(s,t)
pm 1(pms,t)
pm n(pms,t)
pm
N(pms,t)
Fig. 9.2: Mod`ele du syst`eme et caracterisation du trafic par LSP, approche fluide : le param`etre p
correspond `
a la proportion fluide de trafic `a acheminer sur chaque LSP
MT =
..
.
(a,b) (s, t)ij
..
.
1,E (s, t)
2,E (s, t)
..
.
..
.
..
.
E,E (s, t)
(9.1)
9.2.5. Caract
erisation du trafic par lien
Pour chaque lien l L, chaque LSP le traversant ( {m M|l m} ) va lui offrir une b.p.e. par
source notee m,l (s, t) : b.p.e. par source offerte par le LSP m au lien l, et m,l (s, t) = 0 si l !
M
P
m. La b.p.e. totale par source offerte au lien l est notee (l) (s, t) =
m,l (s, t).
m=1
lm
9.2.6. Caract
erisation du processus de sortie : Filtrage et amincissement
Lapproche que nous suivons est la suivante : pour chaque lien, sous le regime asymptotique defini
par lhypoth`ese de grand nombre dusagers, nous allons calculer une approximation (un equivalent
logarithmique) du taux de pertes, LR(l), dependant du contexte de multiplexage, cest-`a-dire des
164
9. Ingenierie de trafic
b.p.e. des flots concurrents et de la capacite du lien. Lhypoth`ese dindependance devient necessaire :
en faisant cette hypoth`ese, nous pouvons utiliser la propriete additive des b.p.e. associees.
La caracterisation exacte des processus de sortie, meme sous lhypoth`ese des petits buffers, necessite
lapplication de techniques comme le principe de contraction (cf. chapitre 8). Lapproximation que
nous proposons dans le present chapitre correspond `a une transformation par filtrage et amincissement spatial de la bande passante effective : en effet, le terme q(l) = 1 LR(l) va determiner
un amincissement sur le param`etre spatial (s) de la bande passante effective : Tl () : in (s, t)
out (s, t) = q(l)in (q(l)s, t). Citons par exemple, le cas fBm, o`
u in (s, t) = + 12 s 2 t2H1 , et
2
out (s, t) = q(l) + 12 sq(l) 2 t2H1 : la moyenne du processus est amincie par q(l) et la variance
2
par q(l) . Intuitivement, avec un taux de pertes nul, (par exemple, les debits cretes des sources plus
petits que la capacite par source), le terme q(l) vaut 1, la capacite devient transparente et la b.p.e.
reste invariante. Par contre, avec un taux de pertes tendant vers 1, la b.p.e. de sortie tend vers zero
s, t. Cette idee est illustree par la figure 9.3 : la bandes passantes effectives illustrees correspondent
`a la borne superieure en utilisant linegalite de Hoeffding :
i
in
(s, t)
mi
mi sth
1
log 1
+
e
=
st
hi
hi
h1
q h1
1(s,
t)
1(q
m1
s, t )
LINK
h2
q h2
C = Nc
q
m2
q m1
2(s,
2(q
s, t )
t)
LR exp (-NI(c,
q = 1 - LR
1(s,
t ),
2(s,
t ))
q m2
Fig. 9.3: Amincissement spatial, b.p.e. de Hoeffding q = 0.7, m1 = 12, h1=15, m2=10, h2=20
Notons lanalogie avec la caracterisation presentee dans la section 9.2.4.La complexite de notre
approche vient du fait que le calcul de q(l) fait intervenir les bandes passantes effectives offertes,
elles-memes dependantes des differents amincissements ayant eu lieu au niveau des liens precedant
le lien considere.
165
9. Ingenierie de trafic
Discussion
h(m)
2
1
, . . . , lm
, lm
Rappelons que nous avons note un LSP m M comme m = (lm
alors la fonction index im (l), m M, l L comme
j | lj = l
m
im (l) =
0
). Nous definissons
si l m
sinon.
cest-`a-dire que im (l) renvoie lindex du lien l dans le vecteur que represente la route traversee par
le LSP m.
La figure 9.4 montre lamincissement suivi par le trafic achemine sur un LSP lorsquil traverse un
reseau de bout en bout.
LINK
m(s,t)
LINK
c(1)
q(1)
m (q(1)
q(1)
LINK
q(2)q(1) x[0,t)
q(1) x[0,t)
x[0,t)
s, t )
c(2)
q(2)q(1)
q(2)
m(q(2)q(1)
Q(m)x[0,t)
s, t )
c(h(m))
Q(m)
m (Q(m)
s, t )
q(h(m))
Q(m) =
h(m)
q(i)
i=1
q(i) = q( )
c(i) = c(lmi)
Fig. 9.4: Amincissement suivi par le trafic achemine sur un LSP lors quil traverse un reseau de
bout en bout.
166
9. Ingenierie de trafic
im (l)1
m,l (s, t) =
j
q(lm
)m
j=1
(l)
(s, t) =
im (l)1
j
q(lm
)s, t
j=1
(9.2)
m,l (s, t)
mM
lm
La figure 9.5 utilise la representation developpee du graphe modelisant la topologie du reseau pour
illustrer lobtention de la b.p.e. offerte `a un lien.
8
1
Link l
4
5
LSP Layout
2
4
Network topology
Fig. 9.5: Bande Passante Effective totale offerte au lien l, representation en graphe developpe.
Notation Matricielle
Aml
..
.
m,l (s, t)
..
.
1,L (s, t)
2,L (s, t)
..
.
..
.
..
.
M,L (s, t)
o`
u
m,l (s, t) =
im (l)1
q(lm
)m
im (l)1
Q
j=1
!
j
q(lm
)s, t
si l m
j=1
sinon.
et
m (s, t) = pm g(m) (pm s, t)
167
avec(s, t)
connu.
(9.3)
9. Ingenierie de trafic
M
X
m,l (s, t)
(9.4)
m=1
lm
o`
u 1l = (1, 1, , 1) et el = (0, , 1, , 0)T .
im (l)1
mM
j=1
s0
s0
lm
mM
lm
j
q(lm
)pm lim g(m)
s0
j=1
j
q(lm
)pm s, t
j=1
im (l)1
j
q(lm
)pm g(m)
im (l)1
im (l)1
mM
j=1
j
q(lm
)pm s, t =
j=1
(9.5)
im (l)1
X
lm
j
q(lm
)pm g(m)
car
im (l)1
Y
j=1
im (l)1
j
q(lm
)pm s, t = lim (st)
j
q(lm
)pm lim g(m)
s0
s0
j=1
"
E pm
im (l)1
Q
log E e
im Q
(l)1
j=1
j
q(lm
)pm Xg(m) (0,t]
#
j
)Xg(m) (0, t]
q(lm
j=1
im (l)1
= pm
Y
j=1
j
q(lm
)
im (l)1
= pm
j
q(lm
)g(m)
j=1
(9.6)
En effet, dapr`es 9.5, le debit moyen par source offert au lien l est la somme des debits moyens par
source des LSP le traversant, amincis par (a) le mecanisme de partage et (b) les differents taux de
pertes des liens precedents. Nous avons considere les deux crit`eres suivants :
1. Crit`ere min-max,
min max Pp (Wl Bl )
p
lL
(9.7)
= min
lL
lL
168
(9.8)
9. Ingenierie de trafic
avec
Jl (p) = I1 (cl , (l) (s, t))
n
o
= sup (cl )s s1(l) (s, 1)
(9.9)
Remarquons que dans les deux cas nous faisons intervenir le meme equivalent logarithmique.
g OD
pm = 1
(9.10)
mM
mg
2. Contrainte de Partage (II), ensemble faisable : Les partages appartenant `a un groupe doivent
avoir pour somme 1. Autrement dit, tout trafic dentree doit etre achemine sur un des LSPs
disponibles, avec une proportion qui dependra de son partage.
m = 1..M
pm [0, 1]
(9.11)
3. Contrainte de Stabilite : La contrainte de stabilite sapplique `a tous les liens du graphe ; le debit
moyen par source offert `
a un lien de transmission doit etre inferieur `a la capacite nominale par
source du lien. Etant donne le caract`ere additif des b.p.e. ceci est equivalent `a exiger que le
debit moyen total offert `
a un lien de transmission ne depasse pas sa capacite nominale. Avec
la notation utilisee nous pouvons ecrire :
l L
(9.12)
Ainsi, nous avons 2M + L + G contraintes, (rappelons que M est le nombre de LSPs etablis, L le
nombre de liens orientes et G le nombre de couples origine-destination). Les contraintes sont lineaires
et peuvent etre formalisees de la facon suivante, avec leurs coefficients de Lagrange :
Partage positif
cm (pm ) = pm 0
Partage borne
cm (pm ) = pm 1 0
Partage
P
pm 1 = 0
cg (p) =
u1 . . . u m . . . u M
v1 . . . vm . . . vM
(9.13)
w1 . . . wg . . . wG
mM
mg
Stabilite
cl (p) = (l) (p) cl 0
169
z1 . . . z l . . . z L
9. Ingenierie de trafic
L(p, u, v, w, z) = f (p)
M
X
u m pm +
m=1
M
X
vm (1 pm ) +
m=1
(l)
zl (p) cl
G
X
g=1
wg
pm 1
mM
mg
(9.14)
lL
avec
f (p) =
(9.15)
lL
(9.16)
lL
L
= pm ;
um
L
= pm ;
vm
M
X
L
=
pm 1
wg
m=1
mg
L
= (l) (p) cl = rl (p)
zl
(9.17)
Le taux de pertes
Nous avons utilise pour le taux de pertes son equivalent logarithmique. Sans penalisation de complexite importante, nous pouvons aussi utiliser les expressions asymptotiquement exactes [58]. Les
auteurs ont montre que negliger le terme devant lexponentielle est une approche conservative, justifiant a priori notre approche. Cependant, le taux de pertes definit aussi lamincissement suivi par
les differents flots (autrement dit, les b.p.e. de sortie seront plus petites que les b.p.e. reelles).
170
9. Ingenierie de trafic
9.5. Exemples
9.5. Exemples
Nous illustrons ici deux topologies differentes et les effets des param`etres sur la fonction de co
ut.
Dans les deux cas, nous modelisons le trafic en utilisant la borne superieure de sa b.p.e. ce qui
necessite la connaissance du debit crete et du debit moyen. Si les composantes de la matrice de trafic
utilisent la borne de Hoeffding ( est le debit moyen et le debit crete), nous avons :
1
log 1
g (s, t) =
st
1
log 1
m (s, t) =
st
g
g sg t
+ e
g
g
g(m)
g(m) pm sg(m) t
+
e
g(m)
g(m)
(9.18)
m g
Au niveau de chaque file dattente, avec lhypoth`ese buffer-less, les pertes sont instantanees, et le
point de travail t = 1. La fonction de taux devient :
im Q
(l)1
X
p
(
q(l
))s
m
g(m)
g(m)
g(m)
m
j=1
+
e
log 1
Il = sup (cl )s
g(m)
g(m)
s
mM
(9.19)
lm
Pour le calcul de la fonction de taux du lien l, le param`etre s (point de travail spatial) est solution
de :
im (l)1
Q
pm (
cl =
mM
lm
j
))g(m)
q(lm
j=1
X
1
g(m)
g(m)
pm (
g(m)
g(m) e
im Q
(l)1
(9.20)
j
q(lm
))sg(m)
j=1
Le calcul du point de travail et de la fonction de taux avec les b.p.e. de Hoeffding peut etre realise en
utilisant les expressions analytiques (cf. chapitre precedent) si les groupes de LSPs sont disjoints (un
seul agregat de sources est injecte sur un lien donne). Avec un degre maximum de 2 (c.`a.d, au plus
2 LSPs differents traversent un lien donne), nous pouvons aussi utiliser lexpression de lequation
(8.4). Par la suite, nous allons considerer principalement le crit`ere volume moyen de pertes, sauf
mention explicite.
9.5.1. Exemple I
La premi`ere topologie analysee est illustree par la figure 9.6. La caracteristique la plus notable de
cette topologie est que le lien BC1 est partage par les LSP 2 et 3. Nous avons 4 LSPS candidats,
regroupes en deux groupes.
171
9.5. Exemples
9. Ingenierie de trafic
Group AC
A
Group BC
LSP2
LSP1
LSP3
LSP4
(a)
(b)
Fig. 9.6: Exemple I : topologie et placement des LSPs. B.P.E utilisant la borne superieure de Hoeffding.
Dans les deux cas, loptimum est atteint en p1 = 0.77, p2 = 0.23, p3 = 0.36, p4 = 0.64. Etant donne
que les capacites sont de la forme Cl = N kl , on peut observer leffet du multiplexage statistique : la
fonction de co
ut dans la figure (b) presente un caract`ere plus plat autour de loptimum.
100
100
50
50
0
0.2
0.3
0.4
0.5
0.6
p1
0.7
0.8
0.9
0.1
0.2
0.3
0.4 0.5
p3
0.6
0.7
0
0.2
0.3
0.4
0.5
0.6
p1
0.7
0.8
0.8
0.9
(a) N = 50
0.1
0.2
0.3
0.4 0.5
p3
0.6
0.7
0.8
(b) N = 100
Le crit`
ere Min Max
Nous avons egalement etudie le crit`ere doptimisation min-max : autrement dit, la repartition de
trafic est celle qui minimise la probabilite de perte (taux de pertes dans notre cas) sur le lien o`
u
celle-ci est maximale :
min max (qp (l))
p
lL
(9.21)
172
9. Ingenierie de trafic
9.5. Exemples
precedemment. Dans ce cas CAC = N 10, CAB = N 10, CBC1 = N 10, CBC2 = N 10 et N = 60. Toutes
les sources composantes des agregats sont caracterisees par leur b.p.e. de Hoeffding avec = 8 et
= 20.
200
0.6
150
0.4
100
0.2
50
0 0.3
0.2
0.4 0.5
0.6 0.7
p1
0.8 0.9
1 0
0.7 0.8
0.5 0.6
0.3 0.4
p3
0.1 0.2
(a) fonction de co
ut : volume moyen de pertes
0 0.3
0.2
0.4 0.5
0.6 0.7
p1
0.8 0.9
1 0
0.7 0.8
0.5 0.6
0.3 0.4
p3
0.1 0.2
(b) fonction de co
ut : min-max
Fig. 9.8: Exemple I : fonctions objectives Volume moyen de pertes et Min Max pour c1 = 10, c2 =
10, c3 = 10, c4 = 10
Cette approche presente lavantage quau niveau de loptimisation numerique (par exemple, par recherche exhaustive), on rejette une solution d`es que sur un des liens, le taux de pertes depasse le
candidat actuel. Par contre, au vu des quelques exemples numeriques que nous avons realisees, loptimum est le meme, et la fonction de co
ut donne moins dinformations sur les variations directionnelles
si lon se trouve dans des repartitions non optimales.
Conclusions de lexemple :
evolution des r
eseaux
9.5.2. Exemple II
La figure 9.10 illustre la topologie utilisee comme deuxi`eme exemple. Comme dans le cas precedent,
un agregat de trafic doit etre achemine entre A et C, et un deuxi`eme agregat entre B et C. Les deux
agregats sont constitues comme toujours de N sources de Hoeffding.
173
9.5. Exemples
9. Ingenierie de trafic
70
p1
p2
p3
p4
0.9
0.8
System Cost
60
50
0.6
40
Cost
Optimal Shares
0.7
0.5
0.4
0.3
30
20
0.2
10
0.1
0
10
c
12
14
16
(a)
10
c
12
14
16
(b)
Fig. 9.9: Exemple I : Evolution de la repartition de trafic en faisant varier la capacite du lien 4
(BC2)
Group AC
Group BC
LSP3
LSP1
LSP2
B
C
C
LSP4
(b)
(a)
Fig. 9.10: Exemple II : topologie et placement des LSPs. B.P.E utilisant la borne superieure de
Hoeffding.
Dans cette instance du probl`eme nous considerons les capacites normalisees (divisees par N) sont
cAC = 5, cAB = 15, cBA = 15 et cBC = 20. Les sources composant les agregats ont pour coefficients
= 8, = 21 et N = 60. Le point remarquable dans cet exemple est le fait que la valeur de la
capacite du lien 1 (AC) limite fortement le domaine admissible (contrainte de stabilite), comme on
peut le voir sur la figure 9.11 : les partages p1 et p3 , correspondants aux LSPs traversant le lien 1,
doivent verifier :
p1 + p3 q3 < cAC
(9.22)
o`
u q3 est lequivalent logarithmique du taux de pertes du lien 3 (BA), qui depend de , , N, cBA
et p3 . Le partage optimal correspond `
a (p1 = 0.2, p2 = 0.8, p3 = 0.2, p4 = 0.8) avec un co
ut de
0.0126066.
174
9. Ingenierie de trafic
9.5. Exemples
60
0.025
0.02
40
0.015
0.01
20
0.005
00
0.1 0.2
p1
0.3 0.4
0.5 0.6
0.7 0.8
0
0.1
0.12
p1
0.7 0.8
0.5 0.6
0.3 0.4 p3
0.1 0.2
0.2
0.3
0.3 0.1 0.12 0.14 0.16 0.18 0.2 0.22 0.24 0.26 0.28
(b)
(a)
Considerons un nouvel exemple. Cette fois, toutes les capacites sont Ci = N 10, i = 1..4, et les
sources ont pour coefficients = 21 et = 8. Remarquons que le syst`eme est symetrique. Dans cette
configuration, les liens AB et BA deviennent de plus en plus transparents (par rapport aux liens AC et
BC, traverses par 2 LSPs). La symetrie du probl`eme nous permet dattendre, a priori, un optimum
pour p1 = 0.5,p2 = 0.5,p3 = 0.5 et p4 = 0.5 (cf. figure 9.12 et figure 9.13). Les zones hachurees
correspondent `
a des valeurs illegales des partages, ne respectant pas les contraintes de stabilite.
Comme on peut observer sur la figure (b), plus on augmente N plus le valeur de la fonction de co
ut `a
loptimum est petite, car en deployant de capacites Ci = N 10, i = 1..4, on neglige dans une certaine
mesure leffet du multiplexage statistique. Autrement dit, grace `a leffet du multiplexage statistique,
pour maintenir un meme niveau de performance (un taux de pertes donne), laugmentation de la
capacite necessaire suite `
a une augmentation du nombre de sources N est sous lineaire.
200
200
150
150
100
100
50
50
0
0.2
0.3
0.4
0.5
0.6
p1
0.7
0.8
0.9
0.1
0.2
0.3
0.4 0.5
p3
0.6
0.7
0
0.2
0.3
0.4
0.5
0.6
p1
0.7
0.8
0.8
0.9
(a) N = 60
0.1
0.2
0.3
0.4 0.5
p3
0.6
0.7
(b) N = 100
175
0.8
9.5. Exemples
9. Ingenierie de trafic
250
200
200
150
100
150
50
100
0.8
0.7
0.6
0.5
p30.4
0.3
0.2
0.1
1
0.80.9
0.60.7
p1
0.40.5
0.20.3
0
0.8
0.7
0.6
0.5
p30.4
(a) N = 60
0.3
0.2
0.1
0.91
0.70.8
p1
0.50.6
0.30.4
0.2
0
(b) N = 100
Jusquici, nous nous sommes concentres principalement sur leffet de param`etres comme les capacites
des liens de transmission ou le nombre de sources (N) agregees. Neanmoins, certaines proprietes stochastiques des sources autres que leur debit moyen jouent un role sur les fonctions de co
ut proposees.
Ceci est illustre par la figure 9.14 pour les trois cas suivants : (a) sources `a acheminer entre A et C
= 21, = 8, entre B et C = 21, = 8 (b) sources `a acheminer entre A et C = 21, = 8, entre
B et C = 11, = 8 et finalement, (c) sources `a acheminer entre A et C = 11, = 8 entre B et
C = 21, = 8. Les capacites normalisees (divisees par N) cAC = 20, cAB = 4, cBA = 4, cBC = 20,
configuration qui intuitivement favorise les LSPs directs (`a un seul saut, LSP1 et LSP4). Remarquons comment dans le cas (c), les sources constituant lagregat `a acheminer entre A et C sont moins
sporadiques, et donc la fonction de co
ut presente un caract`ere plus plat par rapport `a p1 que les cas
(a) et (b).
60
60
60
50
50
50
40
40
40
30
30
30
20
20
10
0
0.6
0.65
0.7 0.75
0.8 0.85
p1
0.9 0.95
1 0
0.1
0.2
0.3
0.4
(a) Sources `
a acheminer entre
A et C = 21, = 8, entre B
et C = 21, = 8
0.5
p3
0.6
20
10
0
0.6
0.65
0.7 0.75
0.8 0.85
p1
0.9 0.95
1 0
0.1
0.2
0.3
0.4
(b) Sources `
a acheminer entre
A et C = 21, = 8, entre B
et C = 11, = 8
0.5
p3
0.6
10
0
0.6
0.65
0.7 0.75
0.8 0.85
p1
0.9 0.95
1 0
0.1
0.2
0.3
0.4
0.5
0.6
p3
(c) Sources `
a acheminer entre
A et C = 11, = 8, entre B
et C = 21, = 8
176
9. Ingenierie de trafic
Min-Max
Finalement, nous avons egalement compare les deux crit`eres cites, dans la configuration suivante :
sources homog`enes avec = 21 et = 8 et capacites normalisees cAC = 20, cAB = 4, cBA = 4, cBC =
20 (configuration identique `
a celle qui nous a permis devaluer limpact des debits cretes). Le resultat
est illustre par la figure 9.15.
350
0.8
300
0.7
250
0.6
200
0.5
150
0.4
0.3
100
0.2
50
0.8
00
0.2
1 0.1
0.6
0.4
p1
0.4
0.6
0.8
0.2
p3
00
1
0.8
0.2
1 0
(a) Fonction de co
ut : volume moyen de
pertes.
0.6
0.4
p1
0.4
0.6
0.8
0.2
p3
1 0
(b) Fonction de co
ut : min-max.
Fig. 9.15: Exemple II : Differents crit`eres : Minimisation du volume moyen de pertes et min-max
2
2
(9.23)
Le point de travail spatial peut etre facilement calcule, ainsi que la fonction de taux associee :
s =
c
2
2
1 (c)
2
(9.24)
Lr eN 2
177
9. Ingenierie de trafic
tronquant. Cette approximation correspond `a une approche pessimiste : en effet, considerer que
les fonctions de taux sont invariantes implique que les pertes qui peuvent avoir lieu dans un lien
de transmission peuvent etre prises en compte par les fonctions de co
ut plusieurs fois. Une telle
approximation est difficilement justifiable, sauf : (a) pour sa simplicite, car loptimisation devient
separable par lien (les fonctions de co
ut proposees `a chaque lien sont uniquement dependantes des
b.p.e. des points dentree) et (b) elle permet de penaliser artificiellement les LSPs de longueur
importante.
S
eparabilit
e
Fig. 9.16: La repartition optimale de trafic est separable pour les groupes AB et CD. De plus, le
groupe AB est per LSP-separable (`a liens disjoints)
D
efinition 9.6.1 (approximation de Pad
e). Lapproximation de Pade dordre (m,n) de la fonction f(x) est definie comme la fonction rationnelle p(x)/q(x) avec deg(p(x)) m et deg(q(x)) n
telle que lexpansion en serie de Taylor (ou Laurent) de p(x)/q(x) a un accord maximal avec lexpansion en serie de f(x). Typiquement, lexpansion en serie est en accord jusquau terme au degre
m+n.
178
9. Ingenierie de trafic
Il est bien connu que dans le contexte dun grand degre de multiplexage, avec des debit cretes
largement inferieurs `
a la capacite nominale du lien, le point de travail spatial tend vers zero, en
considerant des sources de plus en plus caracterisees par leurs debits moyens. Dans de tels cas, il est
possible dapproximer les expressions des b.p.e par leur developpements en series de Taylor [53] ou
les approximations de Pade. A ce propos, la forme polynomiale ou rationnelle des approximations
peut simplifier le traitement numerique des b.p.e. dont lexpression originale est complexe. Pour
illustrer ceci, la figure suivante presente la b.p.e. dun processus de Poisson et son approximation de
Pade.
s
e 1
Poisson (s, t) =
(9.25)
s
admet une approximation de Pade [2,1] donnee par :
Poisson (s, t)
s2 + 6s + 24
6
4s
(9.26)
Fig. 9.17: B.P.E dun processus de Poisson Effective Bandwidth et son approximation (2,1)-Pade
Approximation pour un grand degre de multiplexage (s 0)
9.7. Interpr
etation et Discussion
Rappelons quelques notions de base : lequivalent logarithmique utilise, eN I , depend du param`etre N, fixe pour une instance donnee du probl`eme et de la fonction de taux, I. Evidemment,
la fonction de taux dependra des proprietes stochastiques des sources (dans les exemples, du debit
moyen et du debit crete , comme illustre par la figure 9.18). Neanmoins, toute fonction de taux
verifie les proprietes de croissance et de convexite par rapport `a la difference r entre lepoint o`
u la
fonction est evaluee (typiquement la capacite nominale par source du lien, c) et le debit moyen dun
179
9. Ingenierie de trafic
10
11
12
x (capacit)
13
14
h1
15
h2
r=cm
Fig. 9.18: Exemples de fonctions de taux. Remarquons les proprietes de croissance, de continuite
et de convexite.
Autrement dit, la fonction de taux correspond `a une fonction dutilite avec de tr`es bonnes proprietes (continuite, convexite, croissance) en fonction de la bande passante residuelle moyenne par
source. Cette affirmation nous permet de considerer lapproche suivante : la repartition de trafic doit
eloigner la bande passante moyenne offerte par source de la capacite par source du lien, c.`a.d.
maximiser la capacite residuelle moyenne par source. Dans le contexte dun reseau, examinons le
crit`ere doptimisation suivant :
max min (c(l) (l))
p
(9.27)
lL
o`
u
im (l)1
mM
j=1
(l) = lim
s0
lm
j
q(lm
)m
mM
j=1
lm
j
q(lm
)s, t
j=1
(9.28)
im (l)1
im (l)1
j
q(lm
)pm
lim g(m) (s, t)
s0
car pour un lien l, out = q(l)in . Nous avons toujours besoin de lasymptotique du grand nombre
dusagers pour le calcul du taux de pertes sur chaque lien. La figure 9.19 montre la fonction dutilite
(ang. benefit function) pour la topologie utilisee dans lexemple I, avec Ci = N 10, i = 1..4, N = 60
et = 20, = 8. Remarquons que la repartition optimale de trafic reste la meme (cf. figure 9.8).
Si nous faisons a priori lhypoth`ese que les taux de pertes de chaque lien sont negligeables (c.`a.d.
que q(l) 1) en gardant les contraintes de stabilite, ceci nous permet de formuler le probl`eme
2 Ceci
Lx[0,1) ()
|=0 ,
c.`
a.d E (x[0, 1)). La valeur en ce point est z
ero.
180
9. Ingenierie de trafic
9.8. Conclusions
4
3
3
2
2
1
1
0 0.3
0.2
0.4 0.5
0.6 0.7
p1
0.8 0.9
1 0
0.5 0.6
0.3 0.4
p3
0.1 0.2
00
0.1
0.2
0.7 0.8
0.3
p3
0.4
0.5
0.6
(a)
0.9
0.7
0.8
0.7
0.6
0.5
0.4
0.3
0.2
p1
(b)
doptimisation suivant :
lL
pm g(m)
(9.29)
mM
lm
Probl`eme plus simple, nous permettant de faire le lien avec des travaux similaires de la theorie
de graphes. Bien evidemment, une fois loptimum calcule, une estimation des taux de pertes est
necessaire afin de valider lhypoth`ese q(l) 1.
9.8. Conclusions
De facon generale, les conclusions que nous tirons des analyses ici realisees sont les suivantes :
Effet du multiplexage statistique : Les principes de grandes d
eviations qui nous permettent de
tique) lunicite de loptimum, ceci nest certainement pas vrai en general : lexemple le plus simple
correspond `
a lensemble des repartitions de trafic pour lesquelles les debit cretes des flots offerts `a
un lien sont inferieurs `
a la capacite par source du lien. Cet ensemble des repartitions est optimal
avec un co
ut nul.
Evaluation des Etats Sous Optimaux : Il se peut que la technologie utilis
ee limite la granularite du
partage de charge (par exemple, des mecanismes de hachage avec une resolution de 0.1). Lapproche
que nous proposons ici nous permet de calculer loptimum theorique mais aussi la degradation de
performance dun etat sous optimal par rapport `a loptimum.
181
9.8. Conclusions
9. Ingenierie de trafic
Ing
enierie de Trafic et Dimensionnement : A laide des
etudes comme celle illustree sur la figure 9.9
les operateurs de reseaux peuvent evaluer le gain de performance quapporte un investissement (ici,
une augmentation de la capacite dun lien) et prendre des decisions en tenant compte de contraintes
economiques et technologiques.
Validit
e des approches simplistes : Le nombre de topologies et de cas particuliers analys
es reste
neanmoins limite. Nous navons pas evalue sa complexite dans des reseaux de taille. Nous pouvons
cependant affirmer que sa complexite dependra fortement de la disposition ou layout des LSP (un
degre ou nombre de LSPs traversant un lien quelconque augmente les inter-relations entre les
differents taux de pertes) et de la vitesse de calcul des fonctions de taux, qui peuvent devenir difficilement calculables pour des reseaux de grande taille. De ce fait, les partages optimaux peuvent etre
approximes `a laide des approches simplistes. En resume : grace `a leffet du multiplexage statistique
et si le dimensionnement du reseau respecte les contraintes de stabilite, il peut suffire deviter les
liens fortement charges. Le caract`ere plat des fonctions de co
ut vient confirmer cette approche. Les
debordements ont lieu rarement sauf si lon se trouve dans des etats presque critiques. Dans ce
cas-l`a, lapproche proposee ici devient interessante vis-`a-vis des performances du reseau.
Lapproche propos
ee int`
egre les propri
et
es statistiques du trafic, et p
enalise fortement
les liens dont la charge est proche de 1.
Extensions et Perspectives
La fonction objective presentee dans ce chapitre ne prend pas en compte des facteurs comme la
longueur des chemins ou les delais de propagation. Nous pensons quil est possible de generaliser les
fonctions de co
ut en ajoutant des termes qui penalisent la longueur relative dun chemin par rapport
`a celle des autres chemins appartenant au meme groupe, mais cette question reste ouverte.
La transformation de la bande passante effective dun flot par son passage par une file dattente avec
un buffer de taille non negligeable (de lordre de la capacite de transmission) reste une question ouverte qui rend difficile le developpement dun mod`ele plus complet. Cette transformation dependra
non seulement des proprietes du flot (de son histoire), mais egalement de son contexte de multiplexage (les autres flots externes, ainsi que la taille du buffer et la capacite). Nous sommes restes
dans le contexte sans buffer, et nous avons caracterise la b.p.e. de sortie en utilisant une approche
pragmatique.
Remerciements
Nous remercions le Prof. Ravi Mazumdar et le Dr. Anthony Busson pour leurs commentaires et leurs
remarques, ainsi que le Prof. Ness Shroff dont un article `a apparatre [30] nous a permis de mieux
comprendre les enjeux de lextension aux reseaux de lasymptotique du grand nombre dusagers.
182
Troisi`
eme partie .
Conclusions G
en
erales et Perspectives
183
10.1. Synth`
ese de notre contribution
Cette th`ese avait pour objectif dapprofondir notre comprehension des probl`emes de partage de
charge et de repartition de trafic en general. Nous avons propose des mod`eles qui representent fid`element les reseaux reels. Nous en avons evalue les performances, nous avons identifie les param`etres les
plus significatifs de ces mod`eles (cest-`a-dire ceux ayant un impact important sur ces performances)
et nous avons obtenu `
a partir de l`
a des r`egles de dimensionnement simples.
Dans des cas particuliers du point de vue mathematique mais generaux du point de vu de lingenierie
du trafic, nous avons pu deduire des r`egles de partage generiques. Par exemple, dans le cas ou on
desire borner le delai dans tous les chemins retenus pour le partage par la meme borne, nous avons
montre que le partage optimal est celui qui attribue `a un chemin un pourcentage du flux total
proportionnel `
a la capacite du chemin (la constante de proportionnalite etant 1 sur la somme des
185
186
10.2. Conclusions
4. Extension du mod`ele `
a une optimisation globale sur lensemble du reseau. Letude se base sur
des resultats recents de la theorie des grandes deviations. Proposition dune heuristique pour
la repartition du trafic. Illustratrion `a laide des bornes de Hoeffding des b.p.e. (chapitres 8 et
9).
10.2. Conclusions
Nous presentons dans ce qui suit les conclusions des differents etudes que nous avons realisees.
187
2. Les moments de deuxi`eme ordre et dordres superieur des processus stochastiques modelisant
les differents processus de service ont un impact fortement negatif sur la performance du reseau.
Ceci explique linsuffisance des approches basees sur des moyennes : il est toujours preferable
dacheminer du trafic sur des liens `
a caract`ere stable que sur des liens pour lesquels `a moyenne
egale la capacite instantanee presente de fortes oscillations temporelles.
3. Lutilisation des bornes de Hoeffding pour lestimation des capacites et des bandes passantes
effectives est suffisante pour proposer un mecanisme de partage de charge adaptatif, ayant
comme objectif ladaptation automatique de la repartition optimale du trafic aux changements
des proprietes stochastiques du syst`eme. En effet, les proprietes stochastiques dun syst`eme
reel ne sont stationnaires que sur des intervalles de temps de duree limitee.
10.2.3. Extensions aux r
eseaux
1. La caracterisation simple des processus de sortie, au moins sous des regimes asymptotiques,
et lidentification des conditions sous lesquelles les resultats asymptotiques ayant une portee
locale peuvent etre etendus, au moins jusqu`a un certain degre, `a un contexte de reseaux de files
dattente restent aujourdhui les questions ouvertes les plus contraignantes pour la proposition
dun mod`ele general realiste.
2. Lextension dune approche relativement microscopique `a un reseau de taille importante presente certainement des probl`emes de complexite limitant son applicabilite.
3. Le probl`eme de la repartition de trafic dans un reseau de grande taille, probl`emes important
dans le cadre de lingenierie de trafic, admet plusieurs solutions satisfaisantes. En termes tr`es
simplifies (et qui nous pensons netonneront personne), les mod`eles etudies nous permettent
denumerer quelques r`egles simples de dimensionnement :
Stabilit
e La repartition de trafic doit respecter les contraintes de stabilite.
Tout se passe bien `
a faible charge Il faut eviter les liens `a tr`es forte charge, avec des debits
moyens tr`es proches des capacites nominales des liens.
Passage `
a l
echelle Des approches classiques de la theorie de graphes visant `a la maximisation
des bandes passantes moyennes sont complementaires `a nos travaux et sont interessantes
lorsque la taille du reseau peut limiter lapplicabilite des approches microscopiques.
dans cette th`ese, nous avons choisi la solution qui consiste `a caracteriser le trafic offert `a un ressource
(LSP, file dattente, etc.) en utilisant une approche fluide, `a laide de la notion de partage p [0, 1].
Dautres mod`eles peuvent etre proposes `
a laide des familles de fonctions de routage. Le principal
inconvenient vient du fait quil est difficile de caracteriser la bande passante effective offerte `a partir
de la connaissance de la bande passante effective de lagregat et dun nombre reduit de param`etres.
188
Evaluation des M
ethodes dOptimisation : Les probl`
emes doptimisation Lagrangienne presentes
dans cette th`ese sont rarement resolubles analytiquement et necessitent lutilisation de methodes
numeriques pour le calcul des valeurs optimales. Des etudes concernant la convergence et dautres
proprietes de certaines methodes doptimisation numerique telles que le Recuit Simule ou la methode
Tabou, peuvent apporter des ameliorations notables aux travaux presentes ici.
Partage de charge : La probl
ematique du partage de charge soul`eve encore de nombreuses questions.
Les mod`eles proposes peuvent integrer le partage de charge hierarchique, mais ils supposent souvent
une connaissance parfaite du syst`eme. Il devient necessaire de caracteriser leur faisabilite dans des
syst`emes `
a connaissance imparfaite, ou avec des delais de propagation pouvant entraner le calcul
des differents param`etres en utilisant des informations imprecises ou obsol`etes, et pouvant etre la
cause de phenom`enes doscillation.
Partage de charge orient
e connexion : Nous nous sommes focalis
es sur la caracterisation du partage
premi`ere approche pour le partage de charge adaptatif a ete presente au chapitre 7, approche permettant, dans le cas extreme, ladaptation du syst`eme suite `a loccurrence dune panne. Nous avons
dej`a mentionne comment le partage de charge et la protection par commutation sont des concepts
tr`es lies (la protection par commutation correspond `a une adaptation du partage pour laquelle la
proportion de trafic associe `
a un chemin non fonctionnel est nulle). Neanmoins, de nombreuses questions restent encore ouvertes concernant lintegration des mecanismes de partage de charge et des
mecanismes de protection et de restauration bases sur MPLS. Rappelons que ces derniers necessitent
dassurer des temps de restauration de lordre de la ms, et que la synchronisation entre les differentes
couches protocolaires nest pas un probl`eme simple. Cependant, nous pensons que ces deux aspects
sont fortement lies et que de nouvelles etudes presentant une approche unifiee seraient interessantes
voire necessaires.
Solutions adaptatives ; int
egration avec la M
etrologie : Lint
egration entre des travaux concer-
nant la metrologie et nos travaux a ete souvent evoquee dans le present document (citons, par
exemple, lestimation des bandes passantes effectives `a partir des traces, ou comment lapplication
de techniques de type packet-pair peuvent donner des estimations sur les capacites associees `a des
canaux IP / MPLS). Nous sommes convaincus que la metrologie est un axe de recherche important
complementaire aux resultats theoriques developpes dans cette th`ese.
Extensions `
a des architectures `
a diff
erentiation de services : Les mod`
eles proposes dans les
chapitres 6 et 7 sont susceptibles detre etendus pour prende en compte des classes de trafic dans
une architecture `
a differentiation de services. Cette extension est justifiee par linteret croissant des
operateurs reseaux pour deployer des solutions integrant les architectures MPLS et Diffserv. Certains
resultats existants permettant dapproximer la probabilite de certains evenements dans des files `a
priorites [53] peuvent saverer bien adaptes. Par ailleurs, lextension de nos travaux `a differentes
189
classes de trafic est relativement simple si lon fait lhypoth`ese quune capacite fixe est allouee `a
chaque classe. Ceci correspond `
a une approche pire cas dans le contexte dune gestion de files
dattente o`
u, selon la politique de service mise en place, la capacite non utilisee par une classe est
utilisee par les autres classes.
190
Quatri`
eme partie .
Annexes
191
A.2. Introduction
La theorie des grandes deviations a trait au calcul et `a lestimation de la probabilite de certains
evenements consideres comme rares. La communaute scientifique du teletrafic a effectue ses premiers
travaux concernant la theorie des grandes deviations pour etudier certains evenements dinteret pour
lingenierie de trafic, comme le debordement dun seuil (sauf si la taille du buffer a ete dimensionnee
avec des contraintes de delai) qui correspondent bien `a lidee devenement rare. Hui [47] a ete un
des premiers auteurs `
a etablir un lien entre le teletrafic et les grandes deviations. Il est parfois utile
de definir la theorie des grandes deviations comme letude de certains evenements sous un regime
asymptotique determine (autrement dit quand un param`etre du syst`eme est suffisamment grand).
1 Le
193
A.2. Introduction
Nous reviendrons sur cette idee, notamment dans les resultats connus comme lasymptotique du
grand nombre dusagers ou lasymptotique de grand buffer.
La theorie des grandes deviations est assez recente. Comme nous allons voir dans la suite, cest vers
1938 que le theor`eme de Cramer [21] a etabli les bases pour letude devenements seloignant de la
moyenne, mais ce nest quen 1960 que Bahadur et Rao ont publie leurs resultats, et qu`a partir des
annees 1980-1990 que le nombre de travaux sur les grandes deviations est devenu important.
Quel est lobjectif de la theorie des grandes deviations ? Lexemple souvent cite dans les introductions
`a cette theorie est le suivant : si lon realise 300 tirages de pile ou face, il est justifie de considerer
que lon obtiendra environ 150 piles. On peut egalement sinteresser `a la probabilite dobtenir plus
de 270 faces... Un deuxi`eme exemple qui presente plus dinteret pour lingenieur de trafic est le
suivant : le multiplexage statistique typique des reseaux `a commutation de paquets nous permet de
dimensionner des syst`emes en tirant parti de la sporadicite des sources. En effet, la bande passante
non utilisee par une source peut etre utilisee par une autre. On nest ainsi pas oblige de dimensionner
le syst`eme avec une approche pire cas qui gaspillerait des ressources. Neanmoins, en accord avec la
necessite de donner des bornes stochastiques et de definir des contrats de QoS `a laide de param`etres
mesurables, il est interessant de pouvoir evaluer la probabilite (certes rare) que toutes les sources
emettent en meme temps, et que le syst`eme deborde. De plus, on sinteresse egalement `a la trajectoire
des processus la plus probable donnant lieu `a un tel evenement (ang. most likely path).
A.2.1. Une introduction par lexemple : Multiplexage Sans Buffer
Considerons un syst`eme `
a temps discret. A chaque instant de temps, un certain nombre N N de
sources gen`erent un trafic avec une certaine distribution. On fait lhypoth`ese que les sources suivent
une distribution commune et sont mutuellement independantes (sources i.i.d.). Ainsi, le trafic genere
par une source i `
a linstant t est modelise comme une variable aleatoire que lon note Xi . Levaluateur
de performances decide, dans une premi`ere etape et connaissant a priori le nombre de sources N , de
mettre en place un lien de transmission de capacite totale C = N c ( on parle souvent de c comme
la capacite par source ). Etant donne laspect aleatoire des sources, la seule facon dassurer qu`a
tout instant la totalite du trafic genere sera servi consiste `a dimensionner le syst`eme de sorte que la
capacite par source soit plus grande que le debit crete instantane dune source. Mathematiquement,
on parle du Supremum Essentiel ou ess sup, correspondant `a la generalisation de lidee de maximum
pour des fonctions mesurables, `
a la difference pr`es que les valeurs dune fonction dans un ensemble
de mesure nulle naffectent pas le ess sup.
D
efinition A.2.1 (Supremum Essentiel). Soit E un espace mesure, de mesure et soit f une
fonction mesurable f : E R Le ess sup est la plus petite valeur a telle que lensemble {x : f (x) > a}
soit de mesure nulle. Si cette valeur nexiste pas le essup est . Autrement dit, pour une v.a. X on
, esssup (X) = sup {x : P (X > x) > 0}
note X
Meme si dans la pratique toute source physique de trafic a un essup fini, cette approche peut saverer
extremement co
uteuse. La reponse `
a ce probl`eme consiste `a prendre en compte le phenom`ene de
multiplexage statistique. On souhaite, bien s
ur, dimensionner le syst`eme de telle sorte que E[X] < c
afin davoir un syst`eme o`
u les debordements sont rares ou non souhaitables tout en respectant
la stabilite. On peut faire ici quelques remarques :
194
A.2. Introduction
PN
a) EvaluationPour une capacite totale fixe C = N c, si lon note SN = i=1 Xi le trafic total
offert par lagregat des sources, quelle est la performance du syst`eme ?. Plus precisement, Quelle
est la probabilite qu`
a un instant de temps t il y ait des pertes ? ou Quelle est le taux de pertes par
unite de trafic ?. Ces deux mesures de performance peuvent sexprimer de la facon suivante :
N
X
!
Xi [n] N c
= P (SN N c)
(A.1)
i=1
PL =
E[(SN N c)+ ]
E[SN ]
(A.2)
(A.3)
Processus darrives
Travail
Capacit
P (Sn > C) ?
Rapport avec le th
eor`
eme central limite On peut faire appel `
a des outils mathematiques pour
repondre `
a ce type de questions : la Loi des Grandes Nombres, qui etabli que la moyenne empirique dune suite de variables aleatoires i.i.d. tend presque s
urement vers sa moyenne, linegalite de
Bienayme-Chebytchev, et le theor`eme centrale limite. Soit X une v.a. de variance finie. Soit (Xn )nN
une suite de variables v.a. independantes de meme loi que X. De facon informelle, la loi faible des
grands nombres dit que
X1 + + XN
P
N
N
1 X
Xi E[x] p.s.
N i=1
E[X] > 0 quand N
195
(A.4)
> 0
A.2. Introduction
X1 + + XN
V ar
N
E
N
1 X
E[Xi ] = E[X]
N i=1
N
1 X
1
= 2
V ar[Xi ] = V ar[X]
N i=1
N
(A.5)
(A.6)
Une consequence classique de ces resultats est que lerreur commise en approximant
E[X] par sa
c
V
ar[X]
P
< 2
E[X] >
N
c
N
(A.7)
Rapellons (T.C.L.)
P
N
Xi N E[X]
Zx
i=1
2
1
x =
lim P p
et /2 dt
N
2
n Var(X)
(A.8)
Levaluateur de performances peut essayer dappliquer le T.C.L. lorsque le nombre de sources multiplexees devient grand : Notons = E[X] et 2 = V ar[X]. Si lon construit la v.a.
ZN =
N (MN )
(A.9)
alors
"
P (MN c) = P ZN
#
(c ) N
>
(A.10)
ZN N (0, 1)
Z b
2
1
ex /2 dx
< b] =
2
a
Remarque : Typiquement, le theor`eme central limite est utilise pour des valeurs finies de N . Pour
N assez grand une somme de N variables aleatoires independantes suit approximativement une loi
normale, dont lesperance et la variance sont respectivement la somme des esperances et la somme
des variances des lois des variables sommees. Pour une precision desiree, `a partir de quelle valeur N
est-il assez grand?. Cela depend de la loi de X.
P [SN > N c]
1
2N 2
196
e
Nc
(xN )2
2(N 2 )
dx
(A.11)
A.2. Introduction
Commentaires
1
P[|MN | c] = 1
2
c N
c N
ex
/2
dx
X N (0, 1)
(A.12)
,N
(A.13)
P [|MN | c] eN
c2
2
(A.14)
Int
er
et des Grandes D
eviations
,N
(A.15)
(A.16)
Remarque : Une telle relation revient `a dire que la queue de distribution de la moyenne empirique
dune suite de v.a. i.i.d. decrot exponentiellement avec une fonction de taux IX (c) dependante de
la loi de X. Autrement dit, le logarithme de la probabilite de pertes decrot lineairement avec le
nombre de sources multiplexees, avec un coefficient dependant de la loi de X. Nous verrons dans les
sections suivantes comment le theor`eme de Cramer repond `a cette question.
2 Dans
lint
egralit
e du document, log d
enote le logarithme en base e.
197
A.3. El
ements de la th
eorie des Grandes D
eviations
A.3.1. Quelques d
efinitions et transform
ees
A.3.1.1. In
egalit
e de Bienaym
e-Chebytchev
Proposition A.3.1 (In
egalit
e de Bienaym
e Chebytchev). Soit f : R+ R+ , une fonction
mesurable et croissante. Soit X une v.a. `
a valeurs dans R+ , alors :
P (X > )
E [f (X)]
f ()
(A.17)
Demonstration.
Z
Z
Z
E[f (X)] =
f (X())P(d) =
f (X())P(d) +
f (X())P(d)
{X()>c}
{X()c}
Z
Z
Z
f (c)P(d) +
f (X())P(d) f (c)
P(dw) = f (c) P[X > c]
{X()>c}
{X()c}
{X()>c}
P (X > C) E e
(A.18)
C
, 0
Bien s
ur, la finesse de la borne de Chernov depend du param`etre . En considerant par exemple
= 0 on retrouve linegalite evidente P (X > x) 1 . Cette borne etant une borne superieure, on
peut sinteresser `
a en determiner la borne la plus fine :
h
i
P (X > C) inf E e((XC))
0
(A.19)
Dans les sections suivantes on detaillera le rapport entre lequation A.19, le theor`eme de Cramer
et le Principes de Grandes Deviations. Notons quune simple manipulation des termes nous permet
decrire (en utilisant les proprietes des fonctions log(x) et exp(x)) :
h
i
P (X > C) inf E e(X) eC =
0
sup{Clog E[e(X) ]}
=e
(A.20)
A.3.1.3. Fonction G
en
eratrice Logarithmique (ou Log-Laplace)
D
efinition A.3.1 (Tranform
ee de Log Laplace). Soit X(0, t) un processus stochastique cumulatif (processus daccroissements ou par abus du langange, si les increments du processus sont des
198
T .L.
X(0, t) LX ()
T .LL.
X(0, t) X ()
o
n
LX () , E eX(0,t]
(A.21)
o
n
X () , log LX () = log E eX(0,t]
Lemme A.3.1 (Convexit
e de la transform
ee Log Laplace). La transformee Log Laplace est
convexe.
Demonstration. Dapr`es linegalite de Holder
n
o
(1)
X (1 + (1 )2 ) = log E (e1 X(0,t] ) (e2 X(0,t] )
n
o
(1)
log E[e1 X(0,t] ] E[e2 X(0,t] ]
(A.22)
= X (1 ) + (1 )X (2 )
Remarque A.3.1 (Bande Passante Effective (ou Equivalente)). Kelly [53] et dautres auteurs ont
popularise la notion de bande passante effective, directement en rapport avec la transformee, (cf.
chapitre 5).
n
o
1
log E esX(0,t)
(s, t) =
(A.23)
st
A.3.1.4. Transform
ee de Fenchel-Legendre (Transform
ee Convexe)
S
D
efinition A.3.2 (Transform
ee Convexe). Soit une fonction () : Rd R {+}, X avec
Rd . La transformee de Fenchel-Legendre de () est definie de la facon suivante :
()
T .F L.
(x)
(A.24)
Rd
Propri
et
es de la Transform
e de Fenchel-Legendre
(a) La transformee de Fenchel-Legendre est convexe.
Lemme A.3.2 (Convexit
e).
Demonstration. (cas IR)
(x1 ) + (1 ) (x2 ) = sup {x1 ()} + sup {(1 )x2 (1 )()}
IR
IR
= (x1 + (1 )x2 )
3 (ang.
199
(A.25)
(b) La transformee de Fenchel Legendre est semi continue inferieurement (lim inf y x (y)
(x)).
Remarque A.3.2 (Application). Dans le cas o`
u () est la transformee de LogLaplace dune v.a X,
X R, voire dun processus stochastique cumulatif X(0, t), dans R, nous avons :
oo
n
n
(x) = sup x log E eX(0,t)
(A.26)
Interpr
etation G
eom
etrique de la Transform
ee de Fenchel-Legendre La figure A.2 illustre linterpretation geometrique de la transformee de Fenchel Legendre. La valeur de qui realise le maximum
correspond au point o`
u la droite tangente `a la courbe () a la meme pente x que la droite definie
par la fonction f () = x. Ensuite, on mesure la difference entre la droite et la fonction.
()
()=
()
()= x
* x)
(
* x)
(
x1
x2
A.3.2. Th
eor`
eme de Cramer
Le theor`eme de Cramer est utile lorsque lon souhaite determiner une estimation de la probabilite
que sous un certain regime asymptotique, la moyenne empirique dune suite de variables i.i.d. prenne
une valeur dans un intervalle particulier.
Th
eor`
eme A.3.1 (Th
eor`
eme de Cramer). Soit X1 , . . . , Xn une suite de variables aleatoires i.i.d
prenant leurs valeurs dans R. Le theor`eme de Cramer etablit que pour tout ensemble ouvert G, et
200
n
P
Xi verifie :
i=1
1
log P [Mn F ] inf (x)
xF
n
1
log P [Mn G] inf (x)
xG
n
lim sup
n
lim inf
n
(A.27)
o`
u est la transformee de Fenchel Legendre de la Log Laplace de la variable generique X.
Un cas particulier interessant est F = [a, +) , ou a > E[X]. La limite superieure est donnee par
lexpression suivante :
1
log P [Mn F ] inf (x)
xF
n
1
lim sup log P [Mn a] inf (x)
xa
n n
lim sup
n
sup {a X ()}
0
Notons que gr
ace `
a la convexite de la transformee de Fenchel Legendre de la transformee de Log
Laplace (fonction de taux) dune variable aleatoire, le minimum sur lintervalle [a, +) est realise
en x = a, et que le terme x X () etant concave (unimodal) par rapport `a , le supremum par
rapport `
a est restreint `
a des valeurs de 0. Remarquons le rapport avec la borne de Chernov
presentee precedemment.
(A.28)
Remarque A.3.3 (Definition equivalente). Soit Yn une suite de variables aleatoires dans un espace
S
de Hausdorff (complet, separable, metrique) E, (typiquement, R). Soit I : E R+ {+}. Soit
F E un ensemble ferme, Soit G E un ensemble ouvert. On dit que la suite Yn suit un Principe
de Grandes Deviations (ang. Large Deviation Principle) de fonction de taux I si et seulement si :
1
log P [Yn F ] inf I(y)
yF
n
n
1
lim inf log P [Yn G] inf I(y)
n n
yG
lim sup
201
(A.29)
Exemple A.3.1 (Le theor`eme de Cramer comme PGD). Le theor`eme de Cramer peut etre exprime
n
P
xi
i=1
, I = .
D
efinition A.3.4 (Ensembles de Continuit
e). Soit C un ensemble ouvert et C son ferme. Si le
minimum de I est atteint en un point verifiant :
inf I(y) = inf I(y)
yC
yC
1
log P [Yn C] = inf I(y)
yC
n
n inf I(y)
P(Yn C) e
yC
A.3.4. Le th
eor`
eme de Gartner-Ellis
Le theor`eme de Gartner-Ellis [36][27] est une extension directe du theor`eme de Cramer pour les
suites de variables aleatoires non necessairement i.i.d. Formalisons cette idee : si, pour une suite de
v.a. Yn , la limite suivante (limite de Gartner-Ellis)
lim
1
log E eYn = ()
n
existe et est finie pour toutes les valeurs R et cette limite est differentiable dans son domaine, alors
Yn /n suit un principe de grandes deviations dont la fonction de taux est donnee par la transformee
convexe de la limite de Gartner - Ellis de Yn . Dans le cadre du teletrafic, considerons lexemple
P
suivant : soit A(s, t] un processus darrivees (par exemple A(s, t] =
1l{Tn (s,t]} n ), et definissons
nZ
Zs , A(s, 0].
n
o X
E eA(s,0] =
en P (A(s, 0] = n)
n=0
en
n=0
= es
en
n=0
s se
=e
202
(s)
n!
= es(e
1)
() = lim
Hypoth`ese verifiee, alors A(s, 0]/s verifie un PGD dont la fonction de taux est donnee par :
h(x) = sup x (e 1)
x log( x ) (x ) x 0
=
+ x < 0
E[eT1 ] <
n , 1
,
> 0
1
EoN [T1 ]
Caract
erisation de E[eTn ] et calcul de la limite de Gartner-Ellis : Notons
P (N (0, s) a) = P
eTn
N (s, 0)
s
= P T[as] < s)
t = e(Tn t)
E[f ] =
EoN
"Z
T1
t dt
0
Tn
E[e
]=
EoN
"Z
T1
Tn
t dt
Tn
E[e
"
#
Z T1
1
o
Tn
t
e
dt = o
E
e
e dt
EN [T1 ] N
0
0
T1
1
1
o
Tn 1 e
= o
= o
EN e
EoN [eTn ] EoN [e(Tn T1 ) ]
EN [T1 ]
EN [T1 ]
1
Eo
]= o
EN [T1 ] N
"Z
T1
(Tn t)
Notons que
n
h Pn
i Y
n
EoN [eTn ] = EoN e i=1 (Ti Ti1 ) =
EoN [eT1 ] = EoN [eT1 ]
i=1
Alors
E[eTn ] =
1
EoN [T1 ]
EoN [eT1 ]n EoN [e(Tn T1 ) ]
203
Finallement
1
log E[eTn ] log EoN [eT1 ] , oN ()
n
T.F-L. {oN ()} = oN (x) , h(x)
Principes de grandes d
eviations d
eriv
es Le th
eor`eme de Gartner-Ellis nous permet daffirmer que
la suite n1 Tn suit un PGD de fonction de taux h(x) et que
1
log P (N (s, 0)) ah
s
1
a
A.4. Grandes D
eviations Trajectorielles
Les principes des grandes deviations tels quon les a presentes permettent le calcul du comportement asymptotique de suites de v.a., notamment la queue de distribution des moyennes empiriques.
Il est parfois interessant de caracteriser le comportement dune trajectoire dun processus stochastique. Ceci est lobjectif de la theorie des grandes deviations trajectorielles (ang. Sample Path Large
Deviations)
Soit D lespace des fonctions IR IR, continues `a droite avec limite `a gauche (c.`a.d.l.`a.g), muni de
la topologie de la convergence uniforme sur les ensembles compacts, cest `a dire : soit f D, fn D,
fn f T > 0, lim sup |fn (t) f (t)| 0
n |t|<T
X(0, t]
A(t) =
X(t, 0]
pour t 0
(A.30)
pour t < 0
On peut noter A(s, t) = A(t) A(s) s < t. On fait lhypoth`ese que A(t) D, A(t) est un
t)
(normalisation en temps et en
processus croissant, `
a accroissements positifs. Soit A(N ) (t) = A(N
N
S
+
space). Alors h : R R
{+}, function strictement convexe, admettant un unique minimum
en > 0, avec h() = 0 telle que la suite de processus A(N ) (t)satisfait un PGD dans D de fonction
S
de taux I : D R+ {+}, definie
I(a) =
+
R
h(a)dt
sinon.
lim sup
204
(A.32)
Par exemple, si A(t) est un processus de renouvellement, {Tn }, avec > 0 tel que EoN eT1 <
et Po (T1 > 0) = 1, alors lhypoth`ese est verifiee, avec :
h(x) = x
1
x
(A.33)
A.6. Applications
A.6.1. Multiplexage sans Buffer avec des sources de Poisson
Dans ce premier cas, nous allons voir comment utiliser la borne de Chernov pour le dimensionnement
et le contr
ole dadmission dans un syst`eme `a temps discret sans buffer, de capacite C. A chaque slot
de temps, N sources i.i.d. produissent une quantite de travail (e.g. en nombre de paquets, bits, etc.)
modelisee par une v.a. de Poisson (choix justifie du fait de la simplicite de sa bande passante effective
et `a titre dexemple). Nous notons Xi le travail produit par une source pendant un slot de temps et
PN
XT = i=1 Xi le travail total produit pour lagregat pendant le meme slot de temps (XT represente
les arrivees totales dans le syst`eme dans un slot de temps). Nous avons donc :
E[eXi ] = e(e
1)
E[eXT ] = eN (e
1)
log E[eXi ] = i () = (e 1)
(A.34)
log E[eXT ] = T () = N (e 1)
Evaluation : En appliquant la borne de Chernov, nous obtenons :
1)C
205
(A.35)
1)C
A.6. Applications
avec
J() , N (e 1) C
(A.36)
La valeur de qui minimise J() (realisant la borne la plus fine) est donnee par :
= log
C
N
(A.37)
(A.38)
Cette expression permet de calculer des param`etres dinteret tels que le nombre maximum de sources
`a admettre pour ne pas depasser la capacite avec une probalite doneee, etc.
Dimensionnement du syst`
eme : Si nous fixons = 1, la figure A.3 illustre la probabilit
e P(XT > C)
en fonction de le nombre de sources multiplexes N pour des valeurs de C = 100, 110, 120, 130. Avec
ce type danalyses, il est possible de calculer la capacite `a deployer afin de garantir une qualite de
service souhaitee.
Contr
ole dadmission :
egalement, la figure A.4 montre le nombre de sources que le syst`eme peut
accepter afin de garantir une qualite de service donnee.
P(Xt > C)
1
C=100
C=110
C=120
C=130
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
80
90
100
110
Nombre de sources N
120
130
206
A.6. Applications
CAC
120
P=0.0001
P=0.001
P=0.01
P=0.1
110
N max
100
90
80
70
60
100
105
110
115
120
125
Capacit totale C
130
135
140
1. > 0 | E(e( ) ) = 1
2. E[] < E[ ] (la file est stable).
Remarque : Sous les hypoth`eses mentionnees, la convexite de la transformee de Log Laplace log E[e( ) ],
et le fait que celle-ci vaut zero en = 0 implique que la valeur minimale est atteinte au point min
(la valeur qui annule la derivee de la Loglaplace), car log E emin ( ) < 0 et que la pente en zero
( )
)
est negative log E(e
= 0 = E( ) < 0. Voir figure A.5.
Soit Wn le temps dattente du client n (rapellons quil sagit dune file dattente `a discipline FIFO,
et `a conservation de travail). Suppons que W1 = 0. Dapr`es lequation de Lindley et le theor`eme de
Loynes,
Wn+1 = max (Wn + n n , 0)
lim P(Wn x) = P(W x)
P (W x) e
x > 0, n 1
Liu et Nain [59] proposent des extensions `a la borne de Kingman pour des cas plus generiques.
Nous desirons caracteriser la queue de distribution du processus travail cumule dans une file dattente dans de conditions moins restrictives que les hypoth`eses de Kingman. Selon que la taille du
buffer est finie ou non, nous notons W B la distribution stationnaire du travail cumule dans une file
`a buffer de taille B et W pour la distribution stationnaire du travail cumule dans une file dattente
`a buffer de taille infinie. Rappelons la relation suivante :
P (W B = B) P (W B)
207
()
()=
A.6. Applications
min
Lasymptotique de grand buffer, obtenue par Duffield et OConnell [25] nous permet de caracteriser
la queue de distribution du travail cumule dans une file dattente de capacite C, au moyen dun
principe de grandes deviations sous un certain nombre dhypoth`eses, notamment sous lexistance
dun principe de grandes deviations du processus darrivees. Soit A(s, t] un processus darrives. Soit
Zs le travail produit par une source pendant (s, 0). Supposons que le debit moyen empirique, Zss
suit un principe de grandes deviations avec fonction de taux h(x). On note lintensite du processus
< C. On fait lhypoth`ese que inf uC h(u) > 0, et on note W = W (0) le travail stationnaire en 0.
Alors,
1
log P(W x) inf inf h(C + y +
>0 y0
x
1
lim inf log P(W > x) inf inf h(C + y +
>0 y>0
x
lim sup
1
) = inf inf h(u)
>0 uC+1/
1
) = inf inf h(u)
>0 u>C+1/
Asymptotique de Grand Buffer avec Fonction de Taux Convexe : Si la fonction de taux h est
1
1
log P(W x) inf inf h(C + y + )
>0 y0
x
1
= inf h(C + )
>0
h(C + )
= inf
>0
si lon definit
= inf
>0
h(C + )
alors
1
log P(W x)
x
P(W x) ex
Les fonctions () et h(x) sont convex conjugates, et on peut montrer que
( ) = sup{ x h(x)} = C
x
208
A.6. Applications
Interpr
etation : Le logarithme de la probabilit
e de debordement decrot lineairement avec la taille
Contr
ole dadmission
Le resultat de Duffield-OConnell a souvent ete utilise pour definir un crit`ere de controle dadmission :
Supposons que le trafic agrege constituant le processus darrivees dune file dattente est compose
dun certain nombre N de sources independantes. Le processus darrivees associe `a chaque source est
P
note Ai (s, t) et lagregat A(s, t) = Ai (s, t). Nous faisons aussi lhypoth`ese que chaque source verifie
les conditions de Gartner-Ellis, (voir section A.3.4), cest `a dire, la limite lim 1t log E(eAi (t,0) )
t
P
existe et est notee i (). Soit () =
i (), la limite de Gartner-Ellis du processus A(s, t).
Dapr`es lasymptotique de grand buffer :
P(W x) ex
Autrement dit, un crit`ere de performance base sur la valeur de P(W x) = impose une valeur
maximale .
1
= log ()
x
Remarquons que cette relation est vraie pour de grandes valeurs de x. Lensemble des sources peut
etre admis en respectant le crit`ere donne si :
( )
C
N
X
i ( )
i=1
Et chaque source se verra attribuer une bande passante effective (additive) egale `a :
i ( )
209
A.6. Applications
sur lintervalle de temps (s, t]. Soit W (N ) le travail cumule dans la file dattente. Dapr`es lequation
de Lindley,
(
W
(N )
(t) = sup
st
N
X
An (s, t) C(t s)
(A.39)
n=1
(A.40)
alors,
J(b+ ) lim inf
N
lim sup
N
h
i
1
log P W (N ) > N b
N
h
i
1
log P W (N ) N b
N
(A.41)
J(b )
o`
u
J(b) = inf It (b + ct)
t>0
(A.42)
Cette asymptotique etant un resultat cle de nos travaux et est presentee en detail au chapitre 5,
Outils Mathematiques.
210
211
) (
)
'
(
"'
" )
' (' )
"
" )
'
.$
))
'
+',
"
( $
* $
*+',
'
+',
+ 1,
)
"#
&
+',
-"
-0
''
''
&
( $' * $'
*
''
+',
#
/'
&
#)
"
& "
' '#
A.6. Applications
212
B. El
ements Logiciel
B.1. Motivation
Comme on la evoque dans la conclusion, bien quelle soit tr`es generale, la theorie des b.p.e. fait
souvent appel `
a des calculs numeriques pour des cas non triviaux. Les simulations et les differents
calculs et optimisations numeriques des etudes de cette th`ese ont ete realises en utilisant le langage
C++ et un certain nombre de librairies specialisees dont nous presentons ici les elements essentiels.
1 http
://www.boost.org
Boost www.boost.org et Jeremy Siek Indiana University (jsiek@osl.iu.edu). Portions reproduites avec sa permission
2 (c)
213
B. Elements Logiciel
214
C. MPLS et Le syst`
eme dexploitation Linux
C.1. MPLS for Linux
MPLS pour Linux est un projet sous forme de logiciel libre destine `a implementer un ensemble de
protocoles de signalisation et le plan dacheminement (forwarding plane) pour le syst`eme dexploitation Linux. Cest un projet tr`es actif, dont le developpement a lieu `a sourceforge http ://mplslinux.sourceforge.net et http ://www.sourceforge.net/projects/mpls-linux.
Aujourdhui, mpls-linux a dej`
a developpe certaines fonctionnalites du plan usager (data plane) et du
plan de contr
ole, et peut etre integre dans la serie de noyaux Linux 2.4.X (le code source existe sous
forme de patch). Il existe de plus une implementation du protocole LDP, decrit dans [RFC3036].
MPLS pour Linux, est pour linstant compose de deux modules logiciels :
1. mpls-linux Acheminement MPLS base sur le concept de la commutation detiquettes, integre
dans le noyau. Ses principaux atouts sont :
Prise en charge des interfaces Ethernet.
Prise en charge des interfaces ATM.
Prise en charge des interfaces PPP, encapsulation Shim Layer.
Gestion des tunnels MPLS virtuels.
Espace detiquettes global ou specifique `a une interface.
Hierarchie MPLS : prise en charge de la pile detiquettes.
Consultation detiquettes recursive (ang. Recursive Label Lookups).
Une entree dans la table de routage du noyau Linux peut etre associee `a une etiquette
de sortie. Ceci inclut le support pour un nombre variable de tables, TOS, et routage par
interface.
Integration avec le mod`ele de gestion de QoS Linux.
Support pour larchitecture DiffServ (E-LSPs, L-LSPs).
Support pour Ethernet sur MPLS.
2. ldp-portable : Une implementation du protocole LDP.
Modes de distribution detiquettes non sollicite et sur demande (ang. Unsollicited Downstream and Downstream on Demand).
Gestion de Peers directes et indirectes.
Distribution detiquettes controlee par Politiques.
Integration `
a la plateforme de routage Zebra.
API de configuration flexible (similaire `a LDP-MIB).
Evolution Historique
Le projet MPLS pour Linux a debute vers 1999, dabord comme outil danalyse pour le protocole
LDP, suite `
a la publication par Nortel Networks dune biblioth`eque de fonctions pour la manipula-
215
tion, lencodage et le decodage des PDUs. Le principal responsable du projet, James Leu, continue
activement son developpement. Depuis Avril 2000 environ, le logiciel est separe en deux parties,
comme indique ci-dessus.
Le projet MPLS pour Linux evolue rapidement. La liste de diffusion associee est tr`es active ( mplslinux-general :sourceforge.net ). Il reste encore un certain nombre de fonctionnalites `a implementer,
notamment le protocole RSVP-TE, dautant plus que le groupe de travail de lIETF pense serieusement `a ne conserver que ce dernier.
Le lecteur est invite `
a consulter la page Web du projet pour plus dinformations.
216
217
Liste de publications
[1] R. Casellas, D. Kofman, MPLS, MultiProtocol Label Switching, from IP forwarding to label
switching, support de cours , ENST 2000-2002INFRES74.
[2] R. Casellas, D. Kofman, J.L. Rougier, Load Sharing Schemes in MPLS networks, in 2nd
European Conference in Universal Multiservice Networks, ECUMN2002, Colmar, France.
[3] R. Casellas, Performance Evaluation of MPLS Load Sharing, in Workshop on Design and
Performance Evaluation of 3G Internet Technologies, Fort Worth, Texas, 2002.
[4] R. Casellas, D. Kofman, Performance Evaluation of MPLS Load Sharing, Extended version,
Suite `
a invitation du comite de programme de MASCOTS 2002, `a soumettre pour publication
dans edition speciale de Performance Evaluation, 2002-2003.
[5] R. Casellas, D. Kofman, Adaptive Load Sharing, `a soumettre.
Stages Encadr
es
[1] Basheer Dargham, MPLS Optimized Multi-Path (MPLS-OMP), analyse et experimentation,
Stage ,2000.
[2] Halim Adel, Ingenierie de trafic dans les reseaux MPLS, Stage ecole polytechnique, 2001.
Bibliographie
221
Bibliographie
Bibliographie
[16] S. Chen, K. Nahrstedt, and Y. Shavitt, A QoS Aware multicast Routing Protocol, Infocom,
2000.
[17] I. Cidon, R. Rom, and Y. Shavitt, Analysis of Multi-Path Routing, IEEE/ACM Transactions
on Networking Vol. 7 No.6, December 1999.
[18] C. Courcoubetis, V.A. Siris, and G.D. Stamoulis, Application and Evaluation of Large Deviation Techniques for Traffic Engineering in Broadband Networks, ACM SIGMETRICS, 1998.
6.4.1, 6.6.3
[19] C. Courcoubetis, A. Dimakis, and G. D. Stamoulis, Traffic Equivalence and Substitution in
a Multiplexer, Institute of Computer Science, Crete Univ., Infocom 1999. 5.8.3.2, 6.4.1, 6.6.1
[20] C. Courcoubetis, V.A. Siris, and G. Stamoulis, Application of the many sources asymptotic
and effective bandwidths for traffic engineering, Telecommunications Systems 12, 167-191 ,
1999.
[21] H. Cramer, Sur un nouveau theoreme-limite de la theorie des probabilites In Actualites
Scientifiques et Industrielles, n 736 in Colloque cnsacre `a la theorie des probabilites, pp. 5-23,
Hermann, Paris 1938. 5.8.1, A.2
[22] H. De Neve and P. Van Mieghen, A multiple quality of service routing algorithm for PNNI,
Alcatel Corporate Research., Proceedings 1998 IEEE ATM workshop, May 26-29.
[23] A. Dembo and O. Zeitouni, Large Deviations Techniques and Applications, Jones and Bartlett Pubislers, Inc. ISBN 0-86720-291-2, 1993. 5.8.1, 8.1.1, A.1, 1, A.5.1
[24] E. Dinan, D.O. Awduche, and B. Jabbari, Optimal Traffic Partitioning in MPLS Networks,
George Mason University, UUNET (MCI Worldcom), 1999. 4.10.5
[25] N.G. Duffield and N/ OConnell, Large deviations and overflow probabilities for the general
single server queue, with applications, Math. Proc. Cam. Phil. Soc., 118, 363-374 , 1995.
6.6.1, A.6.2
[26] D. A. Dunn, W. D. Grover, and M. H. MacGregor, Comparision of k-shortest paths and
maximum flow routing for Network facility Restoration, IEEE Journal on selected areas in
Communications, Vol. 12, N. 1, January 1994. 4.10.4.1
[27] R.S. Ellis, Large Deviations for a general class of random vectors,Ann. Probab. Vol. 12, pp.
1-12, 1984. A.3.4
[28] R.S. Ellis, Entropy, Large deviations and Statistical Mechanics, New York, Springer-Verlag
1985.
[29] A.I. Elwalid and D. Mitra, Effective bandwidth of general Markovian traffic sources and admission control of high speed networks, IEEE/ACM Transactions on Networking, 1, 1993.
[30] D.Y. Eun and N. Shroff, Network Decomposition in the Many-Sources Regime, Advances in
Applied Probability, submitted, 2002. 8.1, 9.8
[31] E. Felstaine and R. Cohen, On the distribution of Routing Computation in Hierarchical ATM
Networks, IEEE/ACM Transactions on Networking., 1999. 4.5.1
[32] A. Feldmann, A. Greenberg, C. Lund, N. Reingold, and J. Rexford, NetScope : Traffic Engineering for IP Networks, AT&T Labs-Research, IEEE Network, March/April 2000.
222
Bibliographie
Bibliographie
[33] S. Floyd and V. Jacobson, Synchronization of periodic routing messages, IEEE/ACM Transactions on Networking, vol.2, pp 122-136, April 1994.
[34] L.R. Ford and D.R. Fulkerson, Flows in Networks, Princeton University Press, Princeton,
New Jersey, 1962.
[35] B. Fortz and M. Thorup, Internet Traffic Engineering by Optimizing OSPF weights, AT&T
Labs-Research. Infocom 2000, 2000.
[36] J. G
artner, On large deviations from invariant measure, Theory Prob. Appl., Vol. 22, pp.
24-39, 1977 A.3.4
[37] A. Banerjee, J. Drake, J. Lang, B. Turner, K. Kompella, and Y. Rekhter, Generalized Multiprotocol Label Switching : An overview of Routing and Management Enhancements, IEEE
Communications Magazine, January 2001. 3.6
[38] A. Banerjee, J. Drake, J. Lang, B. Turner, D. Awduche, L. Berger, K. Kompella, and Y.
Rekhter, Generalized Multiprotocol Label Switching : An overview of Signaling Enhancements
and Recovery Techniques, IEEE Communications Magazine, July 2001. 3.6
[39] O. Gerstel, I. Cidon, and S. Zaks, The Layout of Virtual Paths in ATM Networks,
IEEE/ACM Transactions on Networking vol. 4 No. 6, December 1996.
[40] R.J. Gibbens, Traffic Characterization and Effective bandwidths for broadband network
traces, University of Cambridge , -.
[41] A. Gueroui, L. Mokdad, and J. Ben-Othman, A new Multiservices Rerouting Algorithm,
IEEE, June 19, 2000.
[42] R. Guerin and A. Orda, QoS-based Routing in Networks with Inaccurate Information : Theory
and Algorithms, IBM T.J Watson Res. Center, Technion I.I.T., Infocom97.
[43] F. Hao and E. W. Zegura, On Scalable QoS routing : Performance Evaluation of Topology
Aggregation, Georgia Tech ; Atlanta, -. 4.5.1
[44] F. Hao and E. W. Zegura, Scalability Techniques in QoS Routing, Georgia Tech, Atlanta, -.
4.5.1
[45] F. Hao, E. W. Zegura, and S. Bhatt, Performance of the PNNI Protocol in Large Networks,
Georgia Tech, Atlanta, Bellcore and DIMACS, -. 4.5.1
[46] M. Heusse and Y. Kermarrec, Adaptive Routing and Load Balancing of Ephemeral Connections, ENST de Bretagne, 2000. 4.10.5
[47] J.Y. Hui, Resource allocation for broadband networks, IEEE Journal Selected Areas Communication 6, 1598-1608, 1988. 5.5, 5.5.1, A.2
[48] P. Newman, G. Minshall, and T. Lyon, IP switching : ATM under IP, IEEE/ACM Transactions on Networking 6(2) :117-129, April, 1998. 2.1
[49] A. Iwata, R. Izmailov, and B. Sengupta, Alternative Routing methods for PNNI networks
with Partially Disjoint Paths, C & C Media Res.Labs, NEC Corporation, 1999.
[50] J.J. Garcia-Luna-Aceves, Loop Free Routing Using Diffusing Computations, IEEE/ACM
Transactions on Networking Vol. 1, No. 1, February 1993.
[51] J.J. Garcia-Luna-Aceves and S. Murthy, A Path-Finding Algorithm for Loop-Free Routing,
IEEE/ACM Transactions on Networking Vol. 5, No.1, February 1997.
223
Bibliographie
Bibliographie
[52] J.L. Rougier, Routage Dynamique Unicast et Multicast, Th`ese de doctorat, ENST, 1999.
2.1.1, 4.5.1, 4.5.1
[53] F.P. Kelly, Notes on effective bandwidths, In Stochastic Networks : Theory and Applications (Editors F.P. Kelly, S. Zachary and I.B. Ziedins) Oxford University Press , 1996. 5.5,
5.5.1, 5.8, 5.8.3, 5.8.3, 5.8.3.1, 6.6.1, 6.6.3, 7.2.4, 9.6.1, 10.3, A.3.1
[54] J.F.C. Kingman, Inequalities in theory of queues, J. Roy. Stat. Soc., Series B, 32 pp. 102-110,
1970. A.6.2
[55] L. Kleinrock, Queueing Systems Theory, Wiley Interscience, 1975. 4.10.5
[56] D. Kofman and M. Gagnaire, Reseaux Haut Debit : Tome I Reseaux ATM et reseaux locaux,
2ed., Dunod, 1999. 2.1.1
[57] Andersson et al., LDP Specification, draft-ietf-mpls-ldp-08.txt, work in progress, Internet
Draft, IETF, 26 Jun 2000.
[58] N. Likhanov and R. R. Mazumdar, Cell loss asymptotics in buffers fed with a large number
of independent stationary sources, 0-7803-4386-7/98 IEEE, 1998. (document), 5.8.1, 5.8.3,
5.8.3.1, 5.8.3.1, 5.8.1, 5.8.2, 5.8.3.1, 6.4, 6.6, 6.6.3, 6.9, 7.2.1, 7.5.1, 9.4
[59] Z. Liu, P. Nain, and D. Towsley, Exponential bounds with applications to call admission,
J.A.C.M., vol. 44, no. 3, May 1997, pp. 366-394. A.6.2
[60] D. H. Lorenz and A. Orda, QoS Routing with Uncertain Parameters, IEEE/ACM Transactions on Netwroking, Vol. 6, No. 6 , December 1998. 4.5.1
[61] R.M. Loynes, The stability of a queue with Non-Independent Inter-Arrival and Service
Times, Proc. Cambridge Philos. Soc. 58, pp. 497-520, 1962.
[62] I. Widjaja and A. ElWalid, MPLS Adaptive Traffic Engineering, work in progress, Internet
Draft, IETF, August 1998. 4.10.5
[63] E.C. Rosen, A. Viswanathan, and R. Callon, Multi Protocol Label Switching Architecture,
RFC 3031 IETF, January 2001.
[64] J. Heinanen, , IETF, FIXME. 2.2.5
[65] C. Villamizar, MPLS Optimized Multipath (MPLS-OMP), UUNET. IETF, February 25,
1999. Internet draft, work in progress.. 4.10.5
[66] , A framework for Multiprotocol Label Switching Architecture, work in progress, Internet
Draft, IETF, 1999.
[67] Q. Ma and P. Steenkiste, On path Selection for Traffic with Bandwidth Guarantees, Comp.
Science department, Carnegie Mellon University, -. 4.6.3
[68] Q. Ma and P. Steenkiste, Supporting Dynamic Inter-Class Resource Sharing : A multi-class
QoS Routing Algorithm, Cisco Sytems, C.S. Dept, Carnegie Mellon University, 1998.
[69] L. Massoulie, Theorie des Grandes Deviations, notes de Cours, DEA Probabilites Appliques
Paris VI., 2000. (document), A.3.4.2
[70] I. Matta and A.U. Shankar, Dynamic routing of real-time virtual circuits, in Proceedings of
IEEE International Conference on Network Protocols, pp. 132-139, 1996.
[71] P. Van Mieghem, Topology Information Condensation in Hierarchical Networks, Delt University, Alcatel Corporate Research, -. 4.5.1
224
Bibliographie
Bibliographie
[72] P. Van Mieghem, Routing in a hierarchical tructure, Alcatel Corporate Research, -. 4.5.1
[73] I. Norros, A storage model with self-similar input, Queueing Systems, Vol. 16, pp. 387-396,
1994. 5.4.7, 5.6.4, 5.8.2, 6.6.1, 6.6.1
[74] J. Moy, Open Shortest Path First, IETF, RFC 2328. 4.5
[75] D. Katz, D. Yeung, and K. Kompella, Traffic Engineering Extensions to OSPF, work in
progress, Work in Progress, February 2001. 3.6.1
[76] C. Villamizar, OSPF Optimized Multi Path (OSPF-OMP), work in progress, Internet Draft,
IETF, February 1999.
[77] C. H. Papadimitriu and K. Steiglitz, Combinatorial Optimization, Prentice-Hall, 1982.
[78] G.R. Walsh, Methods of Optimization, John Wiley and Sons. ISBN 0-471-91924-1., 1975.
[79] A. Orda and R. Rom, Shortest Path and Minimum Delay Algorithms in Networks with time
dependent edge-length, Dept. Electrical Engineering, Technion I.T.T, August 1989.
[80] S. Oueslati-Boulahia, Qualite de service et routage et routage des flots elastiques dans un
reseau multiservice, Th`ese de doctorat, Novembre 2000. 4.6.3
[81] O. Ozturk, R.R. Mazumdar, and N. Likhanov, Many Sources Asymptotics for Networks with
Small Buffers, Preprint, submitted to Queueing Systems, 2002. 8.1
[82] , ATM Forum PNNI Specifications, ATM Forum, 1996. 4.5.1
[83] V. Paxson and S. Floyd, Why we dont know how to simulate the Internet, In Proceedings
of the Winter Simulation Conference , December 1997.
[84] G. Apostolopoulos, D. Williams, S. Kamat, R. Guerin, A. Orda, and T. Przygienda, QoS
routing mechanisms and OSPF extensions, RFC 2676, January 1998.
[85] Z. Zhang, C. Sanchez, B. Salkewicz, and E.S. Crawley, Quality of service Extensions to OSPF
or quality of service path first routing(QOSPF), work in progress, Work in Progress, September 1997.
[86] R. Guerin, D. Williams, and A. Orda, QoS Routing Mechanisms and SPF extensions, GLOBECOM, 1997.
[87] P. Aukia, M. Kodialam, P. V. N. Koppol, T. V. Lakshman, H. Sarin, and B. Suter, RATES : A
Server for MPLS Traffic Engineering, Bell Laboratories, Lucent Laboratories. IEEE Network,
March/April 2000. 4.9, 4.10.6
[88] D. O. Awduche, J. Malcom, J. Agogbua, M. ODell, and J. McManus, Requirements for
Traffic Engineering over MPLS, IETF, 1999. 4.2, 4.3
[89] C. Hopps and D. Thaler, Multipath Issues in Unicast and Multicast Next-Hop Selection,
IETF, November 2000. 4.10.1, 4.10.2
[90] C. Hopps, Analysis of an Equal-Cost Multi-Path Algorithm, IETF, November 2000. 4.10.1
[91] E. Rosen, A. Viswanathan, and R. Callon, Multiprotocol Label Switching Architecture, IETF,
Jan 2001. 4.10.7
[92] F. Le Faucheur, L. Wu, B. Davi, S. Davar, P. Vaanane, R. Krishna, P. Cheva, and J. Heinanen,
Multi-Protocol Label Switching (MPLS) Support of Differentiated Services, IETF, Mai 2002.
4.10.7
225
Bibliographie
Bibliographie
226