Você está na página 1de 53

Fractales ?

Cours de DEA SIPT


P.O. Amblard
1
Vraie, . . . ou fausse ?
2
Paysages. . .
3
Les termites se prom`enent. . .
et les plantes. . .
4
Un peu de turbulence. . .
5
Chapter 1
Introduction aux fractales
1.1 Mesurer des longueurs
Tous les etudiants poss`edent une r`egle graduee qui leur permet de mesurer la longueur de nimporte
quel objet. Le principe de base est de considerer la r`egle comme une unite de longueur l
0
, puis de
compter le nombre de fois necessaire pour couvrir lobjet avec cette unite. Soit n(l
0
) ce nombre.
La longueur est alors approchee par L n(l
0
)l
0
. Pour un segment de droite de longueur L, cette
formule est exacte si lon choisit l
0
= L/n(l
0
). Pour un cercle de rayon R, divisons en n angles
egaux le cercle, et choisissons pour lunite de longueur la longueur de la corde liant deux points
du cercle denissant langle 2/n. Alors l
0
= 2Rsin(/n). Or, il faut n(l
0
) = n unite de longueur
pour decrire le cercle. Donc la longueur du cercle est approchee par L n2Rsin(/n). Pour
obtenir une mesure ne, n est choisit de plus en plus grand. En developpant le sinus on obtient
2Rsin(/n) 2R/n R
3
/(3n
3
) de sorte que n(l
0
)l
0
2R R
3
/(3n
2
), qui tend vers 2R
quand n tend vers linni.
Considerons maintenant lexemple de la gure (1.1). Cette courbe est appelee courbe de Von
Koch, et est obtenue `a laide dun processus recursif. Lelement initial est un segment de droite de
longueur l
0
. La recursion consiste `a remplacer le tiers central du segment par un triangle equilateral
de c ote l
0
/3. La courbe resultante est composee de 4 segments sur lesquels on remplace le tiers
central par un triangle equilateral de c ote l
0
/9. Ce processus est alors repete `a linni. La limite
est appelee courbe de Von Koch. Calculons sa longueur. Initialement, la longueur est n
0
l
0
avec
n
0
= 1. A la premi`ere iteration, elle est de n
1
l
0
/3 o` u n
1
= 4n
0
. A chaque iteration, le nombre
de segments est multiplie par 4, et chaque nouveau segment a une longueur trois fois plus petite
: donc, n
k
= 4n
k1
= 4
k
n
0
et l
k
= l
0
/3
k
. La longueur de la courbe `a literation k est donc
L
k
= l
0
(4/3)
k
, et L
k
tend vers linni lorsque k tend vers linni. La courbe de Von Koch est donc
une courbe continue de longueur innie!
Dune fa con generale, lorsque lon mesure une longueur, le nombre n(l
0
) dunites de longueur
l
0
permet dobtenir la longueur par
l = lim
l00
n(l
0
)l
0
Pour un segment de droite de longueur L, il faut environ L/l
0
unites de longueur pour couvrir
le segment, soit d = 1, de sorte que l = lim
l00
n(l
0
)l
0
= L. Dune fa con generale, d`es quune
courbe est rectiable (derivable, sauf peut-etre en un nombre ni de points), cette limite est nie
et appelee longueur de la courbe.
Mais pour la grande majorite des courbes, la rectiabilite nest pas veriee, et la limite ci-dessus
sav`ere souvent innie. Mathematiquement, la limite peut etre nulle si d < 1, nie si d = 1 ou
innie si d > 1. Nous avons dej` a vu des exemples de courbes rectiables pour lesquelles la limite
est nie. Le cas dune longueur nulle correspond `a un objet qui nest en fait quune poussi`ere de
points, et qui porte donc dicilement le nom de courbe (voir lexemple de lensemble de Cantor au
6
Figure 1.1: Courbe de Von Koch : exemple dune courbe continue de longueur innie.
paragraphe 1.1.2, represente gure 1.2). Lexemple de la courbe de Von Koch pour une longueur
innie est representatif. Lorsque letalon de longueur l
0
diminue, des details ns apparaissent est
peuvent etre pris en compte dans le nombre n(l
0
). Le premier exemple pris dans les exposes de
B. Mandelbrot est celui des c otes maritimes dun pays (les c otes de Bretagne pour etre precis).
Lorsque letalon de longueur est de lordre de la centaine de m`etres, les echancrures mesurables
sont les grandes baies. A lechelle de la dizaine de m`etres, de nouvelles petites baies deviennent
visibles par letalon. Par contre, les circonvolutions dues aux rochers ne sont pas prises en compte.
Elles le deviennent lorsque letalon est de lordre du m`etre. Chaque echelle fait ainsi apparatre de
nouveaux details, petits mais en nombre susant pour faire diverger la mesure de longueur.
En general, le nombre n(l
0
) de fois quil faut deplacer letalon de longueur pour parcourir la
courbe se comporte comme l
d
0
o` u d est caracteristique de la courbe. Dans le cas des courbes
rectiables, nous avons note que n(l
0
) l
1
0
. Si d < 1, la longueur tend vers 0 et nous sommes
confronte `a une poussi`ere alors que si d > 1 la longueur de la courbe est innie.
Ce nombre d est caracteristique de la courbe. Or, en mesurant la longueur de la courbe, nous
navons acc`es qu`a la position de d par rapport `a 1. Ceci est d u au fait que la mesure de longueur
nest pas adaptee `a la mesure de d. Toutefois, si lon envisage
l(D) = lim
l00
n(l
0
)l
D
0
alors
n(l
0
)l
D
0
l
Dd
0
_
_
_
0 si D > d
cte si D = d
si D < d
Le nombre d est appele dimension fractale de la courbe.
Le probl`eme du calcul dune dimension est tr`es complique. Ceci est d u `a lexistence dune
multitude de denition de la dimension dun ensemble. Nous allons donner la denition qui semble
la plus generale, puis voir une autre denition, plus constructive, permettant un calcul pratique.
7
1.1.1 Dimension de Hausdor-Besicovitch
Nous nous pla cons dans R
2
, bien que cette restriction puisse etre levee. Soit S un sous-ensemble
de R
2
. Soit maintenant une famille nie ou denombrable densembles U
i
de diam`etres inferieurs
ou egaux `a , i.e. [U
i
[ = sup([x y[, x, y U
i
) qui couvre S. En dautres termes, la famille
U
i
est telle que
[U
i
[ , i
S

_
i=0
U
i
On dit alors que la famille U
i
est un -recouvrement de S. On pourrait alors mesurer la surface
de S en sommant les diam`etres des U
i
. Mais un probl`eme a dej` a ete evoque dans le paragraphe
precedent : pour certains ensembles, la mesure peut tendre vers linni. Il est alors preferable de
sommer les diam`etres eleves `a une puissance s et trouver le s rendant nie la somme. Un deuxi`eme
probl`eme reside dans le fait que cette mesure depend du recouvrement choisi. Pour cette raison, il
faut envisager lensemble de tous les -recouvrements possibles. On denit alors
H
s

(S) = inf
_
+

i=0
[U
i
[
s
, U
i
-recouvrement de S
_
Tout comme pour mesurer les longueurs dans le paragraphe precedent, on envisage ensuite la limite
lorsque tend vers zero de H
s

(S) et lon ecrit


H
s
(S) = lim
0
H
s

(S)
On montre que H
s
(S) est une mesure de lensemble S qui peut etre eventuellement innie. Cette
mesure est appelee mesure de Hausdor. Pour comprendre son comportement, supposons que S
soit le graphe dune fonction lisse. Si s > 1, on mesure la surface de S qui est nulle. Si s < 1
on mesure une grandeur dordre plus petit quune longueur et le resultat est inni. Pour s = 1,
on mesure la longueur de la courbe lisse, et lon obtient un resultat ni. On trouve alors que la
mesure de Hausdor est en general
H
s
(S) =
_
_
_
pour s [0, s
d
[
H
s
d
(S) pour s = s
d
0 pour s > s
d
Le nombre s
d
tel que la mesure de Hausdor soit nie est appelee dimension de Hausdor de
lensemble S et est note dim
H
(S).
On obtient une denition equivalente si lon remplace les ensembles U
i
par des disques par
exemple.
Il existe dautres denitions de la dimension. Le caract`ere pratique de ces dimensions nest pas
toujours evident. Le paragraphe suivant donne une denition permettant une evaluation simple
de la dimension.
1.1.2 Dimension de comptage de botes
Lidee derri`ere le calcul de dimension est le recouvrement par des objets simples de lensemble `a
mesurer. La dimension de Hausdor est fondee sur cette idee, mais est dicilement utilisable en
pratique puisque la forme du recouvrement nest pas explicite.
Dans R
2
, on consid`ere les carres de c otes de longueur . Soit N

(S) le nombre minimal de ces


carres necessaire pour recouvrir un ensemble S. La dimension de comptage de botes de S est
alors denie par la limite, lorsquelle existe
dim
B
(S) = lim
0

log(N

(S))
log
8
Figure 1.2: Ensemble de Cantor.
Cette dimension porte un certain nombre de noms, parmi lesquels dimension metrique, dinformation,
de capacite. . .
On peut montrer que la dimension de comptage de botes est superieur ou egale `a la dimension
de Hausdor. Toutefois, pour beaucoup densembles, ces dimensions sont egales.
Lavantage dune telle denition est son utilite pratique, puisquil est tr`es facile de limplanter
sur ordinateur. La marche `a suivre est la suivante. On quadrille le plan par des carres de longueur

1
et on compte le nombre N
1
(S) de ces carres qui intersectent lensemble `a mesurer. Puis on
diminue
1
en
2
pour chercher N
2
(S), etc. . .
On trace alors log(N
i
(S)) en fonction de log(
i
). Pour des valeurs log(
i
) susamment petites,
ce graphe doit etre une droite dont on calcule la pente par regression lineaire.
Exemple : lensemble de Cantor Lensemble de Cantor est obtenu en eliminant le tiers
central du segment [0, 1] puis en iterant le processus sur les segments restant. Cette construction
est montre gure (1.2).
Pour couvrir lensemble de Cantor, on choisit des botes de taille = 1/3
n
. A letape n, il faut
N

= 2
n
botes pour recouvrir compl`etement lensemble. Donc

log(N

)
log
=
log 2
log 3
= dim
B
On remarque egalement que le recouvrement envisage est le -recouvrement qui donne linf pour
la mesure de Hausdor. Dans cet exemple, la dimension de Hausdor et la dimension dinformation
sont donc egales.
Remarque Nous avons vu deux denitions de la dimension. La notion de dimension fractale est
donc dicilement denissable. Toutefois, nous dirons quun objet a une dimension fractale si sa
dimension de Hausdor est strictement superieure `a sa dimension topologique. Pour la courbe de
Von Koch, la dimension topologique est 1, la dimension de Hausdor de log 4/ log 3 1.26. La
courbe de Von Koch est donc fractale. Lensemble de Cantor est un ensemble discret. Sa dimension
topologique est donc 0 < dim
H
0.64 : lensemble de Cantor est donc fractal.
1.1.3 Signaux fractals
Un signal est une fonction en general du temps. Par denition, le signal est dit fractal si le graphe
(t, f(t)) de la fonction est un ensemble fractal de R
2
.
La notion de fonction fractale est etroitement liee `a la notion de fonctions H olderiennes.
Denition Une fonction f : [0, 1] R satisfait une condition de H older sil existe ]0, 1[ tel
que
[f(t) f(u)[ [t u[

, t, u [0, 1]
9
Pour ces fonctions, la dimension de Hausdor du graphe de f est en generale inferieure ou egale
`a la dimension dinformation, elle meme en general inferieure ou egale `a 2 . Toutefois, pour un
bon nombre de fonctions on a le resultat dim
B
(graphe f) = 2 . La fonction suivante en est un
exemple cel`ebre.
Fonction de Weierstrass Considerons > 1 et ]0, 1[. La fonction de Weierstrass est denie
sur [0, 1] par
f(t) =
+

k=1

k
sin(
k
t)
et a un graphe fractal (lorsque est susamment grand). La gure (1.3) montre quelques unes de
ces fonctions pour dierentes valeurs de . La dimension dinformation est dim
B
= 2 . On voit
sur la gure que le graphe de f est de plus en plus chahute au fur et `a mesure que diminue.
Autrement dit, le graphe de la fonction tend `a recouvrir de plus en plus le plan, et sa dimension
fractale augmente de plus en plus.
Cet exemple permet egalement de voir une caracteristique generale des fonctions fractales : leur
comportement frequentiel. En eectuant la transformee de Fourier de la fonction de Weierstrass
on obtient pour les frequences positives
[F()[ =
1
2
+

k=1

k
(

k
2
)
=
1
2
+

k=1
a
k
(
k
)
On saper coit quil y a un lien simple entre lamplitude a
k
et la frequence
k
. En eet on peut
ecrire a
k
= (2)

1/(
k
)

. Les amplitudes suivent une loi de puissance en fonction de la frequence.


Cet exemple montre ce fait sur un nombre discret de frequence, mais la remarque reste en general
valable pour un spectre continu de frequence.
Un signal x(t) presentant une transformation de Fourier en 1/

( ]0, 1[) est appele signal


en 1/f et est en general fractal de dimension 2 . On dit aussi que le signal satisfait `a une
invariance dechelle car ces signaux verient x(at) = a
1
x(t) : changer lechelle de temps ne
change rien au signal (` a une normalisation pr`es). Ces signaux ne poss`edent donc pas dechelle de
temps caracteristique!
Nous verrons dautres exemple de fonctions fractales dans les paragraphes 1.2.8 et 1.3.
1.2 Un exemple de construction de courbes fractales :
syst`emes de fonctions iteres
Les syst`emes de fonctions iteres (IFS) constituent une fa con de construire des fractales. Leur
principe repose sur le theor`eme du point xe dans les espaces metriques. Quelques rappels sur les
espaces metriques sont maintenant donnes.
1.2.1 Rappels sur les espaces metriques
Soit X un ensemble. Une distance sur cet ensemble est une application d : X X R veriant
les proprietes suivantes :
1. symetrie : d(x, y) = d(y, x), x, y X,
2. positivite : d(x, y) > 0, x, y X, x ,= y,
10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.2
0.4
0.6
0.8
1
Figure 1.3: Fonction de Weierstrass. De haut en bas, = 0.9, 0.7, 0.5, 0.3, 0.1 de sorte que les
dimensions fractales sont de haut en bas de 1.1, 1.3, 1.5, 1.7, 1.9.
3. d(x, x) = 0, x X,
4. inegalite triangulaire : d(x, y) d(x, z) +d(z, y), x, y, z X.
Alors (X, d) est appele espace metrique. La distance ou metrique d permet de conferer une
structure topologique `a lensemble X. En particulier, la notion de convergence se deduit de la notion
de distance. Rappelons que deux distances d
1
et d
2
sont equivalentes si il existe 0 < c
1
< c
2
< +
tels que
c
1
d
2
((x
1
, y
1
), (x
2
, y
2
)) d
1
((x
1
, y
1
), (x
2
, y
2
)) c
2
d
2
((x
1
, y
1
), (x
2
, y
2
))
pour tout point de X.
Une suite x
n

n=0,...,
de points de lespace metrique (X, d) est une suite de Cauchy, si > 0,
il existe un entier N > 0 tel que d(x
n
, x
m
) < pour tout n, m > N.
Une suite x
n

n=0,...,
de points de lespace metrique (X, d) converge vers un point x de X si,
> 0, il existe un entier N > 0 tel que d(x
n
, x) < pour tout n > N.
11
Une telle suite est dite convergente. On montre alors quune suite convergente est une suite de
Cauchy. La reciproque est fausse en general. Cette remarque conduit `a :
Un espace metrique (X, d) est complet si toutes les suites de Cauchy de X converge dans X.
Soit S un sous-ensemble de (X, d). Un point x X est un point limite de S sil existe une suite
de points de S x convergente vers x. On appelle fermeture de S, notee

S, lunion de S et de
ses points limites. Un sous-ensemble S est dit ferme si il est egal `a sa fermeture, S =

S.
Un sous-ensemble S de (X, d) est compact, si de toute suite de points de S on peut extraire
une sous suite convergente dans S. Un sous-ensemble S de (X, d) est borne sil existe un point a
de X et R > 0 tels que d(a, x) < R, x S.
Les sous-ensembles compacts de (X, d) sont les fermes bornes.
1.2.2 Espace metrique des ensembles compacts
On se place dans ce qui suit dans X = R
2
bien que des formulations plus generale existent. On
rend R
2
metrique en le dotant dune distance (qui peut etre la distance euclidienne ou tout autre
distance sur R
2
).
Les compacts de R
2
sont les ensembles fermes bornes. Considerons deux ensembles compacts
A, B. On denit la distance de Hausdor entre ces deux ensembles comme suit (voir la gure (1.4)).
Soit d(x, B) la distance du point x A `a lensemble B denie par d(x, B) = min(d(x, y), y B).
La distance de lensemble A `a lensemble B est alors d(A, B) = max(d(x, B), x A). On ne prend
pas le min dans cette denition car alors la distance entre deux ensembles sintersectant serait
nulle. Le caract`ere deni necessaire `a la denition dune distance ne serait donc pas obtenu. Mais
il reste toutefois un probl`eme avec cette denition : le mesure est non symetrique. On denit alors
la distance de Hausdor entre A et B par
d
H
(A, B) = max(d(A, B), d(B, A))
Cette denition satisfait les proprietes dune distance et d
H
constitue alors une metrique sur
lensemble des ensembles compacts de R
2
. On peut alors montrer le resultat suivant :
x
B
A
d(x,B)
d(A,B)
d(B,A)
Figure 1.4: Illustration de la denition de la distance de Hausdor.
Lensemble des compacts de R
2
, note H(R
2
), muni de la distance de Hausdor est un espace
metrique complet.
Ainsi, une suite de Cauchy de sous-ensembles compacts de R
2
converge vers un sous-ensemble
compact de R
2
. Nous verrons que beaucoup de fractales sont des limites de ce type!
12
1.2.3 Applications contractantes et theor`eme du point xe
Une transformation f : X X, X etant un espace metrique muni de d, est contractante sil existe
un reel s [0, 1[ tel que
d(f(x), f(y)) sd(x, y), x, y X
On dispose alors du theor`eme du point xe :
Theor`eme Soit f : X X une application contractante de (X, d), espace metrique complet.
Alors, f a un unique point xe x
f
X, et de plus, x X, lim
n
f
(n)
(x) = x
f
.
Demonstration : Soit f contractante de facteur de contraction s. Soit x X. Soient n, m
deux entiers. Alors
d(f
(n)
, f
(m)
) sd(f
(n1)
, f
(m1)
) s
min(n,m)
d(x, f
|mn|
)
Or, dapr`es linegalite triangulaire,
d(x, f
(k)
) d(x, f(x)) +d(f(x), f
(2)
(x)) +. . . +d(f
(k1)
, f
(k)
)
(1 + s +s
2
+. . . +s
k1
)d(x, f(x))
(1 s)
1
d(x, f(x))
Il vient alors
d(f
(n)
, f
(m)
) sd(f
(n1)
, f
(m1)
) s
min(n,m)
(1 s)
1
d(x, f(x))
Le membre de droite de cette inegalite peut etre rendu aussi petit que lon veut, `a condition de
choisir n, m susamment grands. La suite f
(n)
(x)
n=0,...,
est donc de Cauchy. Comme lespace
est complet, cette suite converge dans X vers un point x
f
= lim
n
f
(n)
(x). Comme f est
contractante, elle est continue, de sorte que
f(x
f
) = f( lim
n
f
(n)
(x)) = lim
n
f
(n+1)
(x) = x
f
De plus, x
f
est unique. En eet, si y
f
est un autre point xe, alors d(x
f
, y
f
) = d(f(x
f
), f(y
f
))
sd(x
f
, y
f
), et donc d(x
f
, y
f
) 0 qui implique que d(x
f
, y
f
) = 0 et par suite x
f
= y
f
.
1.2.4 Syst`emes de fonctions iteres sur R
2
Nous allons maintenant utiliser le theor`eme du point xe sur lespace des ensembles compacts de
R
2
, H(R
2
).
Soit w une application contractante de R
2
dans R
2
, de facteur de contraction s. Alors, w :
H(R
2
) H(R
2
) denie par
w(B) = w(x), x B, B H(R
2
)
est une application contractante sur (H(R
2
), d
H
)
Soient alors N applications contractantes w
n
, de facteurs de contractions s
n
. Alors, W :
H(R
2
) H(R
2
) denie par
W(B) =
N
_
n=1
w
n
(B), B H(R
2
) (1.1)
est une application contractante de facteur de contraction s = max(s
n
).
La donnee de lespace metrique et des N applications, R
2
, w
n

n=1,...,N
denit un syst`eme
de fonctions itere hyperbolique (IFS) de facteur de contraction s. Dapr`es le theor`eme du
point xe, cette application poss`ede un unique point xe qui est un compact de R
2
. Ce point xe
sera appele attracteur de lIFS.
13
Remarque Le terme hyperbolique signie que lapplication denie par (1.1) est contractante
avec facteur de contraction s [0, 1[. Ce terme sera omis par la suite. Notons toutefois que des
IFS non hyperboliques existent. De plus, il est possible quun IFS ne soit pas hyperbolique par
rapport `a une distance d mais quil le soit pour une autre distance !
Les attracteurs des IFS sont en general des ensembles fractals dont la dimension D est donnee
par la solution de
N

n=1
[s
n
[
D
= 1 (1.2)
o` u D [0, 2].
Exemple : le tapis de Sierpinski Considerons les trois applications suivantes
w
1
r =
_
0.5 0
0 0.5
_
r
w
2
r =
_
0.5 0
0 0.5
_
r +
_
0
0.5
_
w
3
r =
_
0.5 0
0 0.5
_
r +
_
0.5
0.5
_
(1.3)
o` u r est un point de R
2
. Chacune de ces trois applications est une pure contraction par un facteur
0.5 suivie dune translation. Lattracteur de lIFS associe est montre sur la gure (1.5). La gure
(1.6) montre les premiers termes de la suite W
(n)
(A
0
) pour deux conditions initiales A
0
dierentes.
Comme prevu par le theor`eme du point xe, ces deux suites convergent vers le meme point que lon
appelle tapis de Sierpinski. Le caract`ere fractal de cet ensemble est clairement vu, puisquune
petite partie ressemble au tout. On montre `a laide de lequation (1.2) que sa dimension fractale
est log(3)/ log(2) 1.58.
On comprend facilement sur cet exemple le mecanisme des IFS. En eet, le tapis de Sierpinski
peut se decomposer en trois sous-triangles, homothetiques au tout (facteur 0.5) et deplaces par
une certaine translation. Les trois applications denissant lIFS realisent ce montage !
1.2.5 Algorithme aleatoire pour la generation dIFS
Implanter pratiquement un IFS demande un temps de calcul enorme, puisqu` a chaque etape il faut
calculer la transformee dune image par N applications et realiser lunion des resultats. Mais il
existe un algorithme plus rapide, aleatoire que nous decrivons maintenant.
Associons `a lIFS deni par w
i

i=1,...,N
un jeu de probabilites p
i

i=1,...,N
. p
i
est la probabilite
pour que la variable aleatoire discr`ete k prenne la valeur i
Considerons alors la suite de points de R
2
denie par
r
0
r
n
= w
kn
r
n1
o` u k
n

n=1,...,
est une suite de variables aleatoires discr`etes, independantes, identiquement dis-
tribuees selon les probabilites p
i

i=1,...,N
On peut alors montrer que lensemble des points r
n
converge vers lattracteur de lIFS !
Cet algorithme est donc tr`es aisement implantable. Partant dun point de R
2
initial, on lui
applique selon la loi de probabilite p
i
lune des applications de lIFS. Ce procede est alors repete
recursivement, et la suite de points dessine lattracteur de lIFS
14
Figure 1.5: Tapis de Sierpinski : attracteur de lIFS 1.3
Exemple : La feuille de Foug`ere Un exemple spectaculaire de la theorie des IFS concerne la
feuille de Foug`ere representee sur la gure (1.7) et calculee `a laide de lalgorithme aleatoire. La
feuille de foug`ere est lattracteur de lIFS deni par les quatres applications suivantes
w
1
r =
_
0 0
0 0.16
_
r
w
2
r =
_
0.85 0.04
0.04 0.85
_
r +
_
0
1.6
_
w
3
r =
_
0.2 0.26
0.23 0.22
_
r +
_
0
1.6
_
w
4
r =
_
0.15 0.28
0.26 0.24
_
r +
_
0
0.44
_
(1.4)
et son jeu de probabilites associe est [0.01, 0.85, 0.07, 0.07]. A chaque etape de lalgorithme, les
applications w
1
, w
2
, w
3
, w
4
sont choisies respectivement avec les probabilites 0.01, 0.85, 0.07 et
0.07.
Algorithme aleatoire et texture Lutilisation de lalgorithme aleatoire permet de texturer un
ensemble fractal. Reprenons lexemple du tapis de Sierpinski. La gure (1.8) montre cet eet pour
15
Figure 1.6: Tapis de Sierpinski : premiers termes de la suite denie par lIFS 1.3 pour deux
conditions initales dierentes. La derni`ere ligne correspond `a la 7`eme iteration.
16
Figure 1.7: Feuille de foug`ere : attracteur de lIFS deni par (1.4), calcule `a laide de lalgorithme
aleatoire. 20000 iterations.
quatre vecteurs de probabilites dierents
p
1
= [0.5, 0.5, 0.5]
p
2
= [0.4, 0.5, 0.1]
p
3
= [0.2, 0.2, 0.6]
p
4
= [0.01, 0.39, 0.6]
En donnant des poids dierents aux trois applications, on favorise lune des trois zones principales
du tapis de Sierpinski. Comme toute partie ressemble au tout, une de ces trois zones se decoupe
en trois plus petites zones parmi lesquelles une est favorisee, etc. . .
On peut egalement voir cette texture comme la repartition dune grandeur sur lattracteur de
lIFS. Cette vision est `a la base de la notion de multifractales.
1.2.6 IFS avec condensation
Une application de w
0
: H(R
2
) H(R
2
) est appelee application avec condensation si w
0
(B) =
C, B H(R
2
), o` u C est un element de H(R
2
) Une application avec condensation est alors
contractante avec une facteur de contraction nul.
On peut alors elargir la denition des IFS en ajoutant eventuellement une application avec
condensation. Si lIFS initial a un facteur de contraction s, lajout de w
0
ne le change pas.
17
p
1
p
2
p
3
p
4
Figure 1.8: Tapis de Sierpinski texture `a laide de lalgorithme aleatoire. En variant les probabilites
associees aux applications de lIFS, on modie la texture de lattracteur.
A titre dillustration, on se propose de contruire un ifs dont le point xe est un arbre, tel que
celui dessine sur la gure (1.9). Le tronc de larbre est lensemble de condensation C, et les deux
contractions necessaires sont composees dune homothetie de rapport r, suivies de rotations dangle
, suivies dune translation [0, hauteurdutronc].
Notons que le choix de r et est soumis `a des conditions si lon souhaite que les branches de
larbre ne se coupent pas. Un exemple est montre gure (1.10) pour r = 0.6 et = /3 et 9
iterations.
1.2.7 Le theor`eme du collage
La theorie des fractales essaie de mieux representer la nature que ne le fait la geometrie classique. Il
est alors interessant de disposer doutils permettant dapprocher des objets naturels par des objets
mathematiques : peut-on par exemple trouver un algorithme qui dessine une feuille darbre? Nous
avons vu quen ce qui concerne la foug`ere, la reponse `a cette question est oui.
La theorie des IFS donne une reponse generale au probl`eme inverse : etant donne un compact
L de R
2
, peut-on trouver un IFS dont lattracteur soit le plus proche possible de L? La solution
est contenue dans le theor`eme du collage :
18

1
r
Figure 1.9: Arbre dont on cherche lIFS avec condensation le generant.
Theor`eme On se place dans lespace metrique (R
2
, d). Soit L (H(R
2
), d
H
). Soit un IFS
w
0
, w
1
, . . . , w
N
de facteur de contraction s = max(s
n
) tel que
d
H
(L,
N
_
n=0
w
n
(L))
Alors lattracteur A de lIFS verie
d
H
(L, A)

1 s
Le theor`eme du collage porte donc bien son nom : pour approcher un objet par lattracteur
dun IFS, il sut que lunion des images de lobjet par les applications de lIFS soit proche de
lobjet!
1.2.8 Cas des fonctions dinterpolation
Considerons maintenant un ensemble (x
i
, y
i
)
i=0,...,N
de points que lon cherche `a interpoler. On
peut utiliser la theorie des IFS pour realiser une interpolation. On utilise pour cela N applications
anes (bien que lanite ne soit pas necessaire). Les N applications realisent une partition de
lintervalle [x
0
, x
N
] en [x
0
, x
1
] [x
1
, x
2
] . . . [x
N1
, x
N
]. De plus, on veut que lattracteur de
19
Figure 1.10: Attracteur de lIFS avec condensation representant un arbre.
lIFS soit une fonction. Cette condition impose que les applications transforment les verticales en
verticales, de sorte que
w
n
r =
_
a
n
0
c
n
d
n
_
r +
_
e
n
f
n
_
On impose alors `a w
n
denvoyer lintervalle [x
0
, x
N
] sur lintervalle [x
n1
, x
n
] et dassurer la
continuite de la fonction interpolante : w
n
envoie (x
0
, y
0
) sur (x
n1
, y
n1
) et (x
N
, y
N
) sur (x
n
, y
n
)
(gure 1.11). Ces conditions secrivent alors
x
n1
= a
n
x
0
+e
n
x
n
= a
n
x
N
+e
n
y
n1
= c
n
x
0
+d
n
y
0
+f
n
y
n
= c
n
x
N
+d
n
y
N
+f
n
On est en presence dun syst`eme de quatre equations pour cinq inconnues. Une des inconnues
peut etre choisie arbitrairement et consideree comme param`etre. Le param`etre d
n
r`egle le facteur
de contraction vertical, puisque les verticales le restent par application de w
n
. Ce param`etre va
permettre de regler la rugosite des fonctions obtenues, et par suite leur dimension fractale.
20
x0,y0
xn,yn
xn-1,yn-1 xN,yN
wn
Figure 1.11: Principe de linterpolation par IFS. Lapplication w
n
envoie sur lintervalle [x
n1
, x
n
].
Le syst`eme peut alors etre resolu et conduit `a
a
n
=
x
n
x
n1
x
N
x
0
(1.5)
e
n
=
x
N
x
n1
x
0
x
n
x
N
x
0
(1.6)
c
n
=
y
n
y
n1
d
n
(y
N
y
0
)
x
N
x
0
(1.7)
f
n
=
x
N
y
n1
x
0
y
n
d
n
(x
N
y
0
x
0
y
N
)
x
N
x
0
(1.8)
Un exemple dinterpolation est montre sur la gure (1.12). Les 11 points `a interpoler proviennent
de lechantillonnage dune sinusode. On saper coit que la rugosite de la fonction interpolante
diminue lorsque les d
n
diminuent.
On peut montrer que la dimension fractale D de la fonction interpolante est la solution reelle
de
N

n=1
[d
n
[a
D1
n
= 1
`a condition que la somme des [d
n
[ soit strictement superieure `a 1.
Cette relation est simple lorsque les x
n
sont reguli`erement espaces. En eet, on peut alors ecrire
x
i
= x
0
+i(x
N
x
0
)/N de sorte que a
n
= 1/N. Dans ce cas la dimension D est obtenue par
D = 1 +
log
_

N
n=1
[d
n
[
_
log(N)
Sur la gure (1.12), on obtient alors D = 1 pour d
n
= 0.1, D 1.48 pour d
n
= 0.3 et D 1.9
pour d
n
= 0.8.
Sur la gure (1.13), les points (0,0), (0.5,1) et (1,0) sont interpoles par cette technique, avec
d
1
= 0.6, d
2
= 0.7 pour la courbe du panneau du haut et d
2
= 0.7 pour la courbe du panneau
du bas. Leet detirement positif dans le panneau du bas donne cette concavite moyenne vers
le bas. Par contre, sur le panneau du haut, la contraction est alternativement positive et negative
et provoque le caract`ere plus chahute de la fonction. Notons toutefois que ces deux courbes ont
meme dimension fractale D 1.38.
21
0 0.5 1
1.5
1
0.5
0
0.5
1
1.5
d=0.3
0 0.5 1
1.5
1
0.5
0
0.5
1
1.5
d=0.1
0 0.5 1
3
2
1
0
1
2
3
d=U(1,1)
0 0.5 1
4
2
0
2
4
d=0.8
Figure 1.12: Interpolation de 11 points dune sinusode par IFS. d
n
est pris ici constant, sauf sur
le cadran du bas `a gauche o` u d
n
suit une variable aleatoire uniformement repartie sur [0, 1].
1.2.9 Aspects techniques
Dans ce paragraphe nous donnons les demonstrations qui prouvent la convergence du principe
dinterpolation decrit avant.
Theor`eme 1 Soient (x
n
, y
n
)
n=1,...,N
N > 1 points de R
2
et R
2
, w
n

n=1,...,N
lIFS dinter-
polation associee aux donnees, dont les param`etres verient (1.8). On suppose que les param`etres
d
n
satisfont d
n
[0, 1[, n = 1, . . . , N. Il existe alors une metrique d equivalente `a la metrique
euclidienne sur R
2
pour laquelle lIFS considere est hyperbolique. LIFS poss`ede alors un unique
point xe dans H(R
2
).
Demonstration : Soit R
+
et d

((x
1
, y
1
), (x
2
, y
2
)) = [x
1
x
2
[ + [y
1
y
2
[. Il est facile de
montrer que d est une metrique sur R
2
. Montrons quelle est equivalente `a la distance euclidienne
d
e
=
_
(x
1
x
2
)
2
+ (y
1
y
2
)
2
. Rappelons que deux distances d
1
et d
2
sont equivalentes si il existe
0 < c
1
< c
2
< + tels que
c
1
d
2
((x
1
, y
1
), (x
2
, y
2
)) d
1
((x
1
, y
1
), (x
2
, y
2
)) c
2
d
2
((x
1
, y
1
), (x
2
, y
2
))
pour tout point de R
2
.
Pour = 1, on a toujours d
1
((x
1
, y
1
), (x
2
, y
2
))/2 d
e
((x
1
, y
1
), (x
2
, y
2
)) d
1
((x
1
, y
1
), (x
2
, y
2
))
de sorte que d
1
et d
e
sont equivalentes. Il sut alors de montrer que d

pour ,= 1 est equivalente


`a d
1
. Supposons > 1. Alors [y
1
y
2
[ < [y
1
y
2
[ et donc d
1
d

. De plus [x
1
x
2
[/ < [x
1
x
2
[
22
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
1
0.5
0
0.5
1
1.5
d
1
=0.6, d
2
=0.7
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.5
1
1.5
2
d
1
=0.6, d
2
=0.7
Figure 1.13: Interpolation de (0,0), (0.5,1) et (1,0) par IFS. d
1
= 0.6 et d
2
= 0.7 de sorte que les
deux courbes ont meme dimension fractale 1.38.
de sorte que d

/ d
1
. Donc d

et d
1
sont equivalentes pour > 1. Pour < 1, on a le meme
resultat puisque d

d
1
d

.
Il faut maintenant demontrer que lIFS est hyperbolique avec la distance d

. Pour cela il faut


montrer que les w
n
sont contractantes.
d

(w
n
(x
1
, y
1
), w
n
(x
2
, y
2
)) = d

((a
n
x
1
+e
n
, c
n
x
1
+d
n
y
1
+f
n
), (a
n
x
2
+e
n
, c
n
x
2
+d
n
y
2
+f
n
))
= [a
n
[[x
1
x
2
[ +[c
n
(x
1
x
2
) +d
n
(y
1
y
2
)[
([a
n
[ +[c
n
[)[x
1
x
2
[ +[d
n
[[y
1
y
2
[
quil faut majorer par sd

((x
1
, y
1
), (x
2
, y
2
)). A cet eet, si les c
n
sont tous nuls, on choisit = 1
et sinon = min(2 [a
n
[)/ max([c
n
[). Comme [a
n
[ < 1, > 0. Alors
d

(w
n
(x
1
, y
1
), w
n
(x
2
, y
2
)) a[x
1
x
2
[ +[y
1
y
2
[
o` u a = 1 +[a
n
[ max([a
n
[)/2 et = max([d
n
[) qui sont strictement inferieur `a 1.
Alors d

(w
n
(x
1
, y
1
), w
n
(x
2
, y
2
)) max(a, )([x
1
x
2
[ + [y
1
y
2
[) qui montre que w
n
est
contractante. Par suite lIFS est contractant.
Theor`eme 2 Sous les hypoth`eses du theor`eme 1, lattracteur G de lIFS est le graphe dun
fonction continue f : [x
0
, x
N
] R qui interpole les donnees (x
n
, y
n
)
n=1,...,N
N > 1.
23
Demonstration : La demonstration de ce thor`eme introduit un operateur qui agit sur lensemble
T des fonctions continues f : [x
0
, x
N
] R telles que f(x
0
) = y
0
et f(x
N
) = y
N
. Tout dabord,
muni de d(f, g) = max([f(x)g(x)[, x [x
0
, x
N
]), T est un espace metrique complet. On consid`ere
les reels a
n
, c
n
, e
n
, f
n
denis par lequation (1.8) et on denit
T : T T
f Tf, (Tf)(x) = c
n
l
1
n
(x) +d
n
f(l
1
n
(x)) +f
n
, pour x [x
n1
, x
n
]n = 1, . . . , N
o` u
l
n
: [x
0
, x
N
] [x
n1
, x
n
]
x l
n
(x) = a
n
x
n
+e
n
Montrons que T envoie bien T sur lui-meme. Il faut donc montrer que (Tf)(x
0
) = y
0
, que
(Tf)(x
N
) = y
N
et que Tf est continue. On peut aisement montrer que l
1
n
(x
0
) = x
0
et que
l
1
n
(x
N
) = x
N
. On verie alors facilement que (Tf)(x
0
) = y
0
et (Tf)(x
N
) = y
N
. De plus,
comme composee de fonctions continues sur ]x
n1
, x
n
[, (Tf) est continue sur chacun de ces inter-
valles. Il faut alors verier la continuite en x
n
. Ceci se montre en veriant legalite c
n
l
1
n
(x
n
) +
d
n
f(l
1
n
(x
n
)) +f
n
= c
n+1
l
1
n+1
(x
n
) +d
n+1
f(l
1
n+1
(x
n
)) +f
n+1
= y
n
.
Montrons maintenant que T est un operateur contractant. Pour x [x
n1
, x
n
] on a
[(Tf)(x) (Tg)(x)[ = [d
n
[[f(l
1
n
(x)) g(l
1
n
(x))[ [d
n
[d(f, g)
de sorte que d(Tf, Tg) max([d
n
[)d(f, g). Comme les d
n
sont plus petits que 1, T est donc
contractant. T admet donc un unique point xe dans T. Il sut de verier que ce point xe
correspond `a lattracteur de lIFS.
Pour cela on remarque que la denition de T peut etre mise sous la forme (Tf)(a
n
x + e
n
) =
c
n
x +d
n
f(x) +f
n
, x [x
0
, x
N
] pour tout n = 1, . . . , N. Le graphe du point xe de T verie donc
G =

N
n=1
w
n
(G) et est par suite le point xe de lIFS. Ceci conclut la demonstration.
1.2.10 IFS pour les fonctions
On a vu aux paragraphes precedents comment le formalisme des IFS dans H(R
2
) permet de
travailler sur des fonctions. Toutefois, ce formalisme est restreint au cas o` u les transformations
sont anes. Or il existe un cadre plus general qui fait lobjet de ce paragraphe.
On travaille ici sur des fonctions denies sur un compact de R. On ne restreint alors pas la
generalite en considerant des fonctions f : [0, 1] R. De plus, on consid`ere des espaces metriques
de fonctions. En particulier, nous allons travailler avec les espaces L
p
([0, 1]), denis par
L
p
([0, 1]) =
_
f : [0, 1] R/
_
1
0
[f(t)[
p
dt < +
_
La distance adoptee est alors la distance classique
d
p
(f, g) =
__
1
0
[f(t) g(t)[
p
dt
_1/p
Rappelons enn quune fonction est lipschitzienne si il existe une constante C telle que t, u [f(t) f(u)[
C [t u[.
Comme vu dans le cas des fonctions dinterpolation, le principe des IFS pour les fonctions est
davoir une partition de lintervalle de travail. Soient alors N applications contractantes w
i
de
facteurs de contraction c
i
deni par
c
i
= sup
(x,y)[0,1]
2
d(w
i
(x), w
i
(y))
d(x, y)
24
et qui realisent une partition de [0, 1], cest-`a-dire
[0, 1] =
N
_
i=1
w
i
([0, 1])
(w
i
([0, 1])

w
j
([0, 1])) = 0, i ,= j
etant la mesure de travail, Lebesgue en general.
Soient maintenant N fonctions
i
(t, s) uniformement lipschitz en leur premi`ere variable, cest-`a-
dire [
i
(t
1
, s)
i
(t
2
, s)[ K
i
[t
1
t
2
[, o` u K
i
est une constante positive. On denit alors loperateur
T suivant par
T : L
p
([0, 1]) L
p
([0, 1])
f Tf =
N

i=1
T
i
f
(T
i
f)(x) =
i
_
f(w
1
i
(x)), w
1
i
(x)
_
1
wi(X)
(x)
Le fonctionnement de cet operateur est illustre gure 1.14
T
1
1
W (X)
X
W (X) W (X)
2 3
T
3
2
T
Figure 1.14: Description de loperateur denissant un IFS dans un espace de fonctions
On peut alors enoncer et demontrer les deux resultats suivants qui assurent lexistence dune
fonction limite `a la suite T
n
f
0
.
Premier resultat : T est contractant dans (L
p
(X), d
p
).
25
Demonstration Soient f et g dans L
p
(X) . Alors
|(Tf)(x) (Tg)(x)|
p
p
=
_

i=1

i
_
f(w
1
i
(x)), w
1
i
(x)
_
1
wi(X)
(x)
N

i=1

i
_
g(w
1
i
(x)), w
1
i
(x)
_
1
wi(X)
(x)

p
dx
=
_

i=1
_

i
_
f(w
1
i
(x)), w
1
i
(x)
_

i
_
g(w
1
i
(x)), w
1
i
(x)
_
1
wi(X)
(x)

p
dx
=
N

i=1
_
wi(X)

i
_
f(w
1
i
(x)), w
1
i
(x)
_

i
_
g(w
1
i
(x)), w
1
i
(x)
_

p
dx
On pose y = w
1
i
(x), dx = [J
i
[dy o` u J
i
= dw
i
/dy est de le Jacobien de la transformation, inferieur
ou egal `a c
i
puisque w
i
est contractant. Do` u
|(Tf)(x) (Tg)(x)|
p
p
=
N

i=1
_
X
[
i
(f(y), y)
i
(g(y), y)[
p
[J
i
[dy

i=1
c
i
_
X
[
i
(f(y), y)
i
(g(y), y)[
p
dy

i=1
c
i
K
p
i
_
X
[f(y) g(y)[
p
dy
=
_
N

i=1
c
i
K
p
i
_
d
p
p
(f, g)
T est contractant `a condition que

N
i=1
c
i
K
p
i
< 1.
On a egalement le resultat
d
p
(Tf, Tg)
_
N

i=1
c
1/p
i
K
i
_
d
p
(f, g)
Comme T est contractant, le theoreme du point xe assure la convergence de la suite T
n
(f
0
vers une limite f

. On a egalement une vitesse exponentielle :


Deuxi`eme resultat : T
n
f
0
atteint sa limite f

avec une vitesse exponentielle.


Demonstration On a pour toute fonction f
0
d
p
(T
n
f
0
, f

) = d
p
(T
n
f
0
, Tf

)
C(p)d
p
(T
n1
f
0
, f

)
C(p)
n
d
p
(f
0
, f

)
Or,
d
p
(f
0
, f

) d
p
(f
0
, Tf
0
) +d
p
(Tf
0
, f

)
d
p
(f
0
, Tf
0
) +C(p)d
p
(f
0
, f

1
1 C(p)
d
p
(f
0
, Tf
0
)
Finalement,
d
p
(T
n
f
0
, f

)
C(p)
n
1 C(p)
d
p
(Tf
0
, f
0
)
26
La constant C(p) intervenant ici est le facteur de contraction de T, soit dapr`es le premier resultat
C(p) =
_
N

i=1
c
i
K
p
i
_
1/p
conditions de continuite
supposons que les w
i
soient croissantes et provoque la partition a = a
0
a
1
. . . a
N1
a
N
,
de sorte que w
i
([a, b]) = [a
i1
, a
i
]. Soit f

le point xe. La continuite est assuree si


f

(a
i
) =
i
(f

(a
N
), a
N
)
=
i+1
(f

(a
0
), a
0
)
Or, on a egalement
f

(a
N
) =
N
(f

(a
N
), a
N
)
f

(a
0
) =
1
(f

(a
0
), a
0
)
qui sont les points xe de
N
(x, a
N
) et
1
(x, a
0
). On peut donc enoncer les conditions de continuite
:
Soient et les points xes respectifs de
1
(x, a
0
) et
N
(x, a
N
). Alors f

est continu si

i
(, a
N
) =
i+1
(, a
0
)
27
1.3 Une courbe fractale aleatoire : le mouvement Brownien
fractionnaire
1.3.1 Rappels sur le mouvement brownien
Le mouvement Brownien est obtenu comme limite dune marche au hasard denie comme
1. x(0) = 0,
2. x(n.dt) = x((n 1)dt) +a
n
, o` u a
n
prend les valeurs equiprobablement independamment
des intervalles precedents. Pour les temps negatifs, la marche est denie de meme.
Cette denition montre que x(n.dt) =

n
k=1
a
n
. Soit t R. Alors il existe n tel que t [n.dt, (n+
1)dt[. On obtient alors
E[x(t)] = 0
E[x
2
(t)] = n
2
Evaluons la fonction caracteristique
x
(u) de x(t) an de trouver sa densite de probabilite p
x
(v).
Comme les a
n
sont independantes, il vient

x
(u) = E[e
iux
] =
n

i=1
E[e
iuan
] = E[e
iua
]
n
= cos
n
(u)
Examinons maintenant
x
(u) = log(
x
(u)) = nlog(cos(u)). Supposons susamment petit
pour ecrire

x
(u) nlog(1 u
2

2
/2 +u
4

4
/4!)
nu
2

2
2
les termes correctifs etant dordre 4 en . On cherche maintenant la limite de
x
(u) lorsque
n +. A priori, cette limite semble etre innie. Toutefois, n represente le nombre de pas
eectues entre les dates 0 et t, et donc n = [t/dt] (partie enti`ere). Ainsi la limite de
x
(u) lorsque
n + peut etre nie si n
2
est nie, cest-`a-dire si on choisit
2
= cte(n)/n. Mais si n
tend vers linni, dt tend vers zero. Si lon veut que le processus limite ait une variance nie, il
faut que n
2
= t
2
/dt soit ni. Cette condition impose que
2
/dt soit constant. On pose alors

2
=
2
dt = cte(n)/n = cte(n)dt/t, et il resulte que cte(n) =
2
t On obtient nalement
lim
n+

x
(u) =
u
2

2
t
2
Ceci correspond `a une densite de probabilite gaussienne, et donc
p
x
(v) =
1

t
exp
_

v
2
2
2
t
_
Ce processus limite est appelee mouvement Brownien ou processus de Wiener-Levy. On le notera
B(t). La variance de ce processus est donc
2
t, ce qui montre sa non-stationnarite.
Par construction, les accroissements du brownien sont independants. Ils sont de plus station-
naires. On verie egalement que B(at) = a
1/2
B(t) en distribution. On dit alors que le processus
est
auto-similaire avec comme index dauto-similarite 1/2. On peut montrer que le processus de
Wiener-Levy est le seul processus gaussien auto-similaire qui poss`ede des accroissements independants
et stationnaires. Dautres processus gaussiens auto-similaires existent, mais nont donc pas daccroissements
independants stationnaires. Ces processus sont maintenant decrits.
28
1.3.2 fBm : denition, proprietes
Le mouvement Brownien fractionnaire ou fBm, deni par Mandelbrot et Van Ness, est une generalisation
du mouvement Brownien. Un fBm dindex H ]0, 1[ est deni par
B
H
(0) = 0
B
H
(t) =
1
(H + 1/2)
__
0

_
[t [
H1/2
[[
H1/2
_
dB()
+
_
t
0
[t [
H1/2
dB()
_
(1.9)
que lon ecrire sous la forme plus compacte
B
H
(t) =
_
K
H
(t, )dB()
avec K
H
(t, ) = ((H + 1/2))
1
([t [
H1/2
1
],t[
() [[
H1/2
1
],0[
(). Lintegrale est une
integrale stochastique au sens de Wiener, B(t) etant un brownien
standard.
Dans le cas H = 1/2, on obtient B
1/2
(t) = B(t) et lon retrouve le mouvement brownien.
Il est clair que B
H
(t) est un processus gaussien de moyenne nulle, puisque transformee lineaire
dun processus gaussien `a moyenne nulle. Nous allons maintenant etudier diverses proprietes de ce
processus, et notamment montrer que ses realisations sont des fonctions fractales.
Auto-similarite En utilisant la denition des fBm et lautosimilarite du mouvement brownien,
on montre facilement
B
H
(at) = [a[
H
B
H
(t), en distribution
Un fBm dindex H est donc auto-similaire dindex H. Lauto-similarite signie que dilater le temps
et normaliser adequatement lamplitude ne change pas les proprietes statistiques du processus. Ce
fait est illustre sur la gure (1.15).
Structure au second-ordre Les increments du fBm secrivent B

(t) = B
H
(t +) B
H
(t), soit
B

(t) =
1
(H + 1/2)
_
_
t+

_
[t + [
H1/2
_
dB()
_
t

[t [
H1/2
dB()
_
La variance de ces increments est donc
E[B

(t)
2
] = (H + 1/2)
2
E
_
_
_
_
t+

_
[t + [
H1/2
_
dB()
_
t

[t [
H1/2
dB()
_
2
_
_
= [[
2H
(H + 1/2)
2
E
_
__
1

_
[1 +u[
H1/2
_
dB(u)
_
0

[u[
H1/2
dB(u)
_2
_
= V
H
[[
2H
o` u V
H
= Var[B
H
(1)] =
2
(1 2H) cos(H)/(H). La deuxi`eme ligne de lequation precedente
est obtenue en faisant le changement u = (t )/ et en utilisant lauto-similarite du brownien.
Cette variance permet dobtenir tr`es facilement la fonction de covariance du fBm puisque
E[B
H
(t
1
)B
H
(t
2
)] =
1
2
_
E[B
H
(t
1
)
2
] +E[B
H
(t
2
)
2
] E[(B
H
(t
1
) B
H
(t
2
))
2
]
_
=
V
H
2
_
[t
1
[
2H
+[t
2
[
2H
[t
1
t
2
[
2H
_
29
1
0.5
0
0.5
1
B
0.7
2
1.5
1
0.5
2
0.7
B
0.7
(2t)
Figure 1.15: Illustration de lauto-similarite du fBm. Le panneau du haut montre une realisation
de B
H
(t) et celui du bas une realisation de 2
H
B
H
(2t). Ces deux courbes sont statistiquement
semblables.
qui montre la non-stationnarite du fBm. En particulier, Var[B
H
(t)] = V
H
[t[
2H
, et lon verie que
le cas H = 1/2 conduit bien au brownien.
Continuite, derivabilite, signal holderien On peut montrer que les traces du fBm sont
presque-surement continues, mais non derivables (dicile!). Contentons nous de la moyenne
quadratique. On se propose de savoir si le fBm est derivable en moyenne quadratique, cest-`a-
dire la limite suivante existe
lim
0
E[(B
H
(t +) B
H
(t))
2
]

2
Le rapport precedent secrit explicitement [[
2H2
V
H
qui tend vers linni lorsque tend vers zero
puisque H ]0, 1[. Le fBm nest donc pas derivable en moyenne quadratique. De la meme fa con
que dans le cas de mesure des longueurs, on peut chercher un nombre tel que
lim
0
E[(B
H
(t +) B
H
(t))
2
]

2
exite. Ceci requiert la convergence de [[
2H2
V
H
. Si < H ce terme tend vers 0 avec alors
quil diverge si > H. Par contre, ce terme prend une valeur nie si = H.
30
On dira quun signal aleatoire x(t) a un exposant de H older H < 1 si
sup

_
lim
0
E[(x(t +) x(t))
2
]

2
< +
_
= H
Cet exposant lorsquil existe montre que les traces du signal sont continues (en moyenne quadra-
tique), non derivables, mais poss`edent tout de meme une certaine regularite : bien que non
derivables, elles sont toutefois plus que continues.
Les traces des fBm sont donc h olderiennes dexposant H, et par suite non derivables. Nous
avons montre ces faits en moyenne quadratique, et ils sont egalement averes presque-surement.
La derivee du fBm nexiste pas en un sens usuel, mais peut etre denie dans le cadre des
processus aleatoires generalises (distributions aleatoires). Derri`ere ces theorie se cache lidee simple
de regularisation du processus qui conduit au bruit gaussien fractionnaire.
Bruit gaussien fractionnaire (fGn) Pour regulariser le fBm, on lint`egre selon
B
H
(t, ) =
1
_
t+
t
B
H
(s)ds =
_
B
H
(s)(t s)ds
o` u (t) =
1
1
[0,]
(t). Si est choisie plus douce, on entre dans la theorie des distributions ! Le
processus B
H
(t, ) est derivable et lon obtient
B

H
(t, ) =
1
(B
H
(t +) B
H
(t))
qui represente le taux daccroissement. Le processus derive est appele bruit gaussien fractionnaire
(fGn).
La variance de B

H
(t, ) se calcule facilement et Var[B

H
(t, )] = V
H

2H2
. La fonction de
correlation du fGn sobtient par un calcul direct et secrit
C
H
(, ) = E[B

H
(t, )B

H
(t +, )] =
V
H

2
2
_
[ +[
2H
+[ [
2H
2[[
2H
_
qui demontre la stationnarite du fGn.
Le comportement de la fonction de correlation du fGn depend de H et du comportement de
/. En ecrivant
C
H
(, ) =
V
H

2H2
2
_
[

+ 1[
2H
+[

+ 1[
2H
2[

[
2H
_
on montre en eectuant un developpement limite que
1. si [[/ 1 :
C
H
(, ) V
H
H(2H 1)[[
2H2
2. si [[/ 1 :
C
H
(, ) C
H
(0, ) +V
H

2
[[
2H
Le comportement de la correlation C
H
(, ) pour [[ + est tr`es interessant. Dans ce cas,
[[/ 1 et le comportement depend de H :
1. H > 1/2 : La correlation est positive, et en +, elle decrot vers zero comme
2H2
et
2H2 ] 1, 0[. La decroissance de la fonction de correlation est donc plus lente que 1/ de
sorte que la correlation nest pas sommable! On est alors en presence dun signal presentant
le phenom`ene de dependance ou memoire longue. Ce genre de phenom`ene est observe dans
de nombreuses situations (circulation dinformation dans les reseaux informatiques, bruits
electroniques, cours des rivi`eres, etc).
31
2000 4000 6000 8000 10000 12000 14000 16000
0.01
0.008
0.006
0.004
0.002
0
0.002
0.004
0.006
0.008
0.01
H=0.7
H=0.3
Figure 1.16: Comportement du fBm et du fGn pour H < 1/2 et H > 1/2. Les deux panneaux du
haut montre la trace du fBm pour H = 0.3 et la trace du fGn associe. Les deux panneaux du bas
montre le fBm et le fGn pour H = 0.7.
2. H > 1/2 : La correlation est negative pour susament grand. On peut alors montrer que
la somme de la correlation est nulle, de sorte que lon se trouve dans un cas plus classique,
bien que la decroissance (en valeur absolue) `a linni soit lente.
Comme le fGn est directement lie aux increments du fBm, linspection de la correlation du fGn
nous renseigne directement sur le comportement des traces du fBm (gure 1.16). Lorsque H > 1/2,
les increments sont `a correlation positive : si la trace du fBm monte, elle aura alors tendance
`a continuer cette montee. Pour H > 1/2, le fBm aura des traces relativement douces, presentant
des sortes doscillations sur de grandes echelles de temps. Dans le cas H < 1/2, la correlation
des increments est negative, de sorte que si la trace du fBm monte, elle aura alors tendance `a
descendre rapidement. Les traces du fBm seront alors tr`es chahutees.
Comportement spectraux Le bruit gaussien fractionnaire etant stationnaire, il poss`ede une
densite spectrale
H
(, ) denie comme la transformee de Fourier de la correlation C
H
(, ). Le
32
point dicile provient du fait de la non-sommabilite de la correlation dans le cas H > 1/2, et donc
de la
non existence de la transformee de Fourier. En fait, ce probl`eme nest reel que pour la frequence
nulle pour laquelle le spectre est non deni. Plus precisement, lorsque tend vers zero, la densite
spectrale diverge et lon par de catastrophe infrarouge. On peut trouver le comportement de
cette divergence de la fa con heuristique suivante

H
(, ) =
_
+
[[
2H2
e
2i
d
=
_
+
[[
22H
[[
2H2
e
2i
d
=
1
[[
2H1
_
+
[u[
2H2
e
2iu
du
et donc
H
(, ) cte/[[
2H1
quand tend vers 0.
On est en presence dun spectre dit en 1/f

ou plus couramment en 1/f. On saper coit que si


H > 1/2 on a divergence en zero, alors que H < 1/2 conduit `a un spectre tendant vers zero en
zero, et qui crot : on parle alors de catastrophe ultraviolette.
Cette forme spectrale donne un moyen pour estimer le param`etre H puisquil sut de tracer
ce spectre dans un diagramme log-log et de faire une regression lineaire. En eet, on
peut ecrire
log (
H
(, )) = (2H + 1) log [[ +cte
Ceci est illustree sur la gure (1.17) o` u les spectres du fGn sont traces pour H = 0.3 et H = 0.7
dans un diagramme log-log. Les droites de pentes 1 2H sont superposees.
La notion de spectre na pas de sens pour le fBm puisquil sagit dun processus non stationnaire.
Il faut donc en toute rigueur recourir au outils du non-stationnaire. On peut par exemple utiliser
le spectre de Wigner-Ville deni par W. Martin et P. Flandrin
W
B
(t, ) =
_
r
B
(t

2
, t +

2
)e
2i
d
= (1 2
12H
cos(4t))
1
[2[
2H+1
On peut obtenir un spectre moyen en eectuant la moyenne temporelle du spectre de Wigner-Ville
et lon trouve
1
T
_
T
0
W
B
(t, )dt =
1
[2[
2H+1
si T = k/4. Pour un autre choix de T on obtient le meme resultat `a une constante dependante
de T pr`es. Ce spectre moyen est encore une fois une loi de puissance. Il est montre gure (1.18)
pour H = 0.3 et H = 0.7.
Pour terminer : et les fractales? Dans tout ce paragraphe, nous navons encore pas parler de
fractales ! En fait, elles sont sous-jacentes dans les termes holderien, spectre en 1/f, correlation
`a longue portee, etc.
Nous concluons donc cette partie par le theor`eme suivant, dicile `a demontrer.
Theor`eme Les realisations du mouvement Brownien fractionnaire dindex H ont presque-
surement
une dimension fractale D = 2 H.
33
0 1 2 3 4 5 6
10
9.5
9
8.5
8
7.5
7
H=0.3
log()
l
o
g
(
S
H
)
0 1 2 3 4 5 6
17
16.5
16
15.5
15
14.5
14
H=0.7
log()
l
o
g
(
S
H
)
Figure 1.17: Spectre du fGn pour H = 0.3 et H = 0.7.
Ce resultat est `a mettre en regard des dierentes remarques eectuee tout au long de ce para-
graphe. Par exemple, nous avons vu que pour H < 1/2, les traces du fBm sont tr`es chahutees :
elles tendent, lorsque H est de plus en plus petit `a remplir le plan et conduisent donc `a un graphe
de dimension de plus en plus proche de 2.
Les fractales sont des objets particuliers, pour lesquels le grossissement dun microscope ne
change pas la vision (reellement ou statistiquement) que lon a de lobjet. Les signaux fractals ne
poss`edent alors pas dechelle de temps caracteristique, contrairement aux signaux usuels.
Lanalyse des fractals requiert de prendre en compte ces remarques. En 1982, est apparu
le microscope mathematique, outil ideal danalyse des objets fractals. Ce microscope sappelle
ondelette.
34
0 1 2 3 4 5 6
10
5
0
5
H=0.3
log()
l
o
g
(
S
H
)
0 1 2 3 4 5 6
20
15
10
5
0
5
log()
l
o
g
(
S
H
)
H=0.7
Figure 1.18: Spectre moyen du fBm pour H = 0.3 et H = 0.7.
35
Chapter 2
Ondelettes et signaux fractals
2.1 Rappels sur la transformee en ondelettes et sa discreti-
sation
La transformee en ondelettes continue consiste `a regarder un signal x(t) L
2
(R) `a diverses echelles,
ceci au cours du temps. Elle se denit comme
T
x
(a, b) =
1

a
_
x(t)

_
t b
a
_
dt (2.1)
o` u est appelee ondelette et appartient `a L
2
(R), et a est lechelle. Le param`etre b represente
la localisation temporelle de lanalyse. A une date b donnee, on realise lanalyse en ondelettes
en comparant le signal x `a des versions dilatees et contractees de londelette . On doit pouvoir
reconstruire le signal `a partir de sa transformee en ondelettes. Pour cela, londelette doit verier
la condition dite dadmissibilite
C

=
_
[

()[
2
[[
d < +
o` u

() est la transformee de Fourier de londelette. Alors, on a le resultat
x(t) =
1
C

_ _
T
x
(a, b)
1

_
t b
a
_
dadb
a
2
La condition dadmissibilite impose que la transfomee de Fourier de londelette soit nulle pour la
frequence nulle. Autrement dit
_
(t)dt = 0
qui montre que londelette est oscillante.
Pour implanter la transformee en ondelettes, on doit evidemment posseder une version discretisee,
cest-`a-dire denir une suite a
n
dechelles et une suite b
m
de dates pour evaluer T
x
(a
n
, b
m
) =
T
x
(n, m). Cette discretisation nest pas triviale et on proc`ede en general comme suit. On restreint
dabord lechelle a aux reels positifs et lon choisit a
n
= a
n
0
, n Z. Pour n = 0 lanalyse compare
le signal avec londelette (t b). On discretise alors b traditionnellement, i.e. b
m
= mb
0
, de
sorte que la famille des (t mb
0
) recouvre lensemble de la droite reelle. Pour n > 0, et a
0
< 1
par exemple, le support de londelette analysante (a
n
0
t) est environ a
n
0
fois plus petit que celui
de londelette non contractee. Pour couvrir lensemble de la droite reelle, il faut alors considerer
36
plus de points de calcul b
m
que pour le cas n = 0. On en prend donc a
n
0
fois plus, de sorte que
b
m
= nb
0
a
n
0
. Par simplicite, on choisit en general a
0
= 1/2 et b
0
= 1 de sorte que la transformee
en ondelettes discr`ete est denie par
T
x
(n, m) =
_
x(t)2
n/2

(2
n
t m)dt
Des algorithmes rapides pour implanter cette transformee existent, mais le plus important dans
cette formulation est lexistence dondelettes pour lesquelles la famille 2
n/2
(2
n
tm) , (n, m) Z
est une base orthogonale de L
2
(R) ! On entre alors dans la theorie des decompositions en ondelettes
orthogonales.
2.2 Transformee en ondelettes orthogonales
On etudie ici la transformee en ondelettes orthogonales. On commence par examiner la notion
danalyse multiresolution.
Analyse multiresolution. La comprehension de la theorie des ondelettes est assez simple
lorsque lon considere la theorie des analyses multiresolutions. Lidee est la suivante. Une fonction
peut etre vue comme la somme de deux fonctions : la premi`ere est une approximation alors que
la deuxi`eme corrige lapproximation. Cette deuxi`eme fonction correspond donc aux details oublies
lors de lapproximation. La notion danalyse multiresolution formalise mathematiquement cette
idee.
Denition : Une analyse multiresolution de L
2
(R) est une suite croissante de sous-espaces
embotes V
j
V
2
V
1
V
0
V
1
V
2
(2.2)
tels que
1. lintersection des V
j
est nulle, soit
+

i=
V
i
= (2.3)
2. Lunion des V
j
est dense dans L
2
(R)
3. f(x) est dans V
j
si et seulement si sa version contractee par un facteur 2 est dans V
j+1
,
cest-`a-dire
f(x) V
j
f(2x) V
j+1
f(2
j
x) V
0
(2.4)
4. Si f(x) est dans V
j
, ses translatees enti`eres sont dans V
j
,
f(x) V
j
f(x k) V
j
, k Z (2.5)
5. Il existe une fonction (x) de V
0
telle que la famille
(x k), k Z (2.6)
est une base orthonormee de V
0
.
Lanalyse multiresolution est schematisee sur la gure (2.1). Si f(x) est dans V
0
sa version
dilatee est dans V
1
et sa version contractee dans V
1
. On saper coit quen dilatant de plus en plus,
lapproximation dune fonction deviendra de plus en plus grossi`ere. Inversement, pour obtenir des
approximations de plus en plus nes, il faut regarder dans les V
j
avec j de plus en plus grands.
37
V
0
V
1
V
-1
f(x/2)
f(x)
f(2x)
Figure 2.1: Illustration de lanalyse multiresolution.
Les espaces V
j
constituent des espaces dapproximation. La projection dune fonction f(x) de
L
2
(R) sur le sous-espace V
j
constitue une approximation de f(x) `a lechelle 2
j
. La condition 2
dans lenumeration precedente assure que toute fonction de L
2
(R) peut etre approchee dans cette
analyse. La derni`ere condition implique que
_

j,k
(x) = 2
j/2

_
2
j
x k
_
, k Z
_
(2.7)
est une base orthonormee de V
j
. Toute fonction f(x) L
2
(R) peut etre approchee par une fonction
de V
j
selon
P
j
f(x) =

kZ
a
j,k

j,k
(x) (2.8)
o` u les coecients a
j,k
sont appeles coecients dapproximation et sont obtenus par
a
j,k
=
_
R
f(x)
j,k
(x)dx (2.9)
On dira que P
j
f est une approximation de f ) lechelle j.
Etant donne lemboitement des espaces V
j
, il existe une tr`es grande redondance dinformation
dans la representation precedente. Une representation plus adequate prend en compte la dierence
dinformation entre les approximations `a deux echelles successives : les details evoques plus haut.
Cette dierence dinformation peut etre etudiee en considerant le complement orthogonal dun
espace dapproximation dans le suivant. Precisement, soit le sous-espace W
j
deni par
V
j+1
= V
j
W
j
(2.10)
Lapproximation `a lechelle j + 1 peut alors etre vue comme le ranement de lapproximation `a
lechelle j en lui ajoutant des details. La denition de lanalyse multiresolution montre que lunion
des W
j
est dense dans L
2
(R).
Le probl`eme suivant est celui de savoir si lon dispose dune base orthonormee dans les W
j
de
sorte quune collection
_

j,k
(x) = 2
j/2

_
2
j
x k
_
, j Z, k Z
_
(2.11)
constitue une base orthonormee de L
2
(R). Pour cela, il sut davoir une fonction (x) de W
0
telle que la famille (x k), k Z soit une base orthonormee de W
0
. Cette fonction sera alors
appelee ondelette.
38
Fonction dechelle La fonction (x) est appelee fonction dechelle. Lanalyse multiresolution
lui conf`ere des proprietes interessantes. Tout dabord, puisque (x) est dans V
0
V
1
, elle peut
se decomposer dans la base
_
2(2x k), k Z
_
de V
1
. Soit h
k
ses coordonnees dans cette base.
Alors
(x) =

k
h
k

2(2x k) (2.12)
La transformee de Fourier de cette equation conduit `a
() =

k
h
k

2
2
(

2
)e
jk
(2.13)
On pose
H() =

2
2

k
h
k
e
2jk
(2.14)
qui est une fonction complexe 1-periodique. Alors
() = H(

2
)(

2
) (2.15)
Utilisons maintenant le fait que (x) est orthogonale `a ses translatees enti`eres. On a

k,0
=
_
(x)(x k)dx
=
_
[()[
2
e
2jk
d
=
_
1
0

n
[( n)[
2
e
2jk
d
puisque lexponentielle imaginaire est 1-periodique. Donc, on obtient

n
[( n)[
2
= 1 (2.16)
En separant la somme en la somme sur les entiers pairs et la somme sur les entiers impairs, on a
1 =

2n
[( n)[
2
+

2n1
[( n)[
2
=

n
[( 2n)[
2
+

n
[( 2n + 1)[
2
Utilisant (2.15), on a alors
1 =

n
[H(/2 n)(/2 n)[
2
+

n
[H(/2 n + 1/2)(/2 n + 1/2)[
2
= [H(/2)[
2
+[H(/2 + 1/2)[
2
en vertu de la 1-periodicite de H() et de (2.16). Cette relation etant vraie pour toute frequence,
on a nalement
[H()[
2
+[H( + 1/2)[
2
= 1
39
Ondelette. Comme (x) est dans W
0
V
1
on peut ecrire
(x) =

k
g
k

2(2x k) (2.17)
En procedant de meme que pour la fonction echelle, on ecrit
() = G(

2
)(

2
) (2.18)
o` u
G() =

2
2

k
g
k
e
2jk
(2.19)
Utilisons maintenant le fait que W
0
V
0
. Alors,
0 =
_
(x)(x k)dx (2.20)
=
_
()

()e
2jk
d (2.21)
=
_
G(/2)H

(/2) [()[
2
e
2jk
d (2.22)
En procedant de meme que pour la fonction echelle, on aboutit alors `a
G()H

() +G( +
1
2
)H

( +
1
2
) = 0 (2.23)
Supposons H donnee. Une solution de lequation precedente est alors de la forme
G() = ()H

( +
1
2
) (2.24)
o` u () est 1-periodique et verie
() + ( +
1
2
) = 0 (2.25)
Un choix simple est () = exp(2j). Alors G() = exp(2j( + 1/2))H

(( + 1/2)). On
obtient alors g
k
= (1)
k
h
1k
.
Il reste `a verier que (x k), k Z est une base orthonormee de W
0
. Calculons (x)[(x k)).
On a
(x)[(x k)) =
_
(x)(x k)dx
=
_
[()[
2
e
2jk
d
=
_
1
0

n
[( n)[
2
e
2jk
d
Or,

n
[( n)[
2
=

n
[G(/2 n/2)(/2 n/2)[
2
=

n
[H(/2 n/2 + 1/2)(/2 n/2)[
2
= [H(/2 + 1/2)[
2

n
(/2 n + 1/2) +[H(/2)[
2

n
(/2 n)
= 1
40
On a donc nalement
(x)[(x k)) =
k,0
qui montre bien que (x k), k Z est une base ortonormee de W
0
. Enn,
_

j,k
(x) = 2
j/2

_
2
j
x k
_
, j Z, k Z
_
(2.26)
est une base orthonormee de L
2
(R).
Approximation et details. On a vu que le sous-espace W
j
est deni comme le supplement
orthogonal de V
j
dans V
j+1
. Ceci sugg`ere une decompostion en cascade. On peut en eet ecrire,
pour toute fonction f(x) de L
2
(R), que lapproximation `a lechelle j + 1 resulte de laddition de
details (contenus dans W
j
) `a lapproximation `a lechelle j, cest-`a-dire
Proj(f(x)/V
j+1
) = Proj(f(x)/V
j
) +

k
d
j,k

j,k
(x) (2.27)
En continuant literation, on obtient alors
Proj(f(x)/V
j+1
) = Proj(f(x)/V
j0
) +
j

i=j0

k
d
i,k

i,k
(x) (2.28)
On obtient donc une approximation ne de la fonction en ajoutant `a une approximation plus
grossi`ere de cette fonction les details successifs necessaire pour arriver `a la bonne resolution.
Algorithmes La structure en cascade decrite precedemment se transpose naturellement `a lalgorithme
de calcul des coecients dapproximation et de details (analyse), et `a lalgorithme de reconstruction
(synth`ese).
On souhaite evaluer les coecients dapproximation a
j,k
`a lechelle j. On a alors
a
j,k
=
_
f(x)2
j/2

_
2
j
x k
_
dx
=
_
f(2
j
(u +k))2
j/2+1
(u)du
=

j
h
l
_
f(2
j
(u +k))2
j/2+j
2
1/2
(2u l)du
=

l
h
l
_
f(x)2
(j+1)/2
(2
j+1
x 2k l)dx
On voit donc que les coecients dapproximation se calculent recursivement selon
a
j,k
=

l
h
l2k
a
j+1,l
(2.29)
Les coecients dapproximation `a lechelle j sobtiennent `a partir des coecients dapproximation
`a lechelle plus ne j + 1 par convolution, puis decimation.
41
Quant aux coecients de details, il vient
d
j,k
=
_
f(x)2
j/2

_
2
j
x k
_
dx
=
_
f(2
j
(u +k))2
j/2+1
(u)du
=

j
g
l
_
f(2
j
(u +k))2
j/2+j
2
1/2
(2u l)du
=

l
g
l
_
f(x)2
(j+1)/2
(2
j+1
x 2k l)dx
et donc
d
j,k
=

l
g
l2k
a
j+1,l
(2.30)
Les coecients de details `a lechelle j sobtiennent `a partir des coecients dapproximation `a
lechelle plus ne j + 1 par convolution, puis decimation.
Notons que les ltres apparaissant dans les relations danalyse (2.29) et (2.30) sont les re-
tournes dans le temps des ltres h
k
et g
k
.
Venons en `a letape de synth`ese. On utilise pour cela la formule (2.28) pour ecrire

l
a
j,l

j,l
(x) =

l
a
j1,l

j1,l
(x) +

l
d
j1,l

j1,l
(x)
On prend alors le produit scalaire de cette equation avec
j,k
(x). Comme les

j,k
(x) constituent une base orthonormee, on a
a
j,k
=

l
a
j1,l

j1,l
(x) [
j,k
(x)) +

l
a
j1,l

j1,l
(x) [
j,k
(x))
Or,

j1,l
(x) [
j,k
(x)) =
_
2
(j1)/2
(2
j1
x l)2
j/2
(2
j
k)dx
=
_
2
(j1)/2
2
j/2
2
1j
(u)(2u + 2l k)du
=

m
h
m
_
2(2u m)(2u + 2l k)du
=

m
h
m

m+2lk,0
= h
k2l
En procedant de meme (on remplace dans ces lignes de calcul
j1,l
par
j1,l
et h
m
par g
m
) on
obtient

j1,l
(x) [
j,k
(x)) = g
k2l
Finalement, lalgorithme de synth`ese est
a
j,k
=

l
a
j1,l
h
k2l
+

l
d
j1,l
g
k2l
(2.31)
Il proc`ede donc a un sur-echantillonnage par 2 des coecients dapproximation et de detail `a une
echelle j, puis au ltrage et addition de ces series. Lanalyse et la synth`ese sont resumee sur la
gure (2.2).
42

2
E

s
2
E

s
2
E

h
k
g
k

h
k
= h
k
g
k
= g
k
E
E E
E
E

T
E E
2
a
j1,k
a
j,k
a
j,k
d
j1,k
d
j,k
Figure 2.2: Analyse et synth`ese dans la transformee orthogonale en ondelettes. Lanalyse proc`ede
par ltrage et sous-echantillonnage. Les details sont obtenus par ltrage passe-haut et mis de
c ote. Lapproximation obtenue par ltrage passe-bas puis decimation est `a son tour decompose en
approximation et details. La synth`ese est obtenue par loperation duale.
Filtres H et G. Les ltres H et G ont des proprietes particuli`eres qui leur sont conferees par
lanalyse multiresolution.
Le ltre H est un ltre passe-bas. En eet, comme () = H(/2)(/2), on a H(0) = 1. De
plus, H(1/2) = 0. De plus, G(0) = 0 et [G(1/2)[ = 1. G est passe-haut. Le caract`ere passe-bas de
H correspond bien `a une approximation, et le caract`ere passe-haut de G met en lumi`ere la notion
de details.
Ces ltres sont appelees ltres miroirs en quadrature. La gure (2.2) montre quil perme-
ttent une cascade analyse-synth`ese avec exacte reconstruction. Considerons les ltres en jeu
independamment de la transformee en ondelettes, et cherchons les conditions de parfaite recon-
struction. On a les relations
a
j1,k
=

h
2kl
a
j,l
d
j1,k
=

l
g
2kl
a
j,l
a
j,k
=

l
h
2kl
a
j,l
+

l
g
k2l
d
j,l
En passant en frequence reduite, on obtient
a
j1
(2) =
1
2
_
a
j
()

H() +a
j
( +
1
2
)

H( +
1
2
)
_
d
j1
(2) =
1
2
_
a
j
()

G() +a
j
( +
1
2
)

G( +
1
2
)
_
a
j
() = H()a
j1
(2) +G()d
j1
(2)
Les deux premi`eres equations sobtiennent comme suit. Soit x
k
la sortie du ltre

h.
Alors x
k
=

h
kl
a
j,l
. La suite sous-echantillonee secrit donc a
j1,k
= x
2k
et sa
transformee de Fourier en frequences reduites est
a
j1
() =

k
x
2k
e
2jk
=

k
x
2k
e
2j

2
2k
Cette somme sur les indices pairs peut secrire 1/2
_
k
.
k
+

k
.
k
(1)
k
_
qui revient ` a
considerer deux fois les indices pairs et ` a oter les impairs. Comme (1)
k
= exp(jn)
on a le resultat. Les termes en + 1/2 correspondent au recouvrement.
43
On ecrit maintenant a
j
en fonction de a
j
selon
a
j
() =
1
2
_
H()

H() +G()

G()
_
a
j
()
+
1
2
_
H()

H( +
1
2
) +G()

G( +
1
2
)
_
a
j
( +
1
2
)
Pour eliminer les recouvrements, on impose
H()

H( +
1
2
) +G()

G( +
1
2
) = 0
et la reconstruction parfaite impose
H()

H() +G()

G() = 1
Le choix adopte dans la transformee en ondelette est

H() =
1

2
h()

G() =
1

2
exp(2j)h() =
1

2
g()
G() =
1

2
g()
H() =
1

2
h()
o` u
h() =

h
k
e
2jk
g() =

g
k
e
2jk
sont les grandeurs calculees lors de letude de la fonction echelle et de londelette.
2.2.1 Exemples dondelettes
Nous montrons ici quelques exemples dondelettes.
Ondelette de Haar
La base de Haar est connue depuis le debut du si`ecle, mais son interpretation dans la theorie des
ondelettes est recente. Londelette de Haar est denie par

1
(t) =
_
_
_
1 si t [0,
1
2
[
1 si t [
1
2
, 1[
0 sinon
et la base de Haar est constituee par la famille
1
j,k
(t) = 2
j/2

1
(2
j
t k)
j,kZ
. Il est facile
de verier que <
1
j,k
[
1
j

,k
>=
j,j

k,k
. La fonction echelle associee est lindicatrice de [0, 1],

1
(t) = 1
[0,1]
(t).
Toute fonction de L
2
(R) peut se decomposer sur la base de Haar, les coecients etant donnes
par
d
j,k
=< x(t)[
1
j,k
(t) >=
_
x(t)
1
j,k
(t)dt
44
f(t) dans V
1
approximation dans V
0
dtail dans W
0
+
Figure 2.3: Illustration de la decomposition en ondelettes de Haar. Si f(t) est dans V
1
, alors elle
sexprime exactement comme la somme dune fonction dapproximation de V
0
et dune fonction de
details dans W
0
..
De plus, on reconstruit x selon
x(t) =

j,kZ
d
j,k

1
j,k
(t)
La base de Haar consite `a approcher une fonction par une somme de fonctions constantes par
morceaux sur des intervalles de longueur 2
j
.
Dans la vision analyse multiresolution, on a
Proj(f(t)/V
j+1
) = Proj(f(t)/V
j
) +

k
d
j,k

1
j,k
(t) (2.32)
Supposons que la fonction f soit dans V
1
. Alors lequation precedente se reecrit
f(t) =

k
a
0,k

1
(t k) +

k
d
0,k

1
(t k)
Lillustration de cette decomposition est presentee sur la gure (2.3). La fonction f(t) est approchee
par une fonction constante par intervalle, `a laquelle il faut ajouter
la fonction detail pour obtenir f.
Les ondelettes de Haar ont la propriete remarquable detre `a support compact, puisquelle sont
portees par lintervalle [0, 1]. Cette propriete a dinteressante consequence sur les ltres h
k
et g
k
utilises pour lalgorithme. Comme h
k
et g
k
sont les coordonnees de respectivement
1
(t) et
1
(t)
dans la base

2(2t k) il est facile de voir que


h
0
=

2
2
h
1
=

2
2
g
0
=

2
2
g
1
=

2
2
h
k
= g
k
= 0, k ,= 0, 1
Les ltres ainsi denis sont donc des ltres `a reponse impulsionnelle nie, tr`es facilement im-
plantable. Toutefois, la regularite de londelette de Haar est bien pauvre puisquelle nest pas
45
continue! Ceci conf`ere `a sa transformee de Fourier des proprietes egalement pauvre, comme par
exemple une tr`es mauvaise localisation frequentielle. Pour garder le caract`ere support compact
(et donc des ltres associes MA) mais ameliorer la regularite des ondelettes, il faut examiner les
ondelettes de Ingrid Daubechies, decouvertes au milieu des annees 80.
Ondelettes de Daubechies
La construction des ondelettes `a support compact de Daubechies est delicate. Elle fait appel `a
des resultats algebriques sur les polynomes (theor`eme de Bezout) et dautres theor`emes lies aux
polynomes trigonometriques. Nous ne presentons donc pas ici cette construction.
Les ondelettes de Daubechies sont indexees par un param`etres N et secriront
N
(t) (fonction
echelle) et
N
(t) (ondelette). Londelette de Haar est donc la premi`ere ondelette de Daubechies.
Le param`etre N est lie `a la regularite de londelette.
En eet, on peut montrer que
N
(t) C
N1
(R) o` u C
N
(R) est lensemble des fonctions con-
tinues N 1 fois derivables. Ainsi,
N
pour N > 1 est continue et peut etre derivee N 2 fois.
De plus, pour les ondelettes, cette notions est liee aux nombres de moments nuls de londelettes.
On montre en eet que
N
(t) verie
_
t
n

N
(t)dt = 0, n = 0, 1, . . . , N 1

N
(t) a donc ses N premiers moments nuls. Londelette de Haar
1
est centre (admissibilite de
londelette) mais son moment dordre 1 est non nul. Le nombre de moments nuls de londelette
est lie au comportement de la transformee de Fourier au voisinage de la frequence nulle, et nous
verrons limportance de ce comportement dans le paragraphe 2.4.
Mentionnons enn que les ltres associes `a
N
et
N
ont 2N coecients non nuls, et que le
support de la fonction echelle et de londelette est de longueur 2N 1. La gure (2.4) montre les
fonctions
N
et
N
pour N = 2, 3, 5, 9. On observe laugmentation de regularite mentionnee
precedemment.
2.3 Ondelettes et signaux holderiens
Nous avons dej` a rencontre dans le chapitre 1 des signaux h olderiens. Il sagit de signaux continus
mais non derivable, mais pour lesquels un exposant ]0, 1[ caracterise la regularite. On peut
generaliser cette denition en supposant que ]n, n + 1[, o` u n est un entier. Precisement, ceci
signie que localement, une fonction peut etre approchee par un polynome dordre n et que le reste
de lapproximation est puissance de n + 1 .
Denition : Un signal f(t) est dit h olderien en t
0
dordre n +, ]0, 1[, sil verie
[f(t) P
n
(t t
0
)[ C[t t
0
[
n+
o` u P
n
(t) est un polynome de degre n. On peut alors enoncer le theor`eme suivant :
Theor`eme Soit f(t) un signal h olderien en t
0
dordre n + , ]0, 1[. Si londelette a au
moins n + 1 moments nuls, si
_
(1 + [t[)
n+1
[(t)[dt < +, alors la transformee en ondelette de f
en t
0
verie.
[T
f
(a, t
0
)[ Ca
n++1/2
46
0 5 10 15 5 0 5
5 0 5 0 2 4 6 8
1 0 1 2 3 4 5 3 2 1 0 1 2 3
2 1 0 1 2 1 0 1 2 3
Figure 2.4: Ondelettes de Daubechies pour N = 2, 3, 5, 9 de haut en bas, `a gauche la fonction echelle
et `a droite londelette. On observe laugmentation de la longueur du support et de la regularite
avec N. Le nombre doscillations augmente egalement, ce qui assure le nombre de moments nuls
correct.
47
Demonstration : Evaluons la transformee en ondelettes de f(t) lorsque londelette a N n+1
moments nuls
_
t
k
(t)dt = 0, k = 0, . . . , n + 1, . . . , N
Comme londelette a N > n+1 moments nuls, elle est orthogonale aux polynomes dordre inferieur
ou egal `a n. Donc
T
f
(a, b) =
1

a
_
f(t)

_
t b
a
_
dt
=
1

a
_
(f(t) P
n
(t t
0
))

_
t b
a
_
dt
Il vient alors
[T
f
(a, b)[
1

a
_
[f(t) P
n
(t t
0
)[

( fract ba) dt
C
_
C[t t
0
[
n+

_
t b
a
_
dt
En eectuant le changement de variables u = (t b)/a, et en regardant la transformee en b = t
0
on obtient
[T
f
(a, t
0
)[ C

a
n++1/2

On voit alors que la transformee en ondelette rev`ele la structure intime de la fonction. Cette
constation permet alors une estimation du param`etre caracterisant la regularite de la fonction.
Ceci sera illustre dans le paragraphe suivant.
Le meme genre de resultat existe aussi pour la transformee en ondelette orthogonal. Dans nos
conventions d ecriture, pour un signal h olderien dordre n+, les coecient de details se comporte
en 2
j(n++1/2)
.
2.4 Ondelettes et signaux fractals aleatoires
Dans ce paragraphe, nous etudions lanalyse en ondelette du mouvement brownien fractionnaire.
On commence par lanalyse par une transformee en ondelette continue, puis nous examinons le cas
de la decomposition orthogonale.
2.4.1 Transformee en ondelettes continue
Considerons un fBm dindex H. Sa transformee en ondelette, sil elle existe, secrit
T
B
(a, b) =
1

a
_
B
H
(t)

_
t b
a
_
dt
Comme le fBm est aleatoire, T
B
(a, b) denit un champ aleatoire dont il faut etudier les proprietes
statistiques. Le fBm etant centre, le champ est egalement centre. Sa covariance est donnee par
Cov[T
B
(a
1
, b
1
), T
B
(a
2
, b
2
)] = E[T
B
(a
1
, b
1
)T

B
(a
2
, b
2
)]
=
1

a
1
a
2
_
E[B
H
(t
1
)B
H
(t
2
)]

_
t
1
b
1
a
1
_

_
t
2
b
2
a
2
_
dt
1
dt
2
=
V
H
2

a
1
a
2
_
([t
1
[
2H
+[t
2
[
2H
[t
1
t
2
[
2H
)

_
t
1
b
1
a
1
_

_
t
2
b
2
a
2
_
dt
1
dt
2
=
V
H
2

a
1
a
2
_
[t
1
t
2
[
2H

_
t
1
b
1
a
1
_

_
t
2
b
2
a
2
_
dt
1
dt
2
48
la derni`ere egalite provenant de la condition dadmissibilite. Divers enseignements peuvent etre
tires de ce calcul.
A une echelle xee a, la covariance secrit
Cov[T
B
(a, b
1
), T
B
(a, b
2
)] =
V
H
a
2H+1
2
_

u
1
u
2
+
b
1
b
2
a

2H

(u
1
)(u
2
)du
1
du
2
A une echelle donnee, la transformee en ondelette du fBm est un signal aleatoire stationnaire,
puisque la covariance ne depend que de lecart entre les deux dates de calcul.
A une date b donnee et une echelle a xee, on obtient
Var[T
B
(a, b)] = a
2H+1
V
H
2
_
[u
1
u
2
[
2H

(u
1
)(u
2
)du
1
du
2
La variance de la transformee en ondelette varie donc en a
2H+1
. Cette constatation permet une
estimation statistique du param`etre H. Pour ce faire, on calcule le scalogramme [T
B
(a, b)[
2
et lon
evalue
S
B
(a) =
1
T
_
T/2
T/2
[[T
B
(a, b)[
2
db
qui varie en a
2H+1
. Une regression lineaire dans un diagramme log-log permet de trouver H.
Cette technique est illustree sur les gures (2.5) et (2.6) pour H = 0.3 et H = 0.7 respec-
tivement. Sur ces gures, nous representons le signal, le logarithme en base 2 du carre de sa
transformee en ondelettes et la somme sur le temps de ce scalogramme. Est superposee `a cette
somme la regression lineaire. Pour H = 0.3, la pente estimee est de -1.54, soit

H = 0.27. Pour
H = 0.7, on obtient

H = 0.62. La longueur des signaux est de 4096 echantillons, ce qui explique
cette estimation moyenne.
Lanalyse eectuee sur le fBm est justiee puisque le fBm est non stationnaire et requiert
lutilisation de techniques devouees au non stationnaire. Cette analyse peut egalement etre eectue
sur le bruit gaussien fractionnaire, qui est stationnaire. Dans ce cas la justication precedente nest
plus valable puisque ce bruit est stationnaire, et peut donc etre analyse avec les techniques standard
(analyse spectrale classique par exemple). Toutefois, quelques arguments permettent de montrer
la superiorite des ondelettes sur les techniques classiques.
Bruits en 1/f

: estimation de Calculons le scalogramme et le spectrogramme dans un cas


general de signal stationnaire dont le spectre secrit S
x
() = C/

. En sommant sur le temps ces


deux quantites, nous obtiendrons deux estimateurs spectraux `a comparer.
Dans le cas du scalogramme, lestimateur spectral secrit

Sc
x
(a) =
1
T
_
T/2
T/2
1
a

_
x(t)

_
t b
a
_
dt

2
db
et dans le cas du spectrogramme

Sp
x
() =
1
T
_
T/2
T/2

_
x(t)h

(t b)e
2it
dt

2
db
Calculons le biais de ces estimateurs. Il vient dans le cas du scalogramme
E[

Sc
x
(a)] =
1
T
_
T/2
T/2
1
a
_
r
x
(u)
_
v b
a
_

_
v u b
a
_
dudvdb
= a
_
S
x
()

(a)

2
d
49
0 500 1000 1500 2000 2500 3000 3500 4000
2
1
0
1
t
s
i
g
n
a
l
0 10 20
0
1
2
3
4
5
6
7
e
c
h
e
l
l
e
log
2
(s)
0 500 1000 1500 2000 2500 3000 3500 4000
0
1
2
3
4
5
6
7
Figure 2.5: Transformee en ondelette dun fBm de param`etre H = 0.3. Le panneau de gauche
montre dans un diagramme log-log la somme sur le temps du module carre de la transformee. La
regression lineaire superposee permet lestimation de H. La valeur obtenue est 0.27.
et dans le cas du spectrogramme, on trouve
E[

Sp
x
()] =
_
S
x
(f)

h(f )

2
df
Si S
x
() = C/

, on obtient
_

_
E[

Sc
x
(a)] = a

_
Cu

(u)

2
du
E[

Sp
x
()] =

_
C
_
1 +
u

h(u)

2
du
En associant `a lechelle a la frequence
0
/, on saper coit que
_
E[

Sc
x
(a =
0
/)] = C

b
1
E[

Sp
x
()] = C

b
2
()
Les deux estimateurs sont donc biaises multiplicativement. Toutefois, le biais obtenu pour lestimateur
fonde sur le scalogramme est constant (donc facilement reduit), alors que le biais dans le cas du
spectrogramme depend de la frequence. Ce resultat montre ladequation de la transformee en
ondelettes pour lanalyse des signaux en 1/f. Ce fait provient de la nature analyse `a facteur de
surtension constant de la transformee en ondelette : elle peut etre vue comme le ltrage adapte
au processus en 1/f.
50
0 500 1000 1500 2000 2500 3000 3500 4000
1.5
1
0.5
0
t
s
i
g
n
a
l
10 0 10
0
1
2
3
4
5
6
7
e
c
h
e
l
l
e
log
2
(s)
0 500 1000 1500 2000 2500 3000 3500 4000
0
1
2
3
4
5
6
7
Figure 2.6: Transformee en ondelette dun fBm de param`etre H = 0.7. La regression lineaire
donne pour lestimation de H la valeur 0.62.
Estimation du param`etre : pourquoi ca marche ? Nous venons de voir que la transformee
en ondelettes est un outil plus puissant que lanalyse de Fourier pour analyser des processus en
1/f. Nous montrons ici les deux arguments fondamentaux du pourquoi de ce succ`es.
Le premier a dej` a ete devoile precedemment : il sagit de ladequation entre lanalyse `a facteur
de surtension constant aux lois dechelle (ou de puissance) en 1/f.
Le deuxi`eme argument est cache dans lanalyse. Considerons un processus stationnaire en dont
le spectre est en 1/f

, avec ]0, 1[. Le comportement `a linni de la correlation associe est en

1
, de sorte que la correlation decroit tr`es lentement `a linni ( 1 ] 1, 0[). Le processus
considere est `a memoire longue. Tout type destimateurs fonde sur la somme des echantillons
de ce signal converge alors tr`es lentement. En eet, des echantillons eloignes etant fortement
lies, lapport dinformation sur le processus par ajout dun echantillon dans une somme est tr`es
faible. A titre dexemple, considerons lestimateur de la moyenne 1/T
_
T
0
x(t)dt. La variance de
cet estimateur pour le processus considere se comporte comme 1/T
1
. Si le processus est blanc,
cette variance se comporte en 1/T. Pour obtenir une variance de 0.001, il faut donc de lordre de
1000 echantillons dans le cas blanc, alors quil en faut 10
3/1
dans le cas longue dependance. Si
= 0.1 ce nombre vaut environ 4600, si = .4 il vaut 100000! Eectuer une analyse spectrale
classique dun processus `a dependance longue requiert donc de la patience!
Considerons maintenant la transformee en ondelettes. T
x
(a, b) `a une echelle a xee peut etre
vue comme un signal temporel x
a
(b). On montre alors facilement que la densite spectrale de ce
51
signal est
S
xa
() = aS
x
()

(a)

2
En eet, la covariance de x
a
secrit
E[x
a
(b
1
)x

a
(b
2
)] =
_
aS
x
()

(a)

2
e
2i(b1b2)
d
et la forme de la densite spectrale suit par utilisation du theor`eme de Wiener-Kintchine.
La forme de la densite spectrale nous renseigne sur la fonction de correlation. On sait en eet
que le comportement `a linni de la correlation est gouverne par le comportement `a lorigine de
la densite spectrale. Or S
xa
() = aC

(a)

2
, de sorte que le comportement de S
xa
() `a
lorigine est etroitement lie `a celui de la transformee de Fourier de londelette. Or le comportement
de londelette pour 0 est regit par le nombre de moments nuls de londelette, cest-`a-dire le
nombre N tel que
_
x
n
(t)dt = 0, n = 0, 1, . . . , N 1
En eet, le developpement de Taylor en 0 de la transformee de Fourier de londelette secrit

() =
k

n=0

n
n!
d
n

d
n
(0) +o(
k
)
o` u f(t) = o(t
k
) f(t)/t
k
0 si t 0. Or, on sait que

(n)
() = (2i)
n
TF(t
n
(t)) de sorte
que

(n)
(0) = (2i)
n
_
t
n
(t)dt. Si londelette a N moments nuls, alors

() = Cte
N
+o(
N
)
Dans ce cas, on obtient pour la densite spectrale de x
a
(b)
S
xa
() = aC

2N
+o(
2N
)
Le comportemant `a linni de la correlation est alors
r
xa
()
1

2N+1
Ainsi, si 2N +1 > 1 N > /2, la decroissance `a linni de la correlation est plus rapide que
1/ et la longueur de correlation de x
a
est beaucoup plus courte que celle de x. Autrement dit, la
transformee en ondelettes eectue `a une echelle donnee un blanchiment imparfait des processus `a
dependance longue d`es que N > /2, et permet dobtenir des estimateurs convergeant plus vite.
Pour terminer cette partie listons les avantages de la transformee en ondelettes pour lanalyse
des signaux en 1/f :
Adequation du banc de ltres ondelette aux processus en 1/f grace `a la surtension con-
stante. Cette adequation joue sur le biais en le rendant constant.
Stationnarisation des processus non stationnaire en 1/f. La non-stationnarite des processus
en 1/f est essentiellemnent d ue `a la catastrophe infrarouge. La nullite de la transformee de
Fourier dune ondelette admissible pour la frequence nulle annihile cette catastrophe.
blanchiment imparfait lorsque le nombre de moments nuls de londelette est strictement plus
grand que la moitie du param`etre . A une echelle donnee, la transformee en ondelette est un
signal melangeant : sa correlation tend vite vers zero pour les grands retards. Ce point et
le precedent joue sur la variance des estimateurs en permettant une convergence plus rapide.
52
2.4.2 Et la decomposition en ondelettes orthogonales?
Nous examinons maintenant la decomposition en ondelettes orthogonales du fBm. Les coecient
dapproximation et de details sont donnes par
a
j,k
=
_
B
H
(t)
j,k
(t)dt
d
j,k
=
_
B
H
(t)
j,k
(t)dt
Si lon etudie les statistiques au second ordre des coecients de details, on retrouve le meme genre
de resultats que dans le cas de la transformee en ondelette continues.
Par exemple, Calculons la covariance des d
j,k
`a une echelle 2
j
xee. On obtient alors
E[d
j,k1
d
j,k2
] =
V
H
2
j(2H+1)
2
_
[u
1
u
2
+k
1
k
2
[
2H
(u
1
)(u
2
)du
1
du
2
qui montre que les coecients de details sont stationnaires `a une echelle donnee.
La variance de ces coecients varie en 2
j(2H+1)
, ce qui fournit egalement une possibilite
destimation de H.
Toutes les methodes developpees en continu sont transposables au cas ondelettes orthogonales.
Toutefois, ces transpositions peuvent etre heureuses ou malheureuses, suivant les applications en-
visagees.
Toutefois, `a des ns danalyse, la transformee continue est en generale plus agreable `a utiliser car
elle permet une meilleur denition en echelle. De plus elle est invariante par translation temporelle,
contrairement `a la decomposition orthogonale.
Par contre, lorsquune etape de synth`ese doit exister dans un traitement, lutilisation des on-
delettes orthogonales semble inevitable.
Cette remarque permet par exemple la denition de simulateur de mouvement Brownien frac-
tionnaire.
53

Você também pode gostar