Você está na página 1de 17

Direction de la communication

Service Information-médias

PETIT DÉJEUNER DE PRESSE

L’année de la physique au CEA

Mardi 5 avril 2005


Intervenants

Etienne Klein
Direction des sciences de la matière (DSM) du CEA

Jean-Michel Gérard
Département de recherche fondamentale sur la matière condensée
(DRFMC), à la Direction des sciences de la matière du CEA

Christophe Grojean
Service de physique théorique (SPhT), à la Direction des sciences de la
matière du CEA
Le CEA et l’Année Mondiale de la physique
1905 : L’année lumière

Le CEA, comme tous les grands organismes de recherche en physique, doit son existence
et une partie de son activité aux articles révolutionnaires qu’Einstein a publiés en 1905 dans
la revue Annalen der Physik. C’est pourquoi il souhaite s’associer à la célébration de l’Année
Mondiale de la physique en montrant quelques-uns des très nombreux travaux de recherche
qui découlent, directement ou indirectement, des percées conceptuelles effectuées par le
père de la relativité.

Le 16 juin 1902, Albert Einstein commence dans la joie son nouveau travail au Bureau
Fédéral de la Propriété Intellectuelle de Berne. Au cours de l’année 1905, au terme d’un
cheminement dont l’inspiration demeure mystérieuse, cet authentique outsider qui
n’appartient ni au sérail universitaire ni à aucune Académie officielle, cet ingénieur de vingt-
six ans qui travaille depuis trois ans en tant que simple expert technique, rédige cinq articles
originaux, dont quatre contiennent des idées littéralement révolutionnaires.

Mars 1905 : Le photon, quantum de lumière et la naissance de la physique


quantique

Le premier article, « Sur un point de vue heuristique concernant la production et la


transformation de lumière », est envoyé en mars 1905 à la revue Annalen der Physik.
Einstein y propose que l’énergie de la lumière est véhiculée par des quanta, qui seront
baptisés « photons » en 1923. Cela lui permet d’expliquer les propriétés de l’effet
photoélectrique découvert par Heinrich Hertz en 1887 : un conducteur illuminé émet un flux
de particules de charge négatives (des électrons, comme on le comprendra plus tard). Selon
Einstein, lorsqu’il arrive en contact avec le métal, un quantum de lumière transmet une partie
ou la totalité de son énergie hν à un électron. Cette hypothèse explique aussi pourquoi, au-
dessous d’une certaine fréquence de rayonnement, aucun électron n’est émis. Elle constitue
l’un des points de départ de la physique quantique, qui rend compte du comportement de la
matière à l’échelle microscopique, et de la lumière. Cet article vaudra à Einstein de recevoir
en 1921 le prix Nobel de physique.

Fort de cet enseignement d’Einstein sur le comportement des quanta de lumière, le CEA est
un des seuls laboratoires dont les recherches portent sur les sources de photon unique qui
pourraient voir leurs applications dans la cryptographie quantique et la métrologie. (voir fiche
« Contrôle de l’émission spontanée de la lumière et source de photon unique).

Mai 1905 : le mouvement brownien et la découverte de l’atome

En mai 1905, Einstein envoie un second article à la même revue, qui s’intitule « Sur le
mouvement des particules en suspension dans un fluide au repos impliqué par la théorie
cinétique moléculaire de la chaleur ». Cet article va rapidement conduire à la preuve
expérimentale de l’existence de l’atome. Il faut se rappeler qu’à la fin du dix-neuvième siècle,
l’atome était encore objet de polémiques. Les plus sceptiques accusaient l’atome de n’être
« qu’une idéalité métaphysique, une fantasmagorie oiseuse ». Einstein, lui, s’intéresse à ce
débat, et veut trouver de nouveaux arguments en faveur de l’hypothèse atomique. Il
s’intéresse pour cela à un phénomène en apparence insignifiant : le mouvement brownien.
Ce terme désigne la valse incessante des particules qui s’agitent dans un fluide : si on verse
des grains de pollen dans une goutte d’eau, on observe au microscope que ces grains
décrivent des trajectoires folles, apparemment guidées par le seul hasard. Einstein fait
l’hypothèse que les mouvements désordonnés de ces grains, loin d’être de simples caprices,
reflètent un ordre sous-jacent : ce qui les détermine secrètement, c’est l’agitation des
molécules d’eau qui ne cessent de heurter les grains de pollen, les obligeant à changer sans
cesse de direction. En 1906, à Paris, un savant français, Jean Perrin, mène une expérience
qui confirme les prédictions d’Einstein. La réalité des molécules, donc des atomes, encore
contestée au tout début du XXe siècle, est ainsi définitivement établie. L’atome devient un
objet que la physique peut saisir. Mais très vite, les physiciens se rendront compte qu’il ne
peut pas être décrit par les lois physiques habituelles. Il leur faudra mettre sur pied un
nouveau formalisme, de nouveaux concepts, ceux de la physique quantique.

Les physiciens de notre époque, au CEA ou ailleurs, utilisent couramment, pour décrire les
particules et leurs interactions, les nouveaux concepts de la physique quantique découverts
par Eisntein et ses successeurs (1925-1935), pour étudier notamment le Modèle Standard
de la physique des particules.

Juin 1905 : Invariance de la vitesse de la lumière

En juin 1905, Einstein envoie un troisième article, « Sur l’électrodynamique des corps en
mouvement ». Il y fonde une nouvelle cinématique sur deux postulats apparemment
incompatibles. Premièrement, le principe de relativité : les lois physiques sont les mêmes
dans tous les référentiels qui ne subissent pas d’accélération relative. Second postulat : la
propagation de la lumière est indépendante du mouvement de sa source. L’invariance de la
vitesse de la lumière est une conséquence de ces deux postulats. Une révision complète du
concept de simultanéité encadre cette nouvelle cinématique, qui constitue en fait une
nouvelle théorie de l’espace et du temps. Cette théorie est née du désir d’Einstein d’unifier la
mécanique et l’électromagnétisme, qui s’appuyaient à la fin du XIXe siècle sur des principes
que les physiciens ne parvenaient pas à harmoniser (problème de l’éther1).

Aujourd’hui, les chercheurs poursuivent ce rêve d’unification, mais l’appliquent à un autre


problème : existe-t-il un formalisme unique permettant de décrire simultanément les quatre
interactions fondamentales ? Ce thème sera développé dans la fiche sur « la physique
théorique et les interactions fondamentales ».

Septembre 1905 : E=mc2

Au cours de l’été 1905, Einstein fait une découverte parfaitement inattendue, bien qu’elle se
situe dans le droit fil de sa théorie de la relativité. Il écrit une lettre à son ami Conrad Habicht
dans laquelle il explique que son article de juin a une autre implication : « Le principe de
relativité, associé aux équations de l’électromagnétisme, impose que la masse d’un corps
soit une mesure directe de l’énergie qu’il contient […]. La chose est plaisante à considérer,
mais le bon Dieu n’est-il pas en train d’en rire et me mène-t-il par le bout du nez ? Ça, je suis
incapable de le savoir ». Quelques semaines plus tard, en septembre 1905, Einstein adresse
à la revue Annalen der Physik un article intitulé « L’inertie d’un corps dépend-elle de son
mouvement ? » Long de seulement trois pages, il contient l’équation E = mc2, sans doute la
plus célèbre de toute l’histoire de la physique, mais écrite alors avec des notations
différentes : le père de la relativité y note V la vitesse de la lumière (au lieu de c), et L
l’énergie (au lieu de E). En réalité, les calculs de cet article démontrent une seule chose : un
corps émettant des ondes électromagnétiques perd nécessairement de la masse. Mais
Einstein tend à attribuer à ce résultat une portée universelle. La masse d’un corps
représente, explique-t-il, une mesure de son contenu en énergie. En conséquence, si ce
corps perd de l’énergie, sous n’importe quelle forme, il perd aussi de la masse. D’un point de
vue conceptuel, il s’agit là encore d’un résultat révolutionnaire. La masse, qui jusqu’alors ne
mesurait que la quantité de matière contenue dans un corps, mesure donc aussi son
contenu en énergie. Tout corps massif se voit ainsi doté d’une « énergie de masse ». Et
1
L’éther était considéré par les physiciens comme un milieu absolument immobile dans lequel était sensée se propager la
lumière
cette équivalence entre masse et énergie, précise Einstein, se déploie par l’entremise de la
vitesse de la lumière (élevée au carré), qui apparaît en l’occurrence comme un véritable
« synthétiseur de concepts » : elle unifie deux concepts jusque-là parfaitement séparés. Mais
dans cette mise en correspondance, son statut change irrémédiablement. D’abord, la vitesse
de la lumière se voit attribuer un rôle plus large que celui d’une vitesse associée à des
déplacements, puisque l’équivalence qui s’établit là entre la masse et l’énergie ne fait
aucune référence à quelque mouvement que ce soit : même immobile, au repos, un corps
massif contient de l’énergie. Ensuite, la vitesse de la lumière intervient de façon explicite
dans tous les processus physiques, y compris ceux dans lesquels la lumière ne joue aucun
rôle ! Grâce à Einstein, la vitesse de la lumière devient une véritable constante universelle de
la physique. Dans la vie quotidienne, nous ne percevons pas cette équivalence entre la
masse et l’énergie, car elle est disproportionnée au regard des ordres de grandeur dont nous
sommes familiers. Le moindre grain de poussière est bien un prodigieux réservoir d’énergie,
mais cette énergie contenue dans sa masse nous est en général cachée2.

Mais si la formule d’Einstein a pu devenir le symbole de la physique du vingtième siècle,


c’est parce que, depuis 1945, les physiciens, notamment au CEA, sont parvenus à explorer,
et parfois à exploiter de façon industrielle, des situations dans lesquelles la formule
d’Einstein a des effets tangibles : celles dans lesquelles une fraction notable de la masse
peut se convertir en énergie et celles dans lesquelles c’est l’énergie qui devient matière.

Fission et fusion nucléaire, ou la transformation de la masse en énergie

Les physiciens ont commencé par comprendre que, lorsqu’ils font le bilan d’énergie de
n’importe quel processus physique, ils doivent prendre en compte le fait que tout corps,
même au repos, contient une certaine énergie de masse. Ainsi, dans une réaction nucléaire,
les masses ne sont généralement pas conservées, et les pertes de masse constatées
traduisent une libération d’énergie.

C’est le principe de la fission nucléaire. Les noyaux d’uranium 235 qu’on trouve dans les
centrales nucléaires et dans certaines bombes atomiques, lorsqu’ils sont percutés par un
neutron, s’agitent soudain, se déforment et s’étirent au point de trouver une forme nettement
plus stable, celle composée de deux fragments distincts. Autrement dit, ils subissent une
fission qui produit deux noyaux plus légers, dont la somme des masses est toujours plus
petite que la masse du noyau de départ. Ce défaut de masse, donc cette perte d’énergie de
masse, se traduit en vertu de la formule d’Einstein par une libération d’énergie, qui est à
l’origine de « l’énergie nucléaire ». Cette énergie, récupérée sous forme de chaleur, peut être
transformée en courant électrique. C’est ainsi qu’en France, une grande part de l’électricité
qui nous éclaire et nous chauffe provient de la fission « amaigrissante » que subissent
d’innombrables noyaux d’uranium 235.

Un raisonnement du même type, mais mettant en jeu la fusion des noyaux plutôt que leur
fission, permet de comprendre le processus par lequel les étoiles rayonnent de la lumière.
Ainsi, le soleil passe le plus clair de son temps à transformer de la masse en énergie, par le
biais de réactions de fusion nucléaire, lesquelles ont été identifiées dans les années 1930
par Hans Bethe. En son coeur, ce sont pas moins de 620 millions de tonnes d’hydrogène
qui, à chaque seconde, sont transformées en 615 millions de tonnes d’hélium. Cette
différence de masse est convertie en énergie rayonnée vers l’extérieur. C’est ainsi que le
soleil brille. Aujourd’hui, des physiciens essaient de produire sur terre des réactions de
fusion entre des noyaux de deutérium et des noyaux de tritium pour produire de l’énergie :
c’est le projet ITER, auquel le CEA participe activement.

2
Un exemple permettra de comprendre quantitativement comment les choses se passent. Une ampoule allumée
2
rayonne de la lumière, donc de l’énergie, et subit par là-même une perte de masse. Mais c , le carré de la vitesse
de la lumière, est tellement grand que même si elle pouvait demeurer allumée pendant des siècles, elle ne
perdrait que quelques microgrammes, c’est-à-dire très peu par rapport à sa masse de départ.
L’énergie donne de la masse ou la transformation d’énergie en masse

Mais il existe aussi, bien sûr, des situations dans lesquelles c’est l’énergie qui se transforme
en masse, et non plus l’inverse. Nous en donnerons deux exemples :

• Le premier est emprunté à la cinématique, plus exactement au lien qui existe entre
vitesse et énergie cinétique. Lorsque nous circulons en voiture ou même voyageons en
avion, l’énergie cinétique du véhicule qui nous transporte croît comme le carré de sa
vitesse. L’accélérer, c’est donc augmenter à la fois sa vitesse et son énergie cinétique.
Mais dans le contexte de la relativité restreinte, qui envisage des déplacements
beaucoup plus rapides que ceux qui sont à notre portée, une certaine vitesse apparaît
comme indépassable pour une particule qu’on tente d’accélérer. Cette vitesse est
identifiée à la vitesse de la lumière dans le vide. Ce phénomène provient de ce que, au
fur et à mesure que sa vitesse et son énergie augmentent, la particule oppose à toute
modification de son mouvement une inertie de plus en plus grande (précisément égale à
E/c2). Autrement dit, elle résiste de plus en plus à l’effort fait pour l’accélérer : plus elle va
vite, plus il est difficile de la faire aller encore plus vite. Si sa vitesse en vient à presque
atteindre celle de la lumière, comme cela se produit couramment dans les accélérateurs
de particules, on peut même lui conférer de l’énergie cinétique sans modifier notablement
sa vitesse. En somme, on « l’accélère à vitesse constante ».

• Le deuxième exemple concerne la dynamique des chocs très violents que peuvent subir
les particules, par exemple au sein des « collisionneurs » (tel le LHC au CERN, dont le
CEA participe à sa construction). Presque toute l’énergie cinétique des particules qui
entrent en collision est convertie en matière : elle se transforme en de nombreuses
autres particules massives, à durées de vie généralement très courtes, qui renseignent
les physiciens sur le contenu matériel de l’univers primordial.
Contrôle de l’émission spontanée de la lumière
et source de photon unique :
Un rêve devient réalité

Les chercheurs rêvent depuis plus d’un demi-siècle de maîtriser l’émission spontanée de la
lumière aussi bien qu’ils maitrisent l’émission stimulée (lasers). Cette maîtrise permettra de
créer des composants optoélectroniques innovants, avec de nouvelles fonctionnalités, pour
les technologies de l’information et de la télécommunication.

C’est un des axes de recherche majeur du Département de recherche fondamentale sur la


matière condensée (DRFMC) du CEA. Il est notamment l’un des trois seuls laboratoires au
monde (avec le Laboratoire de photonique et de nanostructure du CNRS et un laboratoire de
Stanford)3 a avoir déjà réalisé « une source de photon unique monomode », c'est-à-dire une
source capable d’émettre à la demande un unique photon, préparé dans un état bien défini
(énergie et longueur d’onde, polarisation, direction de propagation…). Parmi ces trois
laboratoires, le DRFMC, situé sur le site du CEA de Grenoble à proximité du Léti, a la
particularité d’orienter ces recherches vers une application pratique de ce composant
révolutionnaire. Son principal objectif est de proposer une source « clefs en main » adaptées
aux besoins et aux contraintes de la la cryptographie quantique.

A plus court terme, le DRFMC cherche à mieux maîtriser l’émission spontanée de la lumière
pour améliorer les performances des composants actuels de l’optoélectronique, comme
celles des diodes laser.

1 - Les deux modes d’émission de la lumière : émission spontanée et émission


stimulée

Etudiant l’absorption et l’émission de lumière par la matière, Planck avait supposé, dès 1905,
que ces phénomènes se produisent par échange de petites quantités d’énergie bien définies,
les quanta. Approfondissant cette idée, Einstein a postulé en 1905 que la lumière est en fait
constituée d’une assemblée de quasi-particules, qu’on appelle aujourd’hui les « photons »,
qui portent chacune l’un de ces quanta d’énergie. En 1917, Einstein montre qu’il existe deux
mécanismes distincts pour l’émission de photons.

- L’émission spontanée : un émetteur excité génère de la lumière spontanément, afin


d’abaisser son énergie. Ce mécanisme est à l’œuvre par exemple dans les lampes à
incandescence ou dans les diodes électroluminescentes (l’émetteur étant dans le premier
cas un filament chauffé, dans le second cas un matériau semiconducteur excité par
l’injection d’un courant électrique). L’émission spontanée ne présente habituellement pas de
direction privilégiée, ni de propriétés de cohérence.

- L’émission stimulée : la présence d’un premier photon au voisinage de l’émetteur excité


peut déclencher l’émission d’un second photon, identique en tout point au premier.
L’émission stimulée peut donc être mise en œuvre pour amplifier un faisceau lumineux, et

3
Les recherches sur les sources de photon unique monomode ont été en France, pilotées par le
CNRS, et notamment par Jean-Michel Gérard jusqu’en 2001, date à laquelle il rejoint le CEA. Le
CNRS s’oriente alors sur une recherche plus fondamentale et la compréhension des phénomènes
physiques mis en jeu tandis que le CEA se tourne d’avantage sur les applications.
créer un faisceau de lumière dite cohérente, constituée d’un grand nombre de photons
identiques. C’est l’effet laser bien connu. Pour contrôler l’état de ces photons (énergie,
direction de propagation, polarisation), on place la matière émettrice entre deux miroirs, pour
former une cavité optique. Le phénomène d’émission stimulée ne se produit que si les
photons sont renvoyés par le miroir vers le milieu émetteur, c’est à dire pour des photons se
propageant perpendiculairement aux miroirs : l’émission laser est directionnelle.

2 - Maîtrise de l’émission spontanée de la lumière : une discipline en plein


essor

Les chercheurs rêvent depuis plus d’un demi-siècle de maîtriser l’émission spontanée aussi
bien que l’émission stimulée. Un des paramètres à prendre en compte est que l’émission
spontanée dépend non seulement de l’émetteur (un atome, qui a des états électroniques
discrets, présente des raies d’émission très fines spectralement, alors qu’un semiconducteur
–dont les états électroniques sont répartis par bandes d’énergie- a une raie d’émission
beaucoup plus large), mais aussi aussi de son environnement, qui doit « accueillir » les
photons émis. On peut donc « agir sur l’émission spontanée », en jouant sur cet
environnement (voir encadré 1)

La maîtrise de l’émission spontanée a fait d’énormes progrès qui ont notamment abouti en
2001 à la première source de photon unique monomode et dont les grandes étapes sont
résumées ci-dessous.

1946 : E.M. Purcell propose une théorie selon laquelle il est possible de modifier la
dynamique de l’émission spontanée, c’est à dire d’accélérer ou de ralentir l’émission
spontanée de photons, en modifiant leur milieu environnant. L’approche la plus performante
consiste à placer l’émetteur dans une microcavité optique adaptée, appelée boîte photonique
(voir le principe dans l’encadré 1).

Encadré 1
Utiliser une boîte photonique pour maîtriser l’émission spontanée
Pour cela, l’approche la plus performante consiste à placer l’émetteur au sein
d’une microcavité optique (telle une caisse de résonance de guitare), objet capable
de confiner la lumière à l’échelle de la longueur d’onde et selon les trois directions
de l’espace à la fois. Comme pour la corde d’une guitare, l’onde lumineuse ne peut
prendre qu’un petit nombre de modes de vibration possibles de fréquence bien
définie dans une telle « boîte à lumière ». A chacun de ces modes de vibration
discrets correspond un état possible pour un photon dans la boîte (énergie,
polarisation). Pour émettre un photon, l’émetteur doit trouver un mode de photon
où placer celui-ci. Si sa longueur d’onde d’émission ne correspond à aucun des
modes photoniques disponibles, l’émission spontanée est totalement inhibée. Si
par contre l’émetteur est en résonance avec un mode de la microcavité, son
émission spontanée est permise et peut même être beaucoup plus rapide que
lorsqu’il est placé en dehors de la cavité. Le confinement du mode au voisinage de
l’émetteur conduit en effet à un renforcement du couplage entre l’émetteur et le
mode.

1983 : Une équipe de l’Ecole normale supérieure de Paris, valide expériementalement ce


concept dans le domaine des micro-ondes (ondes centimétriques) en augmentant de 500
fois la vitesse d’émission spontannée.

1997 : L’effet est observé par Jean-Michel Gérard alors au Laboratoire de photonique et de
nanostructure du CNRS (et aujourd’hui responsable de ces activités au CEA) pour des
nanostructures semiconductrices dans le domaine optique, ce qui permet d’envisager pour
la première fois des applications dans le domaine de l’information et de la communication.
Un problème reste à résoudre : cette boîte photonique émet beaucoup trop de photons en
même temps.

2001 : Jean-Michel Gérard fabrique la première source monomode de photon unique, une
réussite emblématique de cette évolution récente. Elle est capable d’émettre à la demande
une impulsion lumineuse contenant un unique photon, préparé dans un état bien défini
(énergie, polarisation, direction de propagation…).

3 - La source de photon monomode unique et son application en cryptographie


quantique

Aujourd’hui, l’objectif majeur des chercheurs du DRFMC au CEA est de développer


une source de photon unique « clefs en mains » pour la cryptographie quantique dans
laquelle l’émission lumineuse serait contrôlée de façon ultime, en définissant le nombre de
photons émis, les instants auxquels ils sont émis, et leur état quantique (énergie, direction de
propagation, polarisation…). Des développements doivent être effectués par rapport aux
prototypes de laboratoire actuellement disponibles pour s’adapter aux contraintes usuelles
associées aux télécommunications optiques. Ils portent principalement sur deux axes :

- la miniaturisation. Ce verrou pourra être levé en passant du pompage optique actuel, par
un laser de laboratoire de grande taille, à un pompage électrique.

- le contrôle de l’émission des photons et notamment la longueur d’onde d’émission mieux


adaptée à une transmission à longue distance sur fibre optique…

3-1 - Description et fonctionnement de la source de photon monomode unique

Une telle source est constituée de deux parties distinctes : l’émetteur et la boite photonique
Pour obtenir une source clef en main répondant aux besoins de la cryptographie quantique,
les chercheurs du DRFMC travaillent sur chacune des trois parties constitutives de la source
ainsi que sur leur assemblage :
- L’émetteur. Une impulsion lumineuse à un photon unique ne peut pas être préparée en
utilisant une source de lumière conventionnelle, qu’elle soit thermique (filament chauffé) ou
une source laser. Elle ne peut être préparée qu’avec un émetteur qui soit lui même
quantique, par exemple un atome (en effet, un atome isolé qui vient de se désexciter en
émettant un photon doit attendre d’être réexcité avant qu’il puisse émettre un second
photon). Dans la pratique, la source est en fait un « atome artificiel » ou « boîte quantique ».
Concrètement, il s’agit d’inclusions d’arsénure d’indium (InAs) de taille nanométrique au sein
d’une matrice de d’arsénure de gallium (GaAs). Ces inclusions nanométriques se comportent
comme un atome et émettent des photons un par un à une énergie bien définie.

Boîtes quantiques d’arséniure d’indium (InAs) au sein d’une matrice d’arséniure de gallium (GaAs)

20 nm

obtenues par croissance épitaxiale.

- La boîte photonique. Elle joue un triple rôle : émettre tous les photons dans un même état
quantique, orienter leur émission dans la direction voulue et augmenter leur vitesse
d’émission (voir encadré 1). La boîte photonique fabriquée au DRFMC est une microcavité
en forme de pilier, dont la taille est de l’ordre de la longueur d’onde (de l’ordre de 1
micromètre), avec des miroirs de part et d’autre de la couche centrale. Le couplage entre la
boîte quantique émettrice et la microcavité permet d’obtenir chaque photon dans un seul état
quantique choisi. A l’extérieur de la cavité, ils forment un faisceau lumineux peu divergent
dans l’axe du micropilier, qui peut aisément être collecté par une fibre optique si nécessaire
(aujourd’hui 50% environ des photons sont extraits dans cette direction, contre 1% sans effet
de microcavité). Enfin, l’émission spontanée de la boîte quantique est 5 à 10 fois plus rapide
dans la microcavité, ce qui permet de répéter jusqu’à un milliard de fois par seconde la
génération d’impulsions lumineuses contenant un photon unique. Ce point est
potentiellement très intéressant pour réaliser une ligne de cryptographie quantique à haut
débit.

Vue au microscope
électronique à
balayage d’une
1 µm
source de photon
uniques. Les photons
se propageant dans
l’axe du pilier
3-2 - Exemples d’application ultime : la cryptographie quantique et la métrologie

La cryptographie quantique est une technique de communication entre deux partenaires qui
leur garantit qu’un intrus ne peut pas intercepter leur communication sans qu’ils en soient
avertis. Ce mode de communication utilise les propriétés quantiques de la « source de
photons monomode unique ».

En effet, la cryptographie quantique permet à deux partenaires, Alice et Bob, de se


construire une clef de codage secrète, connue d’eux seuls, avec une sécurité absolue. Sous
sa forme la plus simple, le protocole de communication repose sur la transmission de
photons uniques dont l’état de polarisation indique la valeur du bit transporté (0 ou 1). Les
lois de la mécanique quantique garantissent qu’il est impossible de déterminer parfaitement
par une mesure l’état d’un photon unique, si on ne connaît pas au préalable les directions de
polarisation correspondant aux valeurs ‘0’ et ‘1’. Un intrus, qui chercherait à mesurer l’état
des photons, puis à les renvoyer au destinataire pour rester inaperçu, provoquerait
nécessairement des erreurs de transmission à cause de l’imprécision de sa mesure. En
vérifiant le taux d’erreur pour une partie de leur clef, choisie de façon aléatoire a posteriori,
Alice et Bob peuvent donc savoir si leur clef quantique est sûre, ou au contraire susceptible
d’être corrompue. Utiliser une « source à photon unique » est indispensable car si l’impulsion
de lumière polarisée contiennent plus d’un photon, il est au contraire possible à un intrus
d’effectuer plusieurs mesures de polarisation et d’intercepter l’information transmise sans
générer d’erreur sur la ligne.

A ce jour, plusieurs laboratoires ont démontré la transmission d’une clef quantique sur des
distances de plusieurs dizaines de kilomètres en utilisant comme canal une fibre optique
d’un réseau de télécommunication commercial, et certaines compagnies commencent à
vendre des systèmes de cryptographie quantique « clefs en mains ». Ces systèmes utilisent
en général une source constituée par une diode laser dont les impulsions lumineuses sont
fortement atténuées. Afin d’éviter la présence d’impulsions multiphotoniques susceptibles
d’être exploitées par un espion, et de garantir une confidentialité inconditionnelle, le nombre
moyen de photons par impulsion doit être de l’ordre de 1/100. Ceci signifie que la plupart des
impulsions émises par ce laser atténué ne contiennent en fait aucun photon, et ne
transportent aucune information. L’emploi d’une source de photons unique parfaite à la place
d’un laser atténué permettrait donc d’augmenter de typiquement deux ordres de grandeur le
débit des systèmes de cryptographie quantique sur fibre, ou encore la longueur maximale de
la liaison sécurisée d’un facteur 2 environ.

A un peu plus long terme, la métrologie constituera probablement un champ d’application


important pour ces sources. Une source de photon unique (presque) parfaite constituerait en
effet un étalon -très commode d’emploi- pour le flux lumineux et plus généralement l’énergie.

4 - Les applications à plus court terme de la maîtrise de l’émission spontanée

Si le but ultime de cette physique est de créer des composants et des fonctionnalités
innovantes pour l’optoélectronique, à plus court terme elle permettra d’améliorer les
performances des composants actuels comme les lasers à semiconducteur, composants clef
des télécommunications sur fibre optique, et notamment leur consommation.

Dans un tel composant, l’émission spontanée joue à la fois un rôle essentiel et un rôle
nuisible : les photons émis spontanément dans le mode laser sont en effet nécessaires pour
déclencher l’amplification par émission stimulée, tandis que les photons émis dans d’autres
directions représentent une perte d’énergie pour le système. Pour une diode laser usuelle, la
proportion de photons spontanés utiles est de l’ordre de 1 photon sur 100000 environ. De ce
fait il faut injecter un courant minimal, appelé courant de seuil, pour compenser ces pertes et
entretenir l’effet laser. En plaçant la couche émissive dans une microcavité optique, cette
proportion a pû être portée à quelques pour cent, ce qui réduit d’un facteur 100 le courant de
seuil et donc la consommation de la microsource laser.

Réduire cette consommation est d’un enjeu majeur pour l’industrie microélectronique. En
effet, les délais de propagation des signaux électriques à l’intérieur des microprocesseurs
constitueront prochainement une limite à l’augmentation de la « fréquence d’horloge » c'est-
à-dire la cadence à laquelle travaille le microprocesseur. Une solution, pour repousser ces
limites est d’intégrer des interconnexions optiques sur les puces. Il sera alors essentiel de
réduire la consommation des sources lasers.
La physique théorique et les interactions
fondamentales d’Einstein au LHC et au-delà

Le “modèle standard" est le cadre théorique de la physique des particules. Elaboré dans
les années 1970, il rassemble toutes les connaissances théoriques sur les constituants
élémentaires de la matière et sur leurs interactions, à l’exception de l’interaction
gravitationnelle. Nous allons, dans ces quelques pages, décrire comment s’est élaboré ce
modèle à partir des principes de base de la physique moderne. Certaines questions
restent hors de la portée du modèle standard : quelle est l’origine de la masse des
particules élémentaires ? Pourquoi l’Univers est-il formé de matière plutôt que d’anti-
matière ? L’énergie du vide accélère-t-elle l’expansion de l’Univers ? C’est en cherchant à
répondre à ces questions, que les théoriciens conçoivent les structures qui pourraient être
celle de la matière à des échelles microscopiques où les quatre forces fondamentales
s’unifient et où entrent en jeu les effets quantiques de la gravitation.

1 - Jusqu’au modèle standard

1-1 - Qu’est-ce qu’une particule ?


Une particule est d’abord un “ objet quantique se déplaçant rapidement ". Ce qu’il faut
entendre par-là est que les particules obéissent à la fois aux lois de la mécanique
quantique et à celles de la relativité restreinte.

• la mécanique quantique repose sur une dualité entre les notions d’onde et de
corpuscule. A toute particule est attaché un champ représentant la probabilité de
présence de la particule en un certain point et à un certain instant. On décrit ainsi sa
délocalisation dans tout l’espace : vitesse et position de la particule ne peuvent pas
être définies avec exactitude mais sont soumises aux relations d’incertitudes
d’Heisenberg. De la même façon, sur des échelles de temps quantiques, l’énergie
d’une particule peut connaître des variations d’énergie régies par les relations
d’Heisenberg.

• la relativité restreinte, quant à elle, unifie les notions d’espace et de temps et indique,
selon la célèbre relation d’Einstein, E=mc2, que toute masse est énergie mais aussi
réciproquement que toute énergie est aussi masse, c’est-à-dire matière.

• Au cours d’un processus physique, de la matière peut perdre de la masse pour libérer
de l’énergie. Cette énergie pouvant à son tour devenir masse c’est-à-dire matière.
Cela signifie que le nombre de particules ne peut pas être fixé : au regard du bilan
énergétique, des particules peuvent être annihilées ou créées. Bien plus qu’une
simple réorganisation de leurs constituants élémentaires comme par exemple lors
d’une réaction chimique, la collision de particules à grande énergie donne naissance à
de nouvelles briques élémentaires de matière à la durée de vie parfois éphémère car
amenées à se désintégrer en particules plus légères et plus stables.

• La théorie quantique des champs est le cadre théorique conciliant les lois de la
mécanique quantique et de la relativité restreinte. Elle est donc l’outil de base de la
physique des particules.
1-2 - Les particules et leurs interactions
La physique des particules se veut une description non seulement des particules elles-
mêmes mais également de leurs interactions. On généralise la notion d’interaction de la
physique classique : à toute interaction entre deux particules est associée l’action d’un
champ ou encore, d’après la dualité onde–corpuscule de la mécanique quantique,
l’échange d’une particule d’interaction. Ainsi l’interaction électromagnétique entre deux
électrons est décrite par l’échange d’un photon. D’une façon générale, on appelle
« particule messagère » ou « boson de jauge » la particule échangée lors de l’interaction
entre particules de matière.

1-3 - Les interactions des particules sur elles-mêmes


La théorie quantique des champs ne se contente pas de traduire en langage moderne la
notion d’interaction de la physique classique, elle y inclut également les apports
intrinsèques de la mécanique quantique et de la relativité, comme les interactions des
particules sur elles-mêmes.

Aux fluctuations d’énergie d’une particule ∆E sur des échelles de temps quantiques ∆t
correspondent, d’après les lois de la relativité restreinte, des fluctuations de matière c’est-
à-dire l’apparition de particules virtuelles vivant pendant le temps ∆t et portant une énergie
∆E. C’est par l’intermédiaire de ces particules virtuelles qu’une particule, par exemple un
électron, exerce une force sur elle-même.

1-4 - Le processus de renormalisation

En physique quantique, il faut prendre en compte l’effet de ses particules virtuelles, c’est
ce qu’on appelle « le processus de renormalisation ». Dans le cas d’un électron par
exemple, il s’agit de prendre en compte l’effet du nuage de particules virtuelles qui
l’entourent, pour décrire les interactions de l’électron sur lui-même, mais aussi de
l’électron avec son environnement.

Ce « processus de renormalisation » a soulevé des difficultés de calcul car il fait


apparaître dans les calculs des quantités infinies (voir exemple de l’électron). Toute la
problématique du processus de renormalisation a donc été de trouver un sens physique à
ces quantités infinies en déterminant quelle quantité est physiquement mesurable et doit
donc rester finie.

Par exemple, dans le cas de l’électron, les inégalités d’Heisenberg impliquent que les
particules virtuelles vivant pendant un temps ∆t tendant vers zéro emportent une énergie
infinie ! Dans cet exemple, la quantité finie physiquement mesurable est la charge
apparente de l’électron. Elle correspond à la différence entre la charge l’électron « initial »
sans son entourage virtuel ou encore « charge nue » (elle aussi infinie) et la charge infinie
de la particule virtuelle. La différence entre ces deux infinis est une quantité finie
mesurable expérimentalement.

Autre conséquence importante de ce processus de renormalisation, la charge de


l’électron n’est plus constante mais dépend de son énergie. Dit autrement, pour un
observateur, un second électron par exemple : plus il est éloigné de l’électron initial et
plus il verra de particules virtuelles entourant l’électron de départ, réduisant d’autant sa
charge électrique.
1-5 - Les interactions de jauge

Réussir à éliminer les quantités infinies en électrodynamique quantique a été un tour de


force. La question suivante a été d’appliquer les mêmes techniques pour les autres
interactions. Ce qui a été réalisé est que, pour faire disparaître tous les infinis, les
interactions entre particules devaient avoir une forme bien particulière et qu’à toute
interaction pouvait être associée une quantité invariante sous une transformation de
symétrie agissant sur les fonctions d ‘onde des différentes particules. Ces transformations
de symétrie sont « locales » (les théoriciens parlent de « symétries de jauge »), c’est-à-
dire agissent différemment en différents points de l’espace. Ce sont les bosons de jauge
qui conservent la mémoire des transformations d’un point à un autre.

Ainsi au niveau microscopique, décrire une interaction entre particules consiste


simplement à identifier une symétrie particulière des constituants élémentaires de
matière.

1-6 - Le modèle standard de la physique des particules


Ce modèle, formulé à la fin des années soixante par S. Glashow A. Salam et S.
Weinberg, décrit les constituants supposés être les plus élémentaires de la matière et
leurs interactions. Les particules de matière sont de deux types :

• les quarks sensibles aux interactions fortes. Il y a six quarks différents: up, down,
charm, strange, top et bottom.

• les leptons, insensibles aux interactions fortes. Il y a six leptons différents : l’électron e-
, le muon µ et le tau τ et leurs neutrinos associés (respectivement νe, νµ, et ντ).

Ces particules interagissent entre elles de trois façons distinctes :

• les interactions fortes, responsables de la cohésion des quarks au sein des hadrons
tels que le proton ou le neutron par exemple, et de la cohésion des nucléons dans le
noyau atomique. Ce sont des interactions de jauge invariantes par une symétrie dite
de couleur. Les particules messagères ou « bosons de jauge associés » sont les
gluons.

• les interactions électromagnétiques. Les particules messagères ou « bosons de jauge


associés » sont les photons.

• les interactions faibles, responsables de certaines réactions nucléaires telles que la


radioactivité β. Il existe trois particules messagères bosons de jauge associés W+, W-,
et Z°

La gravitation n’est pas prise en compte dans ce modèle. On peut comprendre les
difficultés à associer la gravitation aux autres interactions en constatant la disparité entre
les intensités de ces différentes forces, donc entre les échelles d’énergie qu’elles vont
mettre en jeu. En effet, un principe empirique veut que deux phénomènes d’échelles
d’énergie complètement différentes ne s’influencent généralement pas.
2 - Au-delà du modèle standard

Aujourd’hui, l’objectif des chercheurs, théoriciens et expérimentateurs, est d’aller au-delà


du modèle standard, notamment en comprenant ce qui différencie les trois forces
fondamentales ou ce qui explique pourquoi seuls les quarks sont sensibles aux
interactions fortes. Bon nombre de question restent encore ouvertes : pourquoi les
masses des particules élémentaires sont si différentes les unes des autres ? Pourquoi
existe-t-il une asymétrie entre matière et anti-matière ? Quelle est l’origine de l’énergie du
vide responsable de l’accélération de l’expansion de l’Univers ?

2-1 - La brisure de la symétrie électrofaible


Sur Terre les déplacements dans les trois directions d’espace ne se font pas avec la
même facilité (le champ gravitationnel créé par la masse de la Terre a tendance à rendre
les déplacements verticaux plus périlleux que les déplacements horizontaux !).
L’invariance par rotation dans l’espace est ainsi réduite à l’invariance par rotation dans le
plan horizontal.

Une telle « brisure de symétrie » s’opère également au niveau des interactions


fondamentales entre les particules élémentaires. Cette brisure de symétrie est à l’origine
d’une distinction essentielle entre la force électromagnétique et la force faible : la force
électromagnétique est une interaction à longue portée alors que la force faible a une
portée de l’ordre de 10-7 mètres. Ceci implique que le photon est un boson de masse nulle
alors que les W+, W-, et Z° ont une masse de l’ordre de 100 GeV/c2, c’est-à-dire
approximativement cent fois la masse du proton.

Cette brisure de la symétrie électro-faible n’est effective qu’à des énergies inférieures à
l’échelle électrofaible, 100 GeV. A des énergies supérieures, photon et boson Z° sont
essentiellement identiques l’un à l’autre : on dit que électromagnétisme et forces faibles
sont unifiés. Mais à plus basse énergie, la distinction est grande : l’univers est rempli de
photons alors qu’aucun boson Z° n’existe à l’état naturel. En fait, au moment de la brisure
de la symétrie électrofaible, les W+, W-, et Z° ont acquis une masse alors que le photon
est resté de masse nulle. Ceci explique la différence de nature entre les interactions
électromagnétiques et les interactions faibles : les premières sont des forces à longue
portée alors que les secondes n’agissent qu’entre des particules situées à des distances
inférieures à 10-7 m correspondant à l’inverse de la masse des W+, W-, et Z°. En l’absence
de brisure de la symétrie électrofaible, le monde qui est le nôtre présenterait donc une
face bien différente…

Si l’on sait depuis le début des années quatre-vingt et les expériences du CERN à
Genève que les W+, W-, et Z°sont effectivement massifs, on ignore tout ou presque de la
dynamique de la brisure de cette symétrie électrofaible. Il doit bien exister un condensat
électrofaible qui, tel la Terre pour les rotations d’espace, viendrait briser l’isotropie dans
les différentes directions de jauge et ainsi distinguerait une direction privilégiée,
l’électromagnétisme, par rapport aux trois autres. Mais de quoi ce condensat est-il
formé ? Les théoriciens y voient la trace d’une nouvelle forme de matière, appelé boson
de Higgs. Champ de spin zéro, cette nouvelle particule de matière aurait des propriétés
quantiques encore jamais observées au niveau de la physique de l’infiniment petit et
pourrait notamment former un condensat de Bose-Einstein. Ce condensat resterait
transparent aux photons, tandis que c’est en se cognant sur ces parois que les W+, W-, et
Z°acquerraient leurs masses.
La quête du Higgs est lancée depuis plusieurs années déjà et c’est pour le découvrir que
les hommes ont construit les machines les plus complexes jamais conçues. Ce furent
d’abord les 27 kilomètres de l’anneau du LEP au CERN où au rythme de plus de 11,000
fois par seconde on faisait se fusionner électrons et positrons avec l’espoir que ces
étincelles quantiques donnent naissance au fugitif boson de Higgs. Pas assez d’énergie
pour le découvrir, hélas ! Le Tevatron au Fermilab dans la banlieue de Chicago est lui
aussi sur les traces du Higgs. Mais c’est sans doute au LHC, le successeur du LEP, que
reviendra dans quelques années la primeur d’enfin mettre la main sur le boson de Higgs.
Le boson de Higgs ou toute nouvelle forme de matière responsable de la brisure de la
symétrie électrofaible. Car cette fois les physiciens sont certains que leur machine aura
assez d’énergie pour aller explorer cette nouvelle frontière d’énergie autour du TeV où se
mettent en place les structures gouvernant les interactions fondamentales entre les
briques les plus élémentaires de la matière.

2-2 - Vers une unification des interactions fondamentales


L’unification électrofaible appelle à une généralisation : une unification des toutes les
interactions fondamentales. Idée séduisante selon laquelle à très haute énergie, les lois
de la nature seraient simples et uniques et se différencieraient à la suite de différents
“ accidents " (formation de condensats de Higgs) et prendraient finalement la forme que
nous leur connaissons à basse énergie.

En fonction du contenu en matière, nous pouvons calculer les effets d’écran pour les trois
interactions de jauge du modèle standard. Et chose extraordinaire, les valeurs des
couplages de jauge semblent en effet devenir identiques à des énergies de l’ordre de 1016
GeV alors même que les nombres quantiques des quarks et des leptons permettent de
les ranger selon une symétrie unificatrice. Cadre particulièrement riche, ces théories de
grande unification seraient aussi dotées de structures mathématiques élégantes telles
que la supersymétrie, une nouvelle symétrie entre bosons et fermions aux propriétés
quantiques pourtant bien différentes. Il se pourrait même que le LHC puisse distinguer les
premiers signes de cet étrange architecture de la matière, révélant toute une famille de
nouvelles particules élémentaires nécessaires pour compléter le tableau selon les désirs
des physiciens théoriciens.

Et la gravité elle-même, si longtemps oubliée dans le monde de l’infiniment petit, pourrait


aussi y trouver une place. La théorie des champs sera devenue une approximation de
basse énergie d’une théorie des cordes dans laquelle les particules élémentaires, objets
jusqu’alors sans structure interne, ni forme, ni dimension, deviendraient des modes
d’excitation d’objet étendus se propageant dans des espaces à dix, onze ou vingt-six
dimensions. Mais ceci est une autre histoire…