La mécanique quantique et les systèmes individuels :
Jusqu’à la fin des années 1970, les situations expérimentales où la mécanique quantique était impliquée concernaient toujours de très grands ensembles d’objets microscopiques sur lesquels on observait un signal moyenné. Ainsi, la lumière émise par une lampe à décharge, dont les propriétés spectrales ont conduit à la quantification des atomes et donc à la première révolution quantique, est émise par les millions de milliards d’atomes d’un gaz. De même, la superfluidité de l’hélium liquide ou la supraconductivité de certains métaux s’observent sur des systèmes macroscopiques, où le nombre d’atomes est de l’ordre du nombre d’Avogadro (6 x 1023, six cent mille milliards de milliards). Un faisceau laser contient un nombre de photons du même ordre, produits par un milieu amplificateur qui comporte un nombre tout aussi colossal d’ions émetteurs… Dans ce type de situation, le caractère probabiliste des calculs quantiques ne présente pas de difficultés conceptuelles. Puisque les observations portent sur de grands ensembles, les probabilités s’interprètent de manière statistique : si le calcul prévoit qu’un atome dans une lampe spectrale a une probabilité de 80 % d’émettre de la lumière rouge et de 20 % d’émettre du bleu, nous dirons naturellement que 80 % des atomes émettent du rouge, et 20 % du bleu. Mais pourrait-on encore appliquer le formalisme quantique si on avait un seul atome émetteur ? À cette question, Bohr répondait oui sans hésitation, alors qu’Einstein en doutait. Ici encore, le débat semblait n’être qu’une question de principe, sans portée pratique, qui ne concernait guère la majorité des physiciens, lesquels travaillaient toujours sur de grands ensembles.
L’observation des objets microscopiques individuels :
À la fin des années 1970, les physiciens ont inventé des méthodes pour manipuler et observer un seul électron, ou un seul ion, conservé pendant des heures (et même des jours, voire des mois) à l’aide de champs électriques et magnétiques qui le maintiennent loin de toute paroi, dans une enceinte à vide : on parle alors de particule unique « piégée ». Au cours la décennie suivante est apparue la microscopie de champ proche (microscope à effet tunnel, microscope à force atomique), qui a permis d’observer et de manipuler des atomes individuels déposés sur une surface. À la même époque, les progrès conceptuels et expérimentaux de l’optique quantique ont conduit au développement de sources où les photons sont émis un par un. Ces avancées expérimentales, couronnées par plusieurs prix Nobel, ont d’abord eu des conséquences importantes en physique fondamentale.
C’est ainsi que le piégeage d’objets élémentaires uniques a fait considérablement avancer la connaissance de certaines grandeurs microscopiques, dont la valeur fournit souvent un test sévère de la théorie. Par exemple, les longs temps d’observation accessibles avec un électron unique piégé ont permis de mesurer une quantité fondamentale, le « rapport gyromagnétique de l’électron », avec treize chiffres significatifs (précision d’une partie par dix millions de millions, ce qui équivaut à mesurer la distance de la Terre à la Lune avec une précision de quelques millièmes de millimètre !). Or cette quantité peut être calculée à l’aide de l’électrodynamique quantique,version raffinée de la théorie quantique appliquée aux charges élec-triques élémentaires : l’accord excellent avec l’expérience est à un niveau de précision tel qu’on ne sait ce qu’il faut admirer le plus, la performance des expérimentateurs, le talent des théoriciens capables de mener à bien des calculs si complexes ou la puissance prédictive de la théorie.
Le piégeage d’objets élémentaires permet également des tests cruciaux de propriétés aussi fondamentales que la symétrie matière-antimatière : on a ainsi pu vérifier avec une précision confondante l’égalité des charges (au signe près) et des masses d’un proton et d’un antiproton, ou d’un électron et d’un positron. Ce type de mesures vise à tester les symétries fondamentales – ou leur brisure – qui sont au cœur de notre compréhension du monde.
Les sauts quantiques :
En parallèle avec les progrès expérimentaux, le piégeage d’objets microscopiques individuels obligea les physiciens à se reposer la question, soulevée elle aussi par Einstein, de la signification de la théorie quantique lorsqu’on l’applique à un objet unique. Considérons un atome soumis à un faisceau laser bien choisi, peut se trouver dans un état « brillant » avec une probabilité nB, et dans un état « noir » avec la probabilité complémentaire nN = 1 – 11B. Par « brillant » ou « noir », on veut dire que, si on rajoute un faisceau laser auxiliaire – une « sonde » -, un atome dans l’état noir ne diffusera aucun photon tandis que dans l’état brillant il en diffusera de nombreux parfaitement observables avec un photodétecteur, ou même à l’œil nu. Lorsqu’on a une vapeur contenant un grand nombre d’atomes dans cette situation, l’interprétation des prédictions probabilistes ne présente pas de difficultés : une fraction nB des atomes diffuse des pilotons, tandis que les autres atomes (dont la fraction est nN) ne diffusent pas. Mais que se passerait-il pour un atome unique placé dans la même situation ? Sommés de répondre à ce genre de question, les fondateurs de la mécanique quantique de l’école de Copenhague répondaient qu’en présence du premier laser l’atome est en fait dans une superposition linéaire de l’état noir et de l’état brillant, état quantique contre-intuitif où l’atome est à la fois brillant et noir. Et lorsqu’on applique le laser sonde, on va trouver l’atome soit dans l’état brillant, soit dans l’état noir, avec les probabilités nB ou nN, sans que l’on puisse savoir d’avance lequel des deux cas sera observé. Mais ils ajoutaient que, si l’on répétait l’expérience sur un grand nombre de systèmes identiques, alors on observerait la situation brillante pour une fraction nB des expériences et la situation noire pour la fraction 11N.
En fait, cette description dans laquelle l’atome est dans une superposition de l’état noir et de l’état brillant ne répond pas à la question : que se passe-t-il au cours du temps pour un atome unique que l’on observe en permanence ? Même si la question apparaissait totalement académique dans les années 1930, où l’on était loin de penser qu’on pourrait un jour observer des objets microscopiques uniques, les physiciens de l’école de Copenhague ne l’éludaient pas : pour y répondre, ils invoquaient le « postulat de réduction du paquet d’onde » qui affirme que, lorsqu’un système quantique interagit avec un appareil de mesure, en l’occurrence le laser auxiliaire, le système quantique cesse d’être dans une superposition d’états et « est projeté » dans l’un ou l’autre d’entre eux. On prévoit donc que l’atome basculera alternativement, à des instants aléatoires, entre l’état brillant où l’on peut observer les photons diffusés et l’état noir où aucun photon n’est diffusé, et réciproquement.
Des retombées pratiques et théoriques :
Dans le domaine expérimental, on utilise aujourd’hui le phénomène des sauts quantiques entre périodes noires et brillantes pour mesurer la fréquence de certaines raies spectroscopiques extrêmement fines, inobservables jusqu’alors, et qui sont d’excellents candidats pour de nouvelles horloges atomiques, encore plus précises que celles dont nous disposons. Dans le domaine théorique, la réflexion sur les sauts quantiques a déclenché l’émergence de nouvelles méthodes, appelées « Monte-Carlo quantique », qui donnent une description très proche de ce qu’on observe dans les expériences. Ces méthodes utilisant le calcul sur ordinateur simulent une histoire quantique possible pour le système unique, en tirant au sort les sauts quantiques, les probabilités gouvernant ce tirage ayant été calculées à partir des équations quantiques. Si ces méthodes nouvelles sont bien adaptées à la description des systèmes uniques, elles se sont également parfois révélées – après moyenne – remarquablement plus efficaces que les méthodes théoriques traditionnelles pour étudier l’évolution d’un grand ensemble de systèmes quantiques identiques. De plus, en permettant de se poser des questions sur l’évolution individuelle de chaque système, ces méthodes de Monte-Carlo quantique ont permis de faire le lien entre certains processus quantiques et des statistiques inhabituelles – les statistiques de Lévy – qui jouent un rôle crucial dans des domaines aussi variés que la biologie, les marchés financiers ou les embouteillages de la circulation automobile. Comme souvent, un rapprochement entre sujets sans rapport a priori s’est avéré particulièrement fécond.