La première révolution quantique
Deux théories révolutionnaires ont vu le jour au début du XXe siècle, la relativité et la mécanique quantique. Il est bien connu que la relativité a fortement remis en cause notre vision du monde (relativité du temps, équivalence masse-énergie) et quelle a conduit à une application aux conséquences immenses pour l’humanité, la maîtrise de l’énergie nucléaire. La mécanique quantique a exigé des révisions conceptuelles encore plus déchirantes, indispensables pour comprendre la structure de la matière à des échelles de plus en plus petites (liaison chimique, atome, noyau, particules élémentaires). On sait peut-être moins que ce sont des applications directes de la physique quantique, la microélectronique et l’optoélectronique, qui ont permis le développement des technologies de l’information et de la communication qui ont déjà bouleversé nos sociétés.
Le premier mérite de la mécanique quantique – et non le moindre – est d’avoir élucidé la structure et les propriétés apparemment les plus banales (chimiques, électriques, mécaniques, thermiques) de la matière qui nous entoure. Auparavant, on ne savait pas expliquer pourquoi la matière est stable, alors qu’elle est formée de chrages électriques de signes opposés qui auraient dû, en s’attirant, émettre du rayonnement et aboutir à l’effondrement de la matière sur elle-même. C’est à Niels Bohr que revient le mérite d’avoir compris en 1913 qu’il fallait une approche radicalement nouvelle, la quantification du mouvement des électrons autour du noyau, pour surmonter cette difficulté majeure au moins dans le cas des atomes. Dès 1925, Heisenberg montrait que vouloir confiner les charges coûte de l’énergie, ce qui empêche la matière de s’effondrer sur elle- même. En moins de deux décennies, la mécanique quantique allait donner une compréhension profonde et quantitative des propriétés de la matière, permettant le calcul des coefficients de conductivité électrique ou thermique, des coefficients d’élasticité, ou encore celui des énergies de liaison, toutes grandeurs qui avaient été introduites empiriquement en physique et en chimie classiques.
Mais la mécanique quantique a aussi permis de comprendre des propriétés beaucoup plus exotiques de la matière : la supraconductivité, c’est-à-dire la disparition de la résistivité électrique de certains conducteurs à très basse température, ainsi que la superfluidité de l’hélium liquide, c’est-à-dire la disparition de sa viscosité. Ces deux effets remarquables sont une conséquence de la « condensation de Bose-Einstein », phénomène imaginé par Einstein à l’époque des débuts de la mécanique quantique, qui se traduit par la condensation de toutes les particules dans la même onde de matière géante, que l’on a pu observer directement dans des expériences récentes.
La mécanique quantique a également bouleversé notre compréhension de la lumière. Dès 1900, Planck avait invoqué la quantification des échanges d’énergie entre lumière et matière afin de rendre compte des propriétés du rayonnement thermique (lumière émise par un corps porté à température élevée, comme le filament d’une lampe à incandescence). En 1905, inspiré par quelques observations sur l’effet photoélectrique, Einstein introduisait explicitement la quantification de la lumière elle-même : en la considérant comme formée de grains indivisibles d’énergie, les photons, il déduisait un certain nombre de prédictions précises qui allaient être vérifiées expérimentalement par Millikan. L’importance de ce travail fut soulignée par le prix Nobel de 1922 qu’Einstein reçut explicitement pour l’effet photoélectrique, c’est-à-dire pour la quantification du rayonnement lumineux.Dès les années 1930, la théorie quantique était suffisamment avancée pour donner une description synthétique de la lumière et de la matière, ainsi que de leur interaction. Elle fournissait en particulier un cadre mathématique non ambigu à l’étonnante dualité onde-particule, que de Broglie avait introduite de façon heuristique, mais qui restait incompréhensible dans un mode de pensée classique.
Après la Seconde Guerre mondiale, la théorie quantique permettait d’aller encore plus loin dans le monde de l’infiniment petit, en constituant le cadre approprié pour décrire les particules élémentaires. C’est aussi en s’appuyant sur la description quantique de la matière que les physiciens allaient inventer de nouveaux objets qui n’existaient pas dans la nature, et que les ingénieurs surent bientôt produire en grande série.
Ce furent d’abord le transistor, et ses descendants, les circuits intégrés, inventés par un groupe de brillants physiciens du solide à partir d’une réflexion fondamentale sur la nature quantique de la conduction électrique. Inutile d’insister sur l’importance de cette invention, qui a conduit à l’avènement de l’électronique puis à la multiplication des possibilités de calcul, de traitement et de stockage de l’information, comme la machine à vapeur avait, deux siècles plus tôt, multiplié la puissance mécanique à la disposition de l’homme et conduit à la révolution industrielle. Au cœur d’innombrables applications, le laser est le deuxième enfant de la mécanique quantique. On connaît les imprimantes laser, le guidage des engins de travaux publics, les lecteurs de codes- barres ou de disques compacts, le découpage précis des tôles et des vêtements, la chirurgie laser, etc. Mais l’application la plus importante est sans doute le transport d’informations par laser et fibres optiques, qui a démultiplié le débit d’information que l’on peut faire circuler à l’échelle de la planète : ce sont des térabits (millions de millions d’unités d’information) par seconde que l’on sait aujourd’hui transmettre à travers les océans, sur une seule fibre optique équipée d’amplificateurs laser intégrés. Si l’on compare aux quelques bits par seconde des premiers télégraphes Morse, on mesure le chemin parcouru. Les hauts débits des autoroutes de l’information permettent aujourd’hui à l’humanité de partager les informations stockées dans les ordinateurs du monde entier ou de mettre en commun leurs puissances de calcul.
La place prise par les applications des lasers ne doit pas faire croire que l’optique est une discipline achevée, et que les progrès dans la compréhension et la maîtrise de l’interaction matière première se seraient arrêtés en 1960. On a vu par exemple apparaître ¡ optique quantique dont la plupart des concepts étaient ignorés en 1960, et qui permet de repousser les limites des méthodes d’observation et de mesure optiques, grâce à une meilleure compréhension des limitations ultimes, de nature quantique. De même, grâce à la méthode dite « du peigne de fréquences optiques », on dispose désormais de lasers dont la fréquence est reliée de façon directe aux horloges atomiques de référence constituant l’étalon absolu de temps, et la précision des mesures laser atteint un degré inimaginable il y a quelques décennies. On citera aussi la découverte a priori paradoxale qu’une utilisation judicieuse du laser peut permettre non pas de chauffer la matière, mais de la refroidir à des températures proches du zéro absolu. Ces progrès de la recherche fondamentale, couronnés par plusieurs prix Nobel, ont rapidement débouché sur des applications mettant en jeu l’ensemble de ces avancées. On a ainsi assisté à une amélioration spectaculaire de la précision des horloges atomiques et vu le développement d’interféromètres atomiques prometteurs pour analyser le sous-sol ou étudier les irrégularités du mouvement de rotation terrestre. D’ici une à deux décennies, les horloges atomiques logées dans les satellites du système GPS, ou de ses successeurs, utiliseront sans doute les atomes froids, permettant de se situer au centimètre près à la surface de la Terre et rendant obsolètes les méthodes topographiques traditionnelles. Et puis, par ce mouvement de balancier dont ils sont coutumiers, les physiciens projettent aujourd’hui d’utiliser ces horloges améliorées, et les interféromètres atomiques, pour revenir sur des problèmes de physique fondamentale, certains tests de la relativité générale ou la recherche d’éventuelles évolutions des lois physiques à l’échelle de l’âge de l’Univers. On ne peut qu’être stupéfait qu’il soit aujourd’hui envisageable de détecter en quelques années les infimes variations des lois physiques qui refléteraient les évolutions que laissent imaginer certaines observations astronomiques remontant le cours du temps sur des milliards d’années.