L'Univers et les particules élémentaires
L’Univers en expansion:
D’après la théorie de la relativité générale, l’Univers pourrait être en expansion, c’est-à-dire dans un état tel que tout corps soit entouré, dans son voisinage immédiat, de corps qui sont en repos par rapport à lui (vitesses relatives locales toutes nulles, comme dans un embouteillage), mais les distances relatives entre corps éloignés augmentent au cours du temps. Les modèles cosmologiques dynamiques de De Sitter (1917) et de Friedmann (1922) prédirent que l’Univers devait effectivement être en expansion. Enfin, l’expansion de l’Univers fut expérimentalement établie par les observations de Slipher et Hubble en 1929. Dans les années 1930 et 1940, Lemaître et Gamow introduisirent l’idée du Big Bang chaud, c’est-à- dire que l’espace-temps aurait un « bord temporel » dans le passé, qui correspondrait à la naissance du temps, et où l’Univers aurait été extrêmement dense et chaud, et en état d’expansion très rapide. D’après cette idée, la plupart des noyaux d’atomes qui constituent l’étoffe visible de l’Univers (aujourd’hui essentiellement constituée d’hydrogène et d’hélium) ont été forgés dans la fournaise de l’Univers primordial, à un moment où la température était si élevée (une dizaine de milliards de degrés) que la densité de masse-énergie sous forme de lumière était très supérieure à celle du plomb.
Les données observationnelles accumulées jusqua présent sont en bon accord avec la théorie du Big Bang. En particulier, l’observation en 1965 (par Penzias et Wilson) du fond cosmique micro-ondes, le reliquat de la lumière primitive du Big Bang, a confirmé l’idée d’un Univers primordial chaud. Au moment où électrons et protons se recombinèrent pour former des atomes neutres, l’Univers devint transparent aux photons ; ce « gaz » de photons se refroidit peu à peu sous l’effet de l’expansion de l’Univers jusqua sa température actuelle de 2,7 K. Le caractère homogène et essentiellement isotrope de ce fond traduit sa nature cosmologique.
Une découverte majeure de la dernière décennie a été toutefois l’identification par les satellites COBE (Cosmic Background Explorer), en 1992, et WMAP (Wilkinson Microwave Anisotropy Probe) de très petites anisotropies (à un niveau de 1 pour 100 000) dans le fond cosmique micro-ondes. Ces anisotropies seraient une trace de fluctuations primordiales et donneraient accès à la phase précédant la recombinaison. Leur étude précise fait donc l’objet d’un des programmes majeurs de la cosmologie observationnelle ; le satellite PLANCK, qui doit être lancé en 2008, devrait permettre de préciser l’interprétation de ces anisotropies et ainsi restreindre fortement les théories de physique fondamentale compatibles avec les observations.
Enfin les premières données recueillies par des détecteurs emportés par des ballons favorisent la théorie de l’inflation, selon laquelle l’Univers primordial (bien avant l’ère de formation de l’hélium) aurait subi une brève phase d’expansion exponentielle qui lui aurait permis d’échapper aux forces attractives dues à la gravitation.
Énergie noire et matière sombre:
Des observations récentes sur la luminosité apparente des supernovae d’un type particulier (type la) ont par ailleurs une conséquence surprenante : la majeure partie de l’énergie observée dans l’Univers serait du type énergie du vide ou énergie « noire ». Il faut noter que le vide quantique est l’ensemble des états fondamentaux des champs associés à toutes les particules possibles et possède donc une énergie. Les données astronomiques concernées sont
obtenues en mesurant la luminosité en fonction de la distance : si on a le droit detendre à ces supernovae la calibration standard luminosité-distance (ce qui reste à confirmer), on peut déduire de cette relation des informations sur la géométrie de l’Univers. Ces informations sont corroborées par les données sur le rayonnement fossile et sur les amas de galaxies. Elles laissent penser que l’Univers subirait actuellement une accélération de son expansion. Cela pourrait être la conséquence d’une « constante cosmologique », une énergie du vide en l’absence de toute matière. La théorie quantique fournit bien une énergie du vide mais considérablement supérieure à tout ce que l’on tire de ces observations. Il s’agit là d’un des plus grands défis de la physique théorique contemporaine.
Les données observationnelles ont aussi mis en évidence le fait que la plus grande partie de la matière dans l’Univers est « sombre », c’est-à-dire qu’elle n’émet pas de rayonnement électromagnétique et n’est donc pas observable par des moyens optiques. En gros, 67 % de la densité d’énergie moyenne dans l’Univers serait de l’énergie noire, 30 % de la matière sombre. Il ne resterait qu’environ 3 % pour la matière « baiyonique » ordinaire (c’est-à-dire formée de baryons : protons et neutrons), celle qui constitue les galaxies, les étoiles, le gaz interstellaire et les planètes, y compris les planètes nouvellement découvertes autour d’étoiles autres que le Soleil. On identifie cette matière sombre en étudiant les courbes de rotation des galaxies ou les effets de lentille gravitationnelle de cette matière sur la lumière issue d’amas de galaxies lointains.
La nature de la matière sombre, qui constitue une grande partie de la « masse cachée » de l’Univers, est encore inconnue. Peut- être ne connaissons-nous pas encore les particules qui constituent cette matière noire. Il est peu vraisemblable quelle soit formée de neutrinos, bien qu’un nombre considérable de ces particules ait été constitué lors du Big Bang et que leur densité actuelle soit extrêmement élevée.
L’interaction de ces particules électriquement neutres avec la matière est extraordinairement faible, ce qui rend leur détection très difficile. Néanmoins ce n’est que récemment qu’a été compris le déficit en neutrinos issus du Soleil par rapport aux prédictions fondées sur la considération des réactions nucléaires qui font briller cette étoile. Dans l’expérience SuperKamiokande au Japon, on a pu détecter, grâce à quelques collisions avec les électrons d’une masse de 50 000 tonnes d’eau, les neutrinos émis par le Soleil. Les expériences menées sur les accélérateurs de particules ont permis de montrer qu’il existe trois variétés de neutrinos, associés respectivement aux électrons et aux leptons u (muons) et T (tau). L’existence d’oscillations entre ces trois variétés, mises en évidence dans les expériences SuperKamiokande et SNO (Sudbury Neutrino Observatory) au Canada, un effet typiquement quantique de mélange entre états de neutrinos d’espèces différentes, a permis de comprendre pourquoi le flux détecté de neutrinos émis par le Soleil était apparemment inférieur à la valeur calculée théoriquement. Le fait que ces oscillations existent implique également que les neutrinos ont une masse, alors qu’on avait longtemps pensé qu’ils n’en avaient pas. Cette masse est extrêmement faible et on n’en connaît encore qu’une limite supérieure. Toutefois, la densité des neutrinos dans l’Univers est très élevée, en moyenne quelques centaines de millions par mètre cube alors qu’on ne compte qu’un proton dans le même volume. Certains pensent donc que leur masse totale pourrait rendre compte d’une partie de la masse cachée, la partie dite chaude de cette matière noire, mais ce n’est vraisemblablement pas la source principale. Comprendre la nature de cette matière sombre est l’un des problèmes les plus importants de la cosmologie.
En effet l’importance de la masse cachée est liée à la prédiction théorique qu’au-delà d’une densité critique de masse-énergie l’expansion de l’Univers ne pourrait se poursuivre indéfiniment et ferait place à un effondrement gravitationnel que plus rien ne pourrait arrêter et qui, déchirant, en quelque sorte, l’étoffe de l’espace- temps, créerait un « bord temporel », c’est-à-dire une singularité (le Big Crunch) analogue au Big Bang, frontière où l’espace-temps cesse d’exister.
Encore des questions:
Quelle est vraiment la nature des singularités apparaissant aux bords de l’espace-temps (Big Bang, Big Crunch, ou intérieur d’un trou noir) ? Ces singularités signalent-elles réellement que l’espace- temps cesse d’exister (et du coup qu’il faut reformuler la théorie quantique usuelle qui présuppose l’existence d’un temps), ou bien que la théorie d’Einstein devient inadéquate ? Beaucoup de travaux ont montré qu’il est très difficile de réconcilier la théorie d’Einstein avec la théorie quantique. Le seul espoir actuel de réconciliation est la théorie des (super)cordes qui suppose que tous les champs (et particules) fondamentaux dérivent des divers modes d’oscillation d’une corde quantique relativiste. Cette théorie suggère que la théorie d’Einstein n’est pas le dernier mot sur la structure de l’espace- temps et que l’espace-temps aurait dix ou onze dimensions et non pas seulement quatre. La théorie des cordes, comme toute théorie d’objets étendus, contient une longueur fondamentale. A priori cette longueur semblait devoir être celle qu’avait évaluée Planck, il y a près d’un siècle, qui fut le premier à s’interroger sur les fluctuations quantiques du champ de gravitation. Cette longueur est extraordinairement petite, elle est de l’ordre de 10 centimètre. À ces distances qu’aucun « microscope » (c’est-à-dire accélérateur de particules) ne permet de sonder, la gravitation, d’ordinaire très faible, devient comparable en intensité aux autres forces. C’est également cette distance de Planck qui déterminerait l’extension spatiale des dimensions supplémentaires de l’espace, lesquelles, en pratique, resteraient donc cachées quelles que soient les expériences prévues ou envisageables. Or cette image vient d’être remise en question par une série de travaux théoriques qui, par une nouvelle analyse de la théorie des cordes, montrent qu’il n’est pas exclu que ces dimensions supplémentaires soient beaucoup plus « grandes », atteignant peut-être 10,17 centimètre. La confrontation avec l’expérience devient alors envisageable, mais il faut à cet effet des accélérateurs de beaucoup plus grande énergie, comme le LHC en cours de construction au Cern à Genève.
Parmi les projets expérimentaux qui pourraient apporter des renseignements décisifs sur la physique gravitationnelle « au-delà d’Einstein », signalons les projets de tests en satellite (projet français MICROSCOPE et projet international STEP) du postulat fondamental de la relativité générale : l’universalité du couplage gravitationnel, c’est-à-dire le fait expérimental (qui remonte à Galilée) que tous les corps tombent avec la même accélération dans un champ gravitationnel.
En somme, on a atteint une image cohérente de l’Univers primordial, mais beaucoup de problèmes théoriques et expérimentaux restent ouverts. On espère profiter de la moisson de données expérimentales attendue dans la décennie qui s’ouvre.
La matière que nous connaissons est formée de particules, or les accélérateurs ont mis en évidence des antiparticules qui formeraient de l’antimatière. Comment se fait-il que l’Univers que nous connaissons soit formé de matière ? Où est l’antimatière ? Une théorie – mais le problème reste ouvert – explique l’absence d’antimatière par la formation, au sein du gaz ultrarelativiste (c’est-à-dire dans lequel toutes les particules ont des vitesses proches de celle de la lumière) constituant l’Univers primordial (juste après la fin de la période inflationnaire), d’un excès de matière ordinaire, faite de protons et de neutrons, par rapport à l’antimatière (antiprotons et antineutrons). Seul cet excès aurait survécu à l’annihilation du reste de la matière avec toute l’antimatière. Il suffit d’une très légère dissymétrie entre matière et antimatière, de l’ordre du milliardième, pour expliquer la densité de matière ordinaire observée. La brisure de symétrie à l’origine de l’excès de matière est une indication importante sur la structure de la physique fondamentale à très haute énergie.
De l’infiniment grand à l’infiniment petit :
On l’a vu, le lien est étroit entre la connaissance de l’infiniment grand (structure de l’Univers à l’échelle des galaxies) et l’infiniment petit (particules élémentaires).
Deux des problèmes majeurs qui passionnent actuellement les physiciens des particules sont ceux de la détection des quarks et de la particule de Higgs. Les protons et les neutrons, constituants des noyaux atomiques, ne sont pas des particules élémentaires. Ils ont en effet une structure interne, constituée par des quarks, liés entre eux par l’échange de particules de masse nulle, les gluons. L’échange de gluons est responsable de l’interaction nucléaire forte, de même que l’échange de photons est responsable de l’interaction électromagnétique. Il existe six espèces de quarks caractérisés par une propriété quantique appelée « saveur ». Une autre propriété quantique des quarks porte le nom métaphorique de « couleur » (aucun rapport avec la couleur des objets) ; c’est à la couleur que se couplent les gluons (comme les photons se couplent à la charge électrique). Il existe des quarks « bleus », « rouges » et « verts », qui composent des particules « blanches » (telles que protons et neutrons), les seules détectables. La chromodynamique quantique, théorie de l’interaction forte, indique que les quarks ne peuvent être arrachés de ces particules et observés isolément. Si l’on cherche à arracher un quark d’un proton, par exemple en le bombardant avec des particules très énergiques, on observe que la force de rappel (échange de gluons) augmente lorsque la distance du quark au centre du proton augmente (alors que l’attraction électrique diminue lorsque la distance augmente), si bien que, même en utilisant les projectiles les plus énergiques, on n’a jamais réussi à observer un quark libre. Néanmoins, s’ils sont aujourd’hui confinés à l’intérieur de la matière, sans que l’on puisse les en extraire, ils étaient sans doute libres lorsque la température de l’Univers primitif dépassait les 1012 degrés.
En utilisant des collisionneurs, où l’on fait se rencontrer des particules et des antiparticules de très haute énergie, comme le LEP à Genève (électrons-positrons) ou le Tévatron à Chicago (protons- antiprotons), on peut observer des événements qui révèlent indirectement la présence de quarks. C’est ainsi qu’on a récemment mis en évidence le dernier des six quarks, le quark « top », très massif, dont on avait pu prédire la masse, à plus ou moins 10 %, avant l’expérience qui permit de la déterminer. Il faut souligner l’extraordinaire confirmation d’une prédiction théorique qui assure le bien-fondé de ce qu’on appelle le modèle standard des interactions faibles et électromagnétiques qui attend sa confirmation définitive avec l’observation de la particule de Higgs.
Le modèle standard a permis d’envisager d’une façon nouvelle la question de la masse des particules. La clé de voûte du modèle est la particule de Higgs. On sait, depuis de Broglie, qu’à chaque particule est associé un champ ; ainsi au photon est associé le champ électromagnétique. De même à la particule de Higgs est associé un champ dit « scalaire ». Ce terme fait référence à la propriété suivante : le champ de Higgs est caractérisé par la donnée d’un nombre en chaque point de l’espace, contrairement par exemple au champ électrique qui est caractérisé par la donnée d’un vecteur (comparer le champ des pressions et le champ des vitesses dans un fluide). Cette différence de comportement est liée à une propriété intrinsèque de la particule associée : le spin, une sorte de vecteur interne que possède le photon et dont le Higgs est dépourvu.
L’isotropie que l’on observe dans notre Univers nous indique qu’il n’y règne pas de champ électromagnétique uniforme dans tout l’espace : il y aurait sinon une direction privilégiée (le champ magnétique terrestre impose par exemple une direction privilégiée – le Nord magnétique -, mais il reste localisé à notre environnement terrestre). Il n’existe pas de telle contrainte pour le champ scalaire puisqu’il n’y a pas de vecteur associé, donc de direction privilégiée.
On pense en fait que l’Univers entier « baigne » dans un champ scalaire constant. La valeur de ce champ scalaire est directement liée à l’intensité de la force faible, responsable de la désintégration P, qui intervient dans la radioactivité naturelle. Chaque particule est couplée au champ de Higgs. On peut déterminer la force du couplage en mesurant la masse de la particule. En effet, depuis Einstein, la masse est interprétée comme l’énergie intrinsèque de la particule ; cette énergie serait due au champ scalaire dans lequel baigne la particule et s’expliquerait simplement comme le produit du champ par le couplage de la particule. L’électron serait quatre cent mille fois plus léger que le quark top parce que son couplage au champ scalaire est quatre cent mille fois plus faible. Et la masse des « bosons intermédiaires » W et Z, dont l’échange entre particules est à l’origine de la force faible, est directement liée à la valeur du champ scalaire.
Il reste à découvrir la particule de Higgs, ou ce qui fait office de Higgs si la Nature se révèle plus compliquée que prévu, pour confir-mer ce bel édifice intellectuel. Il restera toutefois à construire une théorie de la masse, c’est-à-dire une théorie qui expliquera par exemple pourquoi le couplage du quark top au champ de Higgs est quatre cent mille fois plus fort que celui de l’électron, et plus généralement, qui prédira le spectre de masse complet des particules à partir de principes ou quantités encore plus fondamentaux. Une telle théorie pourrait être celle des supercordes, mentionnée ci-dessus, dans laquelle la valeur des constantes de la nature serait complètement déterminée par les propriétés géométriques de l’espace-temps.
Toutes ces idées doivent être soumises à l’épreuve de l’expérience. Le grand collisionneur LHC, en cours de construction au Cem, sera l’instrument de ce dialogue indispensable. Son énergie lui permettra d’explorer un domaine dans lequel les prédictions théoriques abondent. Certes, la particule de Higgs est indispensable pour achever de valider le modèle « standard » qui gouverne les énergies aujourd’hui explorées. Mais au-delà se profile le monde de la « supersymétrie », actuellement imaginé par nécessité de cohérence théorique. Si cette symétrie originelle supplémentaire, aujourd’hui brisée, était bien présente initialement, comme le pensent les théoriciens, alors une moitié du monde a échappé jusqu’à présent à tous nos moyens de détection. Dans cette perspective, la découverte du Higgs ne serait que le point de départ d’un changement radical de nos conceptions, aussi bien sur la structure de la matière que sur celle de notre Univers.