Pour ne rien manquer de Pour La Science, inscrivez-vous à nos newsletters (gratuites)
L'infiniment petit est omniprésent en physique des particules. En principe, aucune idée physique ne devrait faire appel à des notions infinies. Pourtant, les théories utilisées aujourd'hui par les physiciens qui étudient l'Univers à petite échelle supposent des constituants élémentaires ponctuels, donc infiniment petits. Les chercheurs n'ont pas adopté cette idée d'emblée. Partant de notre échelle macroscopique, régie par les lois de la physique classique, ils sont descendus d'étage en étage vers les petites dimensions, dans le domaine où règnent les lois quantiques. L'exploration des échelles atomique, puis nucléaire, puis subnucléaire les a confrontés à des comportements de plus en plus surprenants. Au-dessous du millionième de milliardième de mètre, tout se passe comme si les particules qui interagissent étaient infiniment petites. Les physiciens ont donc construit des théories fondées sur l'hypothèse que ces particules – les électrons et les quarks – sont ponctuelles, et qu'elles interagissent de façon ponctuelle. Extrême, cette thèse a d'abord engendré d'immenses difficultés techniques. Toutefois, la première des théories fondée sur elle – l'électrody- namique quantique, qui décrit les interactions entre électrons et photons – devint finalement la plus précise jamais élaborée! Encouragés par ce succès, les physiciens forgèrent des théories sur le même modèle pour décrire les autres interactions. Ils obtinrent ainsi le «modèle standard», qui rend compte avec succès des interactions de toutes les particules. Depuis 30 ans, cet énorme édifice théorique résiste à toutes les tentatives expérimentales pour le mettre en défaut. Les constituants élémentaires sont-ils vraiment ponctuels?
Les physiciens n'ont pas inventé l'infini
Les physiciens n'ont pas inventé l'infini : ils ont commencé à utiliser par nécessité ce concept de mathématicien (voir Histoire d'infini, page 64). En mathématique, la notion d'infini apparaît d'une façon «naturelle». On conçoit immédiatement que la suite des nombres naturels est sans fin, donc qu'elle est infinie. Lorsque les mathématiciens disent qu'une quantité est infinie, ils veulent dire qu'elle (sa valeur absolue) est sans limite supérieure ou, ce qui revient au même, que supposer qu'une telle limite existe conduit à une contradiction logique : n ne peut être le plus grand entier, car n + 1 lui est supérieur. À l'inverse, quand ils parlent d'une quantité infiniment petite, cela signifie qu'elle (sa valeur absolue) n'a pas de limite inférieure, sinon zéro. La suite des inverses des nombres naturels, 1, 1/2, 1/3, 1/4, ..., ne contient aucune limite inférieure. Pour les mathématiciens, les infinis, tant grands que petits, sont définis grâce à un processus de passage à la limite.
En physique, les situations qui imposent un tel passage ne manquent pas. Au début du xxe siècle, les astronomes se représentaient l'Univers comme un espace plein d'étoiles, dont le Soleil. Puis ils ont découvert que les étoiles étaient les constituants élémentaires de galaxies, et que des milliards de galaxies existent. L'Univers s'était brusquement agrandi de plusieurs ordres de grandeur. Cette évolution invite à se demander quelles structures encore plus grandes pourraient exister. Et finalement, on s'interroge : le Cosmos est-il infini? Ces questions restent ouvertes, même si plusieurs indices militent effectivement pour un Univers sans limites.
Il en va de même lorsqu'on essaie d'explorer l'infiniment petit. L'histoire des sciences révèle que l'homme a progressivement appris à diviser de plus en plus la matière. L'un des premiers à y penser fut Démocrite (460-370 avant notre ère). Le philosophe grec a supputé que la matière peut être divisée jusqu'à une échelle ultime, celle de petits constituants élémentaires invisibles, qu'il nomme Atomos. Pour Démocrite, comme pour les physiciens d'aujourd'hui, le processus de division de la matière est donc limité. Bien que très petit, un atome n'est pas infiniment petit. Son diamètre est d'environ un dixième de milliardième de mètre, taille qu'une expérience simple met en évidence : un film huileux répandu sur l'eau s'étire jusqu'à atteindre une hauteur qui correspond au diamètre d'une molécule, voire d'un atome. Or, grâce au microscope à effet tunnel, les physiciens sont capables d'observer des atomes. Que voient-ils? De petites balles de tennis, dont il faudrait 100 millions accolées pour faire un centimètre.
Atomos signifie indivisible
Le mot Atomos signifie indivisible en grec ancien. Pourtant le caractère indivisible des atomes a été remis en cause à la fin du xxe siècle, quand les physiciens ont montré que les atomes peuvent être dissociés en constituants plus petits : le noyau et le nuage électronique. La taille de l'enveloppe impose celle des atomes, tandis que sa masse représente moins d'un millième de leur masse. Le plus simple des atomes est l'hydrogène. Son enveloppe ne contient qu'un seul électron, chargé négativement, en rotation autour du noyau, qui porte une charge électrique positive. Sa rotation permanente l'empêche d'être attiré par l'attraction électrique qu'exerce le noyau. L'électron se comporte en fait comme une minuscule planète, dont l'orbite est stable parce que la force centrifuge due à la rotation équilibre l'attraction électrique du noyau.
Lorsqu'ils eurent compris cela, les physiciens s'étonnèrent des particularités des systèmes atomiques : tels une infinité de frères jumeaux, tous les atomes d'hydrogène ont la même structure. Or, dans le modèle planétaire, si l'électron tournait plus vite, il serait plus éloigné du noyau. Pourquoi le noyau de l'atome d'hydrogène ne fixe-t-il qu'un seul et unique électron, toujours à la même distance? Autre mystère : les physiciens savent que les particules chargées accélérées rayonnent de l'énergie sous forme d'ondes électromagnétiques. Or, l'électron est soumis en permanence à une accélération et les particules chargées et accélérées perdent leur énergie en émettant un «rayonnement de freinage». Pourquoi l'électron de l'atome d'hydrogène n'émet-il aucune onde électromagnétique? Quel mécanisme le stabilise sur son orbite? Les physiciens durent se rendre à l'évidence : la physique classique ne suffisait plus à expliquer la stabilité des atomes.
Pour répondre à ces questions, les physiciens du début du xxe siècle ont créé la mécanique quantique. Le concept central de la théorie quantique est celui de la probabilité d'événements. Ainsi, on calcule la probabilité qu'un électron se trouve en un endroit précis, à un instant donné ; qui plus est, la position et la vitesse d'un électron ne peuvent être déterminées simultanément. Le physicien allemand Werner Heisenberg fut le premier à formuler cette propriété quantique. Ces «relations d'incertitude de Heisenberg» s'appliquent à tous les systèmes qui ont un comportement quantique. Le calcul montre toutefois que l'approximation classique est excellente pour les systèmes macroscopiques. Si la probabilité quantique qu'une voiture traverse brusquement le mur du garage où elle était garée n'est pas nulle, elle est si faible qu'en pratique l'événement peut être considéré comme impossible!
Atomes hypothétiques
C'est justement cette incertitude sur la position de l'électron qui détermine la taille d'un atome. Dans le cas de l'atome d'hydrogène, cette taille est égale à 10–10 mètre. Supposons que nous observions un atome d'hydrogène, dont l'enveloppe serait beaucoup plus petite, disons cent fois plus petite. L'électron serait alors localisé avec une précision plus grande que dans l'atome d'hydrogène normal. Selon la relation d'incertitude, la précision de la vitesse de l'électron serait dans ce cas 100 fois inférieure, de sorte qu'il devrait se déplacer beaucoup plus vite que dans l'atome normal. Une vitesse plus élevée signifierait aussi une énergie supérieure. Un atome d'hydrogène hypothétiquement plus petit posséderait donc une énergie supérieure à celle d'un atome normal. Or, que ce soit en physique classique ou en mécanique quantique, les systèmes évoluent toujours vers leur état de moindre énergie. Un atome d'hydrogène plus petit que la normale ne serait pas stable, mais perdrait de l'énergie en rayonnant des ondes électromagnétiques : l'électron ralentirait, son enveloppe augmenterait et se stabiliserait lorsque l'atome aurait atteint sa taille «normale». De même, un atome d'hydrogène hypothétique 100 fois plus grand qu'un atome normal ne serait pas stable. Pour le fabriquer, il faudrait éloigner l'électron du noyau, et donc lui apporter de l'énergie, de façon à contrecarrer l'attraction électrostatique. Pour évoluer vers un état de moindre énergie, ce gros atome d'hydrogène perdrait très vite de l'énergie et reprendrait rapidement sa taille normale. En bref, c'est la relation d'incertitude entre la position et la vitesse des électrons qui détermine la taille des atomes.
Plus précisément, ce n'est pas la vitesse, mais la quantité de mouvement qui intervient dans la relation d'incertitude de Heisenberg. La quantité de mouvement est égale au produit de la vitesse par la masse. Pour cette raison, la taille de l'enveloppe électronique dépend directement de la masse de l'électron. La taille des atomes est donc déterminée par la masse de l'infime grain d'électricité élémentaire. Si cette masse était 100 fois plus petite que celle que l'on observe dans la nature, les atomes seraient tous 100 fois plus grands! Si elle était 10 000 fois plus grande, le diamètre de l'enveloppe de l'atome serait alors si petit qu'il serait égal à quelque dix fois le diamètre du noyau.
Ainsi, le comportement quantique des électrons impose la taille universelle des atomes. Impose-t-il aussi la taille des noyaux? Celle des électrons? Dès qu'ils ont commencé à mieux comprendre la constitution des atomes, les physiciens ont voulu répondre à ces questions. Ils sont alors entrés dans le domaine de la physique des particules. Malgré l'énorme travail d'exploration accompli, ces questions restent ouvertes.
Pour comprendre pourquoi, examinons ce que les physiciens ont découvert du monde subnucléaire en commençant par les noyaux atomiques. Ces derniers représentent la plus grande partie de la masse atomique. Dans le cas de l'hydrogène, par exemple, le noyau est 1 840 fois plus lourd que l'électron. Le noyau de l'hydrogène est constitué d'une unique particule : le proton. Ceux des autres atomes contiennent tous des protons et des neutrons, des particules neutres dont la masse est comparable à celle des protons. Protons et neutrons sont apparentés, car ils sont soumis à l'interaction forte, force qui diffère de l'interaction électromagnétique (attraction électrique) laquelle s'exerce entre protons et électrons. Beaucoup plus intense, elle ne porte qu'à très courte distance : 10–15 mètre seulement! Pour évaluer cette portée, les physiciens ont mesuré le diamètre des protons et des neutrons du noyau, qu'ils nomment nucléons. Pour cela, ils bombardent des noyaux avec des électrons, dont ils étudient la déviation. Ils ont ainsi montré que la charge électrique positive du proton n'est pas concentrée en un point, mais qu'elle se répartit sur une sphère d'environ 10–15 mètre de diamètre.
À la fin du xixe siècle, les physiciens constatèrent que certains éléments naturels sont instables et que leur noyau émet un rayonnement ou des particules : ils sont radioactifs. Bombardés avec des nucléons, les noyaux réagissent et se transforment en nouveaux noyaux. En 1938, Otto Hahn (1879-1968) découvrit le premier noyau (l'uranium 23) capable de se fragmenter. L'étude de ce phénomène de fission nucléaire et celle de nombreuses réactions nucléaires révélèrent de nouvelles particules.
Un bestiaire de dizaines de nouvelles particules
Les découvertes furent si nombreuses qu'à la fin des années 1950 un bestiaire de dizaines de particules différentes issues de réactions nucléaires encombrait l'esprit des physiciens. Il fallait mettre de l'ordre. Comment faire, sinon en regardant à une échelle encore plus petite? Les physiciens ont constaté qu'ils pouvaient décrire simplement les nucléons ainsi que les particules des réactions nucléaires, s'ils admettaient qu'ils sont formés de trois constituants : les quarks. Deux types de quarks différents, désignés par les symboles u (up) et d (down), sont nécessaires pour constituer les protons et les neutrons. Un proton est composé de deux quarks u et d'un quark d, ce que les physiciens notent en écrivant p = (uud). Dans le neutron, les rôles de u et de d sont inversés : n = (ddu).
Les charges électriques des quarks présentent un intérêt particulier, car elles ne sont pas des multiples entiers de la charge +e du proton (opposée à la charge élémentaire –e de l'électron). Ainsi, le quark u porte une charge égale à 2/3 de la charge du positon, le quark d à un tiers de la charge de l'électron. Les charges des nucléons étant la somme de celles des quarks, la charge du proton est égale à 2e/3 + 2e/3 – e/3, c'est-à-dire e, et celle du neutron: 2e/3 – e/3 – e/3, c'est-à-dire 0. En fait, les charges des quarks du neutron s'équilibrent électriquement.
Au début, les physiciens supposèrent que les quarks n'étaient pas de véritables éléments constitutifs des nucléons, mais plutôt une sorte d'astuce d'écriture. Jusqu'à l'hypothèse des quarks, toutes les charges électriques observées étaient des multiples entiers de la charge e. Les physiciens considéraient que la charge de l'électron était élémentaire (la plus petite possible), et ils ne virent donc d'abord dans les quarks et leurs charges fractionnaires (2e/3, e/3, etc.) que des concepts pratiques pour décrire efficacement les particules et leur organisation. Toutefois, des expériences montrèrent bientôt que des «objets» se trouvent effectivement à l'intérieur des nucléons. Au slac, le grand accélérateur de particules de l'université de Stanford, on bombarda des noyaux atomiques avec des électrons préalablement accélérés jusqu'à une vitesse proche de celle de la lumière. On observa que la plupart des électrons n'étaient guère déviés de leur trajectoire, mais quelques-uns l'étaient très fortement. Ces constatations faites, les physiciens durent se rendre à l'évidence : toute se passe comme si les électrons subissaient parfois, quand ils traversent de la matière nucléaire, un choc frontal avec un objet ponctuel électriquement chargé. L'analyse fine de ces expériences révéla que ces «objets» portent des charges électriques fractionnaires égales à 2e/3 et de –e/3. Il s'agissait bien de quarks, des particules apparemment «infiniment» petites!
Les collisions entre les électrons et les quarks devaient être extrêmement violentes. Malgré cela, on ne détecta aucun quark pas parmi les «débris», les particules issues de la collision. Il en est ainsi dans tous les chocs qui mettent en jeu des quarks. Manifestement, les forces de liaison entre quarks sont telles qu'ils sont inséparables! Quelle est la nature de forces capables d'un tel prodige?
Les physiciens des particules ne parlent pas de forces, mais plutôt d'interactions. Pour unir les concepts de la physique quantique et ceux de la relativité, ils ont dû créer une nouvelle théorie quantique : la théorie des champs. Dans ce cadre, toutes les forces qui existent dans la nature sont décrites par des échanges de particules dites médiatrices. L'existence d'une force entre quarks découle de l'échange permanent de particules médiatrices. L'importance de cette force résulte de l'intensité de l'interaction entre la particule intermédiaire et la particule massive ou chargée avec laquelle elle interagit. La première des théories des champs fut l'électrodynamique quantique, qui décrit les phénomènes électromagnétiques. Les forces qui résultent de l'interaction électromagnétique correspondent à des échanges de photons. Les forces nucléaires qui lient les protons aux neutrons du noyau, correspondent à l'échange de particules médiatrices entre quarks : les gluons (ainsi nommés parce qu'ils collent fortement les quarks les uns aux autres). Il en est de même pour les interactions faibles (bosons W et Z) et la gravitation (gravitons).
Or dans le cadre de la théorie des champs, les interactions entre particules médiatrices et particules de matière ont une particularité : elles sont «locales», c'est-à-dire qu'elles restent confinées dans un volume infiniment petit (un point!). Ainsi, puisque la théorie des champs est fondée sur la notion d'interactions locales, l'infiniment petit y est omniprésent. L'électrodynamique quantique est devenue la plus précise des théories jamais élaborées. Elle décrit les interactions électromagnétiques avec une précision extrême. Avant d'arriver à ce succès sans précédent, les physiciens ont dû parcourir un long chemin.
L'antiparticule de l'électron
Le succès de l'électrodynamique quantique n'aurait pas été possible si l'on n'avait introduit (et découvert) une particule supplémentaire: l'antiparticule de l'électron ou positon. Les positons ont la même masse que l'électron et une charge opposée. Ils n'existent pas dans la nature, mais sont faciles à obtenir au sein des accélérateurs lors de collisions de particules. Ainsi, la collision de deux photons produit une paire électron-positon, quand l'énergie mise en jeu est assez grande. Le fait que cette collision entre particules sans masse (photons) produise des particules massives est une illustration de plus de l'équivalence entre l'énergie et la masse découverte par Albert Einstein au début du xxe siècle. Comme en chimie, les réactions entre particules peuvent se produire dans les deux sens. Ainsi, lorsqu'un positon et un électron se rencontrent, ils s'annihilent en produisant deux photons.
L'électrodynamique quantique suppose que tous les électrons, positons et autres photons n'ont aucune structure interne. Dans cette théorie, un électron, par exemple, est une particule ponctuelle, massive et chargée électriquement capable de participer aux interactions électromagnétiques. L'électron réel, c'est-à-dire celui qui est observable dans les expériences, diffère toutefois de cet «électron théorique», car un nuage de «particules virtuelles» l'entoure. Consé- quence de la relation d'incertitude de Heisenberg, le «vide quantique» (celui que décrivent les théories quantiques) n'est pas vraiment ... vide. L'énergie peut y fluctuer, ce qui rend possible la création erratique de particules, ou plus exactement de paires particule-antiparticule. Qualifiées de virtuelles par les physiciens parce qu'elles ne peuvent pas être observées dans les accélérateurs, ces paires (par exemple électron-positon) ont une «durée de vie» très brève et n'existent que dans une zone réduite. Sans influence sur les événements macroscopiques, elles altèrent toutefois l'environnement des électrons : supposons que nous amenions un électron réel en un point donné de l'espace. Chargé négativement, il repousse tous les électrons virtuels présents dans son environnement et attire les positons virtuels. Il finit par s'annihiler avec l'un d'eux. Resté seul, l'électron virtuel initialement apparié au positon (virtuel) tout juste annihilé devient réel et prend la place de l'électron d'origine (voir la figure 5). Pour un observateur extérieur (supposé suffisamment petit pour examiner une particule ponctuelle!), la trajectoire de l'électron prend une apparence étrange. Il semble disparaître sans cesse pour réapparaître instantanément ailleurs (en fait, c'est l'électron virtuel devenu réel qui réapparaît). La trajectoire de l'électron semble floue à l'observateur : un nouvel exemple concret d'incertitude sur la position au sens de Heisenberg.
Les physiciens nomment polarisation du vide cette création permanente de paires électrons-positons. Le fait que les positons virtuels prédominent au voisinage de l'électron crée une sorte de nuage de charges positives autour de la charge négative de l'électron. Ainsi cette dernière est quelque peu masquée par le nuage de particules virtuelles qui l'entoure, ce qui l'affaiblit. On ne peut observer des électrons ponctuels, et l'on dit qu'ils sont «habillés» d'un nuage de particules positives. Les physiciens ont mesuré que la polarisation du vide commence à se manifester autour d'un électron à une distance de l'ordre du dixième de la taille d'un atome. Les électrons «habillés» sont les seuls qui soient observables en pratique. Ainsi, l'électrodynamique quantique suppose des électrons infiniment petits, mais elle prédit aussi qu'ils ne peuvent être observés!
Quand les calculs mènent à un résultat infini
À la fin des années 1940, les physiciens ont calculé la charge de l'électron nu en prenant en compte les effets de la polarisation du vide. Ils ont eu une mauvaise surprise : les calculs mènent à un résultat infini. Ce n'est pas tout : par cette méthode, la masse de l'électron nu est également infinie! Manifestement, ces résultats absurdes sont engendrés par le caractère ponctuel, donc infiniment petit, de l'électron nu. Rappelons que l'équivalence entre l'énergie et la masse nécessite que le champ électrique d'un électron contribue à la masse, puisque la présence d'un champ électrique dans l'espace implique celle d'une densité d'énergie. Puisque, dans le cadre de l'électrodynamique quantique, l'électron est ponctuel, le champ électrique devient très intense aux très courtes distances (il varie comme l'inverse du carré de la distance). À tel point que les calculs le montrent, sa contribution à la masse est infinie.
L'électrodynamique quantique fondée sur l'hypothèse d'électrons nus ponctuels et en interaction locale aboutit à un paradoxe. Cette hypothèse est-elle erronée? L'électron nu présente-t-il une structure interne, laquelle ne devient perceptible que pour de très petites distances, 10–20 mètre par exemple. S'il en est ainsi, cette particule n'est pas infiniment petite, mais a un rayon fini. Les calculs montrent alors que les valeurs infinies disparaissent. Toutefois, malgré d'intenses efforts, les physiciens n'ont jamais décelé de preuve expérimentale de l'existence d'une sous-structure électronique. Seul résultat obtenu : si le rayon de l'électron n'est pas nul, il est nécessairement inférieur au centième de la taille des nucléons.
Dans les années 1950, la situation restait paradoxale. L'hypothèse de l'électron nu ponctuel faisait vaciller une théorie par ailleurs prometteuse. Certains des résultats obtenus étaient précis, d'autres infinis. La description globale des interactions électromagnétiques donnée par l'électrody- namique quantique était correcte. Les physiciens ont alors tenté de séparer le bon grain de l'ivraie, c'est-à-dire d'éliminer les résultats infinis des calculs. Pour ce faire, ils ont ajusté la charge de l'électron habillé au résultat trouvé expérimentalement, en ignorant tout simplement la charge de l'électron nu. Ils firent de même pour la masse de l'électron habillé, imposant ainsi la masse mesurée. Nommée renormalisation, cette méthode est d'une étonnante efficacité : les quantités infinies sont éliminées et les résultats obtenus pour les grandeurs physiques mesurables sont les plus précises jamais obtenues.
L'un des pères de la renormalisation fut le physicien américain Richard Feynmann. Lors d'un congrès aux États-Unis, il montra pour la première fois comment la méthode élimine les infinis qui apparaissent dans les calculs de la théorie de l'électrodynamique quantique. Ce progrès fit de l'électrodynamique quantique la plus précise des théories.
Les problèmes d'infinis dans les théories locales (interactions ponctuelles mettant en jeu des particules ponctuelles) se rencontrent dans d'autres théories que l'électrodynamique quantique. Ainsi, les interactions entre quarks sont décrites dans le cadre d'une théorie similaire à l'électrodynamique : la chromodynamique quantique. Cette théorie décrit l'interaction forte, laquelle provoque, notamment, l'assemblage des quarks par groupes de trois. Elle tire son nom du grec chromos qui signifie couleur, car on attribue aux quarks, par exemple au quark u, un nouveau type de charge, dénommée couleur, qui ne peut prendre que trois valeurs : rouge, vert ou bleu. Il y a ainsi un quark u rouge, un vert et un bleu, comme il y a des quarks d rouges, verts ou bleus. Le fait qu'il y ait trois couleurs signifie que les nucléons sont composés de trois quarks. Nous avons déjà souligné que les interactions entre quarks sont véhiculées par des particules d'énergie nommées gluons, les «médiatrices» de l'interaction forte (si intense qu'il est impossible de séparer les quarks). Pour observer les quarks et les gluons, les physiciens ont été obligés de recourir à des méthodes indirectes : ils les ont bombardés avec des particules insensibles aux interactions fortes, des électrons, des neutrinos ou des photons. L'existence des gluons a été prouvée pour la première fois au synchrotron allemand de Hambourg (desy), à la fin des années 1970.
Pas de structure interne dans les quarks
Dans la théorie actuelle, les quarks et les électrons sont des particules élémentaires, c'est-à-dire qu'ils n'ont pas de structures internes. Comme dans le cas des électrons, les physiciens ont essayé de trouver une sous-structure pour les quarks, mais sans succès jusqu'à aujourd'hui. Une limite supérieure pour le rayon d'une éventuelle sous-structure de quarks a été obtenue au grand accélérateur de particules lep du cern, à Genève, mais aussi avec le synchrotron desy et le Tevatron, l'accélérateur du laboratoire américain Fermilab, à Chicago. Elle est du même ordre de grandeur que celle des électrons : 10–18 mètre.
L'électrodynamique et la chromodynamique constituent deux des trois pans de la théorie générale des particules acceptée aujourd'hui : le modèle standard. Cette théorie a fourni un cadre théorique cohérent, où l'on parvient à décrire toutes les interactions des particules élémentaires. Outre l'électron, il existe dans la nature cinq autres particules apparemment sans structure interne et qui ne sont pas soumises aux interactions fortes : le muon, le tau, le neutrino électronique, le neutrino muonique et le neutrino tau. Ce sont toutes des leptons ou des particules proches des leptons. L'électron est le plus léger des leptons électriquement chargés. Un autre lepton chargé est le muon, une sorte de gros électron dont la masse est environ 207 fois supérieure à celle de l'électron. Le tau est un lepton chargé dont la masse est 3 536 fois celle de l'électron. Le muon et le tau sont instables et se décomposent rapidement après leur production lors de collisions entre particules. Nous les avons déjà citées : trois particules électriquement neutres sont associées aux leptons chargés électriquement : les neutrinos (neutrino électronique, neutrino muon, neutrino tau). Dans le modèle standard, les neutrinos sont supposés sans masse (mais des expériences japonaises récentes leur en attribuent une). Il existe trois paires de leptons, chacune constituée d'une particule chargée et d'un neutrino.
Il existe six quarks différents
Si la chromodynamique quantique décrit la matière nucléaire (assemblage de nucléons) à partir des quarks u et d, il existe en fait quatre autres types de quarks. Ils sont désignés par les lettres s (quark étrange, strange en anglais), c (quark charme), b (pour bottom, qui signifie bas en anglais) et t (pour top, haut en anglais). Les physiciens les notent en général par paires de masses comparables. Les quarks (c,s) et (t,b) sont créés lors de la production de particules plus lourdes que les nucléons. À l'instar du muon ou du tau, ils sont instables, ce qui provoque la désintégration rapide des particules qu'ils constituent. La valeur de leurs masses laisse les physiciens perplexes : tandis que celle des quarks u et d sont quasi nulles, celle du quark t est proche de la masse du noyau atomique de l'or. Un noyau qui contient pas moins de 197 nucléons! On peut regrouper en trois paires les six leptons et quarks : si nous regroupons chaque paire de leptons avec une paire de quarks, nous obtenons trois familles lepton-quark. La première, la famille constituée par les quarks u et d, l'électron et son neutrino, contient tous les constituants de la matière atomique. Les quarks de la troisième famille t et b, et surtout le tau, sont les objets les plus lourds du modèle standard.
En fait, l'existence de l'interaction faible impose à elle seule le regroupement des leptons et des quarks par familles. Celle-ci est responsable de la désintégration radioactive (dite bêta) des noyaux atomiques. Comme les autres forces, l'interaction faible est due aussi à l'échange de particules médiatrices, les particules W et Z. À la différence des photons et des gluons de l'interaction forte, les particules médiatrices de l'interaction faible ont une masse élevée : près de 100 000 gigaélectronvolts (un gigaélectronvolt est égal à un milliard d'électronvolts). La force faible, véhiculée par les particules W agit à l'intérieur des paires de leptons et de quarks décrites. Lors de la désintégration radioactive d'un noyau atomique, par exemple, un quark d est changé en quark u ; un électron et un neutrino sont produits simultanément. Les interactions électromagnétiques faibles peuvent être réunies dans le cadre d'une théorie unifiée, appelée théorie des interactions électrofaibles. Le modèle standard actuel des particules élémentaires est donc la synthèse des théories des interactions électrofaibles et des interactions fortes.
Cette théorie décrit bien les particules de notre monde et leurs interactions (l'interaction gravitationnelle reste à part). Par cette théorie, on évalue bien les masses des principaux constituants de la matière, les nucléons d'après celles de leurs constituants. Ainsi, la masse du neutron et celle, identique du proton correspondent à la somme des masses de leurs quarks internes et de l'énergie cinétique des gluons qu'ils échangent (un nouvel exemple d'équivalence masse-énergie au sens d'Einstein).
Reste une question ouverte : quelle est l'origine des masses des leptons et des quarks? Malheureusement le modèle standard n'apporte pas de réponse. Pour les introduire dans la théorie en tant que paramètres, les physiciens font appel à un subterfuge : ils introduisent une particule hypothétique, dont l'unique fonction est de conférer leurs masses à ces particules. Il s'agit du boson de Higgs, une particule ainsi nommée d'après Peter Higgs, le théoricien qui la proposa. Le boson de Higgs a une masse si grande que les collisions hypothétiques qui pourraient le produire n'ont pu être réalisées. Toutefois, les énergies nécessaires seront disponibles dès que le grand accélérateur lhc du cern, actuellement en construction, fonctionnera, dès 2005. On devrait alors savoir si le boson de Higgs existe ou si la masse des constituants élémentaires a une autre origine.
Ainsi va la physique de l'infiniment petit. Au début du xxe siècle, on a observé le spectre des états d'énergie de l'électron de l'hydrogène. Bien qu'il ait une structure simple, on ne sut l'expliquer avant l'avènement de la théorie quantique. Aujourd'hui, c'est le spectre des leptons et des quarks que les physiciens cherchent à expliquer. Dans cette science de l'infiniment petit, les progrès naissent le plus souvent d'expériences qui nous livrent de nouvelles structures simples, mais inattendues. Rien de ce genre ne s'est produit au cours des dernières années. Les arguments en faveur des leptons et des quarks du modèle standard sont-ils satisfaisants? Ces particules sont ponctuelles et représentent des singularités dans l'espace. Des particules infiniment petites peuvent-elles avoir une masse? Si oui, pourquoi la masse du muon est-elle 207 fois supérieure à celle de l'électron, bien que par ailleurs ces deux types de particules soient indiscernables. Peut-être serons-nous, un jour, contraints de renoncer au concept de particules ponctuelles. On peut supposer que les masses des leptons et des quarks résultent d'une substructure de ces particules, comme c'est le cas pour le proton. Peut-être obtiendra-t-on de nouveaux indices sur les constituants des leptons et des quarks grâce aux expériences futures réalisées dans les grands accélérateurs.
Perfectionner le modèle standard
Une autre raison incite les physiciens à perfectionner le modèle standard : ils voudraient ajouter la gravitation aux trois interactions – électromagnétique, faible et forte – qu'il décrit déjà. En fait, deux conceptions s'opposent : d'un côté, le modèle standard avec ses théories quantiques et ses interactions locales entre particules ponctuelles et, de l'autre, la relativité générale, où la gravitation résulte d'une déformation de l'espace-temps. Que faire? Considérer la relativité générale telle que nous la connaissons comme la théorie classique d'une théorie quantique, plus générale, la gravitation quantique (qui resterait à élaborer)? Une théorie quantique de la gravitation serait en même temps une théorie quantique de l'espace et du temps. Or, le modèle standard et la plupart des théories physiques sont bâties sur l'espace et sur le temps, et toute modification des fondations risquerait de les faire vaciller. Néanmoins, aux petites distances (inférieures à 10–35 mètre), les incertitudes dues à la théorie quantique perturbent vraisemblablement la structure de l'espace-temps. Si un électron est réellement une singularité de l'espace-temps avec une masse (une particule infiniment petite), cette singularité devrait disparaître à cette échelle. À quoi ressemble alors un électron? On l'ignore.
Selon certains théoriciens, les leptons et les quarks sont des manifestations de minuscules objets uni- dimensionnels, les «supercordes». Sortes de petites structures en forme de fils, les supercordes seraient moins singulières qu'un point. Or, la formulation de la gravitation quantique semble moins ardue dans le cadre d'une théorie des supercordes. On devrait alors supposer que l'espace-temps décrit à l'aide de quatre dimensions (trois d'espace et une de temps) acquiert dix dimensions supplémentaires. Cela semble a priori contredire nos observations, mais seules quatre des dix dimensions auraient des effets macroscopiques ; les autres ne seraient perceptibles qu'à petite distance, et y rendraient la gravitation plus intense. Prenons une image : si nous enroulons une feuille de papier sous forme de cylindre, elle ressemble, vue de loin, à une droite à une dimension. La deuxième dimension, celle qui permet de tourner autour du cylindre, n'est perçue qu'à courte distance. Ainsi en va-t-il des dimensions cachées de l'Univers : elle sont peut-être là, mais si petites que nous ne les voyons pas.
Si notre espace possède effectivement d'autres dimensions à petite échelle, elles pourraient être mises en relation avec certains phénomènes observés par les physiciens des particules. Ainsi, on ignore encore pourquoi la nature semble apprécier le chiffre trois : il y a trois dimensions d'espaces, mais aussi trois familles de leptons, trois familles de quarks, ces derniers ont trois couleurs… Le rôle particulier du chiffre 3 découle peut-être des dimensions cachées et leur nombre. En d'autres termes, peut-être existe-t-il une explication géométrique de ces structures fondamentales du modèle standard. Peut-être réaliserons-nous que les leptons et les quarks ne sont pas ponctuels ; peut-être comprendrons-nous aussi pourquoi leurs masses ont certaines valeurs? Pour le moment, le mystère demeure, mais Bertolt Brecht n'a-t-il pas écrit, en 1921, dans son Journal : «Là où il n'y a pas de mystère, il n'y a pas de vérité»?
Harald Fritzsch est professeur de physique théorique à l'Université de Munich.
Références
Harald Fritzsch et Zhi-zhong Xing, Neutrino Mixing and Maximal cp Violation, Acta Phys. Polon. B31:1349-1364, 2000.
Harald Fritzsch et Zhi-zhong Xing, Mass and Flavor Mixing Schemes of Quarks and Leptons, in Prog. Part. Nucl. Phys., 45:1-81, 2000.
Harald Fritzsch, An Equation that Changed the World : Newton, Einstein, and the Theory of Relativity, University of Chicago Press, 1994.
Harald Fritzsch, Quarks. Urstoff unserer Welt, Piper, 1992.
Harald Fritzsch, Vom Urknall zum Zerfall. Die Welt zwischen Anfang und Ende, Piper, 1999.