Les théories de jauges et la découverte des bosons faibles

 

Table des matières

 

0) Introduction

1)Les symétries de jauge : De Maxwell à Yang-Mills (par Christian Boudreault)

1.1)Les équations de Maxwell

1.2)Relativité générale et théorie de jauge de Weyl

1.3)Théorie de jauge en mécanique quantique

1.4)Une nouvelle invariance de jauge globale : l’isospin hadronique

1.5)Invariance de phase locale non-abélienne : Théorie Yang-Mills

1.6)Vers la redécouverte finale de la théorie de jauge

2)Théories de jauge et unification électrofaible (par Jean-Philippe Longpré)

2.1)Approche géométrique d’une théorie de jauge

2.2)Traitement quantitatif d’une transformation de jauge locale

2.3)Brisure spontanée d’une symétrie de jauge

2.4)Unification électrofaible : Modèle de Weinberg-Salam

2.5)Conclusion

3) Les accélérateurs de particules, à la découverte des bosons W+ et Zo (par Guy-Philippe Gélinas)

3.1)Introduction

3.2) Comment produire des bosons ?

3.3) L’histoire du CERN

3.4) Les autres laboratoires

3.5) Comment fonctionnent les accélérateurs ?

3.6) Différents types d’accélérateurs

3.7) Comment génère-t-on de la matière et de l’antimatière dans les accélérateurs ?

4)Détecteurs de bosons W et Z (par Alexandre Vallée)

4.1) Désintégrations de W et Z

4.2) Énergie des sous-produits de désintégration

4.3) Types de détecteurs

4.3.1) Mesure de la position

4.3.2) Mesure du momentum

4.4) L’expérience

5) Conclusion

 

  1. Introduction

Les concepts qui seront développés dans la présente discussion prendrons forme autour de quatre sujets principaux dans le but de mettre en valeur un contexte tant historique qu’expérimental, c’est-à-dire de présenter les théories, les fondements, ainsi que les appareils dont le développement a contribué, de près ou de loin, à construire un cadre à l’intérieur duquel il serait possible de postuler, puis éventuellement de fournir une preuve de l’existence des bosons faibles. Pour ce faire, nous introduirons tout d’abord le contexte qui mena à la découverte de l’invariance de jauge, notamment en considérant les travaux sur l’électromagnétisme de Maxwell, certaines structures de la théorie de la relativité générale et le rôle qu’a joué Weyl dans la mise en évidence des principes fondamentaux d’une théorie de jauge. Nous aborderons ensuite la théorie de Yang-Mills pour souligner son importance au niveau conceptuel, puis nous décrirons la contribution de Fermi par le biais de la théorie V-A des interactions faibles en mentionnant les limites lui étant inhérentes. Cela nous amènera à présenter une approche plus quantitative de certains aspects d’une théorie de jauge, tout en mettant l’emphase sur l’importance du mécanisme de brisure de symétrie spontanée de Higgs relativement à la théorie unifiée de Weinberg-Salam. Cette dernière fournira les motifs sous-tendant l’implantation de projets ayant pour but la détection des bosons mentionnés plus haut. Nous verrons que la production des bosons fut observée à partir de certaines attentes théoriques et ces dernières ont pu favoriser la construction d’appareils d’accélération, d’accumulation et de détection ainsi que l’élaboration de cycles précis de différentes particules données, qui furent principalement développés au CERN, un laboratoire très important pour la découverte des bosons. Les schémas des réactions, illustrant les processus de transformation des particules rencontrées, et les appareils de détection qui sont conçus en conséquence des caractéristiques de désintégration des bosons feront aussi l’objet de cette discussion.

 

INTRODUCTION HISTORIQUE – LES SYMÉTRIES DE JAUGE

1. Les symétries de jauge : De Maxwell à Yang – Mills

 

1.1 Les équations de Maxwell[1]

 

L’invariance de jauge, au cœur des théories actuelles des interactions fondamentales, est apparu comme une symétrie de la théorie classique de l’électromagnétisme de Maxwell. Avant les travaux de Maxwell, les équations de l’électromagnétisme dans le vide avaient la forme suivante :

                                           (Loi de Gauss)                                                                                       (1.1)

                                     (Loi de Faraday-Lenz)                                                                             (1.2)

                                            (Pas de charge magnétique isolée)                                                             (1.3)

 

                                           (Loi d’Ampère)                                                                                      (1.4)

 

                                    (Loi de continuité de la charge électrique)                                                   (1.5)

Maxwell avait remarqué que la divergence de l’équation d’Ampère (1.4) menait à une incohérence avec l’équation de continuité (1.5), puisqu’elle impliquait

                                                                                                                   (1.6)

qui n’est vérifié que dans le cas où la densité de charge ρ est constante dans le temps. En 1864, Maxwell modifia (1.4) de façon à ce que la divergence de (1.4’) donne directement (1.5) :

                                                                                                         (1.4’)

Les équations (1.1), (1.2), (1.3) et (1.4’) sont les équations de Maxwell. Or, l’équation de continuité (1.5) indique que le taux de variation de la charge dans un volume Ω arbitraire est dû seulement et précisément au flux de courant à travers la surface de Ω. Le point important ici est que Ω peut être aussi petit que désiré, ce qui revient à dire que la charge doit être conservée localement : aucun processus au cours duquel une charge est créée en un point alors qu’une autre est détruite en un point distant ne peut se produire, malgré que la charge soit conservée globalement dans un tel processus. Le terme de « courant de déplacement » introduit par Maxwell résulte donc de la nécessité d’une conservation locale de la charge.

Penchons nous maintenant sur une symétrie des équations de Maxwell : l’invariance de jauge. Il était connu depuis longtemps qu’en électrostatique, le champ électrique E pouvait être exprimé comme le gradient d’un potentiel scalaire électrique V et que V était défini modulo une constante φ arbitraire, puisqu’il n’entrait dans les équations de la dynamique que par l’intermédiaire d’une dérivée du premier ordre (Ñφ = 0) ; l’électrostatique est invariante sous une transformation globale du potentiel V.


Les équations de Maxwell, quant à elles, sont invariantes sous la transformation locale de leurs potentiels, ainsi définis :

                                                                                                                 (1.7)

                                                                                                                            (1.8)

Les équations (1.2) et (1.3) sont automatiquement satisfaites par (1.7) et (1.8). Puisque Ñ´Ñχ º 0  , le champ B est inchangé par la transformation locale de A :

                                                                                                     (1.9)

Pour préserver E, il est évident que V doit subir la transformation

                                                                                                     (1.10)

On peut interpréter les équations (1.9) et (1.10) comme exprimant le fait qu’un changement local du potentiel électrostatique V peut être compensé par un changement local correspondant du potentiel vecteur magnétique A ; ainsi, le couplage des effets magnétiques aux effets électriques permet d’étendre la symétrie de jauge globale en V à une symétrie de jauge locale.

            Nous faisons ici une brève digression pour montrer comment l’argument pourrait être inversé afin d’obtenir les équations de Maxwell à partir du postulat d’invariance de jauge locale d’un potentiel hypothétique. De toute évidence, la relativité restreinte devra jouer un rôle puisqu’elle couple elle aussi électricité et magnétisme, du fait qu’elle explique les effets magnétiques comme une conséquence du mouvement de charges électriques par rapport à l’observateur. Nous postulons donc un quadri-potentiel Aμ º (X,Y) et nous imposons qu’il soit impliqué dans la théorie à travers des termes qui laisseront la théorie invariante sous la transformation

                                                                                             (1.11)

μ = (/t,–Ñ). Ceci nous amène directement à conclure que Aμ n’entre dans la théorie que via la quantité suivante :

                                                                                                 (1.12)

qui est invariante sous la transformation (1.11). Si nous définissons un nouveau quadri-vecteur jμ comme ceci :

                                                                                                               (1.13)

nous obtenons immédiatement la relation suivante :

                                                                                                                  (1.14)

L’équation (1.14) est une équation de continuité que nous pouvons identifier à la loi de conservation locale de la charge électrique (1.5) par la relation simple

                                                                                                               (1.15)

Dès lors, sur la base de la covariance de Lorentz, on pourrait conjecturer l’équivalence entre X et le potentiel scalaire électrique V, de même qu’entre Y et le potentiel vecteur magnétique A, définis en (1.7) et (1.8). Avant 1919 cependant, année où Hermann Weyl proposa une conception révolutionnaire de l’invariance de jauge comme principe dynamique, la symétrie des équations de Maxwell n’était considérée que comme un accident utile pour résoudre certains problèmes où le choix d’une jauge appropriée simplifiait grandement les calculs.

 

1.2 Relativité générale et théorie de jauge de Weyl

 

La relativité restreinte (« Sur l’électrodynamique des corps en mouvement », 1905) et la relativité générale (« Les fondations de la théorie générale de la relativité », 1916) reposent sur le postulat qu’il n’existe pas dans l’univers de référentiel absolu. Le mouvement d’un mobile doit donc être décrit par rapport à un système de référence et les lois de la physique doivent évidemment être indépendantes du choix particulier de référentiel. Dans le cadre de la relativité restreinte, un mobile en mouvement (uniforme) par rapport au référentiel S d’un observateur peut toujours être considéré au repos dans un référentiel S’ pouvant être relié à S par une transformation de Lorentz, qui ne dépend que de la vitesse relative entre S et S’ et non de leur position relative. Ainsi, le groupe de symétrie de Lorentz de la relativité restreinte est une symétrie globale. En relativité générale, toutefois, nous considérons un mobile immergé dans un champ gravitationnel. En vertu du Principe d’équivalence, il nous est loisible de relier un tel système à un repère accéléré Σ analogue à S’ par rapport auquel le mobile semble au repos, à la condition que Σ occupe une région où le champ gravitationnel peut être considéré uniforme. Autrement, l’accélération non uniforme due au champ ne saurait être compensée par l’accélération constante de Σ, à l’intérieur duquel s’établirait une force de marée. Ainsi, un mobile au point xμ d’un champ gravitationnel non uniforme semblera au repos dans un référentiel local Σ(xμ) de volume infinitésimal ; la relativité générale est une théorie locale.

            Le fait qu’un système de référence ne puisse être défini que localement dans un champ gravitationnel introduit le problème du lien entre les référentiels. Albert Einstein suggéra en 1916 une méthode pour relier deux référentiels dans un champ gravitationnel. Une collaboration avec le mathématicien Marcel Grossman l’avait amené à constater l’analogie profonde entre le Principe d’équivalence et l’axiome fondamental de la géométrie euclidienne selon Gauss, qui stipule qu’en chaque point d’une surface courbe il est possible d’ériger un système de coordonnées cartésien local à l’intérieur duquel les distances obéissent à la loi de Pythagore. Vers 1913, Einstein se proposa d’utiliser le formalisme de la géométrie riemannienne pour décrire les lois de la gravitation. Considérons une particule libre sous l’influence de forces gravitationnelles[2]. Selon le Principe d’équivalence, il existe un system de coordonnées en « chute libre » ξα dans lequel l’équation du mouvement de la particule est celle d’un déplacement uniforme dans l’espace-temps, c’est-à-dire

                                                                                                                  (1.16)

τ est le temps propre. Les coordonnées ξα peuvent être reliées à un système de référence xμ arbitraire par les relations

                                                                                                         (1.17)


 

et l’équation du mouvement (1.16) s’exprime dans ce référentiel comme

                                                                                                   (1.18)

 

                                                                                          (1.19)

où le symbole Γλμν est la connexion affine, définie par

                                                                                                   (1.20)

En géométrie riemannienne, un espace est décrit par un tenseur métrique gμν qui contient toute l’information sur la mesure d’un élément de distance ds dans cet espace :

                                                                                                    (1.21)

Autour de 1913, Einstein en vint à penser que le champ gravitationnel devait être identifié aux 10 composantes indépendantes du tenseur métrique de la géométrie d’espace-temps. Or, il s’avère possible d’exprimer la connexion affine (1.20) en terme du tenseur métrique seulement :

                                                                                      (1.22)

                                                                                                             (1.23)

Il est patent par (1.22) que la connexion affine est reliée à la géométrie d’un espace (ou à un champ gravitationnel) et qu’elle émerge dans (1.19) de la transformation « curviligne » entre ­ξα et xμ. Ainsi, la connexion affine est le lien recherché entre les référentiels de la théorie locale qu’est la relativité générale.

            En 1919 eut lieu la première observation expérimentale de la déviation de la lumière d’une étoile par le champ gravitationnel du soleil. Cette confirmation spectaculaire de la théorie de la relativité générale inspira Hermann Weyl, qui proposa la même année une conception révolutionnaire de l’invariance de jauge : « Si les effets d’un champ gravitationnel peuvent être décrits par une connexion exprimant l’orientation relative entre des référentiels locaux de l’espace-temps, d’autres forces de la nature telles que l’électromagnétisme peuvent-elles être associées aussi à des connexions similaires? »[3] Weyl suggéra que la norme d’un vecteur physique ne soit pas une quantité absolue, i.e. qu’elle dépende de la position d’espace-temps et que ses différentes valeurs soient reliées par une nouvelle connexion. Cette nouvelle propriété locale de symétrie de jauge fut nommée invariance d’échelle. Soit un vecteur de norme f(xμ) au point xμ ; au nouveau point xμ + dxμ, la norme au premier ordre sera

                                                                                    (1.23)

où nous notons μ º /xμ. Le changement de jauge sera représenté par le facteur d’échelle S(xμ), défini de telle sorte qu’il soit identiquement 1 à xμ.


À xμ + dxμ, le facteur d’échelle est donné au premier ordre par

                                                                            (1.24)

Sous la transformation locale, la nouvelle norme du vecteur au point xμ + dxμ sera

                                                                               (1.25)

La norme aura donc changé d’une quantité (μ + μS)f(xμ)dxμ. Le nouveau terme μS est la connexion mathématique associée au changement de jauge local. Sous un second changement de jauge Φ(xμ) analogue au premier, la nouvelle norme sera au premier ordre

                                                                              (1.26)

La connexion se transforme donc comme

                                                                                                   (1.27)

ce qui est analogue à la relation de transformation du potentiel électromagnétique (1.11), la forme contravariante des équations (1.9) et (1.10) :

                                                                                (1.28)

Weyl fut ainsi amené à identifier la connexion de jauge μS au potentiel électromagnétique Aμ et à présumer que l’électromagnétisme était invariant d’échelle. Toutefois, on fit remarquer que l’invariance d’échelle était incompatible avec certains faits physiques connus et Bergmann nota qu’elle était aussi en contradiction avec la théorie quantique, puisqu’une description ondulatoire de la matière défini une échelle naturelle pour une particule par sa longueur d’onde de Compton λ = h/mc. Puisque celle-ci ne dépend que de la masse m de la particule et non de sa position, elle discrédita l’hypothèse de Weyl sur l’invariance d’échelle de l’électromagnétisme. L’idée originale de Weyl d’une théorie fondée sur la connexion entre des jauges locales ne devait revivre qu’avec le développement de la mécanique quantique.

 

1.3 Théorie de jauge en mécanique quantique

 

Peu après la parution de la mécanique ondulatoire de Schrödinger en 1926, Fock (1927), London (1927) et Weyl (1929) comprirent que la théorie de jauge originale de Weyl pouvait revêtir une signification nouvelle dans le cadre de cette mécanique[4]. Ils réalisèrent que la phase absolue d’une fonction d’onde ψ ne peut être mesurée, car ψ n’intervient dans le processus de mesure d’une observable qu’à travers la distribution de probabilité |ψ|2. Seule la différence de phase δ entre deux fonctions d’onde ψ1 et ψ2 peut être connue par des expériences d’interférence, puisque l’intensité du patron d’interférence sera proportionnelle à |ψ|2 tel que

                                                                                                              (1.29)

                                                                                        (1.30)

Visiblement, les phases peuvent être modifiées par un facteur commun sans qu’aucun effet observable n’en résulte, ce qui précisément défini un principe d’invariance en mécanique quantique ; dans ce cas particulier, une invariance sous une transformation globale de la phase. Eu égard à la valeur fondamentale que semble avoir le passage d’une symétrie globale à une symétrie locale en électromagnétisme classique et en relativité générale, il était dès lors naturel de demander l’invariance locale sous une transformation de phase. La transformation

                                                                             (1.31)

ne préserve évidemment pas la forme l’équation de Schrödinger d’une particule libre (avec ħ = 1),

                                                                                                     (1.32)

car Ñ et /t opéreront différemment sur χ(x,t). Il nous faut modifier l’équation de Schrödinger afin de la rendre invariante sous une transformation locale de la phase, autrement dit, nous avons la liberté de modifier localement la phase de la fonction d’onde d’une particule libre à la condition d’introduire concurremment un champ de force dans lequel se déplacera la particule[5]. Il est raisonnable d’essayer comme premier candidat le champ électromagnétique (avec la gravitation, les deux interactions les mieux connues à l’époque de Weyl). Nous savons de la mécanique classique que l’hamiltonien suivant :

                                                                                                 (1.33)

permet de retrouver l’équation de force de Lorentz F = q(E + v ´ B), décrivant la dynamique d’une particule en mouvement dans un champ électromagnétique. Selon la prescription de Schrödinger (p® –iÑ), nous obtenons l’équation d’une particule dans un champ électromagnétique

                                                                                             (1.34)

ce qui correspond à la transformation suivante de (1.32) :

                                                                                                 (1.35)

Nous effectuons maintenant la transformation (1.9)–(1.10)–(1.31)

                                                                                                    (1.9)

                                                                                                     (1.10)

                                                                             (1.31)

pour vérifier qu’il s’agit d’une symétrie de la mécanique quantique de Schrödinger, et ipso facto que la théorie de Schrödinger est compatible avec l’électromagnétisme de Maxwell. On voit immédiatement que

                                                                           (1.36)

 

De même

                                                                                  (1.37)

 Nous pouvons généraliser directement (1.36) et (1.37) :

                                                                                                (1.38)

                                                                                                   (1.39)

où nous avons utilisé la notation (1.35). On trouve ainsi la relation recherchée

                                                                                          (1.40)

L’équation de Schrödinger d’une particule se déplaçant dans un champ électromagnétique est donc invariante sous la transformation locale de la phase ; la phase d’une fonction d’onde est bel et bien une nouvelle variable locale au sens de Weyl et le potentiel électromagnétique peut être interpréter, suivant Weyl, comme une connexion reliant les phases en différents points. Les objections contre la théorie originale de Weyl ne tiennent évidemment plus, car la phase n’est jamais impliquée directement dans la mesure de quantités physiques telles qu’une longueur[6]. Il est à noter cette invariance de jauge peut être rendue covariante de Lorentz en écrivant (1.35) comme

                                                                                              (1.41)

(1.9) et (1.10) comme

                                                                                             (1.42)

(1.38) et (1.39) comme

                                                                                (1.43)

Il s’ensuit immédiatement que l’équation de Klein-Gordon pour une particule de spin nul

                                                                                                     (1.44)

et l’équation de Dirac pour une particule de spin ½

                                                                                                    (1.45)

sont toutes deux invariantes sous la transformation de jauge locale (1.31)–(1.42). La relation (1.41) défini la dérivée covariante, qui s’avèrera être d’une importance capitale dans la généralisation de la symétrie de phase abélienne (commutative) de l’électrodynamique quantique en une symétrie de phase non abélienne, à la base des théories de jauge d’interactions faibles et fortes.


 

1.4 Une nouvelle invariance de jauge globale : l’isospin hadronique

 

Parmi les développements majeurs dans l’étude des forces nucléaires autour de 1930, nous en mentionnerons deux qui contribuèrent de façon décisive à l’élaboration de la théorie de jauge moderne :

  1. la très courte portée des interactions nucléaires ;
  2. l’indépendance entre l’interaction nucléaire et la charge électrique.

En 1935, Yuakawa suggéra qu’un nouveau quantum devait être introduit pour rendre compte des forces nucléaires forte et faible, et pour faire cas de leur courte portée, il proposa de remplacer le potentiel coulombien par le potentiel suivant :

                                                                                                             (1.46)

R º ħ/mc représente la portée du potentiel et m, la masse du quantum. Dans le cas d’une masse nulle, le nouveau potentiel se réduit évidemment au potentiel coulombien avec g = q/e. Le second point vient de l’observation que les forces des interactions nucléaires proton–proton, proton–neutron et neutron–neutron semblent toutes identiques, ce qui motiva Heisenberg à proposer en 1932 un nouveau principe de symétrie à travers le concept de spin isotopique ou isospin. Par analogie au spin de l’électron, il envisagea de considérer le proton et le neutron, du point de vue de la pure interaction forte (l’électromagnétisme étant interrompue et la gravitation, négligeable), comme deux états up et down de la même particule, le nucléon. Si l’interaction forte était aveugle à la charge électrique, donc à la différence entre la fonction d’onde ψp du proton et celle du neutron ψn, il était légitime de demander qu’une théorie de l’interaction forte soit invariante sous la transformation

                                                                                                       (1.47)

α, β, γ et δ sont des constantes complexes, ce qui fait de (1.47) une transformation globale :

                                                                                                                 (1.48)

                                                                                                         (1.49)

M est une matrice 2´2 complexe constante. Pour préserver la normalisation de la probabilité, Heisenberg imposa l’unitarité de M, soit

                                                                                                                      (1.50)

M­ est le conjugué hermitique de M. Ceci qui implique

                                                                 (1.51)

                                                                                                   (1.52)

θ est une constante réelle arbitraire. En posant

                                                                                                     (1.52’)

la matrice M devenait un élément du groupe de Lie SU(2), i.e. le groupe de toutes les matrice 2´2 unitaires et unimodulaires. De là, Heisenberg pouvait construire, en correspondance parfaite avec la théorie du moment angulaire, un groupe de rotation d’isospin SU(2) et en déduire la nouvelle loi de conservation d’isospin. Ceci laisse entrevoir le pouvoir prédictif des théories de jauge.

            Nous présentons maintenant quelques propriétés élémentaires des groupes de Lie pour montrer que la théorie d’isospin hadronique d’Heisenberg est une généralisation directe de l’invariance globale de phase de la mécanique quantique. L’effet d’un élément M d’un groupe de Lie peut toujours s’exprimer comme une transformation continue, c’est-à-dire comme une suite de transformations infinitésimales de l’identité

                                                                                      (1.53)

ξ est une matrice 2´2 dont les composantes sont du premier ordre. La condition (1.52’) impose donc, si l’on néglige les termes de second ordre

                                                                                       (1.54)

                                                                                                  (1.55)

ce qui laisse 6 composantes réelles indépendantes. La condition d’unitarité (1.50) est

                                                                                           (1.56)

que nous pouvons récrire comme

                                                                                   (1.57)

La prescription (1.50) est donc équivalente à

                                                                                          (1.58)

                                                                                                    (1.59)

ce qui en soi retranche 4 composantes indépendantes, mais n’en enlève ici que 3 sur les 6 laissées par (1.55). Ainsi, ξ est une matrice 2´2 hermitique (1.59) de trace nulle (1.55) , donc paramétrisée par 3 nombres réels a = (a1, a2, a3). En toute généralité, on peut écrire ξ comme

                                                                                                  (1.60)

où les composantes de σ sont les matrices de Pauli

                                                                  (1.61)

qui satisfont visiblement à (1.55) et (1.59) et à l’algèbre suivante

                                                                                        (1.62)

Le symbole εijk représente le tenseur de Levi-Civita. La relation (1.62) est l’algèbre de la représentation fondamentale du groupe SU(2) ou encore l’algèbre de Lie du groupe SU(2). La matrice de transformation finie (1.53) peut donc être exprimée comme

                                                                                            (1.63)

ou encore, avec a = θ/n, comme

                                                                                                   (1.64)

La transformation (1.49) s’écrit donc

                                                                                                (1.65)

Sous cette forme, il est manifeste que la transformation globale d’isospin est une généralisation directe de la transformation globale de phase de la mécanique quantique. Alors que cette dernière est générée par un élément du groupe abélien U(1), le groupe des matrices unitaires de rang 1, la transformation d’isospin est générée par un élément du groupe non-abélien SU(2) ; la non-commutativité du groupe SU(2) est évidente du fait que ses éléments obéissent aux relations (1.62).

            Nous terminons cette partie en étendant la notion de représentation de groupe[7]. Pour décrire les transformation de multiplets d’isospin de plus de deux dimensions, il est utile de trouver des matrices de dimension supérieure à celles de la représentation fondamentale, qui satisfont elles aussi à l’algèbre de Lie du groupe. Nous nous limiterons au groupe SU(2) pour lequel nous présenterons une méthode permettant de calculer les éléments de matrice du triplet irréductible d’opérateurs hermitiques dans un espace vectoriel V de dimension N. Le triplet d’opérateurs sera dit irréductible si aucun sous-espace V’ de V n’est invariant par l’action des trois opérateurs. Nous cherchons donc trois opérateurs hermitiques satisfaisant les relation de commutation du groupe SU(2)

                                                                                                        (1.66)

Définissons d’abord deux opérateurs S+ et S comme

                                                                                                            (1.67)

par (1.66), il est aisé d’obtenir les relations suivantes :

                                                                                                        (1.68)

Puisque S3 est hermitique, ses valeurs propres sont réelles et ses vecteurs propres sont orthogonaux. Soit {|mñ} une base orthonormée dans laquelle la représentation de S3 est diagonale :

                                                                                                                                              (1.69)

Alors, par (1.68)

                                                                                                     (1.70)

                                                                                                         (1.71)

                                                                                                                                                             (1.72)

où nous notons |m–1ñ est le vecteur proportionnel à S|mñ et dont la phase coïncide avec celle de S|mñ. La constante cm est alors réelle et positive. Soit j la plus grande valeur propre de S3 et |jñ le vecteur propre normé correspondant. Nous pouvons construire la suite |jñ, |j-1ñ, …, |mminñ telle que |mminñ ¹ 0 et cm min = 0. L’existence de |mminñ est assurée du fait qu’il ne peut y avoir plus de N vecteurs orthogonaux dans un espace vectoriel de dimension N. Avec (1.72), nous pouvons trouver un expression pour les éléments de matrice de S+ dans la base des vecteurs propres de S3 :

                                                                                        (1.73)

Ceci laisse entrevoir la relation

                                                                                                                                   (1.74)

que nous vérifions en montrant par induction que S+|mñ appartient à V quel que soit |mñ. Par (1.70), il est clair que S+|jñ s’annule (autrement il aurait une valeur propre j+1), et donc qu’il appartient à V. Pour tout autre m ¹ mmin, nous supposons que (1.74) est valide et nous trouvons

                                                                                                           (1.75)

qui appartient évidemment à V. Ceci complète la preuve et nous trouvons la relation suivante :

                                                                                                                                            (1.76)

cj+1 = 0, ce qui nous permet de résoudre l’équation (1.76) :

                                                                                                                                      (1.78)

Enfin, cm min = 0, ce qui implique cm min = –j. C’est dire que les valeurs de m sont comprises entre j et –j et qu’elles sont séparées d’une unité, donc au nombre de 2j+1 = N. N étant entier et positif, les valeurs de j sont positives et peuvent être entières ou demi-entières. Les éléments de matrices des opérateurs S3, S+ et S dans la base des vecteurs propres de S3 sont donnés par

                                                                                                                       (1.80)

Les relation (1.67) nous donnent, à partir de (1.80), les composantes de matrice des opérateurs S1 et S2 recherchés. La transformation des multiplets d’isospin de dimension 2j+1 est simplement obtenue en remplaçant dans (1.65) les générateurs 2´2 par leurs contreparties à (2j+1)´(2j+1) dimensions, et l’isospineur ψºψ(½) à deux composantes par le vecteur ψ(j) à 2j+1 composantes.

                                                                                                      (1.81)

La dimension de θ est naturellement ajustée en conséquence. Dans le cas du spin j = 1, qui aura une importance particulière dans le cadre de la théorie Yang–Mills, nous aurons trois matrices 3´3 dont les composantes peuvent être écrites succinctement

                                                                                                                                             (1.82)


 

1.5 Invariance de phase locale non-abélienne – Théorie Yang–Mills[8]

 

En 1954, C. N. Yang et R. Mills suggérèrent que l’interaction forte soit, à l’instar de l’électromagnétisme, une théorie de champ exactement invariante de jauge. Ils proposèrent pour cela d’utiliser le groupe SU(2) d’isospin comme groupe de jauge local. Cette idée était révolutionnaire, car elle ne pouvait laisser inchangé le concept essentiel de l’identité d’une particule : dans le cas du nucléon d’isospin ½ par exemple, s’il devient possible de redéfinir localement la phase d’isospin, d’aucun perd la liberté de parler d’un état up absolu et doit se restreindre à spécifier localement l’orientation up. Or, la symétrie avancée ici est une symétrie exacte, c’est-à-dire que du point de vue de la pure interaction forte, seul l’état d’isospin distingue le proton du neutron (la différence de masse est donc négligée, i.e. on envisage de l’expliquer comme un effet secondaire de la différence de charge électrique et non comme une asymétrie fondamentale entre les deux états).

            Puisque le choix des étiquettes proton et neutron devient arbitraire en chaque point, dès lors qu’un choix est fait en un point il est naturel de rechercher une règle permettant de comparer ce choix avec la sélection faite en toute autre position[9]. Cette règle est donnée par une connexion similaire à celle que Weyl avait imaginée. Yang et Mills postulèrent donc l’existence d’un champ de potentiel d’isospin en analogie directe avec le potentiel électromagnétique. Tout d’abord, il est clair que l’équation d’une particule libre n’est pas covariante sous la transformation

                                                                                                          (1.83)

car Ñ et /t agiront différemment sur le facteur de phase θ(x). Toutefois, l’équation d’onde peut être rendue covariante en introduisant une dérivée covariante appropriée semblable à (1.41), reproduite ici :

                                                                                                       (1.41)

La dérivée covariante proposée par Yang et Mills pour compenser la transformation SU(2) (1.83) est

                                                                                                                      (1.84)

μ est implicitement multiplié par la matrice identité 2´2, et où Wμ(x) signifie Wμ(xμ). Les Wμ(x) sont trois champs de jauge indépendants (1μ, W2μ, W3μ) appelés champs de jauge SU(2) ou champs de Yang–Mills. Pour vérifier que la substitution de μ par (1.84) est adéquate, nous devons trouver la transformation de Wμ qui laisse invariante l’équation de Dirac

                                                                                               (1.45)

lorsqu’est appliquée la transformation (1.83) ψ(½)®ψ(½). En correspondance complète avec (1.43), ceci revient à obtenir la transformation de Wμ satisfaisant la relation

                                                                      (1.86)

Considérant une transformation infinitésimale de paramètre de phase η(x), nous pouvons récrire (1.86) comme

                                                                        (1.87)

ce qui nous permettra de déduire la forme de la transformation de Wμ. Nous recherchons la quantité δWμ dans la transformation

                                                                                                                       (1.88)

L’équation (1.87) peut donc s’exprimer comme

                                                      (1.89)

Avec les relations simples suivantes :

                                                                                         (1.90)

                                                                                                               (1.91)

nous obtenons

                                                                                    (1.92)

Utilisant l’identité suivante pour les matrices de Pauli

                                                                                                                             (1.93)

nous trouvons finalement

                                                                                                                (1.94)

ou encore

                                                                                                                (1.95)

Ceci est la forme de la transformation des champs de Yang–Mills Wμ sous une transformation de jauge SU(2) locale infinitésimale. Nous avons donc trouvé que l’équation d’onde d’une particule de spin ½ est invariante sous une transformation SU(2) locale infinitésimale lorsque sont satisfaites les prescriptions suivantes :

                                                                                                          (1.96)

                                                                                                                      (1.97)

                                                                                                        (1.98)

Il est clair que dans le cas général d’une particule de spin j, (1.96) et (1.97) deviennent simplement (voir (1.81))

                                                                                                               (1.96’)

                                                                                                                       (1.97’)

Ainsi, les champs de jauge interagissent de manière universelle avec les multiplets d’isospin, la constante de couplage g étant la même pour toutes les particules. C’est à travers le postulat d’invariance local qu’est prescrite la forme de l’interaction : cette forme est simplement celle générée par les dérivées covariantes. Nous ne traiterons pas ici de la transformation finie, mais il peut être démontré que, dans ce cas, la dérivé covariante (1.84) est toujours appropriée, alors que la loi de transformation pour les champs de jauge est modifiée quelque peu.

            Nous montrons maintenant que le produit vectoriel dans (1.95) indique que les trois champs de jauge Wμ forment les composantes d’une représentation de dimension 3 de SU(2), c’est-à-dire un champ global d’isospin j = 1. Nous utilisons l’équation (1.81)

                                                                                                                                        (1.99)

où les composantes des matrices S(1) sont données explicitement par (1.82). Sous une transformation SU(2) globale infinitésimale η, le triplet de champs

                                                                                                                                               (1.100)

transformera comme (nous introduisons la constante g en toute généralité)

                                                                                                                         (1.101)

ou explicitement

                                                                                                                    (1.102)

où il est entendu que deux indices identiques sont automatiquement sommés. Utilisant (1.82) nous avons

                                                                                            (1.103)

sous forme vectorielle

                                                                                                                                 (1.104)

ce qui précisément est la forme du second terme dans δWμ. Ceci complète la démonstration à l’effet que les trois champs de jauge Wμ forment les composantes d’une représentation de dimension 3 de SU(2), c’est-à-dire un champ global d’isospin j = 1. Notons au passage que le second terme dans δWμ porte une charge (la constante g), ce qui est caractéristique des champs de jauge non-abéliens (les termes croisés s’annuleraient pour un champ abélien). Le fait que les champs de jauge non-abéliens aient des degrés de liberté de charge non-abéliens signifie, puisqu’ils sont aussi les quanta du champ de force, qu’ils interagiront nécessairement avec eux-même.

            Nous pouvons immédiatement déduire des propriétés intéressantes des potentiels Wμ de Yang–Mills. Puisqu’ils correspondent aux trois opérateurs S3 et S± de l’algèbre SU(2), ils pourront jouer les rôles d’opérateurs d’échelle et transformer, par exemple, un état down en un état up dans la représentation de spin ½. Nous pouvons associer ces opérations formelles à des processus physiques tels que la transformation d’un neutron en un proton par l’absorption d’une unité d’isospin du champ de jauge W+μ, dans notre exemple. Ce même exemple implique aussi que les champs de Yang–Mills doivent transporter une charge électrique, ici W+μ aura une charge +1. Toutefois, un problème majeur a été identifié assez tôt après la proposition de la théorie : l’invariance de jauge locale requière apparemment que la masse du champ de jauge soit nulle. En effet, la masse du champ doit être introduite dans la densité lagrangienne par un terme de la forme

                                                                                                                                        (1.105)

Malheureusement, le terme (1.105) n’est pas invariant sous une transformation de jauge, ce qui implique que le terme standard de masse n’est pas admissible dans le lagrangien de Yang–Mills. Or, un champ de jauge sans masse ne reproduira pas la faible portée de l’interaction forte, ce qui jeta un discrédit sur la théorie de jauge de Yang–Mills comme théorie de l’interaction forte.


1.6 Vers la redécouverte finale de la théorie de jauge

 

À l’époque où Yang et Mills proposèrent leur théorie, on comprenait encore mal les propriétés essentielles des forces nucléaires. La redécouverte finale des théories de jauge devait se faire attendre pendant encore dix ans, car des développements expérimentaux et théoriques cruciaux restaient à venir. La première percée importante annonçant la redécouverte des théories de jauge n’impliquait pas l’interaction forte, mais l’interaction faible, et elle survint à l’époque de la formulation de la théorie Yang–Mills. Après plus de vingt ans de recherche, la violation de la parité par l’interaction faible fut découverte et la nature de la force faible telle que nous la connaissons fut élucidée. Une théorie nouvelle connue sous le nom de théorie V–A fut formulée, qui pouvait décrire avec succès tous les processus connus de désintégration faible. Issue d’une théorie de la désintégration β proposée en 1934 par Enrico Fermi, la théorie V–A était basée sur le concept d’interactions courant–courant, une généralisation du courant chargé Jμ de la théorie de Dirac

                                                                                                                                 (1.106)

ψ est la fonction d’onde spinorielle à 4 composantes de l’électron et les 4 γμ sont les matrices de Dirac. L’interaction faible était décrite dans la théorie V–A en couplant les courants dans un hamiltonien de la forme

                                                                                                                             (1.107)

G est la constante de couplage faible de Fermi, de l’ordre de 10-5. L’interaction était à l’origine localisée en un point d’espace-temps. L’apport important de la théorie V–A fut d’incorporer la violation de la parité dans la théorie en construisant Jμ et J’μ de telle sorte qu’ils contiennent des termes se comportant comme des vecteurs (comme les courants de Dirac) et d’autres comme des vecteurs axiaux, d’où le nom de la théorie (vecteur–axial).

            À première vue, ni la théorie de Fermi, ni la théorie V–A ne semblent rejoindre de près ou de loin la théorie Yang–Mills. En fait, Fermi ne considéra jamais, pour construire sa théorie, la possibilité que l’interaction faible soit véhiculée par l’échange d’un nouveau quantum massif. Malgré le succès de la théorie V–A, l’idée originale de Yukawa stimula la recherche théorique dans le sens d’une désintégration β communiquée par l’échange d’un nouveau quantum de spin 1, en analogie directe avec l’électrodynamique. Ce boson vecteur intermédiaire, ou simplement boson W, devait toutefois présenter quelques différences marquées avec le photon, entre autres, il devait se manifester sous au moins deux états de charge W± pour rendre compte de l’échange de charge électrique entre les courants Jμ et J’μ des processus faibles. Il devait aussi être extrêmement massif afin d’expliquer la très courte portée de la force faible, mais cette masse semblait briser inévitablement la symétrie de la théorie de jauge de Yang–Mills. En dépit de ces différences considérables, la perspective d’en arriver à une formulation mathématique commune aux deux types d’interactions continua d’animer une recherche théorique en ce sens. Seulement, une difficulté plus alarmante encore, touchant cette fois la théorie des champs quantiques elle-même, était encore à résoudre. Déjà en 1936, Heisenberg avait signalé la possibilité de se heurter à des infinités dans les calculs perturbatifs. Si la théorie des perturbations était appliquée avec succès en électrodynamique quantique (QED) grâce à la procédure de renormalisation, elle était inefficace lorsqu’appliquée à de nouveaux types d’infinités apparaissant dans les interactions faibles. Aucune solution ne put être trouvée dans le cadre de la théorie standard des champs quantiques et il devint de plus en plus vraisemblable que l’énorme pouvoir prédictif de la théorie QED ne serait jamais égalé par les théories des interactions nucléaires. L’état d’esprit répandu à l’époque est bien esquissé par cette phrase de Freeman Dyson (1965) : « On peut facilement imaginer que dans quelques années, les concepts de la théorie de champ disparaîtront du vocabulaire normal de la physique des hautes énergies. »[10] Ce n’est qu’en 1964, lorsque que Peter Higgs proposa son mécanisme de brisure spontanée de symétrie, qu’on put recommencer à croire en la possibilité d’une théorie complète de l’interaction faible. Elle devint réalité avec la formulation, par Steven Weinberg (1967) et indépendamment par Abdus Salam (1968), d’une théorie unifiée des interactions électromagnétique et faible, dont Gerard ‘t Hooft prouva en 1971 qu’elle était renormalisable.



[1] Aitchison & Hey, Gauge Theories in Particle Physics, 1983, §8.1, pp. 168–172

[2] Weinberg, Gravitation and Cosmology : Principles and Applications of the General Theory of Relativity, 1972, §3.2–3.3, pp.70–75.

[3] Moriyasu, An Elementary Primer for Gauge Theory, §2.3, pp. 12–14.

[4] Moriyasu, An Elementary Primer for Gauge Theory, §2.5, pp. 16–18.

 

[5] Aitchison & Hey, Gauge Theories in Particle Physics, 1983, §8.3, pp. 176–177.

[6] Moriyasu, An Elementary Primer for Gauge Theory, §2.5, pp. 16–18.

[7] Marchildon, Mécanique quantique, 2000, §4.3, pp. 64–68.

[8] Aitchison & Hey, Gauge Theories in Particle Physics, 1983, §8.5, pp. 184–191.

[9] Moriyasu, An Elementary Primer for Gauge Theory, §2.9, pp. 25.

[10] Moriyasu, An Elementary Primer for Gauge Theory, §6, pp. 73.  

 “It is easy to imagine that in a few years the concepts of field theory will drop totally out of the vocabulary of day-to-day work in high energy physics.”, F. Dyson, 1965.

Théories de jauge et unification électrofaible</a>

2) THÉORIES DE JAUGE ET UNIFICATION ÉLECTROFAIBLE ( par J.-P.L.)

Les fondements historiques et les principes généraux des théories de jauge ayant été abordés dans la section précédente, un développement plus quantitatif de certains de leurs aspects ainsi qu’une description de ce qu’elles ont engendré peut maintenant s’avérer intéressant. Pour ce faire, nous présenterons une approche axée sur la structure géométrique pouvant être dégagée d’une théorie de jauge, ce qui nous permettra de visualiser les liens existants entre l’espace réel et l’espace interne abstrait inhérent à un groupe de symétrie de jauge donné. Nous appliquerons ensuite les principes que nous aurons introduits au traitement concret d’une transformation de jauge pour la décrire mathématiquement et présenter une interprétation physique générale des résultats obtenus. Ces derniers et l’approche géométrique pourront alors être utilisés pour nous permettre de comprendre le mécanisme (de Higgs) d’une brisure spontanée de symétrie de jauge ainsi que sa pertinence dans le cadre de la génération d’un champ de jauge massif existant au sein d’une théorie demeurant invariante de jauge. Nous serons par la suite en mesure de présenter une introduction au modèle unifié de Weinberg-Salam des interactions faible et électromagnétique d’une façon moins quantitative, mais enrichie par la mise en évidence des implications physiques de cette théorie. L’étude menée ne constituera évidemment qu’une introduction aux concepts mentionnés prenant en considération la substantialité de leur développement rigoureux et complet. Nous tenterons par contre, autant que possible, de baser notre argumentation sur une présentation des objets mathématiques nécessaires aux concepts traités, tout en prenant soin de mettre en évidence les liens qui existent entre eux ainsi que les phénomènes qu’ils sous-tendent.

Comme il a déjà été question, le principe de base d’une théorie de jauge repose sur la présence d’une symétrie dans le système étudié et sur le profit qu’il est possible de tirer de celle-ci. Concrètement, cela se traduit par l’invariance (de jauge) du lagrangien décrivant ce système sous la transformation relative à la symétrie en question, ce qui implique la conservation d’une certaine quantité physique. Si la transformation est appliquée identiquement en tous points de l’espace-temps, celle-ci est dite globale. Illustrons cela par le cas de l’interaction électromagnétique. Nous savons qu’en mécanique quantique la phase d’une fonction d’onde ne peut pas être mesurée, car une observable physique fait toujours intervenir l’amplitude de probabilité de la fonction d’onde, correspondant à sa norme au carré. Donc, en effectuant un changement arbitraire constant de la phase de cette fonction d’onde, la quantité mesurée demeure invariante, ce qui met donc en lumière une symétrie inhérente au système. Nous pouvons associer cette transformation de jauge à un groupe de symétrie unitaire unidimensionnel, soit le groupe U(1). En poussant encore plus loin, nous pouvons vouloir changer la phase de la fonction d’onde d’un facteur différent en chaque point de l’espace-temps, ce que nous identifions à une transformation de jauge dite locale. Cependant, le système n’est alors plus invariant sous ce changement dépendant du point de l’espace, car le lagrangien impliquant des dérivées par rapport aux coordonnées desquelles dépend le changement de phase, il ne demeurera pas invariant sous la transformation Pour remédier à cela, nous introduisons d’une façon particulière un champ de jauge externe dans le lagrangien, le champ électromagnétique dans l’exemple considéré, dont le comportement sous une transformation de jauge compense le changement de phase local. (Nous effectuerons une dérivation quantitative représentant la façon dont le champ est introduit dans le lagrangien dans la section 2.2). Nous pouvons donc interpréter physiquement le champ externe comme une connexion prescrivant aux phases la relation qui existe entre elles en chaque point. Cette interprétation peut être utilisée dans le cadre de l’approche géométrique.

 

2.1) Approche géométrique d’une théorie de jauge

Au milieu du XXe siècle, plusieurs physiciens avaient de bonnes raisons de croire que les particules " élémentaires " alors connues pouvaient posséder de nouveaux degrés de liberté œuvrant dans un espace interne abstrait (notamment à cause de l’impact conceptuel provoqué par la théorie de jauge de Yang-Mills, bien qu’insatisfaisante, proposée en 1954 et basée sur la symétrie SU(2) d’isospin). C.N. Yang et R. Mills montrèrent qu’il est possible d’associer le mouvement d’une particule dans l’espace-temps à ces degrés de liberté d’une manière qui n’est pas triviale, impliquant un type de géométrie jusqu’alors inconnu. Ces degrés de liberté dépendent du type de symétrie, donc chaque groupe de symétrie définira la structure de l’espace interne lui étant associé. Par exemple, pour le groupe à une dimension U(1) de l’interaction électromagnétique, à chaque point de l’espace-temps (quadridimensionnel) nous pouvons associer une certaine phase de la fonction d’onde dans l’espace interne, cette phase étant définie par la transformation locale. La représentation géométrique correspondante est la suivante :

 

Fig.1. Analogie géométrique de l’espace de symétrie interne pour le groupe U(1). L’espace interne des valeurs de phase possède une représentation mathématique " fibreuse ".

Dans cette représentation, nous associons le plan horizontal à l’espace-temps et l’axe vertical (car il n’y a qu’une dimension) à l’espace abstrait interne, c’est-à-dire aux valeurs de la phase pour le groupe U(1). Techniquement, les mathématiciens représentent l’espace interne par des fibres. À chaque point sur le plan horizontal est associé une des ces fibres. Rappelons-nous que nous avons interprété un champ de jauge comme une connexion liant la phase de la fonction d’onde en chaque point de l’espace-temps. Donc, pour une particule couplée à un champ externe, la trajectoire correspondante dans l’espace interne sera déterminée par le champ de jauge. Par contre, si la particule n’interagit pas avec un champ de jauge externe, sa trajectoire dans l’espace interne demeure totalement arbitraire, c’est-à-dire qu’elle est déterminée par la variation de phase propre à la fonction d’onde et ne correspond pas à une transformation de jauge.

Il a déjà été question, dans la section précédente, du modèle de Yang-Mills où l’indépendance de l’interaction nucléaire forte face à la charge électrique mena à postuler la notion d’isospin, soit que le proton et le neutron, que nous ne pouvons alors plus distinguer par leur charge différente, forment un doublet et représentent respectivement les états +1/2 et –1/2 de la projection ( I3 ) de l’isospin, avec I = ½. Le système est alors invariant par rapport à la direction de cette projection d’isospin, et nous pouvons associer cette symétrie au groupe de rotations SU(2), qui est aussi le groupe des rotations dans un espace à trois dimensions. En effet, considéré du point de vue d’une transformation de jauge locale, nous pouvons choisir arbitrairement la direction de la projection en chaque point, et le champ de jauge introduit pour retrouver l’invariance pourra être interprété comme l’auteur d’une rotation dans l’espace d’isospin qui liera la direction de la projection d’un point à un autre de l’espace interne, agissant ainsi comme une connexion. Du point de vue de l’approche géométrique, à chaque point du plan représentant l’espace-temps est attachée une sphère tridimensionnelle dans l’espace interne angulaire. À une rotation donnée, pouvant être définie par trois angles, correspondra un point à l’intérieur de cette sphère. Cette idée s’accorde bien avec le fait que le groupe de symétrie considéré définit la structure de l’espace interne abstrait, dans ce cas-ci le groupe SU(2).

 

2.2) Traitement quantitatif d’une transformation de jauge locale

Nous savons maintenant que dans le groupe de symétrie non Abélien (dont les générateurs ne commutent pas) SU(2), le champ de jauge est l’auteur d’une rotation de la projection d’isospin dans l’espace interne du groupe. Il est alors intéressant de déterminer quantitativement la forme que prendra ce champ et la façon dont nous pourrons l’introduire dans le lagrangien d’un système possédant la symétrie considérée pour retrouver l’invariance sous une transformation de jauge. Pour ce faire nous comparons la direction de la projection (I3) dans l’espace interne à deux points différents de l’espace réel, soient à x et x+dx. Pour une direction de I3 donnée en x, le champ de jauge effectuera une rotation dans l’espace interne pour aligner ce vecteur à la direction différente que celui-ci possède en x+dx. C’est la forme que prend cette rotation que nous voulons déterminer. Nous constatons que l’ensemble des rotations que pourra générer le champ formera un groupe de symétrie.

La forme générale que prend la transformation d’une fonction d’onde pour un groupe de symétrie non-Abélien s’écrit (somme implicite sur j) :

 

  (1)

Où q est une constante de couplage générale, par exemple la charge électrique d’une particule, q j(x) le paramètre de la transformation dans l’espace interne qui dépend de la position (caractère local de la transformation) et Fj sont les générateurs du groupe considéré qui ne commutent pas si celui-ci est non Abélien. Pour le groupe de rotation SU(2), ces générateurs sont les composantes du moment angulaire. À une fonction d’onde y (x) représentant une particule se déplaçant entre les deux points x et x +dx, correspondent respectivement les paramètres q j(x) et q j(x+dx) que nous pouvons visualiser, par exemple, comme la direction de I3.

Fig.2. Changement de la direction de I3 dans l’espace interne lorsqu’une particule représentée par une certaine fonction d’onde et interagissant avec un champ externe se déplace d’un point à l’autre.

La différence entre ces valeurs dq j = q j(x+dx) - q j(x) correspond à l’effet de la transformation sur la fonction d’onde et peut donc être associé à une connexion, c’est-à-dire à notre interprétation d’un champ de jauge.

Exprimons maintenant la fonction d’onde de la particule en terme d’une base vectorielle interne dont les vecteurs élémentaires sont les ua et les composantes de la fonction d’onde dans cette base les ya (x).

  (2)

Cette représentation nous sera utile pour décrire l’effet du champ sur la particule dans l’espace interne de symétrie. Lorsque la particule se déplace de x à x+dx, sa fonction d’onde est modifiée d’un facteur :

  (3)

Exprimons ce changement sous la forme d’une différentielle totale en utilisant la représentation (2) :

  (4)

Où un indice répété covariant et contravariant (en bas et en haut) est implicitement sommé (m ). De plus nous utilisons la définition . Le terme nous intéressant dans (4) est dua , car il représente le changement dans l’orientation des vecteurs de base occasionné par la transformation de jauge, donc par le champ externe. Calculons alors le résultat d’une rotation infinitésimale interne U(dx) associée au déplacement dx dans l’espace réel, à laquelle correspondra le changement dua des vecteurs de base qui nous intéresse. Pour ce faire, nous nous servons de l’opérateur défini en (1) que nous adaptons.

 

  (5)

L’application de (5) aux vecteurs de base internes générera le changement désiré. Nous pouvons représenter ces vecteurs par une matrice colonne et exprimer les générateurs comme des opérateurs matriciels carrés, car cela traduit bien la façon dont les derniers agissent sur les premiers. En opérant avec U(dx) sur la base :

 

  (6)

Où nous avons exprimé le produit matriciel (Fu) en terme des composantes Fabub . Faisons maintenant l’expansion de (6) en utilisant le développement expA = I + A.

  (7)

Le produit de composantes dabub correspond au produit de la matrice identité avec la matrice colonne u des vecteurs de base, ce qui donne donc la matrice u elle-même. Nous pouvons alors lire directement de (7) l’expression du changement dua cherché :

  (8)

L’objet précédent nous donne l’effet net du champ de jauge sur la base interne. Nous pouvons donc extraire l’opérateur de connexion cherché se trouvant dans (8) qui lie la rotation des ua associée au déplacement de la particule dans l’espace réel de la position x à x+dx.

  (9)

Rappelons-nous que l’équation (4) donne le changement de la fonction d’onde de la particule lorsque cette dernière se déplace de x à x+dx en fonction de dua . Remplaçons donc (8) et (9) dans (4) pour décrire le changement de la fonction d’onde en termes du champ de jauge Am .

(10)

Où la somme sur b de dabub donne ua. La variation de la fonction d’onde dépend désormais explicitement du champ de jauge. Nous voulons maintenant séparer les vecteurs de base u et les composantes de dy , pour extraire la partie que nous désirons, soit celle des composantes. Nous écrivons alors :

  (11)

Nous avons introduit dans (11) la dérivée covariante, c’est-à-dire la dérivée que nous pourrons substituer aux dérivées conventionnelles dans le lagrangien d’un système pour retrouver l’invariance de jauge lors d’une transformation locale. Comme nous sommes sur le point de le constater explicitement, cet objet dépend directement du champ de jauge externe, soit de la connexion. En comparant (11) et (10), nous pouvons écrire :

  (12)

Si nous exprimons le dernier résultat dans le cas d’un groupe de symétrie dont l’espace interne ne possède qu’une seule dimension, par exemple le groupe U(1) de l’interaction électromagnétique, il y a seulement un terme dans la somme donné par :

  (13)

L’équation (13) nous présente la façon technique de conserver l’invariance de jauge dans le cas de l’interaction électromagnétique, c’est-à-dire l’introduction du champ Am dans le lagrangien par le biais de la substitution des dérivées par des dérivées covariantes. La dérivation menant à (13) nous permet aussi de conclure que le champ externe joue bien le rôle d’une connexion entre différents points de l’espace interne, puisque cette dernière démystifie mathématiquement son origine.

Effectuons maintenant la transformation de ce potentiel pour un point x de l’espace donné dans le but de comprendre son comportement dans de telles circonstances. Nous nous attendons à ce que son expression transformée contienne un terme susceptible d’annuler la contribution de la transformation de la fonction d’onde, de façon à garder l’invariance. Utilisons un opérateur de transformation U et faisons le agir sur une fonction d’onde et sur sa dérivée covariante :

 

  (14.a)

  (14.b)

En insérant (14.a) dans (14.b) et en utilisant (13) :

  (15)

Nous pouvons facilement isoler le champ transformé de (15) pour obtenir son comportement sous une transformation de jauge :

  (16)

C’est la présence du second terme dans (16) qui annule les termes indésirables produits par une transformation de la fonction d’onde et qui sauve l’invariance. On constate aussi que le champ lui-même n’est pas invariant de jauge. Dans le cas de l’interaction électromagnétique, l’opérateur U s’exprime comme suit :

  (17)

La forme de (17) met évidence le fait que la transformation de jauge est alors un changement de la phase de la fonction d’onde dépendant de la position. En insérant (17) dans (16), nous trouvons que le potentiel électromagnétique transforme comme :

  (18)

Nous pouvons donc conclure que pour avoir l’invariance de jauge d’un lagrangien décrivant une particule chargée électriquement, il suffit de remplacer les dérivées par des dérivées covariantes (13) contenant un potentiel de jauge dont la loi de transformation est telle qu’exprimée par (18), soit le potentiel électromagnétique. On voit donc que l’invariance de jauge est plus qu’un artifice mathématique, dans la mesure où elle fournit un fondement et une raison d’être aux champs des interactions basé sur les symétries d’un système.

 

2.3) Brisure spontanée d’une symétrie de jauge

Jusqu’à présent, nous avons toujours assumé que la symétrie sous-tendue par un système donné était complètement respectée. Nous avions raison de l’assumer, à tout le moins pour l’interaction électromagnétique. Cependant, l’expérience indique qu’il existe plusieurs systèmes où ce n’est pas le cas, c’est-à-dire pour lesquels la symétrie est brisée. Par exemple, à l’époque où la théorie de Yang-Mills fut proposée, les physiciens savaient que l’interaction nucléaire forte était caractérisée par une courte portée, ce qui impliquait nécessairement que la quantification du champ de cette interaction soit massive. Or, l’invariance sous une transformation de jauge locale requiert que le champ de jauge introduit ait une masse nulle. En effet, pour un champ Am, chaque composante doit satisfaire l’équation de Klein-Gordon :

  (19)

Cela engendre un terme de masse qui possède la forme [m2Am Am ]dans le lagrangien. Cependant, l’équation (16) nous a permis de déduire qu’un champ externe n’est pas invariant sous une transformation de jauge. Nous constatons donc que le terme qui devrait être inclu pour produire une masse au champ, c’est-à-dire briser la symétrie, engendrerait un lagrangien violant l’invariance de jauge. La masse du champ doit donc être nulle, ce qui constitue la raison principale expliquant l’insuccès du modèle de Yang-Mills. D’où la pertinence de trouver un moyen de générer une masse à un champ lorsque cela est nécessaire, donc de briser la symétrie, tout en préservant l’invariance de jauge, c’est-à-dire autrement qu’en introduisant un terme directement dans le lagrangien. Nous pouvons donc penser que la brisure de symétrie peut être produite simplement par l’interaction du champ de jauge avec une certaine particule ou un système donné.

Si cette particule est libre, sa trajectoire correspondante dans l’espace interne est complètement déterminée par le champ de jauge (la connexion), ce qui ne brise manifestement pas la symétrie imposée par le champ. Par contre, si la particule jouit d’une autonomie dans la détermination de sa trajectoire dans l’espace interne, elle brisera la symétrie que lui impose le champ. Cependant, dans le but de sauver l’invariance de jauge du lagrangien, cette particule devra tout de même conserver un certain couplage avec le champ présent. Ce genre de particule, dite cohérente, semble donc posséder des caractéristiques particulières qui ne sont pas celles d’une simple particule libre. Il semble alors contradictoire qu’une particule cohérente puisse posséder une trajectoire autonome dans l’espace interne et doive simultanément demeurer minimalement couplée au champ de jauge. La solution à ce paradoxe réside dans la modification de la nature même du champ de jauge dans le but de rendre ce dernier compatible avec le système cohérent, c’est-à-dire restaurer son couplage avec lui. Nous dirons alors que le champ de jauge a été brisé, dans la mesure où il est passé d’une structure lui dictant un couplage avec une particule libre vers une autre impliquant un couplage avec un système cohérent.

Ayant ces arguments qualitatifs en tête, procédons maintenant à la description d’un mécanisme dynamique permettant l’ajustement du champ externe usuel à l’autonomie de la particule cohérente. Nous avons déjà discuté du fait qu’un champ Am génère une rotation, par exemple d’une composante d’isospin, dans l’espace interne. Lorsqu’une particule effectue un déplacement infinitésimal dx, la rotation correspondante effectuée par le champ de jauge s’exprime :

  (20)

Où le champ Am présent dans (20) a déjà été défini en (9) de la façon suivante (sans la présence explicite de la dépendance en x) :

  (9.a)

Pour pouvoir être couplé à la particule cohérente, c’est-à-dire " suivre " sa trajectoire en tout point de l’espace interne, le champ doit ajuster sa dépendance en q k(x), car seulement ce paramètre dépend de la position de la particule dans l’espace-temps. En outre, les générateurs Fk ne sont pas impliqués dans la brisure de symétrie, car ils sont inhérents à la structure du groupe de symétrie qu’ils définissent. Pour déduire l’ajustement devant être effectué, basons-nous sur l’analogie suivante :

Fig.3. Une particule libre et une particule cohérente ont leur orientation dans l’espace interne initialement juxtaposées. Après un déplacement dx dans l’espace réel, la rotation encoure par les deux particules dans l’espace interne est différente.

Considérons deux particules, une libre et une cohérente, ayant initialement leurs directions juxtaposées dans l’espace interne. La particule libre est couplée au champ externe présent alors que la particule cohérente ne l’est pas, par définition. Après un déplacement dx dans l’espace réel, la rotation encoure par chacune dans l’espace interne diffère, soit dq pour la particule libre et dF pour la particule cohérente. Nous exprimons cette différence par :

  (21)

En utilisant l’équation (20), nous pouvons écrire ces rotations (changements de phase) en fonction de champs de jauge :

  (22.a)

  (22.b)

  (dérivée en chaîne) (22.c)

Dans (22.a), W’m se veut le champ de jauge cherché, c’est-à-dire celui exprimant l’ajustement dont nous avons discuté. Nous pouvons alors l’écrire, en utilisant (21) et (22) comme :

  (23)

Ce champ de jauge constitue donc la version ajustée à la particule cohérente à laquelle nous attribuons la brisure de symétrie. Nous constatons que son expression n’est pas arbitraire, puisque que celle-ci dépend de la phase de la particule cohérente, ainsi que du champ présent avant la brisure qui déterminait la trajectoire interne de la particule libre. De plus, le couplage de ce nouveau champ avec la particule cohérente redonnera au lagrangien sa propriété d’invariance sous une transformation de jauge. Appliquons maintenant ces concepts à un mécanisme de brisure de symétrie locale spontanée, soit le mécanisme de Higgs, qui revêtira une importance particulière lorsque nous introduirons le modèle d’unification électrofaible de Weinberg-Salam. (Le terme " spontanée " réfère à la réalisation d’une brisure sans l’introduction d’un terme, par exemple de masse, directement dans le lagrangien.)

Nous venons de mettre en évidence le fait que la réalisation d’une brisure de symétrie locale nécessite l’introduction d’un système cohérent. Pour jouer ce rôle dans le cadre du mécanisme de Higgs, nous introduisons un champ scalaire de spin nul, soit le champ de Higgs, que nous représentons par f . Par scalaire, nous entendons un champ qui demeure invariant sous une transformation de Lorentz. Introduisons aussi le lagrangien décrivant l’interaction de f avec un champ de jauge externe, car nous aurons besoin d’une telle expression pour illustrer les conséquences du mécanisme :

  (24)

Le terme de gauche représente l’énergie cinétique de f , alors que celui de droite représente la densité d’énergie du champ externe. De plus, pour pouvoir prétendre que le champ de Higgs possède les propriétés d’un système cohérent, nous devons lui attribuer un potentiel de la forme suivante :

  (25)

Lorsque m 2 et l sont plus grands que zéro, le potentiel à l’allure illustrée sur la figure (4.a) (page suivante). Nous remarquons que celui-ci possède alors un minimum unique en f =0. En observant (25), nous constatons aussi que le potentiel est invariant sous une transformation de jauge impliquant un changement de la phase de f , car son expression fait intervenir la norme au carré du champ f . La présence d’une symétrie est donc manifeste. Cependant, nous sommes intéressés au cas où cette dernière pourra être brisée. Considérons donc une modification des paramètres m 2 et lm 2 est plus petit que zéro et où l demeure plus grand que zéro. Cette situation est présente à la figure (4.b).

 

Fig.4. Illustration du potentiel (25) du champ de Higgs pour des valeurs de m 2 et l particulières. En (a), m 2 >0 et l >0. Alors qu’en (b), m 2 <0 et l >0.

Dans ce cas (m 2 <0 et l >0), le potentiel possède deux minimums situés à :

  (26)

Cependant, rappelons-nous que le potentiel est invariant sous une transformation de phase. Nous pouvons donc multiplier (26) par un facteur de phase arbitraire (exp( iq )), et le résultat constituera toujours un zéro de (25) dans le cas m 2 <0 et l >0. Le minimum est alors infiniment dégénéré (q arbitraire) à cause de la symétrie du potentiel. En mécanique quantique, le minimum d’un potentiel (niveau fondamental) définit ce qui est nommé le vide de ce système. Or, il est essentiel que la définition de ce vide, pour un système donné, soit unique. Nous constatons immédiatement que cette contrainte est incohérente avec le fait que le potentiel possède un nombre infini de niveaux fondamentaux. Nous devons donc choisir une solution particulière parmi l’infinité existante pour définir le niveau fondamental et ce faisant, nous brisons spontanément la symétrie sous une transformation de phase qui était présente. Il est important de noter que cette brisure n’aurait pas pu être réalisée lorsque le potentiel avait la forme présentée sur la figure (4.a). En effet, le minimum étant alors unique (f 0 = 0) même sous une transformation de phase, il n’y avait pas de possibilité de briser la symétrie en invoquant l’argument de l’unicité du vide, puisque ce vide était effectivement unique tout en respectant la symétrie.

Nous sommes maintenant en mesure d’utiliser le champ de Higgs pour montrer comment nous pouvons générer une masse à un champ de jauge externe, sans que cela ne nuise à l’invariance de jauge du lagrangien. Pour ce faire référons-nous au terme décrivant l’énergie cinétique (T) du champ de Higgs présent dans l’équation (24).

  (27)

À l’aide des équations (13) et (23), nous pouvons exprimer (27) en terme du champ de jauge ajusté (brisé) W’m. Nous écrivons, après cette substitution, le terme (sans la constante ½ ) d’énergie cinétique du niveau fondamental du champ (cohérent) de Higgs :

  (28)

Souvenons-nous que lorsque le problème de la génération d’une masse à un champ a été abordé, il a été mentionné que le terme produisant cette masse devrait avoir la forme [m2AmAm = m2|Am|2 ]. Or, l’équation (28) nous présente justement un terme possédant cette structure. Nous obtenons donc une masse pour le champ de jauge externe W’ :

  (29)

Nous constatons que ce terme de masse qui semble sortir du néant se cachait simplement dans l’énergie cinétique (qui est invariante de jauge) du niveau fondamental du champ de Higgs. Il dépend donc directement de la forme du niveau fondamental cohérent (f 0) inhérent à ce champ, ce qui met en lumière l’importance du mécanisme de brisure de symétrie rendu possible par l’introduction de la particule de Higgs dans le système, puisque cette dernière permet de générer une masse au champ de jauge externe en préservant l’invariance de jauge du lagrangien.

 

2.4) Unification électrofaible : Modèle de Weinberg-Salam

Plutôt que de tenter de donner une explication complète du modèle de Weinberg-Salam, ce qui impliquerait plusieurs développements mathématiques ainsi que l’introduction et l’explication d’un nombre important d’objets s’élevant au-dessus du niveau de cette discussion, nous présenterons les fondements ainsi que les résultats importants que sous-tend le modèle en les liant avec les concepts traités jusqu’à maintenant.

Il a été question, dans la première section du projet, de la théorie V-A des interactions faibles. Cette dernière connut ces limites relativement à sa non-renormalisabilité, ce qui sema le doute sur la possibilité de pouvoir construire une théorie de jauge des interactions faibles et ainsi pouvoir généraliser le grand succès de l’électrodynamique quantique aux autres interactions. Cependant, la théorie V-A établit tout de même une base qui pourrait par la suite servir à l’élaboration des théories de jauge modernes. En effet, au milieu des années 1950, S.L Glashow et J. Schwinger constatèrent déjà l’analogie qu’il était possible de faire entre la symétrie d’isospin constituant la base de la théorie de Yang-Mills (symétrie SU(2)) et les leptons, et proposèrent de définir l’isospin faible. Nous avons cependant déjà discuté du problème principal de la théorie de jauge de Yang-Mills, soit l’impossibilité de fournir une masse aux bosons de jauge en nécessitant une pour expliquer la portée finie de leur interaction. Ce problème constitua donc l’obstacle majeur à une application de la structure de cette théorie à l’interaction faible, car il était bien connu qu’elle possédait une courte portée. Mais lorsque le mécanisme de Higgs fut découvert, Weinberg et Salam se rendirent vite à l’évidence qu’en ce dernier pouvait résider l’ingrédient final nécessaire à l’élaboration d’une théorie de jauge unifiée des interactions faibles et électromagnétiques.

Pour construire une théorie de jauge des interactions faibles, il faut tout d’abord introduire les doublets leptoniques d’isospin faible IW=1/2, par exemple (u e, e) pour la famille de l’électron (peut aussi être fait pour les familles m et t ), avec IW3=(1/2, -1/2) par analogie avec le doublet (p, n). Cet objet prend la forme d’un spineur :

  (29)

Comme nous le savons, l’interaction faible est caractérisée par une violation de parité, ce qui traduit le fait qu’elle produise seulement des particules d’hélicité gauche, c’est-à-dire dont l’impulsion est orientée dans le sens opposé au spin. Nous constatons alors qu’il est nécessaire de traiter uniquement l’hélicité gauche des particules présentes dans le spineur (29), car seulement cette dernière est pertinente dans les interactions faibles. Cela ne cause pas de problème pour le neutrino, car ce dernier ne possédant pas de masse, son hélicité est définie gauche par convention (les neutrinos droits n’interagissant ni fortement, ni faiblement, ni électromagnétiquement). Cependant, ce n’est pas le cas pour l’électron, qui peut aussi posséder une hélicité droite ( impulsion orientée dans le même sens que le spin ). Nous ne pouvons pas alors simplement éliminer de la théorie la possibilité qu’un électron ait une hélicité droite. C’est pourquoi nous introduisons l’interaction électromagnétique dans le modèle, car ne violant pas la parité, le couplage avec un électron d’hélicité droite devient possible, autant qu’un couplage avec un électron d’hélicité gauche. Cela constitue donc un premier pas vers l’unification.

Cette distinction nécessaire entre les hélicités s’exprime par la décomposition du spineur (29) en des composantes L et R, gauche et droite, par l’application des projecteurs (1±g 5), où g 5 est une des matrices de Dirac. Cela s’écrit :

  (30)

 

  (31)

Nous remarquons que L est un doublet d’isospin faible ( IW=1/2 ), alors que R est un singulet ( IW=0), le neutrino ne possédant pas d’hélicité droite. Écrivons maintenant l’énergie cinétique contenue dans le lagrangien pour ces deux composantes :

  (32)

est le spineur hermitique adjoint de y et où les t k représentent les matrices de Pauli. Nous avons aussi introduit, en plus de la constante de couplage électromagnétique " q " usuelle, la constante de couplage faible " g " ainsi que le champ de jauge de l’interaction faible Wm sous-tendant une symétrie SU(2). La théorie V-A faisait aussi intervenir deux champs de ce type, nommément les bosons W±, représentant les courants chargés présents dans les interactions faibles. Cependant, pour que le groupe de symétrie SU(2) possède ses 3 générateurs (22-1), nous devons introduire le générateur t3, ainsi que le champ lui étant associé, soit W3m , que nous assumons électriquement neutre. Ce champ étant caractérisé par le même couplage (g) que les champs W±m , il doit donc impliquer de nouvelles possibilités d’interactions faibles où aucun transfert de charge électrique n’a lieu.

Le modèle comprenant maintenant quatre champs de jauge (W±m , W3m et Am ) n’appartenant pas au même groupe de symétrie, soit SU(2) pour les trois premiers et U(1) pour le dernier, nous pouvons traduire la conséquence de l’unification par le fait que le nouveau groupe de symétrie sur lequel la théorie est bâtie est celui correspondant au produit des deux groupes précédents que nous écrivons . De plus, il est important de rappeler que les trois premiers champs, formant SU(2), ont été introduits pour préserver l’invariance de jauge du lagrangien sous une transformation locale (dans ce cas une rotation) dans l’espace interne d’isospin faible, alors que le potentiel vecteur Am , comme nous en avons longuement discuté antérieurement, préserve l’invariance relativement à une transformation de phase locale dans l’espace interne du groupe U(1).

En observant les équations (30) et (32) en ayant en tête qu’un nouveau champ W3m a été introduit et est donc présent dans le lagrangien (la somme sur k va jusqu’à 3), nous constatons que, en plus d’interagir via le potentiel électromagnétique Am , deux électrons sentirons leur présence mutuelle par une force faible, c’est-à-dire interagirons par l’entremise du nouveau courant neutre W3m . Ce genre d’interaction n’est pas possible en considérant simplement les champs W±m connus auparavant, car ils impliquent le transport de charge électrique (courants chargés), et deux électrons possèdent une charge identique. Ces considérations impliquent que l’ancien concept de charge électrique tel que défini par le champ électromagnétique Am ne tient plus, dans la mesure où il n’est pas la seule source de l’interaction entre deux électrons, et donc ne constitue pas le champ électromagnétique ayant une réalité physique tel que " senti " par ces électrons. Nous dirons que Am transporte plutôt une hypercharge. Le champ électromagnétique " réel ", que nous notons Aemm , doit donc être représenté par une certaine combinaison linéaire des champs Am et W3m . Il est possible de montrer que cette combinaison prend la forme suivante :

  (33)

Cette combinaison linéaire suggère la présence d’une autre lui étant orthogonale et correspondant au champ neutre faible ayant une réalité physique, que nous écrivons comme :

  (34)

Nous constatons alors que deux des champs de jauge présents dans le modèle unifié électrofaible ne correspondent pas à des champs physiquement observables. Les champs ayant une réalité physique en sont plutôt deux combinaisons linéaires orthogonales.

L’unification des interactions faible et électromagnétique semble alors être complète et satisfaisante. Cependant, les champs W±m et Z0m ne possèdent toujours pas de masse, ce qui va à l’encontre de la courte portée inhérente à l’interaction faible. Pour remédier à ce problème, nous introduisons le champ de Higgs (f ) dans le système, ce qui nous permettra de générer une masse aux trois bosons faibles par l’intermédiaire d’une brisure de symétrie du niveau fondamental (f 0). Pour ce faire nous écrivons l’énergie cinétique de ces trois bosons en terme du champ " ajusté " (23) où F représente alors la phase cohérente du boson de Higgs. Nous obtenons ensuite :

  (35)

Comme nous l’avons fait lorsque nous avons introduit le mécanisme de Higgs, nous remarquons que ces termes ont maintenant la structure de deux termes de masse, et nous pouvons alors lire directement les masses des champs présents dans l’énergie cinétique :

 

  (36.a)

  (36.b)

Nous pouvons nous demander pourquoi le champ de Higgs ne génère pas une masse au photon, le quanta du champ Aemm . Cela découle simplement du fait que nous postulons que le champ de Higgs n’est pas chargé électriquement, donc qu’il ne peut être couplé au champ électromagnétique pour lui donner une masse. De plus, le principe de base du mécanisme de Higgs peut être appliqué pour générer une masse à l’électron, puisque l’invariance de jauge du lagrangien ne peut pas être préservée par l’introduction explicite d’un terme de masse pour l’électron. Ceci souligne une fois de plus l’importance et le caractère tout à fait novateur du mécanisme de Higgs.

 

2.5) Conclusion

Le modèle de Weinberg-Salam, par sa structure et par la façon dont il explique et même prédit plusieurs phénomènes, est une des réussites les plus marquantes de la physique fondamentale. Toutefois, pour pouvoir déterminer les masses des bosons W± et Z0, la connaissance de la valeur du niveau fondamental du champ de Higgs est nécessaire, et ce paramètre est inconnu. Bien qu’il soit possible d’éliminer partiellement ce problème en introduisant l’angle de Weinberg et en référant à la relation liant la masse du W à la constante de couplage G de Fermi présente dans le modèle V-A, il n’en demeure pas moins que la valeur de cette constante G n’est connue qu’expérimentalement, ce qui ne fournit pas une solution impliquant des arguments strictement théoriques. Malgré cela, le résultat global ne perd pas de son attrait et de sa puissance.

Lorsque la théorie unifiée fut terminée à la toute fin des années 1960, les champs qu’elle impliquait, c’est-à-dire les W± et le Z0, n’avaient pas encore été observés expérimentalement, à cause de la trop grande valeur de leur masse, qui avait pu être prédites de la façon esquissée au paragraphe précédent. Le projet qui mènerait à la détection de ces bosons prit alors forme progressivement jusqu’à ce qu’il se matérialise en une réussite concrète et mouvementée au début des années 1980. Ce sont les outils nécessaires à la réalisation de cette quête qui seront décrits dans les sections suivantes, soient les accélérateurs ainsi que les détecteurs de particules.

Les accélérateurs de particules, à la découverte des bosons W+,W- et Zo</a>

3) Les accélérateurs de particules, à la découverte des bosons W+, W- et Zo

 

Avant d’entrer dans le vif du sujet, il serait important de faire un bref rappel sur les éléments de théorie pouvant arriver à l’existence des bosons W+, W- et Zo, ainsi qu’à déterminer comment ils sont produits et leurs principales caractéristiques.

3.1) Introduction

Tout à commencer avec le physicien japonais, Hideki Yukawa, qui en 1935, fut le premier à évoquer l’existence de particules. Il cherchait l’unification des forces des interactions forte et faible. Où La force nucléaire faible est responsable de la désintégration b où un neutron se transforme en proton. Pour les unifier, il fallait tenir compte de symétries caractéristiques de l’interaction électromagnétique et de celle faible. Il en aboutissait l’existence de seulement quatre bosons. Le premier, expliquant l’interaction électromagnétique, est le photon et obéit au groupe de symétrie U(1), engendrant l’électrodynamique quantique. Pour ce qui est de l’interaction faible, le groupe de symétrie SU(2) prévoit, pour des raisons mathématiques, trois bosons, deux possédant une charge (W+ et W-) et un autre neutre Z°. C’est Yukawa qui introduit la relation entre la masse et la portée d’une réaction. Elle nous dit que la masse de la particule transmettant la force est inversement proportionnelle à la portée de l’interaction. Donc si la portée de l’interaction est infinie, qui est le cas de l’interaction électromagnétique, alors la masse de la particule véhiculant cette interaction est nulle. Cette particule élémentaire est le photon qui a effectivement une masse nulle. Pour notre cas, l’interaction faible à une portée d’environ 10-18 m. La force à une si faible portée, à cause que cette force est restreinte à cause de la couleur des gluons et interagissent fortement entre eux. On peut donc prévoir que la masse des bosons est d’environ de 80 GeV, pour les bosons W± et d’environ 90 GeV pour le boson Z°, étant environ 100 fois supérieure à la masse du proton. Un GeV est l’équivalent de l’énergie gagnée d’une particule, avec une charge électronique de 1, accélérée à travers une différence de potentiel de un milliard de volts. Donc ces bosons sont les particules connues les plus lourdes qui soit. Par opposition, la théorie de jauge nous dit que ces bosons ont une masse nulle, identiquement à celle du photon. Cette grande masse viendra choisir du type des réactifs utilisé.

En 1979, trois théoriciens, Glashow, Salam et Weinberg ont formulé, ce qu’ils ont appelée, la théorie électrofaible. Cette dernière unissant la force électromagnétique à celle dite faible. Ils ont même remporté le prix Nobel de physique cette année là, même si les bosons n’étaient pas encore observés. Cette théorie veut l’existence de quatre bosons de jauge (W+, W-, Zo et le photon, dont le symbole est g). Par exemple, en expliquant les réactions lorsqu’un proton devient un neutron et un neutrino devient un positron, la conservation de la charge n’étant pas respectée, il faut absolument une autre particule en interaction, étant le W+ ou le W-. À la base de la théorie électrofaible, les bosons, à cause des réactions les produisant, avait une charge électrique de ±1. Mais un type de réaction nous indiquait qu’il fallait une particule électriquement neutre pour expliquer ce que l'on appelle le courant neutre, dans lequel aucune charge électronique est transférée entre les particules participantes. Voici des exemples de réactions engendrant ou incluant des bosons :

(1)

Où les bosons W+ , W- et Z° possèdent évidemment une charge électrique de +1, -1 et 0 respectivement, afin de pouvoir y avoir une conservation de la charge dans ces réactions. Typiquement, un boson c’est : 1° une particule de spin entier (0h/2p , 1h/2p , 2h/2p , 3h/2p ,…), 2° il obéit à la statistique de Bose-Einstein, 3° il possède une fonction d’onde symétrique sous l’échange des particules.

Comme nous le verrons dans la partie suivante, les bosons ne sont pas visibles directement, car ils possèdent une demi-vie extrêmement courte, étant approximativement de 10-20-10-24 seconde, selon (différents bouquins), et se désintègrent spontanément en d’autres particules plus légères. Ces particules légères sont, par exemple pour le cas du W-, un électron (lepton), ainsi qu’un antineutrino. Ce sera le lepton que l’on détectera plus directement, dans une chambre à bulle, par exemple. Le boson Z° se désintègre naturellement en deux leptons de même nature, mais de charge opposée, pour bien sur respecter la conservation de la charge, ainsi que du nombre leptonique L. Les bosons peuvent aussi être produits à partir de l’annihilation d’un quark avec un antiquark, le surplus d’énergie se rematérialise en une nouvelle particule, un boson. Ces derniers peuvent provenir d’un proton, formé de trois quarks (uud), et d’un antiproton, formé également de trois antiquarks () (u voulant dire up, d voulant dire down et la barre au-dessus voulant dire ‘anti’).

 

3.2) Comment produire des bosons?

Avant de parler directement des différents sites possédant des accélérateurs, il serait bien de parler des réactions possibles, ainsi que de faire l’étude de ces dernières afin de trouver un moyen économique et surtout réalisable. Premièrement, il faut que l’énergie initiale des réactifs soit au moins aussi grande que l’énergie finale des produits. Étant donné la masse des bosons est très grande, il faut que les particules, beaucoup plus légères, produisant les bosons soient élevé à de très grandes vitesses, près de la vitesse de la lumière (c=299,792,458 m/s). Donc ayant une énergie cinétique au moins aussi grande comme l’énergie cinétique de seuil de la réaction (l’énergie cinétique de seuil étant l’énergie minimale pour produire une ou des particules au repos, donc à partir de la conservation de l’énergie : ici ou plus généralement ). Les particules incidentes, ayant un certain momentum, viennent frapper des particules au repos. Donc selon la conservation des momentums nous dit que : ou en trois dimensions et ainsi de suite pour les autres composantes. Puisque qu’une des deux particules est au repos et que l’autre à un momentum très grand, la particule produite aura nécessairement un momentum très grand aussi. Ce qui aura pour effet que l’énergie utile ne sera pas toutes celles que l’on souhaite utiliser pour transformer en masse. Il serait aussi un inconvénient, d’avoir nécessairement recours à un accélérateur très puissant, ce qui n’était pas le cas à cette époque, et c’est aussi pour une question financière. De toute façon, l’énergie de seuil est trop grande. Voici l’exemple de cette réaction :

 

Figure #1 : Schéma d’une réaction ou une particule est au repos

Afin de remédier à ce problème, les scientifiques ont alors pensé à faire des collisions dites face-à-face. Ici, nous allons éviter que la particule produite ait un momentum , ce qui laissera cette quantité d’énergie à la fabrication de la nouvelle particule. Nous aurons alors besoin d’un accélérateur deux fois moins puissant. Voici le schéma de la réaction :

 

Figure #2 : Schéma d’une réaction face-à-face

La particule finale sera nécessairement au repos et si elle se désintègre en deux particules, les produits de la désintégration seront détectables verticalement, une vers le haut et une vers le bas.

Le boson Z° peut être le fruit d’une collision face-à-face d’un électron avec un positron (ou antiélectron). Voici le schéma de la réaction :

Figure #3 : Production d’un boson Z° à partir d’une collision face-à-face électron positron

Pour leur part, les bosons W+ et W- peuvent aussi être produit avec ce type de collision, demandant la participation d’un photon. Voici le schéma d’une telle réaction :

Figure #4 : Production des bosons W+ et W- à partir d’une collision face-à-face électron positron

Ce type de collision engendre deux bosons, donc il faudra deux fois plus d’énergie pour les réactifs, ce qui est encore aussi impraticable que la réaction de la figure #1. Cependant, un électron ou un positron perd beaucoup d’énergie lorsqu’il est accéléré dans un accélérateur circulaire, car à chaque fois qu’il est constamment dévié de sa trajectoire, par exemple pour suivre le long de la trajectoire circulaire, il émet un photon pour que la quantité de mouvement soit conservée (conservation du momentum). Ce qui est vrai pour n’importe quelle particule. On pourrait utiliser un accélérateur linéaire, mais il devra être extrêmement long pour que les électrons ou positrons puissent avoir une telle énergie nécessaire à la production de bosons. Par contre, le nombre de photon émit pour une petite masse est beaucoup plus grand que celui d’une grande masse. Donc, un électron, ayant une masse de seulement 511 KeV, est difficilement accéléré, dû à cette perte d’énergie. Si nous pouvions avoir sous la main un équipement coûteux pouvant créer un rayonnement d’électron (50 GeV) et positron (50 GeV) plus intense augmenterait les chances de pouvoir observer la création de bosons. De ce fait, il serait plus avantageux d’utiliser des particules de masse plus élevée.

Nous avons vu aux équations #1 que les bosons peuvent être produit à partir de quark et d’antiquark. Ces derniers peuvent être pris à l’intérieur du proton et de l’antiproton respectivement. Donc avec l’utilisation des protons et d’antiprotons, la perte d’énergie due au changement de trajectoire est beaucoup plus faible, ainsi ils peuvent atteindre des énergies largement suffisantes à la production de bosons. Voici les schémas des réactions produisant les bosons Z° et W:

Figure #5 : Production d’un boson Z° à partir d’une collision face-à-face de protons antiprotons

 

Figure #6 : Production d’un boson W- à partir d’une collision face-à-face de protons antiprotons

Puisque les protons et antiprotons sont formés respectivement de trois quarks et trois antiquarks, la collision des deux particules engendrent des interactions complexes entre plusieurs particules différentes. Un avantage à cette forme est que le proton est formé de quarks de charges électriques de +2/3 et –1/3, tandis que l’antiproton est formé d’antiquarks de charges de –2/3 et +1/3. Ce qui a pour effet de permettre qu’une seule collision puisse engendrer des particules de charges électriques de +1, 0 et –1. Donc la possibilité de formation directe de bosons est assez faible, ce qui sera un désavantage important lorsque l’on tient compte du temps requis afin de détecter des réactions. Par contre, il y a un autre avantage important, il existe déjà des accélérateurs de protons antiprotons, accélérant ces particules de plusieurs centaines de GeV. Par exemple, au CERN à Genève, on accélère les protons face-à-face à 540 GeV et au Fermilab, près de Chicago, à 2Tev. Les accélérateurs de protons sur des particules au repos n’ont qu’à être convertis en accélérateurs de collisions face-à-face. Évidemment, plus les réactifs sont accélérer, plus la possibilité de produire un boson, dans le temps, est grande.

La découverte des premiers bosons W à été réalisée en janvier 1983 et le boson Z° en mai 1983, au Conseil Européen pour la Recherche Nucléaire (CERN). Leur découverte fut le fruit de cinquante ans de recherche sur la force électrofaible. Nous étudierons principalement ce centre de recherche, car c’est l’un des plus gros et des plus importants au monde ; il possède bon nombre de précieux appareils de recherche. De plus, plusieurs observations importantes de la physique des particules y fut réalisées.

3.3) L’histoire du CERN

Le CERN est présent grâce au regroupement de plusieurs pays européens. Ils amassent de l’argent selon la richesse de chacun de ces pays: l’Allemagne de l’est, l’Autriche, la Belgique, le Danemark, l’Espagne, la France, la Grèce, l’Italie, la Norvège, les Pays-Bas, le Royaume Uni, la Suède et la Suisse. Plus de 7000 employés et aucun secret entoure l’affaire, les nombreuses publications en témoignent. Ce fut le français De Broglie qui eu l’idée, en 1949, de ce laboratoire européen. C’est en février 1952 que 11 pays avaient été en accord pour élaborer le projet. Il fut construit près de Genève, ayant un partie sous le sol français et une autre sous le sol Suisse. Au début, on y construisit un synchrotron à proton (PS) à haute énergie (25 GeV) de 200 mètres de diamètre, ainsi qu’un synchrocyclotron (600 MeV). Ce fut le premier endroit où l’on a fait appel à un accélérateur à grande focalisation de protons. En 1965, la France lui accorda la permission d’agrandir sous ces territoires, pour la construction d’anneaux accumulateur entrecroisant (ISR), étant deux anneaux de 300 mètres de diamètre s’entrecroisant en huit point précis et permettant des collisions face-à-face entre protons avec des énergies de plus de 30 GeV. Par la suite, en 1971, on y construisit un super synchrotron à proton de 300 GeV, ayant un diamètre de 2.2 kilomètres et creusé à plus de 20 mètres sous terre. En accélérant les protons sur une cible de métal, on a put y former des rayonnements d’électrons, de muons, de photons, de neutrinos et de pions. Le CERN possède aussi un grand collisionneur électron-positron (LEP) de 27 kilomètres de circonférence, mis en fonction en 1983, accélérant des particules à des énergies de 50 GeV, ce qui est beaucoup pour de petite masse.

3.4) Les autres laboratoires

Les laboratoires les plus importants dans le monde sont présentement situés au Japon, en Allemagne et deux aux États-Unis. Situé à près de 50 kilomètres de Chicago, aux États-Unis, le Fermi National Accelerator Laboratory (ou FNAL, ou Fermilab), dont les vieux aimants furent remplacés par des aimants superconducteurs accélérant maintenant les protons et antiprotons à 1 TeV, étant le recors absolu d’énergie. L’autre laboratoire situé aux États-Unis, en Californie, est le Stanford Linear Accelerator (SLAC). Il possède un collisionneur électron-positron (PEP) pouvant produire des collisions de 40 GeV. Près de Hambourg, en Allemagne de l’est, l’accélérateur connu sous le nom de HERA, provoque des collisions de proton-électron de 800 GeV et 30 GeV respectivement, construit au laboratoire DESY. Il possède aussi un PEP avec des énergies maximales de 46 GeV. Il est le meilleur accélérateur afin de découvrir plus en profondeur la structure du proton. Finalement, le plus gros accélérateur électron-positron est TRISTAN, qui est situé au Japon, peut engendrer des collisions de 60 GeV.

3.5) Comment fonctionnent les accélérateurs

On peut retrouver dans la nature un exemple d’accélérateur, les rayons cosmiques bombardant continuellement la surface de la Terre. Par contre les accélérateurs naturels ne peuvent être contrôlés et leur énergie n’est pas concentrée. Ce que l’on veut, c’est évidemment des rayonnements contrôlables énergiquement et physiquement (pour les collisions). Ce sont alors les accélérateurs qui sont utilisés pour produire ces rayonnements. Plus un accélérateur est puissant, plus un rayonnement puissant et plus il y a de chance que l’on puisse créer, par collisions, des particules de plus en plus lourdes.

Plusieurs types d’accélérateurs ont déjà été réalisés. Tous utilisent l’effet des champs électrique et magnétique, sur certains types de particules. Par exemple, dans un accélérateur circulaire de protons, les deux types de champs sont utilisés. Le champ électrique est utilisé pour accélérer les protons et le champ magnétique est utilisé pour maintenir la trajectoire circulaire des protons, pour qu’ils ne perdent pas d’énergie dans une collision avec les parois. En peu de temps, un proton est accéléré à une vitesse près de celle de la lumière. La force de ces champs est très grande. Imaginons que nous avons branché une batterie sur deux plaques de métal séparées. Le champ électrique induit une différence de potentiel entre les deux plaques et ainsi, n’importe quelle particule, se situant entre les deux plaques, se voit accélérée vers l’une des deux plaques. Pour ce qui est du champ magnétique, si l’on applique un champ magnétique sur une particule chargée au repos, il n’y aura aucun effet sur la particule. Par contre, si cette même particule est en mouvement, on verra le champ magnétique exercer une force, perpendiculaire au mouvement de la particule, lui faisant changer sa trajectoire. L’effet de cette force sera dépendante à la charge de la particule, sa vitesse et la force du champ. Il y aura donc une émission constante de photons le long du cercle parcouru. L’effet du champ électrique, quant à lui, dépendant de la charge de la particule, ainsi que de la force du champ électrique. Donc des particules de charges opposées, comme les protons et les antiprotons, voyageraient dans un même accélérateur dans le sens inverse les unes des autres. Finalement, pour qu’un accélérateur possède la ou les sorte(s) de particules, il faut que ceux-ci soit sous vide.

3.6) Différents types d’accélérateurs

Dans cette section, il sera question de la composition de différents types d’accélérateurs :de l’accélérateur linéaire, du cyclotron, du synchrocyclotron et du synchrotron.

Premièrement, étudions le cas du cyclotron, étant le premier accélérateur ayant été inventé. Il est composé de quatre électro-aimants en forme de D, contenus dans un enceinte cylindrique sous vide, constamment sous l’effet d’un puissant champ magnétique. Le but premier de cet appareil est d’accélérer des particules dans un espace assez restreint. Il peut accélérer des protons à 5 MeV. Les protons sont premièrement accélérés par un champ électrique, puis lorsque les protons se rapprochent de la séparation entre les deux D, le champ électrique doit être inversé pour que les protons soit toujours accélérés. Voici le cyclotron :

Figure #7 : Parcours des protons dans un cyclotron

Ce type d’accélérateur n’atteint généralement pas des vitesses relativistes, près de la vitesse de la lumière. Étant causé par la difficulté de pouvoir maintenir un champ magnétique uniforme sur une grande surface. La fréquence () que devra avoir le voltage appliqué est difficile à produire à grande vitesse.

Regardons maintenant le cas des accélérateurs linéaires. Afin de pouvoir accélérer les particules, on utilise des électrodes cylindriques reliées entre elles à une source de radiofréquence. En sachant le temps de passage des particules dans une de ces électrodes, la radiofréquence fait inverser la différence de potentiel et ainsi, les particules seront toujours accélérées dans la même direction. Le long de l’accélérateur, les électrodes cylindriques sont de plus en plus longue, car les particules vont de plus en plus vite et on veut que la période de la radiofréquence soit raisonnablement petite. Voici le schéma de cet accélérateur :

Figure #8 : Parcours des protons dans un accélérateur linaire

Ce type d’accélérateur est très utile lorsque l’on veut étudier des collisions électron-positron, car ils ne perdent pas d’énergie par émission de photons le long de leur trajectoire. Le plus puissant accélérateur se situe à Stanford au États-Unis, étant long de 3 km avec des électrons d’énergie de 20 GeV. Pour la focalisation des particules chargées le long de la trajectoire, on utilise des quadripôles magnétiques en alternance. Par exemple, si une particule se dirige vers le bas, avec le quadripôles de la figure #9, elle sera déviée vers le haut, etc. Si on place des quadripôles ayant les pôles inversés en alternance, on sera donc sûr que globalement, les particules oscillerons avec une faible amplitude, ce qui se résume en une trajectoire presque linéaire.

Figure #9 : Quadripôles magnétiques focalisant

Il est maintenant temps de parler du synchrocyclotron. Ce dernier est un cyclotron où l’on a changé le champ électrique de radiofréquence en une fréquence variable. Donc on pourra garder les particules à haute énergie plus longtemps. De plus, les aimants utilisés sont courbés à l’extrémité (voir figure #10), ce qui augmente la probabilité de pouvoir garder à l’intérieur du synchrocyclotron les particules à haute énergie. Encore une fois ici, la taille, le volume et le poids des aimants reste toujours un problème. Le plus gros synchrocyclotron est situé au Lawrence Berkeley laboratory en Californie et construit en 1949. Il possède un diamètre de 4 mètres et pèse plus de 4000 tonnes. Si l’on veut doubler, ce que j’appelle, la surface efficace ou accélérante, on doit octupler le volume et le poids. Ce qui est un grand désavantage.

Figure #10 : Aimants utilisés dans le synchrocyclotron

Pour ce qui est du synchrotron, c’est ce type d’accélérateur que l’on utilise pour les collisions protons-antiprotons. Comme pour l’accélérateur linéaire, il est conçu de la même façon, sauf qu’il est sous forme circulaire pour ainsi réutiliser indéfiniment les aimants utilisés, plutôt qu’une seule fois. On peut en exploiter n’importe quel ordre d’énergie. Donc il faudra pouvoir modifier en tout temps les champs magnétiques, pour la bonne conservation de la trajectoire. Plus la particule voyagera rapidement, plus le champ magnétique devra être fort. Des cavités de radio fréquence fournissent le champ électrique, le long de la trajectoire, on devra augmenter leur fréquence, car les particules ont plus d’énergie. Les particules sont localisées en paquets et le champ électrique est renversé lorsque les paquets entrent dans les cavités. Évidemment, les particules ne suivront pas des trajectoires parfaites. Les particules se frappant entre elles et frappant les parois, elles auront donc chacune une trajectoire oscillante différente. Ces oscillations vont lentement détruire le rayonnement. Il sera donc utile d’avoir recours à la focalisation par champ magnétique. Elle consiste en fait en une alternance d’aimants organisés comme suit :

Figure #11 : Aimants focalisateurs pour le synchrotron

Ce type d’aimant focalisera verticalement et horizontalement. Le Fermilab et la CERN utilise cette technique de focalisation.

3.7) Comment génère-t-on de la matière et de l’antimatière dans les accélérateurs

Au CERN on fait des collisions entre protons et antiprotons. Les protons sont obtenus par l’ionisation du gaz d’hydrogène. L’hydrogène est électriquement neutre, donc il ne peut être accélérer. Son ionisation est rendue possible lorsque le gaz est soumit à des rayons X, puis un champ électrique est appliqué pour que les protons se séparent des électrons. Ils sont ensuite introduit dans un accélérateur linéaire, puis en sortent en paquet de 1014 protons, avec une énergie de 50 MeV. Dans le but d’en accroître leur énergie, on les oriente dans un petit synchrotron (BOOSTER), où leur énergie est augmenter jusqu’à 800 MeV, et ce avant d’être introduit dans un plus grand synchrotron à proton. Ils y sont accélérés jusqu’à une énergie de 26 GeV. Puis ils sont introduit dans un super synchrotron à protons, pour avoir un énergie finale de 450 GeV. Voici le schéma des infrastructures au CERN décrivant le cycle du proton et de l’antiproton :

Figure #12 : Parcours des protons et des antiprotons au CERN

Les antiprotons ayant une trajectoire inverse aux protons dans le cycle.

Maintenant, regardons le cas de la formation des antiprotons. Ils sont produits lorsque des protons viennent frapper un métal, de l’énergie est libérée pour former de nouvelles particules. Les protons sont initialement accélérés, dans un synchrotron à proton, à des énergies de 26 GeV. Des antiprotons sont évidemment un des produits de cette réaction. Il se produit environ qu’un seul antiproton à chaque millions de réactions. Cette relation a un impact important sur le temps nécessaire pour produire un rayonnement d’antiprotons intéressant pour la production de bosons.

La deuxième étape sera bien évidemment de séparer les antiprotons des nombreuses autres particules. Pour cela, on utilise des champs électrique et magnétique. Ce dernier peut être utiliser pour pouvoir sélectionner la charge des particules voulues, car il sépare les charges positives des négatives. Les particules les plus lourdes voyagent plus lentement, elles seront plus déviées lors de l’application d’un champ électrique, perpendiculairement à la trajectoire initiale des particules, parce qu’elles resteront plus longtemps dans le domaine de déviation. Au CERN, on sépare les antiprotons ayant un momentum de 3.5 GeV.

La troisième étape sera d’emmagasiner les antiprotons. On sait que l’antimatière se désintègre immédiatement lors d’un contact avec de la matière. Donc il faut la garder hors de la portée de la matière. Pour ce faire, on utilise un anneau d’aimants pour que la trajectoire des antiprotons soit circulaire. Avant de parler de l’accumulateur d’antiprotons, il faut parler du " refroidissement ", c’est-à-dire la diminution de la trajectoire aléatoire des antiprotons. Lorsque les antiprotons sortent de module de déviation, ils n’ont pas nécessairement les mêmes ordres de momentum et de direction, alors les antiprotons vont frapper les parois et ainsi, le rayonnement va disparaître. Si on veut les stocker, il faut réduire leur mouvement aléatoire. Il existe deux types de refroidissements, le refroidissement avec électron et le refroidissement stochastique. Le refroidissement avec électron est un espèce de mélange entre des électrons dit froids et des antiprotons dit chauds. Sur une courte distance, les antiprotons vont transférer leur énergie supplémentaire aux électrons. Il faut refaire plusieurs fois ce type de manipulation pour que le rayonnement d’antiprotons soit adéquat. Par contre, au CERN les antiprotons sont déjà trop chauds pour être refroidit à l’aide de cette méthode. La méthode utilisée par le CERN est celle du refroidissement stochastique. Il s’appelle de cette façon, car il est relié à un processus statistique. On mesure la position moyenne du rayonnement en un point de l’anneau d’aimants, ainsi que la déviation moyenne par rapport à l’orbite idéal. La correction du champ électrique que l’on devrait y apporter est ensuite calculée et elle est acheminée plus loin (en avant) dans la trajectoire. Vu que les particules voyagent très vites, il faut que la correction soit effectuée avant l’arrivée de ces particules. Donc la position moyenne du rayonnement sera presque idéal, par contre, si l’on regarde particules par particules, il y en aura qui seront déviées dans la mauvaise direction, mais en général, elles seront déviées correctement.

Afin de pouvoir tester ce type de refroidissement, le CERN mit sur pied le projet ICE (initial cooling experiment). L’endroit où l’on emmagasine les antiprotons est le AA (antiproton accumulator), jouant deux rôles à la fois : il s’agit d’un accumulateur et d’un refroidisseur stochastique. Évidemment, le AA est mis sous vide par de nombreuse pompe, faisant un vide de 10-10 Torr. Pour un paquet de 1013 protons, il faudra environ une journée pour obtenir un paquet d’antiprotons intéressant. Imaginez s’il y avait 1014 protons près à former des antiprotons, il faudrait maintenant seulement 2h30min pour former le même nombre d’antiprotons, une belle économie de temps. Après le refroidissement stochastique, le momentum initial de 3.5 GeV, est diminuer par un facteur de dix. On ne peut diriger les nouveaux antiprotons directement avec les antiprotons déjà accumulés, car il est extrêmement probable qu’ils se repousse entre eux.

Expliquons le cycle en détail. Premièrement, les antiprotons sont injectés par paquet de 20 millions et il se propagent dans la partie externe de la chambre à vide à grande ouverture. Il sont ensuite refroidit stochastiquement les antiprotons, ce qui réduit d’un facteur dix leur momentum, ainsi que le paquet verticalement et horizontalement. Puis on laisse passer magnétiquement les antiprotons refroidis vers la partie principale de la chambre à vide. On refait ces mêmes manipulations à chaque 2.4 secondes. Après avoir injecté 60000 paquets d’antiprotons, pendant 40 heures, la plupart des antiprotons forment le cœur. Pour extraire ce cœur, on actionne des champs magnétiques, par la suite, on peut refaire le mécanisme et éjecter un autre cœur, environ 10 fois plus petit. C’est avec ce cœur que l’on produira des bosons.

Les deux principaux désavantages de cette méthode sont la panne de courant et les erreurs commises lors du transfert des antiprotons. Cela viendrait détruire des heures de travail précieuses. Par contre, un gros avantage est qu’un seul anneau d’aimants, par exemple le SPS, peut être utiliser pour accélérer des protons et des antiprotons, en sens contraire évidemment. Faisant le cycle de la figure #12, les protons et antiprotons n’ayant pas une très grande énergie, à peu près 270 GeV, car l’opération du collisionneur possède des aimants peut supporter au maximum des particules ayant une énergie de 270 GeV. Dans le SPS, les protons et antiprotons ont maintenant une énergie de 270 GeV, le champ électrique est fermé et seulement le champ magnétique conserve les particules à cette énergie et en orbite. Pour effectuer la collision, il faut maintenant focaliser les paquets. Des paires de quadripôles magnétiques sont utilisés, ainsi la probabilité de collisions peut être augmenter de 50. La petite perte d’énergie de chacune des étapes vient abaisser nos chances de produire les bosons W+, W- et Zo.

 

Pour terminer, on pourrait se demander, pourquoi utilise-t-on des protons et des antiprotons plutôt que n'importe quelles autres particules dont la réaction résultante est sous l'effet de l'interaction faible ? On pourrait y répondre en disant que les protons et les antiprotons sont le couple de particule le plus facile à produire, car les protons sont le fruit de l'ionisation de l'hydrogène, par rayon X, et les antiprotons, celui de collisions protons et un métal. Ce qui a pour effet de réduire considérablement les coûts d'opération d'un laboratoire, car l'hydrogène est disponible partout (de l'eau). Tandis que d'autres particules exotiques sont beaucoup plus difficile à produire, et évidemment beaucoup plus rares. Généralement, la rareté coûte cher. Nous verrons dans la prochaine partie quelles sont les ingéniosités créées pour la détection indirecte de ces bosons.

 

 

Projets H-02

 

4)Détecteurs de bosons W et Z

 

Dès les années 1930, on suspectait l’existence de particules massives dans les interactions faibles : W+, W-. Toutes les observations d’interactions faibles se justifiaient avec les bosons d’interactions W±. Dans les années 1960, vint la théorie électrofaible qui unifia les interactions faibles et électromagnétiques par Glashow, Weinberg et Salam. Cette dernière prédisait un boson d’interaction supplémentaire (neutre celui-ci) : le Z0. Il était temps de confirmer leur existence réelle, de plus les moyens techniques permettaient maintenant cette investigation. La course était lancée. Voici de quelles façons ont été choisis les détecteurs qui ont servi à la découverte des bosons W± et Z0 ainsi que les circonstances de ces découvertes.

 

 

4.1)Désintégrations de W et Z

À l’époque, on estimait la masse des bosons recherchés entre 80 et 90 GeV. Cette énorme masse signifie que les interactions ne peuvent être que de très courte portée, de l’ordre de 10-3fm (désintégration en moins de 10-24 secondes). Évidemment ce n’est pas ces particules elles-mêmes que l’on veut détecter, mais plutôt les traces laissées par leur courte vie, leurs produits de décomposition, chaque particule laisse sa signature. Comme les W et Z sont porteurs de l’interaction faible et que les leptons sont soumis à ce type d’interaction, on s’attend à les détecter via des décompositions en leptons :

Z0 → lep+ + lep-

W+ → lep+ + ν

W- → lep- + ν*

Où lep± sont des leptons (et antileptons) et ν et ν* sont des neutrinos et antineutrinos.

Ces bosons peuvent aussi se désintégrer en une paire quark – antiquark (q – q*). Comme les quarks ne sont pas observés à l’état libre (liberté asymptotique), on les remarquera par les jets de hadrons (principalement des pions et des protons) qui sont caractéristiques de cette production de paire quark - antiquark. Par conséquent, un jets de hadrons pourra être indicateur du passage d’un boson W ou Z :

Z0 → q + q*

W± → q’ + q*

Où q et q* sont quark et antiquark (antisaveur), trois couleurs possibles

q’ étant une saveur différente de q de façon à conserver la charge électrique (±1)

Voyons d’abord ce à quoi on peut s’attendre lors de la désintégration du Z0. Comme dans toutes les autres réactions concernant la désintégration de ces bosons, les leptons mis en scène ici sont l’électron e- (et le positron e+), le muon μ- (et antimuon μ+), le neutrino électronique et muonique νe , νμ ainsi que leur antiparticule νe* , νμ* . Il est aussi possible de parler de décompositions impliquant la famille tauique (τ , ντ) mais ces modes de désintégrations sont peu pratiques pour la détection car les τ ont une vie moyenne de 2.9x10-13sec donc on ne cherchera pas à détecter les τ. Ainsi on recherche des traces de :

Z0 → e+ + e-

Z0 → μ+ + μ-

Z0 → νe + νe*

Z0 → νμ + νμ*

À ces réactions on ajoute la désintégration en quarks (jets de hadrons) :

Z0 → q + q*

Par exemple, on observe comme couple de quark : up (u, u*), down (d, d*).

Dans le cas de décomposition électron - positron, elle se produirait pour environ 3.3% des désintégration de Z0. La décomposition en muon – antimuon ainsi que tau – antitau devraient aussi chacun représenter 3.3% des cas. La désintégration en neutrinos représente environ 20% des désintégrations. Des jets de hadrons seront produits dans 70% des cas.

Pour ce qui est de la désintégration du W, on trouve des modes très similaires à ceux du boson Z. Les réactions impliquant les leptons sont :

W+ → e+ + νe

W+ → μ+ + νμ

W+ → τ+ + ντ

W- → e- + νe*

W- → μ- + νμ*

W- → τ- + ντ*

À cela se greffent les réactions impliquant les jets de hadrons :

W± → q’ + q*

Pour le W-, on observera des couples comme : (d, u*), (s, c*), (b, t*) qui ont une charge électrique totale –1. Pour le W+, on observera plutôt : (u, d*), (c, s*), (t, b*) qui sont des couples de charge électrique +1. (Quarks : u→up, d→down, c→charm, s→strange, b→bottom, t→top)

Comme dans le cas du Z0, les désintégrations qui passent par les membres de la famille du τ ne seront pas retenus. Le mode se dιcomposant par la famille ιlectronique représente environ 11% des cas, tout comme le mode passant par la famille du tau. Le mode passant par la famille du muon représente à peu près 10%. Tout le reste, soit 69%, revient au mode désintégration par paires quark – antiquark (jets de hadrons).

Évidemment on souhaite, au moment de la détection, détecter un maximum d’événements qui seraient des éléments de la preuve du bref passage des bosons. En résumé, les particules que l’on peut s’attendre à rencontrer après l’apparition d’un W ou Z sont les leptons et neutrinos correspondants (et leur antiparticule) ainsi que des hadrons : pions et protons. La détection des électrons ne posent pas de problème et constituent donc un des indices pour l’identification. Le muon n’est pas une particule stable, par contre sa durée de vie moyenne est approximativement 2µs ce qui est suffisant pour qu’il traverse les détecteurs. Le tau n’est pas stable et a une très courte vie, il n’existera plus avant d’avoir atteint les détecteurs et par conséquent ne peut pas être utilisé. Les neutrinos sont stables et, en plus, représentent une fraction importante des désintégrations, malheureusement ils n’ont pratiquement aucune interaction avec la matière ce qui les rend indécelables. On ne peut donc pas compter sur les neutrinos pour prouver le passage d’un W ou Z. Il reste maintenant les hadrons comme des pions, protons,… qui forment le principal sous-produit de l’apparition de bosons W ou Z (environ 70% des désintégrations). Ces particules sont stables ou ont une vie moyenne suffisamment longue pour leur permettre d’être détecté. La détection de ces particules peut être utilisée comme un élément de preuve, mais on doit toutefois se servir de cet indice avec beaucoup de prudence car l’apparition de hadrons se fait dans plusieurs autres types de réactions. Ainsi, l’observation seule de hadrons ne constituent pas une preuve. La confirmation de la présence de ces bosons se fera par l’amas de plusieurs indices réunis ensembles et non de l’observation d’un seul type d’événement.

 

 

4.2)Énergie des sous-produits de désintégration

Maintenant on connais les particules que l’on veux détecter, mais observer ces particules ne signifient pas nécessairement qu’ils y a eu échangent de bosons. Ce n’est pas parce que l’on détecte des électrons et des muons que l’on peut affirmer avoir identifié la présence de W ou Z. En effet, des réactions (autres que celles recherchées) pourraient produire ces produits. On doit donc identifier des caractéristiques de ces particules pour qu’on puisse enfin différencier les particules responsables de la désintégration des bosons des autres produites par des réactions quelconques. On cherche des différences entre particules identiques, on les différenciera par leur énergie (et aussi par leur direction d’émission).

Considérons d’abord, la désintégration du Z0 en paires muon – antimuon et électron – positron. La masse du Z0 est très élevée soit environ 90GeV, lors de la décomposition, cette énergie de masse sera utilisée pour créer la masse de la paire de particules et le reste sera transmis à la paire en leur imprimant un momentum. Comme ici les particules (e-,e+ et μ-+) ont une masse faible (511KeV et 106MeV respectivement) à comparer de la masse du boson, on doit s’attendre à trouver des électrons et muons très énergétiques. Dans l’hypothèse d’un boson Z0 initialement au repos, particules et antiparticules seront émises dans des directions opposées avec des momentum égaux

Peμ+2 = Peμ-2 = (EZ/2)2 – m2 = (mZ/2)2 - m2

Où P est le momentum, EZ l’énergie initiale du Z et m le masse du muon ou de l’électron

On doit donc observer dans des détecteurs placés à l’opposé l’un de l’autre, les deux particules de momentum égaux. Si le boson n’est pas initialement au repos, on observera (dans le repère du laboratoire et donc des détecteurs) que la paire particule – antiparticule sera émise non pas à 180° mais plutôt à 180°-α où α est un " petit " angle, tout dépendant de la vitesse du boson. En considérant que la formation du boson vient de la réaction (collisions proton – antiproton):

p* + p → Z0 + H0

où H0 est une collection de hadrons neutres

ou plus exactement :

u* + u → Z0 et d* + d → Z0

où u est un quark up et d un quark down

On peut penser que le momentum du quark (provenant du proton) et que le momentum de l’antiquark (provenant de l’antiproton) pourrait s’annuler l’un l’autre (les protons étant accélérés dans la direction opposée de celle des antiprotons) et ainsi produire un Z0 au repos et par conséquent, des électrons et positrons émis à 180°. Mais dans les faits, les momentums ne s’annuleront pas complètement et le boson aura un momentum résiduel (les protons et antiprotons n’ayant pas des parcours parfaitement parallèles et linéaires). On peut donc s’attendre à une valeur α non nulle. De plus, le faisceau protons – antiprotons possède un momentum qui est pratiquement tout dans la direction de ce faisceau, il n’y a qu’une très faible partie du momentum qui est transportée dans la direction transverse (perpendiculaire au faisceau). Par conséquent, le boson produit ne portera pas de momentum transverse important.

En ce qui concerne les jets de hadrons, ils proviennent de la création d’une paire quark – antiquark. La paire qq* est transformée par fragmentation (interaction forte) en deux jets de hadrons de momentum divers (momentum total conservé). Le quark étant émis dans la direction opposée de celle de l’antiquark, les jets sont donc émis à 180°. Ce mode n’appartient toutefois pas seulement à la désintégration de W et Z.

Un raisonnement très similaire s’applique pour la décomposition en leptons des bosons W±. La différence dans ce cas est qu’on a affaire à un couple lepton – neutrino. Seul le lepton très énergétique pourra être détecter, le momentum pourra être calculé par conservation de momentum. Les conditions d’émission (momentum, direction) du couple sont les mêmes que pour le Z. Les réactions de formations du W+ et W- étant :

p* + p → W+ + H- p* + p → W- + H+

u + d* → W+ d + u* → W-

Les chances que le momentum résiduel du boson soit zéro sont très faibles.

Les caractéristiques des jets de hadrons venant du W sont les mêmes que celles des jets originant du Z (à l’exception que les quarks sont de différentes saveurs et que ces hadrons porteront une charge électrique non nulle).

Donc, pour reconnaître le passage d’un boson W ou Z, on doit chercher des électrons et muons (ces derniers sont toutefois assez difficiles à détecter) pas très ayant un très grand momentum dans la direction transverse accompagnés par des jets de hadrons (de momentums variés) : l’indice le plus révélateur sera la présence d’électrons avec un très grand momentum transverse.

 

 

4.3)Types de détecteurs

À ce point, les particules à détecter sont identifier ainsi que les caractéristiques de sélection qui permettront d’affirmer si un événement est lié ou non à l’apparition d’un boson W ou Z. À partir de ces faits, on peut ensuite choisir quels instruments (détecteurs) doivent être utilisés pour arriver à des résultats optimaux. On désirera mesura déterminer la position des particules dans les détecteurs et aussi leur momentum.

4.3.1)Mesure de la position

L’attention sera d’abord portée à la mesure de la position. Une vaste gamme de détecteurs permettant la mesure de la position d’une particule est disponible comme la chambres à bulles, la chambre de Wilson, les émulsions photographiques qui produisent des résultats plus visuels et aussi des appareils utilisant des excitations et/ou ionisations du milieu comme principe de fonctionnement (compteur à scintillations, tube à dérive,…) qui produisent des résultats sous forme d’impulsions électriques.

Les premiers (chambres à bulles, la chambre de Wilson, les émulsions photographiques) fonctionnent sur un principe très simple : une particule chargée traverse un milieu et y laisse une empreinte " permanente " qui peut être enregistrée. La chambre à bulles est un réservoir (plusieurs m3) rempli d’hydrogène liquide. On maintient les conditions de pression et de température (environ –250°C) de façon à conserver l’hydrogène tout juste liquide. La moindre particule chargée traversant le bassin créera une petite perturbation et mènera l’hydrogène au-dessus de sont point d’ébullition et l’apparition de micro bulles sur la trajectoire. La chambre de Wilson a un mode de fonctionnement très similaire à l’exception que l’hydrogène liquide est remplacé par de la vapeur d’alcool (le passage de la particule (perturbation) crée des micro gouttelettes de condensation). Pour ce qui est de l’émulsion photographique, c’est par action chimique que la trajectoire est enregistrée (pour ensuite être développée). Les résultats sont une image de la trajectoire avec une bonne précision. Ce qui pose problème ici, c’est le fait que ces appareils ne sont absolument pas sélectifs en ce qui concerne l’enregistrement des événements. Bien qu’ils aient une très bonne résolution spatiale, on ne pourra s’en servir dans la poursuite du boson. En effet, des collisions proton - antiproton ont lieu dans le détecteur toutes les quelques micro secondes et la fréquence de création d’un W n’est estimée que d’une fois sur environ dix millions (et 10 fois moins pour le Z), les traces de ces événements devraient être retrouvées parmi les traces de millions d’autres événements qui n’ont pas d’intérêts ici. On devra utilisé un autre moyen, plus sélectif, pour mesurer la position.

 

 

Ceci nous conduit à regarder pour la seconde classe de détecteurs mentionnés, ceux utilisants des excitations ou ionisations comme principe de fonctionnement. Un de ces détecteurs qui fonctionne par excitation - désexcitation est le compteurs à scintillations. Il est très simple : un monocristal inorganique(souvent NaI(Tl)) ou matière organique solide (plastique scintillateur) ou liquide (NE 213) reçoit la radiation qui excite ses molécules, la molécule retourne à son niveau fondamental en émettant un photon dans le visible ou l’ultraviolet. Ce photon se propage dans le scintillateur jusqu’à ce qu’il atteigne une photocathode (métal avec électrons de valence faiblement lié comme les métaux alcalins). En la frappant, elle libère un électron (effet photoélectrique) qui est dirigé vers un tube photomultiplicateur. Ce tube est composé de plusieurs dynodes; chaque collision d’un électron avec une dynode permet la libération de plusieurs autre électrons qui sont ensuite accélérés (par une différence de potentiel moyennement de 100V) vers la prochaine dynode. Typiquement, un tube a entre 10 et 14 dynodes et le nombre moyen d’électrons libérés par la collision d’un seul est d’environ 5 (gain total d’au moins 510 électrons). Le résultat est un signal électrique prêt pour la préamplification et le traitement).

Le prochain modèle qui attirera notre attention est la tube à dérive. L’idée de base est très simple, une particule chargée entre dans un tube remplie de gaz (90% argon + 10% éthanol) sous faible pression et ionise le milieu qu’elle traverse. Le tube est traversée par un mince fil conducteur; on maintient un champs électrique à peu près constant dans le volume du tube entre le fil et la paroi. La tension de la paroi est maintenue très élevée (quelques milliers de volts) par rapport au fil à l’intérieur du tube. Ceci a pour résultat que l’ion créée par la collision est attiré par la paroi où il sera neutralisé et l’électron lui est accéléré vers le fil. Pendant ce temps, la particule à l’origine de la collision (c’est-à-dire celle que l’on est en train de détecter) continue son parcours en induisant d’autres ionisations. Comme la différence de potentiel est très élevée, les électrons produits gagnent suffisamment d’énergie pour pouvoir ioniser d’autres atomes d’argon pour ainsi produire une cascade jusqu’au fil : le résultat est un signal électrique. Les électrons dérivent à vitesse relativement constante (tout près de la vitesse de la lumière); on peut déterminer la position de la particule chargée initiale avec les temps que dure le signal. Lorsque l’on étend le concept, on peut former une chambre de dérive; on crée des plans de fils de même potentiel (disons ici 0V et –30000V) et on arrange ces plans radialement en alternance. La distance entre les fils d’un plan (points sur la figure) est d’environ 1cm. Les plans sont séparés par une plus grande distance (jusqu’à 20cm à la circonférence extérieure). Pour la chambre, le même principe que le tube s’applique. À partir des signaux électriques obtenus, on peut reconstruire la trajectoire de la particule. Ici il n’est mentionné que ce type d’appareils, mais en fait il en existe une très vaste gamme fonctionnant sur ce principe mais son différentes géométries et différentes tensions et par conséquent, sous différents régimes (régime de la chambre d’ionisation, régime du compteur proportionnel, régime de Geiger-Müller).

Tube à dérive (gauche) et calorimètre (droite)

4.3.2)Mesure du momentum

Maintenant on sait comment détecter la présence et la trajectoire d’une particule chargée, il reste à déterminer sa seconde caractéristique importante : son momentum. Ici il sera discuté de deux appareil principaux (ceux qui serviront dans l’expérience des bosons) : la chambre à dérive et le calorimètre.

Reprenons d’abord la chambre à dérive discuté précédemment qui a servi à la mesure de la position des particules chargées. Il suffit de faire une simple modification à cette chambre : lui ajouté un champ magnétique constant (traversant la chambre). Une particule chargée dans un champ magnétique obéit à la loi :

P = qBr

Où q est la charge de la particule, B le champ magnétique traversant la chambre, r le rayon de courbure de la trajectoire

La particule a été identifiée; on connaît donc sa charge électrique (souvent ±1) et le champ B est connu. Comme la chambre à dérive mesure la position, on aura des signaux démontrant une trajectoire courbe de la particule dans la chambre. De ces signaux, on peut en déduire le rayon de courbure de la trajectoire et ainsi obtenir le momentum de la particule. Son point faible : plus le momentum de la particule sera élevé, plus le rayon de courbure sera grand (trajectoire de plus en plus rectiligne (rayon de courbure infini)), plus cette courbure sera difficile à mesurer en raison de la taille (limitée) de la chambre. Pour les momentum très grands on devra utilisé un autre outil.

Le second système approché ici est le calorimètre. Il en existe deux types : électromagnétique et hadronique. Le premier est utilisé pour les particules chargées. En se qui concerne le deuxième, comme son nom l’indique il vise la détection de hadrons neutres. Il y en aura d’émis (π0, neutrons par exemple). Les deux types de calorimètre seront employés ici. Le calorimètre sera fait de " plaques " d’un métal lourd (plomb, fer,..) en alternance avec un milieu scintillateur. Ces scintillateurs seront reliés par guide d’onde à des tubes photomultiplicateurs (qui produiront à la fin un signal électrique). La radiation pénètre et a une première collision et ionise le milieu, dans le scintillateur, des photons seront émis pour être guidés vers des tubes photomultiplicateurs. L’énergie pour ioniser la première fois n’est généralement pas suffisante pour arrêter la particule initiale. D’autres ionisations auront lieu (effet de cascade) tant que l’énergie des particules est suffisante. Les ionisations dans le scintillateur produiront des photons supplémentaires. Beaucoup de photons produiront un plus grand signal électrique, par conséquent on en déduit que plus une particule est énergétique, plus elle aura d’énergie pour produire de multiples ionisations avant de s’arrêter ce qui donnera en fin de compte un signal électrique plus intense. Les électrons seront (dans cette expérience) très énergétiques mais auront des collisions immédiatement en pénétrant dans le calorimètre et n’avanceront pas très loin dans le calorimètre. Les hadrons quant à eux, dissiperont leur énergie sur leur chemin dans le calorimètre pour surtout la déposer au fond du calorimètre. En effet, leur collision qui leur sera perde la grande partie de leur énergie ne se fera pas avec des électrons mais avec un noyau, les hadrons étant sensible à l’interaction forte. Mais peu importe la particule à l’origine, le résultat est un signal électrique venant des tubes photomultiplicateurs, l’intensité du signal étant proportionnelle au nombre de photons reçus dans le tube on pourra déterminer l’énergie des particules après que le calorimètre ait été soigneusement calibré. Par contre, les muons eux ne déposeront que très peu d’énergie dans le calorimètre (ils sont une des seules particules chargées à pouvoir traverser le calorimètre et en ressortir). On doit utiliser une autre chambre à dérive pour compléter les mesures à leur sujet.

Finalement les morceaux sont prêts pour l’expérience, on se servira d’une chambre à dérive, et d’un calorimètre. Comme les muons traversent le calorimètre, des détecteurs à muons (autres chambres à dérive) seront installés à l’extérieur. Tous ces appareils ici donnent un résultat de nature électrique ce qui permettre d’être sélectif au point de vu des événements à analyser vu l’énorme quantité de données à recueillir (ce qui est de première importance). Un sélecteur d’événement sera la pièce complémentaire de ces détecteurs.

 

4.4)L’expérience

Comme les moyens techniques permettent la poursuite de des bosons W et Z, il ne reste qu’à débloquer les fonds et débuter la recherche. Deux institutions seront guideront la course : Le Fermilab (Fermi National Accelerator Laboratory) à Chicago (USA) et au CERN (Centre Européen de Recherche Nucléaire) à Genève (Suisse). C’est ainsi que l’on construisit deux énormes détecteurs UA1 et UA2 (Underground Areas 1 et 2), une construction qui débuta à la fin des années 1970, à 30m et 60m respectivement sous terre. Voici plus en détail les composantes du détecteur UA1 (UA2 est similaire mais un peu plus simple, il n’y a pas de champ magnétique dans ses détecteurs).

Le CERN qui possédait un synchrotron à protons (Super Proton Synchrotron (SPS)) décida de le modifier en un collisionneur protons – antiprotons qui pourrait produire les énergies nécessaires à la création des boson W et Z. C’est sur cet accélérateur que furent construits UA1 et UA2. UA1 est en fait un rassemblement des détecteurs discutés ci-dessus. Le détecteur est construit tout autour une large section du tunnel où sont accélérés et collisionnés les protons et antiprotons. Ces collisions ont lieu environ toutes les 8µsec au centre de l’accélérateur (où sont les détecteurs). Cette façon de construire le détecteur permet de ramasser un maximum d’informations sur les événements (collisions – désintégrations) pratiquement partout autour de la zone de collision, en fait seul une petite partie (petit angle (environ 5°) par rapport à la direction du faisceau protons - antiprotons) échappera au contrôle des détecteurs. Comme il fût montrer au début, il faut surveiller l’angle (et synchronisation) d’émission des particules lors de la désintégration du W ou Z (qui, de plus, est un événement excessivement rare) d’où l’importance de couvrir un maximum de surface.

La première composante qui enveloppe le tunnel est une chambre à dérive traversée par un champs magnétique (Détecteur Central). Celui construit ici a un diamètre d’environ 2m et une longueur de 6m. Il est partagé en trois sections de longueurs égales; l’arrangement des fils dans la section centrale est perpendiculaire à celui des sections aux extrémités. Le but de ceci est simple, préciser la position de la particule qui passe. Il est fait de plus de 12000 fils conducteurs (à 0V et à –30000V) distants d’environ 3mm. Le gaz utilisé est une mélange typique soit l’argon (qui sera ionisé par les particules) et l’éthane (quenching gas) à basse pression. La distance des plans de fils est aussi typique : environ 20cm à la circonférence extérieure. Le champ magnétique appliqué est constant et d’environ 7000Gauss produit par un courant de 10000A dans une bobine entourant un énorme électro-aimant. Le champ produit est très uniforme. Les informations recueillis permettront de déterminer le momentum des particules chargées ainsi qu’aider à l’identification des particules.

 

Derrière cette chambre à dérive, ce trouve les calorimètres (électromagnétique et hadronique). D’abord on rencontre le calorimètre électromagnétique et juste derrière lui, le calorimètre hadronique. C’est dans le calorimètre électromagnétique que les électrons termineront leur parcours en déposant tout leur énergie en entrant dans celui-ci. On utilisa des couches successives de plomb et d’un scintillateur épaisses de 1mm. Les photons émis dans les scintillateurs sont accumulés et guidés vers des tubes photomultiplicateurs. Le calorimètre hadronique lui absorbera les hadrons qui ont traversés le calorimètre électromagnétique (pratiquement tous), sa forme est rectangulaire (deux blocs en forme de C) car le calorimètre est aussi le gigantesque aimant dont il a été question ci-dessus. Dans ce calorimètre, ce sont des couches de 5cm de fer et 1cm de scintillateur en alternance qui absorbent l’énergie des hadrons. L’endroit où l’énergie est déposée dans les calorimètres ainsi que l’intensité du signal développé permettent l’identification des particules ainsi que de leur énergie.

Finalement on retrouve, derrière tous les autres détecteurs, les détecteurs de muons. Ceux-ci sont des tubes à dérives. Ces tubes ne détecteront que des muons, les autres particules ayant été arrêter avant d’arriver à ce point. Ils ont une section rectangulaire de 5cm X 15cm et une longueur de quelques mètres. Les tubes sont montés ensemble de façon à avoir deux couches de tubes alignés dans un certain sens et deux couches de tubes alignés dans la direction perpendiculaire (aux deux couches précédentes). Le détecteur de muons est un empilement de ces paquets de 4 couches espacés d’environ 60cm. De cette façon, on peut déterminer avec une très grande précision la trajectoire des muons venant de l’accélérateur.

Il reste un élément complémentaire (qui fut mentionnée mais pas discuté) à ces détecteurs : le sélecteur de d’événement (electronic trigger). Cette pièce a la tâche de déterminer si un événement est ou pas un événement important, si on doit le garder ou le rejeter, c’est-à-dire si cet événement est susceptible de provenir de la création d’un boson W ou Z. Cette sélection se fait par des critères préétablis sur certaines caractéristiques (mesures des détecteurs) comme le momentum des particules, la trajectoire des particules ainsi que le synchronisme de deux événements (création de paires particule – antiparticule). Les temps d’acquisition de données est de l’ordre du nanoseconde, il se doit d’être aussi faible que possible; lorsqu’un événement est traité, un autre ne peut l’être en même temps. Les règles de sélection doivent être rigoureusement choisie, ni trop larges pour ne pas accumuler des données inutiles (qui pourrait faire manquer l’enregistrement d’un événement pertinent) ni trop strictes ce qui ferait rejeter des événements liés aux bosons W et Z. Après sélection, les données sont enregistrées sur bande magnétique pour ensuite être étudiés.

 

C’est suite à quelques années de préparation, de construction des détecteurs de 2000 tonnes UA1 et UA2 basée sur des principes simples mais rigoureux que le CERN put crier victoire au mois de janvier 1983 (après 2 ans d’enregistrement) après avoir fait la preuve de la création des bosons W± dans son collisionneur et aussi quelques mois plus tard, en mai de cette même année, après avoir trouvé le boson Z0, des particules massives de 80.3GeV et 91.2GeV!

 

5) Conclusion

À la lumière des explications et des développements qui ont fait l’objet de la discussion qui maintenant s’achève, nous sommes en mesure de dégager les concepts cruciaux dont la compréhension, le développement et l’application furent essentiels pour mener à terme la quête des bosons faibles. En effet, nous avons pu établir plusieurs parallèles entre le développement des idées nécessaires à la formulation d’une théorie et les considérations relatives aux symétries sous-tendues par le système faisant l’objet de cette théorie. C’est précisément le fait d’identifier ces symétries et de les traduire par des principes d’invariance concrets devant être respectés qui mène à l’introduction de champs de jauge appropriés à une symétrie donnée, ce qui par le fait même justifie la présence de ces champs et leur donne une raison d’être. Ces idées furent illustrées de façon concrète lors de la description du modèle unifié des interactions faible et électromagnétique élaboré par Weinberg et Salam. Ce dernier nous permit aussi de mettre en évidence l’importance cruciale du mécanisme de Higgs, dans la mesure où il permet de préserver l’invariance de jauge de la théorie tout en générant une masse aux bosons faibles. De plus, nous avons constaté que la théorie était intimement liée à l’expérience, par exemple, dans le cadre de l’évaluation de la masse des bosons versus l’énergie initiale des protons-antiprotons qui nous proposa différents types d’accélérateurs et façons de faire des collisions. Aussi, dans le but de percevoir la présence des couples leptons-antileptons attendus, la construction des détecteurs doit être adéquate et minutieusement réalisée. La désintégration des bosons en leptons-antileptons qui fut obtenue expérimentalement, ainsi que l’énergie qu’il fut alors possible d’attribuer à ce couple constituèrent un franc succès, caractérisé par un accord spectaculaire avec les prédictions théoriques.

Bibliographie

Bibliographie