LA THéoRIe éLeCTRoFAIBLe

 

V. La Théorie Électrofaible, par Janelle Morrier.

 

1. Introduction

 

Les interactions entre les particules élémentaires, dont l’impressionante variété n’a cessé d’étonner les physiciens, semblent pouvoir être classées en quatre catégories distinctes. Parmi ces quatre, l’électromagnétisme et la gravitation sont certainement les deux dont les effets nous sont les plus familiers. En effet, pendant que la gravitation nous maintient les pieds sur la Terre, l’électromagnétisme dirige la quasi-totalité des phénomènes de la vie courante. Vient ensuite l’interaction forte qui maintient les protons et les neutrons liés dans les noyaux atomiques, suivie de l’interaction faible, dernière en terme de jeu dans les phénomènes quotidiens, mais non indépendante des affaires humaines puisque responsable de la première étape dans la chaîne de réactions thermonucléaires du soleil.

 

Bien que chacune de ces interactions fondamentales ou champs entre les particules ait des caractéristiques très particulières telles que la constante de couplage ou encore les règles de conservation ou de sélection respectées, les dernières décennies ont amené la croyance que toutes ces interactions pourraient en fait être diverses facettes d’une seule interaction universelle. Selon ces vues, l'interaction universelle serait manifeste seulement à de très hautes énergies ce qui expliquerait qu’aux énergies de la vie courante et des laboratoires celle-ci se présente sous quatre aspects différents.

 

Comme nous l'avons vu à la section I, les physiciens tentent souvent de faire de telles simplifications afin d'arriver à comprendre le plus grand nombre de phénomènes possibles avec le plus petit nombre de lois ou principes fondamentaux possibles. C’est ainsi qu’en 1865, le physicien James-Clerck Maxwell réalisa la première unification de deux phénomènes en apparence distincts, les effets électrostatiques et les effets magnétiques en rendant compte en une seule théorie de l’électrodynamique et du magnétisme via ses fameuses quatre équations.

 

Au XXe, le développement de divers outils mathématiques tels que les théories de jauge (en particulier la QED), la renormalisabilité et les brisures de symétrie amena l'élaboration d'une théorie unifiée des interactions faible et électromagnétique. Cette théorie, qui porte le nom d'électrofaible, est amenée dans le présent travail avec les outils nécessaires et ce, de façon qualitative avec les outils nécessaires.

2. La Nécessité des Champs

 

Les interactions entre les particules élémentaires sont décrites par l’échange d’autres particules via le formalisme mathématique de la théorie des champs quantiques. Cette théorie est en fait une conséquence directe des deux plus grandes avancées de la physique moderne, la relativité et la mécanique quantique.

 

La théorie des champs quantiques est effectivement née, vers la fin des années 1920, de l’union de la relativité restreinte et de la mécanique quantique. Tout d’abord, le concept de champs découle directement de la relativité en faisant appel à la réflexion suivante : si à un certain temps initial donné une particule subit un choc, il est impossible que ce choc induise instantanément une variation de la force (peu importe le type) sur une particule située dans le voisinage de la première puisque, en accord avec la théorie de la relativité, toute information ou tout signal doit voyager avec une vitesse inférieure ou égale à celle de la lumière. Afin de respecter les principes de conservation d’énergie et d’impulsion en tout temps, nous devons alors admettre que la particule ayant reçu le choc initial émet un champ porteur à la fois d’énergie et d’impulsion qui est susceptible d’en transmettre une part à la particule voisine en se propageant. Si nous faisons alors intervenir la mécanique quantique sur ce champ, l’énergie et l’impulsion doivent être quantifiées et se propager par "paquets" ou quanta que nous associons aux particules élémentaires.

 

3. Théories de Jauge

 

Dans la nature, toutes les interactions fondamentales sont décrites par des théories de jauge. Ces théories sont très présentes dans la physique moderne et plusieurs sont bien connues :

Pour les physiciens des particules, il est crucial de bien comprendre le contenu et les approches particulières de ce type de théories. La théorie qui nous intéresse dans ce travail est, elle aussi, une théorie de jauge. Il sera ainsi important pour nous aussi de comprendre, à tout le moins qualitativement, cette catégorie de théories. Comme celles-ci découlent directement de l’invariance de jauge de l’électromagnétisme classique, c’est là que nous fixerons notre point de départ.

 

En électromagnétisme classique, le fait que le potentiel scalaire V ne soit pas défini entraîne ce que nous appelons une symétrie de jauge globale. En d’autres mots, ceci veut dire qu’un changement de la valeur de V en tout point n’a aucune conséquence physique. Cette symétrie globale assure une conservation globale, soit celle de la charge électrique. La charge totale de l’univers est donc une constante. Nous pouvons alors se demander s’il est possible de réduire cette symétrie globale à une symétrie locale qui nous mènerait à une conservation locale de la charge. La réponse à cette interrogation, qui fut à l'origine fournit par Maxwell en 1868, va comme suit : pour convertir cette conservation globale en une conservation locale, il est nécessaire de coupler les champs électriques et magnétiques. En effet, Maxwell observa que la loi d’Ampère, sous sa forme différentielle, était inconsistante avec la relation unissant le flux de courant et le taux de changement de la charge électrique, l’équation de continuité. Pour corriger cette situation, il devait rétablir la conservation de la charge dans un élément de volume, ce qu’il fît en introduisant un terme supplémentaire à la loi d’Ampère, terme ne dépendant que du champ magnétique.

 

Ce résultat peut être présenté sous un autre point de vue. Nous avons vu que la non-définition du potentiel scalaire V implique une symétrie globale de jauge qui conduit à une conservation globale de la charge. De la même façon qu’il a été nécessaire d’introduire un autre champ pour produire la conservation locale de la charge, il sera nécessaire d’introduire un autre potentiel pour obtenir la symétrie de jauge locale. Et comme le champ électrique était obtenu du premier, le champ magnétique sera obtenu de ce second potentiel, le potentiel vecteur A. La contribution de Maxwell à la loi d’Ampère modifie la façon dont le champ électrique est obtenu à partir du potentiel. Le potentiel vecteur A intervient maintenant aussi bien que le potentiel scalaire V. Le résultat de tout ceci est une symétrie de jauge locale qui implique que A et V ne sont pas uniques pour des champs électrique et magnétique donnés. L’invariance de jauge locale correspondante est la suivante : les équations conduisant aux champs électriques et magnétiques sont inchangées sous des transformations arbitraires, mais couplées en A et V. La corrélation entre A et V est importante. V peut en effet être différent en tout point (symétrie locale) et n'est ainsi pas resteint à changé partout à la fois (symétrie globale) si des changements compensateurs sont subits par A en même temps. En somme, cet exemple de l’électromagnétisme classique nous montre que pour passer d’une symétrie globale à une symétrie locale, un nouveau champ doit être introduit.

 

Notons par ailleurs que ce résultat est applicable à toutes les théories de jauge. Examinons, à titre d'exemple, la relativité. La relativité est une théorie de jauge qui a suivit le même tracé que celui décrit ci-haut. Les transformations globales des coordonnées de l’espace-temps sont amenées vers des transformations locales par le biais de l’introduction d’un champ, la gravité. Le résultat de cette introduction est la théorie de jauge de la relativité.

 

Concentrons nous maintenant sur l'invariance de jauge électromagnétique en mécanique quantique. De la même façon que la valeur du potentiel V était indéfinie, la phase globale d'une fonction d'onde ne l'est pas non plus. La mesure des observables en mécanique quantique est donc globalement invariante sous un changement de phase du type:

Cette symétrie est dite globale dans la mesure où f peut prendre n'importe quelle valeur et n'a aucune dépendance en x ou t. Ce dernier point nous indique qu'une transformation locale de phase doit plutôt s'écrire:

Cette nouvelle transformation ne respecte cependant pas l'équation de Schrödinger d'une particule libre. Voyons alors comment introduire la symétrie locale dans ce cas. Si nous suivons les indications classiques dont nous venons de traiter, les changements induits par une transformation locale seront compensés par l'introduction d'un nouveau champ. Mais cette approche implique l'introduction d'un terme de force dans l'équation de Schrödinger qui ne décrira donc plus une particule libre et l'invariance reflètera notre incapacité à distinguer un mouvement de la particule dû à un changement de phase local et un même mouvement dû à l'introduction d'un nouveau champ. Le champ compensateur qui doit être introduire ici est le champ électromagnétique. Cette introduction nous oblige, de façon à être consistant avec nos considérations classiques, à respecter une corrélation entre les transformations de phase et de jauge. L'importance de la corrélation est d'ailleurs manifeste dans le fait que l'équation de Schrödinger n'est respectée que si les transformations sont faites simultanément. Sous ces conditions, l'équation de Schrödinger est dite invariante de jauge puisqu'elle préserve sa forme sous ces changements.

 

Comme nous l'avions mentionné, l'équation de Schrödinger n'est plus celle d'une particule libre et inclut désormais le champ électromagnétique. Sans obtenir cette nouvelle équation, il est à noter que la différence entre les deux (celle de la particule libre et celle contenant le champ) est l'ajout des terme QA dans la dérivée spatiale et QV dans la dérivée temporelle, où Q est la charge électrique de la particule impliquée.

 

En somme, l'élaboration d'une théorie de jauge se résume à:

 

  1. Théorie de Yang-Mills
  2.  

    L'impressionnant accord de la QED, théorie de jauge décrivant l'interaction électromagnétique, avec l'expérimentation poussa les théoriciens vers la recherhce d'une théorie de jauge pour l'interaction forte. Le premier essai dans cette voie fut réalisé par Yang et Mills en 1954. Cette théorie, qui s'avéra finalement plus ou moins infructueuse, sera utile dans la suite de notre étude sur la théorie électrofaible, nous la présenterons donc rapidement.

     

    Nous avons établi que la première étape pour la construction d'une théorie de jauge est l’identification d’une symétrie globale. Yang et Mills posèrent donc leur but de la façon suivante : obtenir une théorie de l’interaction forte en convertissant symétrie globale de l’invariance de l’isospin, propre à cette interaction, en symétrie locale.

     

    Plus simplement, la symétrie globale qu’ils identifièrent était l’invariance sous interchange des protons et des neutrons en l’absence de l’interaction électromagnétique. Cette symétrie était alors écrite sous forme de transformation de la façon suivante :

     

     

    La prochaine étape était maintenant la conversion de cette symétrie applicable globalement pour qu’elle le devienne localement. Pour ce faire, la transformation devait être modifier pour inclure une "charge" et montrer une dépendance au temps et à l’espace. Un nouveau champ devait également être introduit pour contrebalancer la transformation. En réalité, c’est quatre champs compensateurs que Yang et Mills injectèrent dans leur théorie. Sans entrer dans les détails, disons simplement que le nombre de champs à introduire était dicté par les deux composantes de la fonction d’onde et par l’appartenance de la transformation au groupe SU(2). Le premier de ces champs était de masse et d’isospin nuls et fut associée au photon. Les trois autres, assemblés dans un triplet, étaient également de masse nulle, mais possédaient un isospin. Ils avaient donc des charges respectives de +1, 0 et -1. De telles particules étaient considérées comme impossibles car elles présentaient des propriétés qui n’auraient pas pu échapper aux techniques de détection. Cette théorie fut donc abandonnée.

     

  3. De Yang-Mills à l'Électrofaible
  4.  

    L'existence de théories de jauge pour la description des interactions forte (QCD), électromagnétique (QED) et gravitationnelle (relativité) a inévitablement conduit à la recherche d'une telle théorie pour la description de la quatrième interaction, l'interaction faible. En la développement, les physiciens furent surpris de constater que la théorie obtenue rendait non seulement compte de la force faible, mais incluait également l'interaction électromagnétique et donnait une origine commune à ces deux interactions. Chose encore plus surprenante, cette théorie de jauge découlait directement de la théorie de Yang-Mills dont le but initial avait pourtant été la description de l'interaction forte.

     

    Comme nous l'avons vu au point précédent, l'approche de Yang-Mills introduit quatre champs de jauge. Dans le cadre d'une théorie électrofaible, le premier est évidemment associé au photon de masse nulle. Les trois autres, ayant également des masses nulles, mais cette fois des valeurs d'isospin de 0, ± 1 et de charges électriques de 0, ± 1 auraient difficilement pu échapper à l'observation. Pour éviter que cette approche ne soit complètement rejetée, il fallut supposer que ces trois particules avaient des masses très élevées en conséquence de quoi elles ne pouvaient pas être produites dans les accélérateurs de l'époque.

     

    De telles considérations sur la masse de ces bosons intermédiaires hypothétiques (le terme bosons réferrant à toute la classe des particules ayant un moment angulaire multiple entier de la constante de Planck) menèrent à des problèmes encore plus difficiles. En effet, en attribuant une masse à ces trois champs de jauge, les théoriciens se devaient d'expliquer le processus par lequel cette masse était produite. De plus, si ces bosons intermédiaires possédaient une masse, il s'agissait d'une violation de l'invariance de jauge puisque l'invariant de jauge de l'électromagnétisme avait un photon de masse nulle. L'invariance de jauge n'en était pas moins un prérequis pour développer une théorie de jauge et pour s'assurer que la théorie pouvait possiblement être finie ou renormalisable.

     

  5. Renormalisation & Difficultés de l'interaction faible

 

Avant de continuer, nous nous devons maintenant de définir ce qu'est la renormalisabilité. Les corrections radiatives des théories de jauge décrivant les interactions entre les particules élémenatires génèrent normalement des divergences. Il fut d'ailleurs démontré, dans les années 1930, que les contributions dues à des processus plus complexes que le simple échange d'une particule étaient généralement inifinies. Ces divergences proviennent du calcul des boucles dans les diagrammes de Feynman. À titre d'exemple, considérons le cas d'un photon virtuel émis et réabsorbé par un électron tel que décrit par la figure ci-contre:

Figure No.1: Émission et Réabsorption d'un photon par un électron

 

En fait, les divergences peuvent être attribuées au fait que l'énergie et l'impulsion peuvent être transportées d'un point à un autre d'une infinité de façons dans ces boucles. Vers la fin des années 1940, les efforts de quelques jeunes théoriciens travaillant indépendemment (Feynman, Schwinger, Tomanaga) permirent de résoudre ce problème pour une certaine classe de théories de champ, dont les théories de jauge non abélienne, ce qui leur value de partager le prix nobel de 1965. Ils montrèrent que les infinis apparaissent seulement comme des renormalisations ou corrections des paramètres fondamentaux de la théorie tels que la masse ou la charge et peuvent ainsi être éliminés si en identifiant le paramètre renormalisé en utilisant les valeurs mesurées listées dans les tables de constantes fondamentales. Par exemple, la masse mesurée pour l'électron est la somme de sa masse de "bare" et de la masse associée à sa "self-energy" électromagnétique, la boucle. Pour que la mesure de la masse soit finie, la masse de "bare" doit être un infini négatif de façon à annuler l'infini positif de la boucle. Évidemment, la masse ou la charge de "bare" de l'électron ne sont jamais observées puisque celui-ci est toujours entouré d'un nuage de particules virtuelles. En somme, la renormalisation est le processus par lequel nous devons trouver, pour chaque infini, un infini de signe opposé pour que ces deux infinis se cancèlent mutuellement et laissent un résultat fini, la masse ou la charge observée. Ce processus requière obligatoirement une théorie hautement symétrique pour que tous les infinis trouvent leur contre-partie. Les symétries de jauge ont donc une importance particulière dans le cadre de la renormalisation. Bien que la procédure de renormalisation puisse semblée peu justifiée, elle repose en fait sur une interprétation physique qui dépasse le cadre de ce travail.

 

Notons également que l'ancienne théorie de l'interaction faible, proposée par Fermi, n'était pas renormalisable, mais nous aborderons ce problème de l'infini dans l'interaction faible plus loin. À ce point, le développement d'une nouvelle théorie de l'interaction faible semblait presque impossible. En effet, plusieurs points la rendaient difficile à construire. Premièrement, l'invariance de jauge semblait requise pour construire une théorie renormalisable. Deuxièmement, les bosons intermédiaires devaient être suffisamment lourds pour échapper encore et finalement, ces bosons de jauge, de par leur masse non nulle, brisaient l'invariance de jauge ce qui redonnait une théorie non renormalisable. Une solution émergea cependant par le biais de ce qui fut appelé une brisure de symétrie spontanée.

 

7. Brisures de Symétrie, Mécanisme de Goldstone & de Higgs

 

Les notions de symétrie jouent souvent un rôle important en science. En physique, cette importance s'est nettement accentuée avec la venue de la mécanique quantique. En effet, les niveaux d'énergie des systèmes quantiques soumis à des conditions de symétrie données forment en général une famille bien définie et reconnaissable. Dans le langage mathématique, le terme "groupe" refère à l'ensemble des opérations mathématiques sur un champ qui laisse les équations de champ invariantes ; un niveau d'énergie donné forme alors une représentation de ce groupe.

 

Pour bien comprendre les brisures spontanées de symétrie, nous nous devons d'examiner d'abord les systèmes ayant des symétries cachées. L'exemple le plus connu d'un tel système est sans aucun doute celui de la tige de fer. À hautes températures, les moments magnétiques des atomes de Fer individuels pointent dans des directions purement aléatoires. Le système est ainsi invariant ou symétrique sous une rotation dans l'espace puisqu'une telle transformation laisse les propriétés magnétiques de la tige inchangées. Quand la température descend sous le seuil fixé par la température de Curie, les interactions entre les dipôles les forces à s'aligner tous selon une direction unique. Avant la transition survenue à la température de Curie, le système présentait une symétrie sous n'importe quelle rotation en trois dimensions (3D). Suite à la rotation, le système a perdu des degrés de symétrie puisqu'il est maintenant invariant uniquement sous une rotation autour de l'axe d'alignement des dipôles. La symétrie tridimensionnelle a été spontanément brisée, à la température de Curie, en une symétrie bidimensionnelle.

 

Dans l'exemple que nous venons de voir, de même que dans tous les processus de brisures de symétrie, il est important de noter que l'état final de symétrie moindre ne peut pas être prédit parmi l'infinité d'états possibles (la direction dans laquelle s'alignent les dipôles de l'exemple est totalement aléatoire). De plus, la symétrie initiale ne peut pas être observée à partir de l'état final, elle est dite cachée. Finalement, il existe toujours un point critique d'une certaine quantité (température dans le cas de la tige) au-delà duquel la brisure survient.

 

En 1961, Goldstone fit un pas en avant pour la construction de la théorie de jauge recherchée pour l'interaction faible en étudiant les brisures spontanées de symétrie globale, maintenant connues comme mécanismes de Goldstone. Ces mécanismes étant quelque peu en dehors du cadre de ce travail, nous n'en ferons qu'une brève présentation. Pour les présenter, considérons un potentiel de la forme:

 

m et l sont constants. Ce potentiel est présenté à la figure 2-a pour m2 > 0 où nous voyons clairement qu'il présente un minimum à Y = 0 et qu'il est invariant, ou symétrique, sous une transformation globale de la phase par un facteur arbitraire: Y Y' = eifY. Quand le paramètre m2 passe sous sa valeur critique (à m =0), m2 < 0 (donc quand m devient imaginaire), le minimum du potentiel est cette fois un cercle du plan complexe comme nous pouvons l'observer à la figure 2-b. Comme m est imaginaire, une transformation globale de la phase change l'importance relative des parties imaginaire et réelle qui sont maintenant indépendante. Le nouveau potentiel n'est donc plus symétrique. Même si le développement est trop long pour être présenté ici, il nous faut noter qu'au moment où la symétrie est brisée (à m =0), le champ Y se brise en deux champs scalaires, le premier est de masse nulle et porte le nom de boson de Goldstone alors que le second a une masse.

Figure No.2-a: m2 > 0

Figure No.2-b: m2 < 0

 

En suivant la voie tracée par Goldstone, Higgs développa un mécanisme de brisure spontanée de symétrie locale, désormais appelé mécanisme de Higgs, faisant toujours partie intégrante du modèle standard. Pour ce faire, il utilisa une transformation locale de phase du même type que celles utilisées en QED, mais que nous ne présenterons pas ici. Nous noterons cependant que ces transformations appartiennent au groupe U(1), groupe de transformations unitaires en une dimension (1D). Dans son mécanisme, Higgs compensa cette transformation par un champ qui, comme celui du photon, est vectoriel. En utilisant alors un potentiel de la forme de celui de la figure 2-b, Higgs obtint deux champs scalaires, l'un massif et l'autre impondérable, en plus d'un champ vectoriel par brisure de symétrie locale. Il montra ensuite que par une série de transformations de jauge appropriées, le boson de Goldstone disparaît et le champ vectoriel acquière une masse. Plus tard, ce résultat surprenant fut décrit qualitativement en terme d'une particule vectorielle qui prend du poids en avalant le boson de Goldstone!

 

8. Théorie Électrofaible, Bosons de Jauge & particule de Higgs

 

8.1 Historique

Toutes les notions que nous venons de développer nous permettent maintenant de présenter l'essence de la théorie électrofaible. Soulignons tout d'abord les principaux événements historiques de son développement. C'est Glashow, en 1961, qui élabora la première esquisse de la théorie électrofaible, mais aucun moyen n'était alors connu pour faire acquérir de la masse aux bosons de jauge puisque le mécanisme de Higgs ne fut élaboré qu'en 1964. L'application de ce mécanisme à la théorie, en 1967, fut la contribution originale de deux physiciens travaillant indépendemment, Salam et Weinberg. Quatre ans plus tard, la théorie gagna en crédibilité lorsque t'Hoof démontra sa renormalisibilité. Elle était alors très intéressante et prédisait un phénomène nouveau que nous présenterons plus loin : les courants neutres. Depuis longtemps, les physiciens croyaient que l'interaction faible était véhiculée par des particules trop lourdes pour être observer avec les accélérateurs de l'époque. Ces particules avaient une charge positive ou négative et furent nommées W+ et W-. Elles étaient cependant purement hypothétiques et même considérées comme des outils mathématiques par certains. La nouveauté du modèle de Weinberg-Salam était la prédiction d'une troisième particule, nommée plus tard Z0, vecteur neutre (charge nulle) de l'interaction faible. Du point de vue expérimental, cette prédiction posait problème puisqu'elle impliquait l'existence de réactions faibles dans lesquelles les charges des particules n'étaient pas affectées et que ce type d'interactions n'avait encore jamais été observé. Il fallut attendre 1973 pour que la découverte des courants neutres soit annoncée et encore 10 ans avant que les trois particules véhiculant l'interaction faible (W+, W-, Z0 ) soient observées directement (1983). L'observation de 1983 fut la dernière phase de la confirmation de la théorie électrofaible qui avait déjà été couronné par la remise du prix nobel de physique de 1979 à Weinberg, Salam et Glashow.

 

8.2 Théorie U(1) x SU(2)

 

Nous avons déjà mentionné que la théorie électrofaible pose ses fondations sur celle de Yang-Mills. Demandons-nous maintenant ce que cette théorie, basée sur la symétrie globale SU(2) de l'isospin, apporte à l'explication de l'interaction faible sachant que l'isospin est une caractéristique propre à l'interaction forte. De prime abord, la fonction d'onde à deux composantes du nucléon, , est comparable à celle de l'électron et de son neutrino, (nous aurions également pu choisir les autres leptons). Comme l'interaction faible ne conserve pas la parité, nous devons considérer une hélicité particulière, soit L (left) puisque les composantes d'hélicité R n'interagissent pas faiblement. Pour pouvoir user de la théorie de Yang-Mills, nous devons introduire une quantité semblable à l'isospin du nucléon pour l'électron et le neutrino. L'isospin faible est alors définit, TW, avec Tw z = +1/2 pour le neutrino et Tw z = -1/2 pour l’électron. Évidemment, l’isospin faible n’a rien en commun avec l’isospin usuel, mais il est utile car il permet l’utilisation de la théorie SU(2).

 

Voyons maintenant comment l’interaction électromagnétique entre en jeu dans cette théorie. Il est bien connu que les réactions impliquant l’interaction ne produisent que des électrons d’hélicité L et ce, bien que les deux états soient possibles. Comme la théorie ne serait pas complète si l’un de des états d’hélicité était inclu (L) et l’autre exclu (R), nous devons faire appel à la force électromagnétique qui, en respectant la conservation de la parité, traite de façon équivalente les deux hélicités et permet ainsi l'introduction de l’état R (right) dans la théorie.

 

La théorie électrofaible comprend donc les invariances de jauge U(1), invariance de phase locale également présente dans la QED, et SU(2)L, invariance de phase locale de la théorie de Yang-Mills. Pour cette raison, elle est souvent désignée comme la théorie U(1) x SU(2)L.

 

8.3 Champs de jauge

 

Comme nous l'avons vu quand nous avons présenté les théories de jauge (au point 2.), les changements locals doivent être compensés par l'introduction de quatre champs de jauge. À U(1) sera associé le champ A et à SU(2)L les champs B1, B2 et B3. Les particules véhiculant les interactions décrites par cette théorie sont alors des combinaisons de ces divers champs. La théorie montre en effet que:

où l'angle qw (weak mixing angle) est une constante devant être déterminée expérimentalement et où, à l'inverse des champs A et B3 qui sont neutres, B1 et B2 ont une charge électrique associée.

Ces dernières considérations nous permettent de noter que les notions de champ de particule sont maintenant intimemment liées.

 

8.4 Brisure de la symétrie électrofaible

 

La brisure de symétrie décomposant l'interaction électrofaible en deux interactions (faible et électromagnétique) présente un niveau de symétrie moins élevé. La transistion de phase de cette brisure est la suivante:

 

SU(2)L x U(1) [électrofaible]→ SU(2)L [faible] + U(1) [électromagnétique]

 

Il est alors légitime de se demander ce qui cause cette brisure. Il se trouve que le potentiel de l'interaction électrofaible possède la symétrie SU(2)L x U(1) au delà d'une énergie d'environ 100 GeV. En deça de cette énergie, les niveaux d'énergie sont dégénérés et la symétrie est brisée. Cette forme particulière du potentiel est due au fait que d'autres champs ne présentant pas la même symétrie se supperposent à ceux de l'interaction électrofaible à basse énergie. Ces champs sont les champs de Higgs (présentés à la section suivante). À partir d'un certain seuil d'énergie, l'effet de ces champs, qui n'est pas décelable à haute énergie, affecte la forme du potentiel au point de provoquer la dégénérescence des états d'énergie et, par le fait même, la brisure de la symétrie électrofaible.

 

8.5 Particule de Higgs

 

Abordons maintenant la méthode par laquelle les particules Z0 et W± acquièrent une masse. Via les brisures de symétrie spontanées, quatre champs scalaires (champs de Higgs) sont introduits, deux neutres et deux chargés. Les deux porteurs de charge nous donnent une masse pour les W± pendant que l'un des neutres nous donne celle du Z0. Il est également possible de démontrer que ces trois particules de Higgs disparaissent sous une certaine transformation de jauge. Pour ce qui est du second champ scalaire neutre, il n'est pas éliminé, ce qui fait de lui une particule réelle.

Cette particule, le F0, est connue sous le nom de particule de Higgs et a des caractéristiques pour le moins surprenantes. En effet, contrairement à toutes les particules connues, la valeur de son champ n'est pas nulle dans le vide ce qui implique que pour retirer cette particule du vide, il faut fournir de l'énergie. De façon plus qualitative, le vide ne contient habituellement aucune particule lorsqu'il se trouve dans son état d'énergie minimale, mais cette tendance générale (il en est ainsi pour toutes les autres particules connues) n'est pas vraie pour la particule de Higgs. C'est donc dire que le vide serait en quelque sorte discontinu à une échelle de 10-18m. La conséquence la plus importante de cette propriété exentrique du F0 est la conservation de la symétrie cachée.

 

8.6 Rôle des Bosons faibles

 

Sachant que les interactions fondamentales sont véhiculées par des particules élémentaires, Yukawa utilisa le principe d’incertitude de la mécanique quantique pour dériver une relation simple reliant la portée d’une interaction à la masse de la particule échangée :

Cette équation lui permit de conclure que la portée d’une interaction est inversement proportionnelle à la masse de la particule d’échange. Selon cette approche, l’électromagnétisme doit être véhiculé par une particule impondérable puisqu’il présente une portée infinie et la petitesse de la portée de l’interaction faible implique une masse importante des particules la véhiculant.

 

C’est sur la base de ces considérations et de certaines observations (observations qui démontraient que le moment angulaire de la particule échangée lors d’une interaction faible avait la même valeur que celui du photon isolé porteur de l’interaction électromagnétique) que se sont développées les croyances voulant qu’il existe une relation profonde entre les interactions faible et électromagnétique. Les particules massives hypothétiques porteuses de l’interaction faible reçurent le nom de bosons intermédiaires, le terme boson référant à la classe des particules ayant un moment angulaire multiple entier de la constante de Planck et la différence entre les forces apparente des deux interactions fut attribuée à la masse de ces bosons.

 

Dans le contexte de la théorie électrofaible, les particules présentant les caractéristiques des bosons intermédiaires sont les W±. Ces particules sont donc responsables des interactions faibles standards telles que la décroissance b ou la dispersion des neutrinos dans lesquelles survient un changement de la charge des particules interagissant. Ces processus impliquent donc des quarks, mais aussi des leptons. Il est finalement intéressant de noter que le W+ interagit de la même façon avec ces deux types de particules comme nous le verrons plus loin (9.6).

 

8.7 Courants Neutres et Prédiction du Quark C

 

Lors de leur prédiction par la théorie électrofaible, les W± venaient expliquer des réactions faibles bien connues. À l’inverse, la prédiction du Z0 posait problème puisque aucune réaction faible sans changement de charge des particules n’était alors connue. Les grands laboratoires se mirent donc à la recherche de ce type de processus qui furent observés pour la première fois dans une chambre à bulle du CERN en 1973. Cette belle prédiction de la théorie de Weinberg et Salam amenait toutefois d’autres problèmes comme nous le verons en abordant quelques notions sur les quarks.

Les premières mesures du taux de décroissance semi-leptonique des particules étranges, telles que:

 

S- → n + e- + (1)

 

caracrtérisée par DS = 1 (S = étrangeté), montrèrent qu'il était plus petit que celui des transitions conservant l'étrangeté (DS = 0), telles que:

 

n → p + e- + (2)

 

Il fut également noter que la valeur de la constante de Fermi G déduite à partir de la décroissance nucléaire b était nettement inférieure à celle obtenue en considérant la décroissance du muon:

m → e- + + (3)

 

La théorie de Cabibbo, élaborée en 1963, rendit compte de ces facteurs entre les divers taux de décroissance faible. Elle montra que si la constante de Fermi d'une réaction purement leptonique est G, alors celles des décroissances DS = 0 et DS = 1 sont respectivement Gcosqc et Gsinqc. Les quarks s (strange) et d (down) participant à l'interaction n'étaient pas considérés comme des états pures mais plutôt comme des états mélangés par un angle de mélange qc appelé angle de Cabibbo. Notons que les seuls quark connus à cet époque étaient u (up), s et d.

 

Au niveau des quarks, l'approche de Cabibbo signifiait que les différents quarks n'interagissaient pas tous avec la même force avec W+. Dans le cadre de la théorie électrofaible, nous avons introduit (voir 9.2) une fonction d'onde à deux composantes pour les familles de leptons telle que: avec les isospins faibles . Dans la théorie de Cabibbo, les quarks peuvent être traités de la même façon: où dc est l'état mixte dcosqc + scosqc et où les isospin faible sont .

 

Ce modèle de Cabibbo fonctionnait bien pour les courants chargés (réactions impliquant un W±), mais les courants neutres posaient problèmes. La difficulté survenait lors d'une éventuelle interaction entre le Z0 et l'état mixte des quarks s et d. Une telle interaction rendait en effet possible les courants neutres avec changement d'étrangeté alors que de tels processus n'avaitent jamais été observés.

 

En 1970, ce nouveau problème fut résolu par une proposition de Glashow, Iliopoulos et Maiani (GIM.) Ils proposèrent l'existence du quark c (charme) amenant le nouveau doublet . Ce nouveau doublet, dans lequel sc = dcosqc - scosqc, venait annulé le processus problématique s→ d parce que sc et dc sont orthogonaux et sont toujours présents ensemble dans les courants neutres. Cette solution, maintenant appelée mécanisme de GIM, reçut une splendide confirmation en 1974 avec l'observation du quark c au SLAC et à Cornell indépendemment.

 

En travaillant avec une approche semblable à celle ayant donné le mécanisme de GIM, Kobayashi et Maskawa introduisirent, en 1972, un troisième doublet de quarks, composé de deux nouveaux quarks t (top) et b (bottom). Le quark bc est un état mixte beaucoup plus compliqué que les deux autres. Avec ce troisième doublet, la théorie électrofaible présente une étonnante symétrie entre les familles de quarks et de leptons:

, , par rapport à , ,

Sans entrer dans les détails, mentionnons que des principes, autres que la beauté de la symétrie de ces familles, font croire aux théoriciens que cette symétrie serait conservée, et ce même si d'autres quarks ou leptons venaient à être découverts.

 

8.8 Le Volet Expérimental

 

La théorie électrofaible a connu des succès expérimentaux importants depuis son élaboration. Les confirmations majeures, que nous avons pour la plupart déjà mentionnées au cours de la présentation de la théorie sont répétées ici:

L'angle de Cabibbo introduit dans le processus menant à la prédiction du quark C est un paramètre non défini de la théorie qui peut être obtenu expérimentalement. Comme il existe plusieurs méthodes expérimentales pour l'évaluation de cette quantité, l'accord des diverses mesure constitue un bon test à la théorie. L'ensemble de ces déterminations donnent qW ≈ 13˚.

 

La dernière accréditation ne fut pas importante simplement en raison de la découverte des particules prédites (W± et Z0). En effet, son caractère impressionnant résidait dans le fait que les particules avaient grossièrement les masses prédites par la théorie. Cette confirmation définitive de la théorie value le prix nobel de physique de 1984 à Rubbia et van der Meer, tous deux du CERN.

 

9. Conclusion

 

Nous avons vu les outils qui ont mené à l'élaboration de la théorie électrofaible et nous avons examiné les principales caractéristiques de cette théorie. Il s'agit d'une théorie de jauge renormalisable qui se base sur un principe de brisure spontanée de symétrie locale. Nous avons également présenté les principales confirmations expérimentales qui montre le bon accord de cette théorie avec la nature. Il est également à noter que cette théorie retombe sur celle de Fermi de l'interaction faible dans la limite de basse énergie. Nous pouvons donc affirmer que cette théorie constitue une bonne description des interactions faible et électromagnétique.

 

Les expériences actuelles concernant la théorie électrofaible en physique des particules ont pour but sa fermeture par la découverte du boson de Higgs. Bien qu'il n'y ait aucune prédiction quant à sa masse et qu'il y ait encore beaucoup d'incertitude concernant son existence même, cette particule fait l'objet d'intenses recherches car sa découverte revêt une importance particulière. Il s'agit en effet d'un élément crucial de la théorie électrofaible puisque sans cette particule nous n'avons aucun moyen de faire acquérir une masse aux bosons intermédiaires de l'interaction faible. Ceci est aussi vrai pour toutes les autres particules, donc pour toute la matière.

 

Présentement, la physique des particules repose entièrement sur le modèle standard (MS). Ce modèle inclut la théorie de la chromodynamique quantique et la théorie électrofaible en une seule, présente donc la description de trois des quatre interactions fondamentales connues, soient les nucléaires forte et faible et l'électromagnétisme. D'une certaine façon, nous pouvons dire que le modèle standard n'inclut pas seulement ces trois interactions, mais aussi une cinquième dont le médiateur est le boson de Higgs puisque la masse des particules est expliquée par l'interaction avec cette particule. En somme, les prochaines années seront déterminantes pour ce modèle car il devra être fortement amender s'il s'avérait que la particules de Higgs n'existe pas. Dans ce cas, nous devrions également élaborer un nouveau processus expliquant la masse des particules qui composent la matière.

 

K Retour à la page d'accueil