Catégorie : Physique

L’expérience de William Bertozzi

Vraie ou fausse preuve la théorie de la relativité ?

Introduction :

               En 1964, l’expérience de William Bertozzi  a été considérée comme une preuve de la théorie de la relativité. À la sortie d’un accélérateur linéaire, la vitesse d’un électron ne pouvait dépasser la vitesse de la lumière.

               Depuis, tous les cours de physique présentent cette expérience comme une validation de la théorie de la relativité restreinte. Aujourd’hui encore, elle conserve son rôle didactique. On en trouve la description sur INTERNET. Des commentaires et des exercices à l’intention des étudiants sont disponibles sur de nombreux sites.

 

Quels sont les résultats de cette expérience ?

               Les résultats de William Bertozzi tiennent dans une liste de cinq mesures. La figure 1 présente les quatre premières valeurs de la vitesse d’un électron en fonction du rapport k de son énergie cinétique à son énergie au repos.

Formule relativiste : rapport énergie cinétique sur énergie au repos de l’électronFigure 1 : Formule relativiste : rapport énergie cinétique sur énergie au repos de l’électron.

               Dans cette figure, les points marqués d’une croix sont les quatre premières  mesures de William Bertozzi, la cinquième (v=c pour k=30) n’étant pas significative n’a pas été retenue. La courbe en rouge correspond aux valeurs prédites par la théorie de la relativité restreinte. Elles ne sont pas parfaitement conformes aux observations.

               Comment doit-on interpréter les différences observées entre mesures et théorie ? Correspondent-elles à des erreurs de mesure ? Résultent-elles d’erreurs théoriques ?

 

 

Une analyse basée sur les théories antérieures :

               Avant l’apparition de la théorie de la relativité, la science disposait de l’ensemble des  théories nécessaires à l’étude d’un accélérateur linéaire. Citons par ordre chronologique :

  • L’électromagnétisme, complété en 1865 par les équations de Maxwell,
  • La masse de l’énergie, définie par la formule E=m.c2 établie par Poincaré en 1900.
  • Le principe de relativité proposé en septembre 1904, par Poincaré.
  • Enfin, les équations de changement de base entre repères relativistes, explicitées par Poincaré en juin 1905. Ces formules ont été appelées par Poincaré « transformations de Lorentz » en hommage au célèbre physicien, conservent les lois de l’électromagnétisme.

 

Les équations de Maxwell sont très antérieures à la théorie de la relativité. La transformation de  Lorentz ne  sera pas utilisée, bien qu’elle conserve son utilité comme formules de changement de repère. L’analyse de l’expérience de William Bertozzi ne fera donc appel qu’à la physique classique.

 

Un calcul résolument non relativiste :

               Les résultats obtenus par William Bertozzi se calculent également très simplement en faisant les hypothèses suivantes, différentes de celles retenues habituellement :

  • L’énergie de l’électron au repos se partage en parties égales entre sa masse mécanique et l’énergie de son champ électromagnétique calculée selon les formules de l’électromagnétisme classique.
  • L’énergie de son champ électromagnétique est calculée en faisant appel à une représentation ondulatoire du champ électromagnétique.

 

Nous obtenons ainsi une expression de l’énergie totale en fonction de la vitesse, directement liée au potentiel appliqué à l’accélérateur linéaire. Les prévisions sont alors parfaitement conformes aux observations de William Bertozzi :

Formule proposée : rapport énergie totale sur énergie au repos de l’électronFigure 2 : Formule proposée : rapport énergie totale sur énergie au repos de l’électron.

 

Comme dans la figure précédente,  les points marqués d’une croix sont les quatre premières  mesures de William Bertozzi. La courbe en bleu de la figure 2 correspond aux valeurs prédites par la physique classique, compte tenu d’une nouvelle hypothèse présentée ci-dessous.

 

Une expression nouvelle de l’énergie de l’électron :

               Selon ce nouveau mode de calcul, l’énergie cinétique totale de l’électron correspond à la somme de l’énergie cinétique de sa masse mécanique calculée par la formule de la mécanique classique (la masse étant supposée constante avec la vitesse), et de l’énergie du champ électromagnétique de l’électron calculée à partir d’une analyse ondulatoire.

               L’énergie cinétique de la masse mécanique de l’électron considéré comme une particule est alors, en admettant que la masse mécanique de l’électron est m = E/c2 et β = v/c :

Selon cette hypothèse, le champ accompagnant l’électron mobile correspondrait à l’énergie de deux ondes directes et rétrogrades dont la somme est le champ observé dans le repère fixe. Puisque la charge électrique des mobiles est conservée l’énergie cinétique du champ électrique de l’électron mobile serait selon cette hypothèse :

                L’énergie cinétique totale de l’électron rapportée à son énergie au repos W0 serait donc de la forme suivante :

               L’accélération de l’électron se calcule à partir de la loi fondamentale de la mécanique :

Soit :     

Ce qui donne finalement  l’accélération de l’électron et donc sa masse :

Bien évidemment, l’intégration de l’accélération au cours du temps conduit à la vitesse, puis à la distance parcourue dans l’accélérateur. Par ailleurs, on peut vérifier que l’énergie acquise par l’électron correspond alors au produit de sa charge par le potentiel appliqué. Ceci correspond parfaitement aux résultats de William Bertozzi.

 

Comparaison entre théorie et expérience :

               La comparaison entre théorie et expérience conduit aux valeurs de la figure 3. Dans ce graphique, nous avons souhaité  mettre en évidence les écarts entre les mesures réalisées par Bertozzi et les résultats théoriques correspondant au deux formules : la formule classique et de la nouvelle formule proposée ci-dessus. L’abscisse correspond à la vitesse réduite de l’électron (rapport entre la vitesse mesurée et la vitesse de la lumière). L’ordonnée correspond à l’écart en pourcentage entre la valeur de l’énergie appliquée à l’électron et les valeurs calculées avec les deux formules.

Comparaison entre théories et expérience (écarts en %)Figure 3 : Comparaison entre théories et expérience (écarts en %).

  • La courbe rouge correspond à l’écart entre les mesures et la théorie nouvelle,
  • La courbe bleue à l’écart entre les mesures et la théorie de la relativité restreinte.

 

               Ces deux courbes présentent ainsi, en fonction de la vitesse des électrons, les différences (en pourcentage) entre les énergies réellement appliquées et celles calculées avec les deux formules. La cinquième valeur de vitesse mesurée par Bertozzi a été v =c. Cette dernière mesure correspond à un temps de 2,8 ns connu avec une précision insuffisante à l’époque pour conduire à une mesure de vitesse significative.

En effet, en 1964, la qualité des mesures des très hautes tensions, et l’imprécision des mesures de vitesse à partir de photos d’écrans d’un oscilloscope suffisent à expliquer l’écart restant entre les mesures les résultats théoriques.  Quelle que soit la formule de calcul, l’énergie de l’électron serait infinie pour la valeur v = c). Le 5° point de ces courbes a donc pris en compte une valeur corrigée de la vitesse de l’électron, légèrement inférieure à c, assurant la meilleure extrapolation possible des deux courbes théoriques.  Les différences entre la théorie alternative et les résultats de William Bertozzi ne sont donc pas significatifs.  En revanche,  la théorie de la relativité restreinte conduit à des écarts nettement plus importants.

 

L’effondrement de la théorie de la relativité ? 

               Si Maurice Allais avait analysé les résultats de l’expérience, déjà ancienne, de William Bertozzi, il y aurait vu « l’effondrement de la théorie de la relativité » qu’il attendait. Il est certain qu’avec le recul dont nous disposons, il faut bien admettre que cette expérience n’est pas une preuve irréfutable  de la théorie de la relativité. Elle prouve tout au plus qu’un champ électrique ne permet pas d’accélérer  des électrons au delà de la vitesse de la lumière. Par ailleurs, nous constatons que la nouvelle formule proposée pour le calcul de l’énergie cinétique de l’électron soumis au champ d’un accélérateur linéaire donne des résultats bien plus proches des mesures de William Bertozzi que la formule relativiste.  Les différences ne sont toutefois importantes que pour les vitesses supérieures à 20% de la vitesse de la lumière.

               Pouvons-nous, comme Maurice Allais, conclure sur la base de ce résultat très partiel que la théorie de la relativité doit être définitivement rejetée ?

Comparaison des méthodes de calcul :

               La nouvelle formule présente par rapport à la formule de la relativité restreinte deux avantages essentiels :

  • Elle conserve intégralement la mécanique classique, ce qui est particulièrement important dans la plupart des problèmes pratiques.
  • Elle conserve également l’électromagnétisme classique. En effet, le champ d’une charge mobile s’obtient simplement en conservant le champ de l’électron dans le repère mobile. Son champ dans le repère fixe est alors calculé par une méthode ondulatoire dont la description sort du cadre de ce document.

En pratique, cette approche conduit à conserver l’espace et le temps absolus, et donc  abandonner la contraction de Lorentz.

               Enfin, les deux méthodes de calcul ne font apparaître aucune différence entre l’énergie électrique appliquée et celle acquise par la particule. En réalité, l’énergie appliquée par l’accélérateur linéaire se partage entre l’énergie accumulée par l’électron et l’énergie rayonnée. Il est possible que, dans le cas de trajectoires rectilignes et d’électrons faiblement accéléré, ceci soit une hypothèse raisonnable, conforté par les mesures calorimétriques de William Bertozzi. Toutefois, nous aurons besoin d’une théorie plus générale applicable à toutes les trajectoires, décrivant  aussi bien l’action des champs magnétiques qu’électriques, et permettant de calculer l’énergie rayonnée par l’électron.  L’évolution en un siècle de la théorie des antennes doit permettre de calculer avec précision le rayonnement des électrons rapides fortement accélérés.

Respectent-elles le principe de relativité ?

               Comme le prévoit la physique classique, cette expérience montrerait que les masses mécaniques et les champs électromagnétiques se comportent différemment en fonction de la vitesse.  Peut-on en déduire qu’elle ne respecte pas le principe de relativité ?

               Tel qu’il a été défini par Poincaré, le principe de relativité explicite une notion fondamentale en physique. Les lois doivent donc être les mêmes pour tous les observateurs. Elles sont  universelles. Ce principe ne peut souffrir aucune exception.

               Pour autant, l’environnement du laboratoire peut modifier le résultat d’une expérience. En particulier, les forces de gravitation jouent un rôle essentiel et doivent être prises en compte. Le principe d’équivalence d’Einstein en est l’illustration parfaite de l’influence de l’environnement du laboratoire. Il permet de déterminer la courbure gravitationnelle des rayons lumineux, même si le calcul exact de cette déviation est plus délicat qu’il ne semble à priori (Le résultat exact obtenu en 1916 est le double de la valeur calculée initialement en 1912).

               Les lois de la physique peuvent donc dépendre de « paramètre d’environnement » parmi lesquels le champ de gravitation, la vitesse relative d’un satellite par rapport à l’astre autour duquel il tourne…  Il est donc hasardeux d’affirmer qu’une loi respecte ou ne respecte pas le principe de relativité. En tous cas, la conservation de la vitesse de la lumière ne saurait suffire à le démontrer …

 

Une nécessaire rigueur mathématique :

               Contrairement aux mathématiques qui décrivent de façon rigoureuse les conséquences d’hypothèses, les lois de la physique  résultent d’expériences. Elles résultent alors d’une construction intellectuelle permettant de prévoir les résultats de nouvelles expériences.

               La cohérence mathématique des lois de la physique sont alors une condition nécessaire, mais pas suffisante, de leur validité. Considérons par exemple la propagation complexe des ondes électromagnétiques dans l’ionosphère. Dans ce milieu, la propagation des ondes dépend de la longueur d’onde, les rayons ne se propagent pas en ligne droite, des absorptions interviennent…

Le comportement de ce milieu peut être décrit par des équations différentielles. Ses propriétés étaient inconnues en 1912, lors des premières publications sur le principe d’équivalence et la courbure gravitationnelle des rayons lumineux.  Aujourd’hui, au lieu d’adopter une géométrie non-euclidienne, pourrions-nous faire un autre choix : décrire la propagation de la lumière par une équation différentielle de coefficients dépendant de la gravitation ? Toute équation de propagation étant du second ordre, le facteur deux observé entre le gradient de vitesse de propagation et la courbure des rayons apparaîtrait sans doute naturellement.

 

Une coexistence pacifique entre les théories :

               N’oublions pas que nous sommes totalement incapables de parler de l’univers sans supposer implicitement l’existence d’un repère euclidien. Comment mesurer autrement des distances ou un effet Doppler ? Les effets « relativistes » sont toujours présentés dans un repère particulier, par exemple le repère terrestre. Comment calculerait-on les dérives gravitationnelles ou lies à la vitesse des satellites de géo-localisation sans faire appel à ce repère ?

               Pouvons-nous assurer que la physique classique ne respecte pas aussi bien le principe de relativité que les théories modernes ? En tous cas, personne ne peut assurer que tout a été trouvé et que nos concepts ne devront plus être modifiés de façon à mieux décrire la réalité. Donnons donc aux théories de la relativité (restreinte et générale)  la place qui leur revient : des étapes dans l’évolution de notre connaissance. N’en faisons pas des vérités éternelles.

               Nous comprenons alors mieux la formule provocatrice de Maurice Allais. En physique, il n’y a pas de vérité révélée ! La justesse des  résultats d’un calcul mathématique peuvent être prouvés. En revanche, une théorie physique ne peut qu’être confrontée avec l’expérience. Dans tous les domaines, et particulièrement en optique, de nombreuses théories existent et sont utilisées au cas par sas, dans leur domaine de validité.

 

Des lacunes théoriques acceptées :

               Toutes nos théories scientifiques présentent des zones d’ombre.  Les exemples sont innombrables. Dans le domaine de l’électromagnétisme, nous faisons toute confiance aux équations de Maxwell. Nous savons cependant que le courant de déplacement qu’il a introduit reste une énigme. Il s’agit d’un courant « fictif » grâce auquel  la symétrie entre le champ électrique et le champ magnétique conduit aux modes ondulatoires.

               Ne devrait-on pas donner à ce courant une signification physique ? Comment son existence est-elle compatible avec le rejet d’un milieu de propagation ?

               À la fin d’une des « Journées Internationale de Nice sur les Antennes », sans doute en 1986, un calcul du champ électromagnétique diffracté par un obstacle mobile a été présenté, hors programme officiel. Grâce à une convention de dessin, ce champ ressemblait aux allées de Von Karmann observées en hydrodynamique. Dans son  commentaire, l’orateur expliquait que ce résultat n’était pas surprenant, les équations étant les mêmes…

               Ne devrions-nous pas réfléchir à des analogies entre domaines techniques différents ?

 

Des données expérimentales à exploiter :

               Depuis 1905, la technologie a fait des progrès remarquables.  Citons l’électronique, l’ensemble des théories des antennes, des tubes électroniques (klystrons, TOP,  Gyrotrons), les dispositifs nouveaux comme les LASERS à électrons libres. Nous disposons également d’horloges atomiques, de gyromètres Laser, de réseaux de satellites de géo-localisation. Il y a là une mine de données expérimentales qui pourraient être exploitées en vue de valider nos concepts.

               Enfin, l’observation de l’univers nous permet d’observer des phénomènes qui se sont déroulés au cours de milliards d’années et qui continuent à évoluer sous nos yeux. Comme je l’ai écrit en 2011 dans une présentation faite au cours des journées scientifiques de l’URSI (La physique du 21° siècle sera-t-elle ondulatoire?) :

Au 21° siècle, le développement de la physique ne pourra se faire qu’après l’abandon de l’approche abstraite et dogmatique adopté au siècle dernier.

               Ayant pris conscience de la fragilité des bases expérimentales et conceptuelles de la physique moderne, les étudiants et chercheurs pourront explorer des voies nouvelles. Libre de laisser leur imagination construire, sur les mêmes faits expérimentaux, des concepts et des représentations concrètes des lois de la physique, ils pourront faire preuve de créativité.

               Bien évidemment, science et science fiction n’étant pas de même nature, leurs rêves devront être en permanence confrontés aux réalités expérimentales, toutes les explications équivalentes des faits expérimentaux étant toutefois jugées également recevables.

               Les chercheurs, redevenus acteurs, donneront le meilleur d’eux-mêmes. Impliqués dans une science en perpétuelle évolution et dont ils connaîtront l’histoire, ils n’auront plus l’impression de naître trop tard dans un monde trop vieux.

               Bien évidemment, l’astronomie et l’astrophysique, sciences porteuses depuis toujours d’une capacité à émerveiller les hommes, joueront dans cette évolution de la physique un rôle essentiel.

               En 1905, Poincaré entrevoyait l’avènement d’une nouvelle physique. Somme-nous sur le point de continuer son œuvre ?

Pierre Fuerxer,

Membre de l’AIRAMA.

 

 

 

 

 

Le principe de relativité

Ou l’universalité des lois de la physique.

 

Préambule :

            Au cours du 20° siècle, le principe de relativité a été au cœur des débats scientifiques. Il a conduit à la victoire des relativistes, et ringardisé les sceptiques. Il serait vain de revenir sur la bataille quasi idéologique qui les opposait.

 Un siècle après, l’observation de la déviation gravitationnelle de la lumière, et le triomphe de la théorie de la relativité générale, il est essentiel de revenir sur les relations entre les faits, les théories et les principes qu’elles doivent respecter.

Quels enseignements devons-nous tirer de cette période ?  Dans quel esprit devons nous aborder les défis scientifiques qui se présenteront à nous au cours de ce nouveau siècle ?

 

Un principe fondamental :

            Ce principe a été formalisé pour la première fois  par Henri Poincaré dans sa conférence de Saint-Louis en septembre 1904. Je cite sa définition : « principe de relativité d’après lequel les lois des phénomènes  physiques doivent être les mêmes, soit pour un observateur fixe, soit pour un  observateur entraîné dans un mouvement uniforme, de sorte que nous n’avons  et ne pouvons avoir aucun moyen de discerner si nous sommes, oui ou non, emportés dans un pareil mouvement« .

            Cette définition correspond au sujet essentiel qui préoccupait les physiciens à cette époque : justifier l’échec des expériences interférométriques de Michelson. Poincaré ne fait qu’affirmer un principe fondamental : les lois de la physique sont universelles et ne dépendent pas du laboratoire dans lequel on les étudie.

            Dans cette conférence de Saint Louis, il applique le principe de relativité à l’électro-magnétisme. Il prend comme hypothèse qu’il est impossible de mesurer la vitesse absolue de la Terre par des mesures interférométriques. Il formalise alors les invariances reconnues aux lois de la mécanique et les étends à l’électromagnétisme.  Cette position n’est pas dogmatique. C’est sur les bases des expériences de Michelson qu’il prend cette position et étudie la faisabilité d’une théorie électromagnétique nouvelle conduisant à la constance de la vitesse de la lumière.

 

La relativité classique :

            La mécanique classique respecte le principe de relativité. Ses lois sont conservée entre repères en translation uniforme l’un par rapport à l’autre, mais ne sont pas conservées entre repères en rotation, cette dernière propriété ayant été démontrée en 1851 par l’expérience du pendule de Foucault.  

            L’électromagnétisme ne semblait pas susceptible d’être relativiste dans les mêmes termes que la mécanique pour de nombreuses raisons.  La principale était que la propagation de la lumière à la vitesse « c », et les équations de Maxwell, supposaient implicitement l’existence d’un milieu de transmission.

 

La relativité de la mécanique classique :

            Les équations fondamentales de la mécanique sont clairement à l’origine du principe de relativité tel qu’il a été formulé par Poincaré en 1904. Elles sont conservées entre deux repères en translation rectiligne uniforme. La valeur de l’énergie cinétique est alors, en posant β=V/c :

            En l’absence de rotation, elles sont également conservées entre repères accélérés, sous réserve de tenir compte de l’accélération relative des repères qui est équivalent  à un champ de gravitation uniforme (Cette observation  conduira plus tard Einstein au principe d’équivalence, puis à la théorie de la relativité générale). La conservation de l’énergie étant bien évidemment assurée même si sa valeur diffère d’un repère à l’autre.

 

L’électromagnétisme classique :

            Les formules de l’électromagnétisme conduisent à des résultats analogues  à ceux de la mécanique. Elles permettent de calculer les forces appliquées à une charge électrique par les champs électriques et magnétiques qui l’entourent, ainsi que son énergie cinétique.

L’énergie cinétique d’un champ électromagnétique est toutefois différente de celles d’une masse mécanique. Des raisons théoriques conduisent à admettre que l’énergie d’un champ électrique (par exemple celui d’une charge électrique) d’énergie au repos d’énergie au repos E0 et de vitesse V est, en posant  β=V/c :

            Cette formule est analogue à celle de la mécanique classique, mais en diffère par l’introduction du terme 1-β2.

 

L’électromagnétisme classique est-il relativiste ?

            Ces formules découlant directement des lois de l’électromagnétisme classique sont clairement relativistes en admettant que le temps du repère en mouvement est ralenti dans le rapport γ de la relativité restreinte :

            Toutefois, la vitesse de la lumière reste anisotrope. Il suffit alors d’introduire un vecteur vitesse du milieu de propagation (ou anisotropie optique) pour prendre en compte cet effet. N’oublions pas que les équations, établies par Maxwell, justifient l’existence d’ondes électro-magnétiques de vitesse « c », ce qui semble impliquer la présence d’un milieu de propagation : l’Éther.  De plus, elles introduisent arbitrairement dans le vide un courant de déplacement dont la signification physique n’a pas été clairement établie.

            L’électromagnétisme classique est donc « presque » relativiste.

 

La relativité restreinte :

            Pour respecter la constance de la vitesse de la lumière, la relativité restreinte introduit deux modifications des lois de la physique :

  • La contraction de Lorentz qui a pour effet de réduire l’énergie d’une charge électromagnétique mobile dans le rapport γ,
  • Une modification complémentaire de la mécanique.

Ces modifications ne sont justifiées que par la nécessité de rendre la vitesse de la lumière identique dans tous les repères en translation rectiligne uniforme.

 

Un coup de pouce de la nature :

            Michelson avait voulu mesurer la vitesse absolue de la terre. L’échec de son expérience semblait ne pouvoir être expliquée que par l’invariance de la vitesse de la lumière lors d’un changement de repère.  Celle-ci  ne pouvait être alors qu’une constante universelle.

            Pour justifier cette invariance de la vitesse de la lumière, Lorentz avait imaginé une contraction des corps dans le sens du déplacement. Poincaré avait alors explicité les formules de changement de repère correspondantes et montré que ces transformations ont des propriétés remarquables (les mathématiciens disent qu’elles constituent un corps). En abandonnant la notion de temps absolu, ces équations introduisent un effet « stroboscopique » entre deux repères en mouvement relatif.

La contraction de Lorentz, « ce coup de pouce de la nature« , selon l’expression de Poincaré, reste toutefois justifié par un seul résultat expérimental : la constance de la vitesse de la lumière observée par Michelson.

 

Pouvait-on adopter d’autres approches théoriques ?

            Les échecs des expériences interférométriques de Michelson auraient-il s pu être expliqués autrement ? Le respect du principe de relativité proposé par Poincaré en 1904 imposait-il réellement d’abandonner à terme la géométrie euclidienne qui est et restera la base de notre culture scientifique ? Existe-t-il d’autres solutions relativistes, ou quasi-relativistes plus simples conceptuellement ?

            En un siècle, les immenses progrès de l’électromagnétisme permettent de se poser en termes nouveaux les questions qui préoccupaient les physiciens en 1905. Les calculs et les réalisations d’antennes à balayage électronique nous ont permis de mieux comprendre la propagation en champ proche. Les accélérateurs linéaires et cyclotrons ont permis des expériences nouvelles, riches d’enseignement, sur des particules de haute énergie. Les gyromètres Laser ont des performances incomparables avec le dispositif expérimental de Michelson et Gale qui, en 1925, a mis en évidence la rotation de la terre, grâce à l’effet Sagnac.

 

Les premières mesures d’électrons rapides :

            Oublions pour un temps d’expliquer les résultats de Michelson et considérons les résultats obtenus par Bertozzi en 1964, plus de 50 ans plus tard.

            L’énergie cinétique totale d’un électron semble mieux correspondre avec la formule suivante, légèrement différente de la formule de la relativité restreinte :

Dans cette formule W0 est l’énergie au repos de l’électron et Wm son énergie cinétique. Bien évidemment, pour les vitesses faibles de l’électron, cette énergie cinétique est celle prédite par la mécanique classique.

            Selon cette nouvelle hypothèse, l’énergie cinétique de l’électron correspondrait pour moitié à celle d’une masse mécanique et pour moitié à celle d’un champ électromagnétique (on rappelle qu’en 1900, Poincaré avait établi la formule donnant la masse d’une énergie : m=E/c2).

Pour les vitesses de moins de 80% de la vitesse « c » de la lumière, l’énergie cinétique de l’électron prédite par la nouvelle formule proposée reste très proche de la formule relativiste :

 Ces deux formules  ne diffèrent sensiblement que pour les grandes vitesses supérieures à 80% de « c » pour lesquelles la nouvelle formule semble plus proche des résultats expérimentaux.

 

La querelle relativiste :

            Les théories relativistes (restreinte puis générale) ont alors conduit à des controverses violentes entre partisans et opposants à ces nouvelles théories. Le fait que la vitesse de la lumière soit isotrope quelle que soit la vitesse du laboratoire était en soi surprenant.

            Mais cette découverte avait des implications, non seulement dans tout le domaine scientifique,  mais aussi dans ceux de la philosophie, voire du religieux. .. Certains ont confondu relativité et relativisme.

            D’autres pensaient qu’en mettant en cause l’existence  de l’Éther rigide du 19° siècle, et en ne prenant en compte que l’environnement propre de chaque observateur, cette théorie mettait en péril l’ensemble des connaissances longuement accumulées par les scientifiques.

            La relativité générale correspond à l’application du principe de relativité aux repères en accélération relative. En formulant le principe d’équivalence, Einstein avait prédit en 1912 la courbure gravitationnelle des rayons lumineux qui ne sera mesurée qu’en 1916. Malheureusement, les physiciens relativistes ayant  refusé de conserver toute notion de milieu de propagation des ondes lumineuses, ne pouvaient expliquer cette courbure des rayons lumineux par une variation gravitationnelle de la vitesse de la lumière.  

            La théorie de la relativité générale a donc dû faire appel à une géométrie, non euclidienne.  Cette nouvelle théorie de la relativité a alors été construite, en collaboration entre Einstein et Grossmann, sur la base de cette géométrie. Le refus d’accepter toute référence à un milieu de propagation, même fictif, avait amené les théoriciens à construire une théorie séduisante, mais d’utilisation bien très trop délicate pour être largement utilisée.

 

Peut-on faire confiance aux confirmations expérimentales ?

            Nous oublions trop facilement l’importance des progrès technologiques que nous avons connus depuis le début du 20° siècle. Réalisés avec la technologie d’aujourd’hui, les appareils utilisés par Michelson, Gale et Miller seraient considérablement plus performants. Les conclusions de ces expérimentateurs seraient-elles les mêmes ?

            N’oublions pas que l’horloge mobile de la relativité restreinte est ralentie dans un rapport directement lié à la vitesse de l’interféromètre (il a pour valeur la moyenne géométrique des vitesses d’ondes planes se déplaçant parallèlement et perpendiculairement au mouvement du repère).

            Il reste alors à expliquer le fait que l’interféromètre n’ait pas observé d’anisotropie de cette vitesse de propagation de la lumière dans le repère terrestre. Si Michelson avait connu les antennes RADAR à balayage électronique, il aurait pris conscience du fait qu’en champ proche, la vitesse de phase de la lumière n’est pas strictement celle des ondes planes. Ce n’est qu’en champ lointain, lorsque le lobe d’antenne est formé, que la vitesse de phase est égale à c. L’absence de déplacement des franges dans son interféromètre n’était donc pas la preuve de l’absence d’anisotropie de la vitesse de la lumière dans un  de repère en mouvement.

            Il en est de même pour les expériences de Michelson et Gale faites en 1925. Ces chercheurs voulaient observer la rotation de la terre, mais leur dispositif expérimental aurait très bien pu échouer. En effet, depuis que nous réalisons des gyromètres LASER, nous savons qu’ils sont aveugles lorsque leur vitesse angulaire descend en dessous d’un seuil donné. Ce phénomène est maintenant bien connu et clairement expliqué. Une vibration angulaire mécanique, imprimée au gyromètre, permet de masquer ce défaut qui réduirait grandement  le domaine d’emploi de ces dispositifs.

            Quels développements théoriques aurait-on fait en 1925 si Michelson et Gale n’avaient pas décelé la rotation de la terre ? En aurait-on conclu que les lois de la physique devaient être conservées entre repères en rotation ?

 

Comment valider les hypothèses scientifiques ?

            Nous disposons aujourd’hui d’une technologie incomparable avec celle du début du 20° siècle. Il serait donc intéressant de refaire, avec la technologie moderne, les expériences fondatrices de notre physique en évitant toute modification des dispositifs  pouvant fausser les résultats.

            Observons sur un exemple comment des changements, apparemment sans importance, peuvent modifier totalement le résultat d’une expérience. Depuis Michelson, de nombreux interféromètres ont été réalisés. Les plus grands ont pour objectifs de détecter les ondes de gravité prédites par la théorie de la relativité. Cependant, ces équipements ne sont pas des interféromètres de Michelson. Ils sont différents mais abusivement désignés sous le nom.

Considérons en effet l’interféromètre Franco-italien VIRGO. Il est composé de deux interféromètres « Fabry-Perot » de type plan convexe de 3 Km de long, dont les réponses sont  comparées en phase. Les directions de propagation des ondes, imposées dans chacun des bras par les « Fabry-Perot »,  est une propagation en champ proche. Au contraire, dans l’interféromètre de Michelson, la propagation des ondes se fait en espace libre entre la source optique et le détecteur. Ces deux dispositifs ne sont donc pas comparables.

 

Vers un effondrement de la théorie de la relativité ?

            Supposons qu’un interféromètre de Michelson moderne, plus sensible que le plus grand jamais réalisé par Miller, confirme l’existence d’une anisotropie optique de l’espace ?

Cette découverte ruinerait-elle tous les acquis scientifique du 20° siècle ?

 Certainement pas, mais il faudrait se demander comment construire une nouvelle physique respectant l’ensemble des principes énoncés par Poincaré en 1904, y compris le principe de relativité.  Essayons d’imaginer ce que serait cet événement, s’il se produisait.

 

Un rêve de physicien :

            En conclusion d’en exposé fait en 2011 à l’URSI, j’affirmais le rôle essentiel du rêve dans la recherche scientifique. J’écrivais : « Ayant pris conscience de la fragilité des bases expérimentales et conceptuelles de la physique moderne, les étudiants et chercheurs pourront explorer des voies nouvelles. Libre de laisser leur imagination construire, sur les mêmes faits expérimentaux, des concepts et des représentations concrètes des lois de la physique, ils pourront faire preuve de créativité« .

            Bien évidemment, science et science fiction n’étant pas de même nature, les rêves doivent être en permanence confrontés aux réalités expérimentales. Toutes les explications équivalentes des faits expérimentaux doivent être jugées également recevables.

            Pendant longtemps, les physiciens se sont classés en relativistes et anti-relativistes. Des personnalités aussi différentes que Pierre Tardi, que j’ai eu comme professeur d’astrophysique à l’École Polytechnique, ou Maurice Allais ne cachaient pas leur réticence ou leur opposition radicale à la théorie de la relativité générale. Le conflit idéologique qui a déchiré las physiciens semble maintenant terminé. Profitons-en pour nous poser une question iconoclaste :

Que se serait-il passé si Michelson avait détecte le mouvement de la terre ?

 

La construction d’une autre relativité :

            En 1925 la mesure d’une dissymétrie optique de l’espace par Miller et de l’effet Sagnac par Michelson et Gale auraient pu initialiser une mise en cause des concepts relativistes. Si ces résultats avaient été indiscutables, ils auraient confirmé l’existence d’un milieu de transmission des ondes électromagnétiques, appelé Éther. Les physiciens auraient construit la physique sur des concepts différents.

            L’existence d’un milieu de propagation des ondes électromagnétiques ayant été confirmée, ils auraient naturellement admis que la courbure gravitationnelle des rayons lumineux, vérifiée expérimentalement en 1916, résultait d’une modification gravitationnelle des caractéristiques de ce milieu.

            L’incohérence apparente des mesures de vitesse de la terre faites par l’interféromètre de type Michelson, utilisé par Miller au Mont Wilson, les aurait incités à admettre que l’Éther n’est pas un solide mais un fluide…

            A ce propos, je tiens à dire qu’au cours des JINA (Journées Internationales de Nice sur les Antennes), sans doute en 1986, un élève du Professeur Papiernik avait présenté, hors sessions officielles, une image iconoclaste : le champ électromagnétique derrière un obstacle. Son codage des données faisait apparaître des allées de Von Karmann, ensembles de tourbillons observés en hydrodynamique. Il avait ajouté que ce n’était pas surprenant, puisque les équations sont les mêmes.

            Cette nouvelle théorie entreprendrait de décrire de nombreux phénomènes actuellement inexpliqués, comme les difficultés rencontrées dans l’utilisation du vecteur de Poynting.

 

Une compréhension nouvelle du principe de relativité :

            Les physiciens devraient-ils pour autant dû rejeter le principe de relativité ?

Certainement pas. Poincaré avait cité la constance de la vitesse  de la lumière comme axiome de la nouvelle physique par respect pour les faits. Il s’agissait d’un résultat expérimental que la physique devait prendre en compte. Si de nouvelles expériences avaient infirmé ce résultat, il aurait abandonné ce choix et aurait reformulé en d’autres termes son principe d’universalité des lois de la physique.

            Considérons maintenant le principe d’équivalence proposé par Einstein. Ce principe affirme l’équivalence locale entre accélération et forces de gravitation. Ainsi, la propagation optique est perturbée de la même façon par un champ de gravitation ou par l’accélération du repère dans lequel  elle est étudiée. Pour que les lois de la physique soient indépendantes du repère, ne suffisait-il pas d’introduire dans les lois de l’électromagnétisme l’effet du champ de gravitation ?

            De la même façon, pourquoi l’anisotropie de l’espace ne correspondrait-elle pas à une vitesse du milieu de propagation ? Ceux qui refuseraient d’admettre l’existence de ce milieu pour des raisons philosophiques n’auraient  qu’à dire qu’il est fictif, un simple artifice de calcul. Par souci de neutralité, ne pourrait-on pas parler que d’un vecteur d’anisotropie ?

            Enfin, la dérive vers le rouge du rayonnement des galaxies lointaines serait seulement une indication de distance ; Pourrait-il, au gré des physiciens,  ne pas être  attribué à un effet Doppler ?

 

Pourquoi un tel retour en arrière ?

            Cette nouvelle approche de la physique aurait trois avantages  essentiels :

  • Permettre d’utiliser le savoir mathématique accumulé au cours des siècles, en particulier la géométrie euclidienne, base de notre culture scientifique.
  • Recréer un temps et un espace absolu, condition nécessaire au respect de nombreux principes, en particulier celui de la conservation de l’énergie.
  • Enfin, et ce n’est pas le moindre avantage, permettre de conserver intégralement les acquis de la mécanique et de l’électromagnétisme classiques qui deviendraient relativistes au sens du principe de relativité de Poincaré.

 

Un nouveau domaine de recherche :

            Cette nouvelle physique ne sera réellement construite que lorsque les propriétés du milieu de propagation des ondes électromagnétiques (fictif ou non) seront clairement établies. Celles-ci devraient être analogues à celles d’un fluide. Comme en hydrodynamique, les lois reliant les variations de la vitesse des ondes et de la direction de sa vitesse pourront être établies en variables de Lagrange ou d’Euler. De toutes façons, l’usage d’un repère espace-temps absolu redevient nécessaire.

 

Conclusion :

               La science doit reconnaître avant tout la primauté des faits. Maurice Allais n’a cesse de rappeler cette vérité, aussi bien en économie qu’en physique. Les théories doivent expliquer les faits, donner des résultats précis et avoir des applications concrètes.

               La physique doit respecter ses principes fondamentaux, en particulier le principe de relativité, mais avant tout décrire objectivement les faits. En 1904, en énonçant les principes de la physique, Poincaré citait la constance de la vitesse de la lumière pour une unique raison : rendre compte du résultat paradoxal d’une expérience. Il avait supposé la constance de la vitesse de la lumière avéré.

               Aujourd’hui, compte tenu des progrès scientifiques, il est raisonnable de mettre en doute l’interprétation par Lorentz de l’expérience de Michelson. Si celle-ci s’avérait erronée, la théorie de la relativité actuelle devrait être abandonnée au profit d’une autre théorie également conforme au principe de relativité.

               Si une nouvelle expérience montrait un jour que Lorentz a été victime d’une simple erreur expérimentale, comment nos successeurs pourraient-ils comprendre que nous ayons fait une confiance aveugle à Michelson ? Qu’ensuite nous ayons persisté dans l’erreur au nom d’un principe mal appliqué ?

Compte tenu des progrès de la technologie et de nos connaissances, nous devons constamment vérifier les hypothèses sur lesquelles reposent nos théories, et en particulier la contraction de Lorentz.

               Que penseront de nous nos descendants s’ils apprennent que nous avons négligé une tâche aussi fondamentale ?

 

Pierre Fuerxer

 

Ancien adjoint militaire au directeur de Centre National d’Études des Télécommunications,

Membre de l’AIRAMA.

 

 

 

 

 

Faut-il refaire les expériences de Miller ?

Introduction :

En 1881, la première expérience interférométrique de Michelson avait pour objet de mesurer la vitesse absolue de la Terre. Son résultat, confirmé par d’autres expériences, n’a pas été conforme à l’attente des physiciens. Il était alors naturel que la communauté scientifique mette en cause l’existence même d’un espace absolu par rapport auquel cette vitesse aurait pu être mesurée.

Au nom du principe de relativité, une « théorie de la relativité » a admis que les lois de la physique étaient les mêmes pour tous les observateurs en mouvement relatif rectiligne uniforme. Cette invariance a ensuite été étendue aux repères accélérés. Après une longue période au cours de laquelle les expériences sont devenues de plus en plus précises, la communauté scientifique a admis cette théorie qui ne devrait plus souffrir d’aucune contestation.

Il est donc intéressant de reprendre, à partir des documents originaux écrits par les auteurs de ces expériences, et sans idée préconçue, l’étude de leurs résultats. Les conclusions de ce travail ne manquent pas de surprendre. L’analyse démontre clairement que le concept d’Éther rigide dans lequel des ondes se propageraient à vitesse constante devait être rejeté, car infirmé par l’expérience. En revanche, elle montre que ces expériences sont loin d’avoir donné des résultats aussi clairement nuls, confirmant totalement la théorie de la relativité.

Parmi toutes celles-ci, les expériences réalisées en 1925-1926 par Dayton C. Miller à Mount Wilson méritent une place particulière en raison de la notoriété de leur auteur, de l’importance des moyens mis en œuvre et de la qualité de son rapport de 1933. En 1955, 14 ans après le décès de Miller, Robert S. Shankland (un de ses anciens collaborateurs), pensant mettre un point final à la polémique, publie une analyse dans laquelle il attribue à des effets parasites incontrôlés les observations faites à Mount Wilson. Il invalide ainsi les conclusions de son ancien supérieur.

Dans les années 1990, Maurice Allais a repris les résultats de Dayton C. Miller et a publié ses conclusions dans différentes revues (en 1996 dans la revue des anciens élèves de l’école polytechnique), puis en 1997 dans un livre intitulé « L’anisotropie de l’espace, les données de l’expérience » (1). Il avait été convaincu que les résultats de Miller n’étaient ni aléatoires, ni dus à des phénomènes parasites connus.

Fin 2004, bien qu’il affirme la supériorité des faits sur la théorie, Maurice Allais a présenté une nouvelle hypothèse : l’existence, autour de la Terre, d’un tourbillon d’Éther. En effet, si les faits priment sur les théories, celles-ci jouent un rôle essentiel dans l’explication des phénomènes physiques et permettent de prévoir les résultats de nouvelles expériences.

Plus d’un siècle après les premières expériences de Michelson, les possibilités techniques dont nous disposons permettraient de réaliser des expériences d’une très grande qualité, capables de répondre à des questions toujours sans réponse. Ne serait-il pas intéressant de reprendre sur de nouvelles bases technologiques, et avec le seul souci de mieux comprendre les phénomènes physiques, une série d’expériences visant à mesurer ce que nous pourrions appeler des violations de la contraction de Lorentz ?

 

 

Les résultats publiés par Miller :

Il est facile de trouver sur INTERNET le rapport écrit par Dayton Miller en 1933 ( Reviews of modern physics, volume 5, July 1933 : The Ether Drift Experiment and the Absolute Motion of the Earth (2) ). Ce document présente le processus expérimental, les résultats finaux et son interprétation très peu objective. Miller était persuadé que son interféromètre devait mesurer la vitesse absolue de la Terre par rapport à un repère fixe. Il a donc présenté ses résultats sous la forme de graphiques donnant (page 229, figure 22, ci-dessous) la vitesse absolue de la terre et sa direction en fonction de l’heure sidérale, pour quatre périodes de mesure correspondant à quatre positions de la terre sur son orbite.

Miller 1933 V5 (page 229, figure 22)

La vitesse observée étant seulement 0,0514 fois la valeur attendue. Il a alors simplement pris en compte cette sensibilité réduite sans apporter de justification à l’écart observé entre théorie et réalité. De même, pour des raisons théoriques, la direction moyenne de la vitesse observée aurait dû être le nord géographique. Ce n’était pas le cas, mais il a également néglige ce fait.

Comme Maurice Allais l’a bien montré, Dayton C. Miller a constitué un ensemble de données remarquable compte tenu des possibilités technologiques des années 1925. En revanche, ses conclusions sont marquées par les idées de l’époque et ne tiennent pas compte des différences significatives entre ses mesures et les valeurs que ses théories prédisaient. Comme beaucoup de physiciens, passionné par ses recherches, Dayton C. Miller a fermé les yeux sur le démenti des faits.

 

 

L’analyse de Maurice Allais :

Dans son livre sur L’anisotropie de l’espace, Maurice Allais analyse les résultats de Dayton C. Miller. Il trace sur des hodographes (courbes donnant, en fonction de l’heure sidérale, les valeurs des vecteurs vitesse mesurées par l’interféromètre).

 

Pour chacune des périodes de mesure, ces valeurs sont reportées sur la figure 1 :

 

Figure 1 : Hodographes tracés par Maurice Allais.

Figure 1 : Hodographes tracés par Maurice Allais.

 

Ces hodographes représentent la variation des vecteurs vitesse en fonction de l’heure sidérale pour les quatre périodes de mesure réalisées par Dayton C. Miller. L’axe horizontal correspond à la direction est-ouest,  l’axe vertical étant orienté vers le nord. Les courbes correspondent aux périodes suivantes :

  • Courbe rouge : 1er avril 1926,
  • Courbe bleue : avril 1925,
  • Courbe noire : 1er août 1925,
  • Courbe cyan: 15 septembre

 

La coupure des hodographes entre minuit et une heure en temps sidéral montre qu’ils sont parcourus dans le même sens et en synchronisme au cours des quatre périodes.

Ensuite, Maurice Allais a tracé, par la méthode des moindres carrés, les ellipses représentant au mieux les mesures. Enfin, les mesures de direction étant ambigües (180° par principe, et n fois 90° si on ignore le sens du déplacement des franges), il a présenté le graphique suivant (figure 2) :

 

 

Figure 2 : Graphique de Maurice Allais.

Figure 2 : Graphique de Maurice Allais.

 

Celui-ci montrait clairement une la variation annuelle de la forme de l’hodographe, mais ne donnait pas d’indication sur l’origine de ses modifications périodiques.

Maurice Allais a alors soumis aux membres de l’AIRAMA une idée nouvelle. Les hodographes qu’il avait tracés résulteraient-ils d’un vent d’éther produit par la Lune ? Cette hypothèse permet en effet d’expliquer les variations saisonnières de la direction des hodographes. J’ai alors entrepris de la valider.

 

 

L’hypothèse d’un tourbillon :

Compte tenu de cette hypothèse, nous pouvons conserver les hodographes de la figure 1, mais en admettant que l’axe vertical correspond à la direction Est-Ouest. Pour chaque période, des courbes « théoriques » sont alors ajustées sur la base des hypothèses suivantes :

  • La terre est soumise à un tourbillon d’Éther par rapport auquel la vitesse de la lumière a la valeur
  • Ce tourbillon est stable pendant chaque période de mesure (ce qui est très approximatif, puisque la Lune se déplace nettement sur son orbite au cours de la période de mesure).
  • Le mouvement de l’Éther est assimilable à celui d’un solide en rotation autour d’un axe fixe (cette hypothèse étant également une approximation).

 

Courbe 1 : 8 février 1926 : Courbe 2 : 1er Avril 1925 :
Courbe 1 Courbe 2
Courbe 3 : 1er août 1925 : Courbe 4 : 15 septembre 1925 :
Courbe 3 Courbe 4

Figure 3 : Modélisation des quatre hodographes.

 

 

 

Sur chacun des hodographes :

  • La courbe mesurée est en rouge,
  • La courbe calculée est en noir,
  • Les courbes des autres périodes de mesures sont en

Logiquement, les maxima et minima dans la direction nord-sud correspondent à minuit et midi en heure sidérale, heures des maxima et minima de l’élévation du laboratoire au dessus de l’écliptique.

Ceci montre que l’hypothèse de l’existence d’un tourbillon d’Éther par rapport auquel la vitesse de la lumière serait constante est parfaitement crédible. Celui-ci serait principalement lié à la rotation de la Lune autour de la Terre, même si une contribution du Soleil et de la galaxie ne puisse être écartée à priori.

 

Conclusion :

Ce retour sur un débat qui semblait définitivement clos incite à une grande méfiance vis-à-vis des théories scientifiques. Il montre que les physiciens les plus éminents sont souvent influencés par leurs théories et commettent, à leur insu, des erreurs d’interprétation des faits qu’ils observent. Ils sont tellement conditionnés par les idées de leur temps qu’ils négligent involontairement les anomalies que devraient attirer leur attention.

Il montre également tout l’intérêt, pour la science, de publier autant que possible les résultats bruts des expériences. Si Miller n’avait pas écrit son rapport final en 1933, sept ans après la fin de son expérience, son travail aurait été définitivement perdu. À une époque où le stockage de données est devenu facile, des données brutes clairement documentées devraient être rendues accessibles à tous les chercheurs.

Enfin, il faudrait refaire les expériences scientifiques cruciales, ayant conduit à des ruptures conceptuelles, avec la technologie moderne. La lampe à acétylène de Miller et la mesure visuelle au dixième de frange des variations des trajets optiques sont des techniques risibles aujourd’hui. Pourquoi alors ne pas refaire ces expériences qui ont conduit à des séismes conceptuels avec la technologie actuelle au lieu de faire une confiance aveugle aux théories auxquelles  elles  ont conduit ?

La technique permet de réaliser des gyromètres LASER de petite taille et de très grande précision. Refaire un interféromètre de Michelson et enregistrer ses mesures pendant au moins un mois lunaire est à la portée de nombreuses universités et centre de recherche. La valeur didactique de ce travail n’est pas à démontrer. Il permettrait aux étudiants d’approfondir leur compréhension des théories actuelles, de mieux comprendre leur genèse et aussi de maitriser des techniques électroniques et numériques essentielles à leur formation.

 

Pourquoi ne le fais-on pas ?

 

Pierre Fuerxer,

Membre de l’AIRAMA.

 

 

 

 

 

 


[1] En téléchargement ici : http://combats-maurice-allais.info/documents/151787979-ALLAIS-Maurice-L-Anisotropie-de-l-Espace-1997.pdf

[2] En téléchargement ici : http://combats-maurice-allais.info/documents/Miller1933_V5.pdf (65 Mo)

Ou * 1933: Dayton Miller, « The Ether-Drift Experiment and the Determination of the Absolute Motion of the Earth », Reviews of Modern Physics, Vol.5(2), p.203-242, July 1933. Download Here (26 Mo) — En ligne : http://www.orgonelab.org/miller.htm

 

 

 

 

L’Éther est mort ! Vive l’Éther !

Introduction :

Le 19° siècle avait été celui de la découverte de la nature ondulatoire de la lumière. Comme toutes les ondes, la lumière devait alors être transmise par un milieu, baptisé « Éther », que les physiciens supposaient solide pour des raisons théoriques. Une onde transverse ne semblait transmissible que par un solide. Ils ont alors tenté de mesurer la vitesse absolue de la Terre par rapport à ce mystérieux milieu à l’aide d’interféromètres. Malheureusement, malgré les perfectionnements introduits depuis l’expérience historique de Michelson en 1881, les résultats ont été décevants. Il a donc fallu les expliquer.

Dès 1904, Poincaré avait proposé d’ajouter le « principe de relativité » aux principes de la physique déjà connus. Les lois de la physique devaient être les mêmes pour tous les observateurs. L’année suivante, il démontra que la contraction des corps dans le sens du mouvement, imaginée par Lorentz pour expliquer l’échec des mesures interférométriques, conservait la vitesse de la lumière et les équations de Maxwell lors d’un changement de repère.

À partir de 1905, sur l’impulsion d’Einstein et Planck, la théorie de la relativité et la mécanique quantique ont profondément influencé la physique théorique. Il s’agissait d’une véritable révolution culturelle qui a mis en cause de nombreux concepts développés au cours du 19° siècle.

L’Éther a été la première victime de cette évolution qui tentera de faire table rase de notre culture scientifique antérieure. L’Éther rigide du 19° siècle était bien mort et ne ressusciterait pas !

Le 21° siècle correspondra certainement à un retour en arrière. Il reviendra sur les excès actuels. En particulier, il réhabilitera la géométrie euclidienne comme base de toutes les sciences, les géométries non-euclidiennes rendant difficilement vérifiable le respect des principes anciens, en particulier la conservation de l’énergie qui suppose des distances et un temps absolus. La physique Ne pouvant se réduire totalement  à des descriptions quantiques, les ondes reprendront la place qui leur revient. L’impérieuse nécessité de décrire simplement les phénomènes ondulatoires imposera de considérer un nouvel Éther, mais celui-ci ne sera plus rigide.

L’Éther rigide de 19° siècle est mort, mais la nécessité d’un milieu de transmission des ondes électromagnétiques subsiste !

 

L’origine de l’Éther rigide :

Au cours du 19° siècle, les contributions essentielles de Fresnel et Fizeau avaient été couronnées en 1854 par l’établissement par Maxwell des équations fondamentales de l’électro-magnétisme. Celles-ci prédisaient l’existence d’ondes électromagnétiques, optiques mais aussi radioélectriques, en faisaient explicitement appel à des dérivées spatiales et temporelles !

Selon cette nouvelle théorie, les ondes électromagnétiques étaient des ondes transverses. La polarisation, décrite complètement par la sphère de Poincaré, correspond alors aux directions des champs électriques et magnétiques, orthogonales entre elles et avec la direction de propagation.

 

La propagation de ces ondes ressemblait donc à celle de vibrations mécaniques. Il était alors naturel de supposer qu’elles se propageaient dans un milieu rigide, appelé Éther, dont les propriétés étaient très surprenantes. Les particules pouvaient s’y mouvoir sans résistance mais  il transmettait les forces électriques et magnétiques.

 

Les progrès théoriques et technologiques du 20° siècle :

L'éther d'AllaisEn 1905, Albert Einstein a proposé une théorie dite de la relativité restreinte (ou special theory en anglais). Celle-ci prenait en compte une contraction des corps en mouvement imaginée par Lorentz et formalisée par Poincaré. La controverse sur la genèse de cette théorie ne sera pas abordé ici (ceux qui sont intéressés par ce sujet doivent lire le livre de Jules Leveugle (1)).

En 1911, d’Albert Einstein tente d’expliquer la courbure gravitationnelle des rayons lumineux par les champs de gravitation, en adoptant un principe d’équivalence entre gravitation et accélération. Cette prédiction d’Einstein ne correspondait cependant qu’à la moitié de la valeur qui sera observée plus tard. Il aurait pu expliquer simplement cette erreur par la courbure du repère local, sans renoncer à la géométrie euclidienne. Il a préféré abandonner cette géométrie.

En 1915, la théorie de la relativité générale s’établit sur la base d’une nouvelle géométrie non-euclidienne à quatre dimensions, l’espace-temps. Une loi physique est alors invariante, par changement de repère dans cet espace-temps. Nous disons alors qu’elle est covariante. Aujourd’hui, toute loi physique qui ne serait pas généralement covariante, c’est-à-dire invariante par changement de repère dans cet espace relativiste, est rejetée d’emblée par les physiciens.

Par ailleurs, point n’est besoin de rappeler que la théorie quantique de Planck a conduit à des résultats essentiels sur la matière, mais qu’elle conduit en électromagnétisme à des résultats paradoxaux, donc irrecevables (par exemple l’intrication de photons). Les faits ont toujours raison.

Ils démontrent les lacunes inévitables de la théorie qui ne peut décrire totalement la complexité de l’univers.

Parallèlement au développement de la physique théorique, des progrès considérables ont été accomplis dans d’autres domaines plus techniques, par exemple en hydrodynamique et en électronique. Tous les voyageurs savent que les plus lourds que l’air peuvent voler. Personne n’est plus étonné de recevoir et émettre des messages par voie radioélectrique. Les technologies électroniques, optiques, micromécaniques, ou chimiques à la disposition des chercheurs ne sont pas comparables avec celles qui étaient disponibles dans les années 1900-1925 (l’interféromètre de Miller était éclairé par une lampe à acétylène !).

Au début du 20° siècle, l’échec, au moins apparent, des expériences interférométriques a conduit les physiciens à abandonner le modèle simpliste d’un Éther rigide. La négation, quasi dogmatique, de l’existence d’un milieu de propagation des ondes électromagnétiques et l’abstraction corrélative de la science moderne ont interdit de progresser au niveau conceptuel. Peut-on sincèrement admettre que des ondes puissent se propager en l’absence de tout support ?

 

La primauté des faits :

Maurice Allais, comme beaucoup d’entre nous, n’avait pas adhéré au dogme relativiste. Aussi bien en physique qu’en économie, il n’a cessé de rappeler la primauté des faits sur les théories. Avec les moyens limités dont il a pu disposer, il a entrepris des expériences mécaniques et optiques susceptibles de mettre en évidence des phénomènes encore inexpliqués.

Il a également étudié les résultats d’éminents physiciens qui, tout au long du 20°siècle, ont tenté de mettre en défaut les certitudes de leur temps, en particulier la théorie de la relativité dans sa forme actuelle. Qui peut dire qu’elle est la seule respectant le principe de relativité ?

Maurice Allais a présenté un nombre considérable de communications, puis a écrit plusieurs livres. J’en citerai deux : « L’anisotropie de l’espace » (2) publié en 1997 et « L’effondrement de la théorie de la relativité » (3) publié en 2004. Pour lui, l’analyse objective des résultats expérimentaux invaliderait inévitablement l’actuelle théorie de la relativité. En fait, il a cherché à justifier une conviction profonde selon laquelle cette théorie ne pouvait correspondre à une réalité physique, mais plutôt à l’application erronée du principe de relativité.

Qui pourrait mettre en cause ce principe qui affirme seulement que les lois de la physique sont universelles ? Cela ne signifie pas que ce que nous appelons « la théorie de la relativité » s’impose à tous comme un dogme scientifique.

Quelle est l’influence de l’environnement du laboratoire dans lequel travaille le physicien sur le résultat de ses expériences ? Peut-on affirmer sans preuves qu’en tout point accélération et gravitation sont totalement substituables ? Lorsqu’il regarde à travers son hublot, un astronaute de la station spatiale internationale est parfaitement capable de comprendre qu’il est en rotation autour de la Terre et que sa trajectoire résulte de l’effet de son champ de gravitation.

 

Un rêve de physicien :

Peu après, la publication de son livre sur la théorie de la relativité, Maurice Allais proposa aux membres de l’AIRAMA (une association que nous avions créée dans le but d’œuvrer à la reconnaissance de ses apports en physique et économie) de réfléchir à une idée : L’éther ne serait-il pas un fluide entrainé par les astres ? Le « vent d’Éther » que Miller cherchait à mettre en évidence sur le Mont Wilson ne pourrait-il pas être créé par le mouvement de la Lune ?

Sa disparition ne nous a pas permis de mettre en regard les données de l’expérience avec cette nouvelle hypothèse. Depuis, j’ai toutefois entrepris de reprendre l’étude des données obtenues par Miller au Mont Wilson en 1925-1926. Ce sont les seules expériences interférométriques menées sur des périodes longues, de jour et de nuit. La vitesse mesurée a été de l’ordre de 8 Km/s. Celle-ci correspond la vitesse de libération au niveau du sol. C’est également la vitesse pour laquelle la force centrifuge compenserait parfaitement la force de gravitation. Le repère fixe de Miller serait celui dans lequel travaillent nos astronautes ! Si le milieu de propagation de la lumière était analogue à l’air de notre atmosphère, ce serait également la vitesse du tourbillon associé au mouvement de la Lune autour de la Terre ! Plus surprenant, la forme des hodogrammes (courbes donnant la vitesse en fonction de l’heure) tracés par Maurice Allais à partir des mesures de Miller est compatible avec cette hypothèse !

 

Cette vision correspond étrangement à notre perception de l’univers. Très près de nous, la Lune serait à l’origine d’un tourbillon. Le système solaire serait lui-même un tourbillon de plus grande échelle entrainant les planètes. Notre galaxie elle-même serait un immense tourbillon …

Les lois de la physique, que je qualifierai de classique, sont des approximations valables dans des domaines limités. Ainsi, une première étude aérodynamique peut être faite en supposant que l’air est un fluide incompressible. De même, le calcul des marées terrestres peut être fait en supposant que la Terre est un fluide plus lourd que l’eau. Est-on conscient du fait qu’un atome est beaucoup moins compact que le système solaire ? En effet, le rapport de la taille des électrons et leur distance du noyau autour duquel ils gravitent est plus petit que celui entre la taille des planètes et leur distance au Soleil …

 

Vers un nouvel ÉTHER :

Le respect de l’ensemble des principes de la physique impose d’admettre l’existence d’un milieu de transmission des ondes électromagnétiques et des ondes gravitationnelle que les physiciens ont longtemps tenté de mettre en évidence. Capables de transporter de l’énergie, ce milieu permettrait de respecter l’égalité de l’action et de la réaction et la conservation de l’énergie. Il justifierait également le processus de propagation des champs électromagnétiques comme un processus réellement ondulatoire.

Cependant, ce milieu ne peut être un solide indéformable comme cela avait été imaginé au 19° siècle. Il pourrait être assimilé à un fluide incompressible ou non, mais plus certainement être un milieu différent de tous les milieux connus pouvant transmettre aussi bien des vibrations longitudinales que transversales.

Seule son existence permettrait de concilier les indiscutables aspects quantiques de la matière avec celle des ondes. La non-linéarité de ses équations permettrait de justifier l’existence des nombreuses particules intervenant en physique nucléaire. Celles-ci ne seraient alors que des solutions particulières d’une équation différentielle non linéaire décrivant ce nouvel Éther.

La démarche scientifique suppose un respect scrupuleux des faits et des principes de la physique qui ne sont que des remarques de bon sens. Elle ne peut être ni déductive, c’est-à-dire partir seulement des grands principes, ni inductive, c’est-à-dire décrire seulement les faits. Elle doit associer les deux démarches qui sont complémentaires.

Des progrès significatifs ne se produiront que lorsque les physiciens accepteront de ne considérer les théories actuelles, et en particulier la théorie de la relativité, que comme des étapes dans notre approche de la physique et soumettront la théorie à la seule épreuve des faits.

 

L’Éther rigide du 19° siècle est mort ! Vive celui du 21° siècle !

 

Pierre FUERXER

Membre de l’AIRAMA.

 

 

 

 


[1] Voir la revue de l’amicale des anciens élèves de l’École Polytechnique (La Jaune et la Rouge, pages 31-51, avril 1994) en téléchargement ici : http://combats-maurice-allais.info/documents/Pages-31-a-51_de_1994-04_jr-494-cig.pdf

[2] En téléchargement ici : http://combats-maurice-allais.info/documents/151787979-ALLAIS-Maurice-L-Anisotropie-de-l-Espace-1997.pdf

[3] En vente aux éditions DPF : http://www.chire.fr/A-106484-l-effondrement-de-la-theorie-de-la-relativite-implication-irrefragable-des-donnees-de-l-experience.aspx

Poincaré et le rayonnement du corps noir

fuerxer_pierrePierre FUERXER (61)
le 16 décembre 2012

Ingénieur en chef de l’armement, ancien adjoint militaire au directeur du CNET (Centre national d’études des télécommunications

 

La théorie de Planck n’a pas été adoptée immédiatement par la communauté scientifique. Henri Poincaré a joué dans son développement un rôle mal connu. Plutôt que de traiter de la genèse de cette théorie, cet article se propose d’illustrer, à partir de cet exemple, les qualités scientifiques et humaines de Poincaré et sa capacité à aller droit à l’essentiel.

2012-12_CORPS-NOIR-p38 2012-12_CORPS-NOIR-p39

Télécharger l’article en PDF

Source La Jaune et La Rouge : http://www.lajauneetlarouge.com/article/poincare-et-le-rayonnement-du-corps-noir