Un rêve de physicien…

Le rêve d’un physicien.

 

Préambule :

               Retraité depuis déjà longtemps, un polytechnicien revient sur sa carrière d’ingénieur. Les progrès en à peine plus d’un siècle n’ont-ils pas été considérables ? Faut-il s’en émerveiller ou s’en étonner ? Ceci résulte-t-il de progrès considérables des connaissances scientifiques ou de la technologie ? N’avait-il pas admis, au moins implicitement, au cours de sa carrière d’ingénieur que ceux qui savent réalisent, et ceux qui ignorent enseignent ? En réalité, comment technologie et progrès théoriques s’épaulent-ils ?

               Pour comprendre l’état actuel des connaissances, il se demande pourquoi des vérités scientifiques, aujourd’hui incontestées, se sont imposées. Les choix conceptuels qui ont été faits au 20° siècle ont-ils été judicieux ? D’autres approches n’auraient-elles pas été préférables ?

               Il se met alors successivement dans la peau d’un élève des promotions 2005, 1960 puis 2015 et  découvre  que les mathématiques et la physique ont toujours eu des relations conflictuelles. La rigueur des premiers et l’intuition des seconds sont-elles compatibles ? Les physiciens s’opposent-ils toujours aux idées nouvelles? La physique du 21° siècle sera-t-elle celle dont il a toujours rêvé ?

               Enfin, il décrit la physique dont il rêve, et qu’il espère voir s’imposer en 2070, trois fois 55 ans après la rupture de 1905 qui a conduit à la physique relativiste et quantique que nous connaissons.

La physique en 1905 :

Que lui aurait-on enseigné à l’école Polytechnique en 1905 ? Henri Poincaré, son jeune professeur  d’astronomie, lui aurait sans doute présenté le problème des trois corps, mais vraisemblablement pas les expériences de Michelson, ni les ides idées de Lorentz sur la contraction des corps en mouvement, qui étaient encore très contestées.

Les modes de pensée des physiciens et des mathématiciens étaient et restent très différents. Les mathématiciens raisonnaient avec rigueur sur la base d’axiomes parfaitement explicités. Les physiciens essayaient de construire des théories susceptibles d’expliquer, au moins qualitativement, les phénomènes qu’ils observent.

En 1905, ce jeune élève (on ne disait pas étudiant, terme réservé à l’université), s’endort pendant un cours dans le grand amphi (aujourd’hui devenu l’amphi Poincaré), alors que son professeur explique que les plus lourds que l’air ne peuvent pas voler. Malgré les débuts de l’aviation, son argumentation de son professeur avait l’apparence d’une démonstration. Depuis, nous avons appris que, grâce au développement de grandes souffleries, la démonstration de son professeur était mathématiquement exacte, mais que ses hypothèses correspondaient à un cas d’école « idéalisé » qui ne se rencontre qu’exceptionnellement dans le monde réel, et qu’heureusement les aviateurs savent éviter. En mathématicien, ce professeur avait fait une démonstration rigoureuse, mais sur la base d’hypothèses trop restrictives, réduisant la portée de ses conclusions. Les fous volants ont prouvé que sa démonstration n’était pas pertinente.

Au même moment, les physiciens étaient préoccupés par l’échec des expériences de Michelson. En 1881, celui-ci avait tenté de mesurer la « vitesse absolue » de la terre avec un interféromètre de seulement 1,20 m de longueur. Après ce premier échec, d’autres expériences avaient conduit à des résultats jugés non significatifs. Pour expliquer ces résultats, Lorentz avait imaginé que les corps en mouvement se contractent dans la direction de leur vitesse. Compte tenu de cette hypothèse,  la vitesse de la lumière devenait apparemment isotrope dans un interféromètre mobile. Il s’agissait là d’une hypothèse « ad hoc », justifiée par aucune théorie physique. Sans entrer dans la genèse de la théorie de la relativité, expliquée de façon remarquable par Jules Leveugle dans son livre publié en 2004 (1), Lorentz agissait comme bien d’autres physiciens avant lui. Il traduisait en loi physique le résultat d’une expérience, ici l’échec de la mesure la vitesse absolue de la terre.

Poincaré, après avoir démontré que l’hypothèse de Lorentz était mathématiquement recevable, établit les formules de changement de repère qui en résultaient. Il démontra ensuite que ces formules ont des propriétés remarquables et constituent, en langage mathématique, « un corps », notion encore largement ignorée des physiciens.  Il ajouta donc, aux grands principes de la physique, le principe de relativité, selon lequel les lois de la physique doivent être les mêmes pour tous les observateurs.

À cette époque, Planck était responsable du choix des articles de physique théorique au sein de la revue allemande « Annalen der Physik ». Comme l’a démontré Jules Leveugle à partir de documents originaux, celui-ci privilégiait naturellement les articles favorables à sa théorie des quanta, et prit parti pour la théorie de la relativité.

La physique vers 1960 :

               Une cinquantaine d’années plus tard, jeune polytechnicien, je découvre une physique totalement différente. Les polémiques nées autour des théories quantiques et relativistes sont totalement oubliées. À l’exception de Monsieur Tardi, lointain successeur de Poincaré au poste de professeur d’astrophysique, les physiciens présentent leur discipline d’une façon dogmatique. Le doute n’a plus sa place. La théorie de la relativité générale est une évidence. Les grands instruments, accélérateurs et cyclotrons, ont permis d’observer de nombreuses particules stables ou instables. Les plus grands espoirs sont mis dans « le modèle standard ». En un mot, nous approchions de la fin de l’histoire !

               Plus personne n’osait s’interroger sur les origines des certitudes scientifiques devenues de véritables dogmes. Encore moins s’étonner que les équations de Maxwell introduisent un « courant de déplacement fictif » circulant dans le vide. Peut-on parler d’onde et de courant sans qu’il existe, dans un milieu de propagation,  deux formes d’énergie ? Par exemple, en ondes mécaniques, l’énergie cinétique et une énergie potentielle ? Comment peut-on occulter ces réalités ?

               Plus personne ne s’étonnait qu’un photon, initialement supposé ponctuel par Einstein, et devenu plus tard beaucoup plus mystérieux, soit susceptible de  se matérialiser en un lieu précis, par exemple dans une diode semi-conductrice ? Cela ne rendait-il pas suspecte cette particule ?

               Heureusement, de nombreux ingénieurs, maîtrisant parfaitement les concepts et les techniques anciennes, ont pu participer à l’essor extraordinaire des techniques que nous avons connu : électronique, télécommunications, détection, géolocalisation, informatique… Tous domaines dans lesquels rien n’aurait été possible si la technologie n’avait autant progressé.

               La courbure gravitationnelle des rayons lumineux ayant été observée en 1915, lors d’une éclipse de Soleil, il eut été raisonnable d’abandonner la théorie de la relativité. En effet, cette expérience démontrait que la vitesse de la lumière n’est pas une constante universelle et que sa variation gravitationnelle, bien que faible, pouvait être mesurée.

               Au lieu de reconnaître que ce résultat reléguait la théorie de la relativité au rang d’une approximation locale, une nouvelle théorie extrêmement complexe, difficile à utiliser, et que seuls quelques spécialistes disent maîtriser, était présentée comme l’aboutissement d’une longue évolution  de la physique théorique vers sa perfection.

               Si la lumière ne se propageait pas strictement en ligne droite, ne suffisait-il pas d’en tenir compte ? Supposons que pour faire des mesures précises de distance, vous ne disposiez que d’un décamètre. Vous chercheriez à déterminer avec la plus grande précision possible les effets éléments parasites : tenson du décamètre, effet de la flèche du ruban lorsqu’il ne repose pas sur le sol… Vous n’auriez pas, comme les relativistes, pris votre décamètre  comme référence et modifié en conséquence la géométrie devenue non euclidienne !

               La théorie de la relativité était enseignée à tous les étudiants, bien que de nombreux physiciens aient longtemps douté de sa pertinence. Au long du 20° siècle, des physiciens illustres avaient cherché à en tester la validité de cette théorie. De nombreuses expériences avaient été faites pour valider (ou non) la théorie de la relativité. En 1925-1926 Miller avait fait des mesures avec un immense interféromètre extrêmement rustique. Maurice Allais a  analysé ses résultats, ainsi que d’autres expériences dans son livre sur « L’anisotropie de l’espace » (2). Il effectua personnellement des mesures avec des pendules « paraconiques », et, à la demande de l’IGN (Institut Géographique National), des mesures d’anomalies signalées sur les visées optiques. En 1964, William Bertozzi observa la vitesse d’un électron et nota que celle-ci restait toujours inférieure à celle de la lumière. Il en conclut à la validité de la relativité restreinte, mais ses résultats restaient assez qualitatifs. (Voir L’expérience de William Bertozzi (3) ).

               Toutes ces expériences, quelles qu’en aient été les conclusions, ont été réalisées avec les technologies de leur temps, ce qui les rend aujourd’hui éminemment contestables. D’autres expériences, impossibles en 1960, ne devraient-elles pas être réalisées ? Ne pourraient-elles pas conduire les étudiants à effectuer de remarquables Travaux de thèse ?

               Parallèlement, l’atome avait pris une immense place dans la physique. Un gros effort avait été fait dans de le développement des bombes nucléaires, puis des centrales nucléaires qui devaient rendre l’énergie à la fois disponible et bon marché. Physique nucléaire et mécanique quantique avaient pris naturellement une place essentielle dans l’enseignement de la physique.

               Une autre invention, celle du pompage optique avait conduit au développement du LASER qui a révolutionnera l’optique, l’industrie des machines outil, et même les produits audio-visuels destinés au grand public. Par des considérations purement théorique, Alfred Kastler avait prédit qu’il devait être possible de rendre plus intense l’émission des raies spectrales des atomes en les soumettant à un rayonnement lumineux de longueur d’onde plus courte. Dans les années 50, son équipe avait démontré l’exactitude de son intuition. Très rapidement, de nombreux chercheurs avaient réalisé des LASER. Aujourd’hui, le grand public ne s’étonne pas d’utiliser des quantités de sources LASER dans de très nombreux équipements.

La physique en 2015 :

               Après une carrière au cours de laquelle il avait participé avec passion aux innovations rendues possible par les progrès immenses de la technologie électronique, ce même polytechnicien s’interroge sur l’évolution de la physique au 21° siècle.

Le 14 septembre 2015, aux États Unis, les physiciens ont détecté pour la première fois  des ondes gravitationnelles. Les  interféromètres de Livingston  et de Hanford obtiennent un premier signal. Pour eux, cette détection est un événement très important, car elle confirme l’existence des ondes gravitationnelles indispensables à la cohérence globale de la physique.

               En effet, Poincaré avait établi en 1900 la masse de l’énergie. Sa démonstration, extrêmement simple, faisait appel à la seule mécanique classique et s’appliquait à toutes les formes d’énergie, comme cela est expliqué clairement dans le livre de Jules Leveugle (1). Ainsi, toute forme d’énergie a donc nécessairement une masse. Une onde électromagnétique, se déplaçant à la vitesse de la lumière, ne peut donc qu’être associée à une onde de gravitation de même vitesse.

               Sur le campus de Saclay, la découverte attendue des ondes gravitationnelles est présentée comme une confirmation éclatante de la théorie de la relativité. En réalité, plus d’ un siècle plus tôt, une analyse objective des écrits de Poincaré aurait permis de comprendre, par la seule réflexion, que ces ondes de gravitation étaient une conséquence naturelle des équations de Maxwell et de toutes les lois de la physique pré-relativiste.

               Tout au cours du 20° siècle, et Indépendamment des recherches théoriques des physiciens, le développement des systèmes électroniques, soutenu par la demande du marché, a conduit à des progrès considérables de la technologie, et par ricochet de la physique.  Enfin, les travaux théoriques de Fourier et Laplace, effectués il y a presque deux cent ans,  ont été enfin largement utilisés. Sans les systèmes de télécommunication, les RADAR, les gyromètres LASER, bien des phénomènes n’auraient pas été étudiés et compris : la modulation, les bruits et les interférences…

               Les gyromètres LASER ont mis en évidence l’effet de couplages parasites dans les systèmes optiques. Nous savons que ces gyromètres sont aveugles lorsque leur vitesse de rotation est inférieure à un seuil donné. Aurions-nous réalisé ces gyromètres si, en 1925, Michelson et Gale n’avaient pas observé la rotation de la Terre ? Quelle physique aurions-nous imaginé ?

En 2018, le prix Nobel de physique a été attribué au français Gérard Mourou. Ce prix a récompensé des travaux sur la génération d’impulsions LASER extrêmement courtes, utilisées notamment dans des applications médicales.  Ces résultats correspondent à des techniques de traitement de signal utilisées en RADAR et en télécommunications sous les noms de compressions d’impulsion et d’étalement de spectre. Ces techniques avaient été utilisées bien avant par les animaux, chauves-souris ou mammifères marins pour détecter et localiser leurs proies. Ce Prix Nobel de physique 2018, récompense ainsi une application de la physique classique et de travaux théoriques sur l’analyse spectrale de près de deux siècles.

 La physique quantique aurait pu revendiquer un rôle dans ces avancées, mais elle ne décrit que globalement l’émission de lumière par les LASER, sans expliquer le processus physique mis en œuvre. En effet, la théorie quantique ne décrit pas les transitions entre niveaux atomiques, mais seulement leurs résultats : l’émission d’un signal optique. Ainsi, elle n’explique pas les mécanismes physiques, et en particulier l’émission stimulée de lumière, à l’origine du rayonnement LASER.

La course aux grands instruments scientifiques s’est poursuivie. Des années 50 à nos jours, le CERN n’a cessé de construire des instruments de plus en plus puissants (accélérateurs de particules, synchrotrons, cyclotrons). Des laboratoires comme le projet de confinement LASER du « Lawrence Livermore National Laboratory », situé en Californie, ou le projet de Tokamak ITER, construit en France, font rêver à des systèmes capables de produire une énergie abondante et bon marché, un rêve déjà proposé par les centrales nucléaires.

L’analyse de ces grands programmes internationaux dépasse très largement le cadre de cette réflexion sur la physique de 2015. Aujourd’hui, la faisabilité de ces grands projets n’est toujours pas démontrée, et de nombreuses voix  s’élèvent pour contester leur capacité à atteindre les objectifs industriels annoncés. Comment ces projets pourraient-ils tenir ces promesses alors que la mise en service des centrales nucléaires, simples machines à vapeur à chauffage nucléaire, est contesté ? Comment ces monstres pourraient-ils fournir l’énergie abondante dont nos héritiers auront besoin ?

Pour avoir visité différents laboratoires travaillant sur le confinement LASER et des Tokamak, assisté à des congrès consacrés à l’étude des plasmas, ce physicien s’interroge. Que penseront les générations futures des grands instruments scientifiques conçus à la fin du 20° siècle, cyclotrons, Tokamak, lasers de puissance ou grands interféromètres, qui ont mobilisé tant de chercheurs et de moyens financiers ?

Une nécessaire mise en cause des dogmes :

               La physique peut-elle poursuivre longtemps dans  la voie actuelle ? Ne doit-elle pas s’interroger sur l’adéquation de l’orientation prise en 1905 ? Ne doit-elle pas mettre en cause les options prises, il y a plus d’un siècle, sur la base d’expériences alors inexpliquées ? Les choix faits ont-ils réellement été imposés par les résultats expérimentaux ? Les principes fondateurs de la physique actuelle justifiaient-ils réellement une telle révolution conceptuelle et la mise en cause de toute notre culture mathématique ? Depuis, ont-ils été invalidés par de nouvelles expériences ?

  • Considérons en premier, l’expérience de Michelson : apparemment simple, ce dispositif expérimental reste extrêmement difficile à étudier. Les optiques fonctionnent en champ proche, et depuis que les ordinateurs permettent d’effectuer des calculs de rayonnement sur les antennes actives des RADARS, et de choisir les meilleures apodisations, nous savons que les calculs élémentaires de déphasage faits alors par Michelson étaient loin d’être rigoureux. Des couplages négligés pourraient-ils rendre inopérants ces instruments ? En raison de couplages analogues, les gyromètres LASER n’ont-ils pas une plage de vitesse aveugle éliminable par une faible rotation mécanique périodique ?
  • Les quanta : En 1905, Einstein avait pensé pouvoir justifier l’hypothèse des quanta, chère à Planck, en observant l’arrivée aléatoire d’électrons dans un photomultiplicateur. En fait, cette expérience ne démontrait que la nature du courant électrique : un flux d’électrons. Elle n’apportait rien sur la connaissance du rayonnement lumineux.
  • La masse de l’électron : En 1964, l’expérience de William Bertozzi  a été considérée comme une preuve de la théorie de la relativité. À la sortie d’un accélérateur linéaire, la vitesse d’un électron ne pouvait dépasser la vitesse de la lumière. Effectivement, cette expérience prouvait bien qu’un électron ne peut dépasser la vitesse de la lumière, mais ne validait pas parfaitement la formule relativiste.
  • Les expériences d’intrication de photons sont totalement fantaisistes et peuvent seulement faire croire que la physique est un domaine mystérieux. Il est absurde d’imaginer l’existence d’un lien instantané entre photons, alors qu’une approche électromagnétique simple, et la modélisation statistique du détecteur, conduisent au bon résultat.
  • En astronomie, mesurer la distance des galaxies par le décalage vers le rouge (Red shift) est naturel. En revanche, affirmer qu’il s’agit d’un décalage Doppler ne serait démontré que si ces rayonnements étaient des fréquences pures, ce qui n’est pas le cas.
  • Enfin, mettre au programme de terminale les expériences d’interférences sur électrons uniques est totalement irresponsable, surtout en ne donnant pas l’explication classique de ce phénomène finalement assez simple. N’est-il pas naturel que le mouvement de l’électron induise des courants dans le masque et que ceux-ci influent sur sa trajectoire ? Pour un spécialiste de la discrétion RADAR, la présentation faite aux élèves de terminale de cette expérience est tout simplement risible. Quelle image de la physique et des physiciens, les plus intelligents d’entre eux auront-ils ? En déduiront-ils que la physique n’est, comme au temps des bouteilles de Leyde, qu’une science mystérieuse permettant de réaliser des expériences paradoxales pour briller dans les salons ?

Au lycée, la physique doit donner aux élèves les bases  nécessaires pour être sereins dans  le monde technique dans lequel ils vivront, et éprouver l’envie de le comprendre. Dans l’enseignement  supérieur, pour ne pas écarter les esprits les plus brillants, tout dogmatisme devrait être évité, les axiomes clairement explicités et justifiés, et surtout les domaines d’application des théories précisés.

Que devrait être la physique en 2070 ? :

Un peu  désappointé par ce constat, ce physicien se met à rêver et laisse libre cours à son imagination. Pour sortir des sentiers battus, le mieux n’est-il pas de prendre à contre-pied les choix actuels ? Acceptez de m’accompagner dans cette démarche et d’envisager à quelle physique pourrait conduire une mise en cause radicale des choix actuels.

Quelles seraient les bases de cette nouvelle physique ?

Parler d’ondes n’ayant pas de sens en l’absence d’un milieu de propagation, je vous propose  d’admettre l’existence de l’Éther. Le courant de déplacement introduit par Maxwell dans ses célèbres équations est donc réel. Contrairement à l’hypothèse de la relativité restreinte, le milieu de propagation de ces ondes ne devrait  pas être un solide mais une sorte de fluide. Nous admettrons que l’Éther, ce milieu de propagation des ondes, est non-linéaire. La variation gravitationnelle de la vitesse de la lumière résulterait alors de la non-linéarité de ce milieu, dont les propriétés seront représentées par la célèbre courbe en « S », apte à décrire, dit-on, la plupart des phénomènes physiques.   

Les ondes électromagnétiques correspondraient aux vibrations selon les deux directions de transverses par rapport à la direction de propagation. Les ondes gravitationnelles seraient, comme les ondes acoustiques, des ondes longitudinales. L’Éther pourrait ainsi vibrer selon les trois directions possibles, la vitesse de propagation de ces trois modes ondes étant « c », la vitesse de la lumière.

Comme en mécanique, et sans rien changer aux lois de l’électricité, l’énergie des champs électriques et magnétiques résulterait de la position et de la vitesse des charges électriques et de l’observateur par rapport au repère retenu ou par rapport à l’Éther, fluide siège de la propagation des ondes. Compte tenu de la non-linéarité de ce milieu, l’énergie des particules serait contenue dans les champs qui les entourent, plutôt que dans leurs seuls noyaux.

Toutes les particules seront alors des solutions d’une équation différentielle non linéaire. Certaines de ces solutions seront stables, d’autres instables et les particules correspondantes absentes de notre environnement. Comme des bulles se déplaçant dans l’eau de mer, ces particules se déplaceraient librement dans l’Éther… Cette nouvelle physique expliquerait enfin la dualité onde particule imaginée en 1923 par De Broglie. En optant résolument pour une physique réellement ondulatoire, elle unifierait les notions d’ondes et de particules, cette dualité perdant tout son sens.

Enfin, cette physique s’abstiendra de parler du Big-Bang autrement que comme un mythe de la création du monde qui, contrairement aux textes religieux, n’a ni signification philosophique ni valeur scientifique. Aucune expérience n’ayant prouvé que la dérive vers le rouge du rayonnement des galaxies lointaines résulte d’un effet Doppler, celle-ci sera attribuée à la non-linéarité du milieu traversé. Les raisons de ce décalage seront identifiées : la présence de particules neutres ou chargées dans le vide intersidéral, ou, tout simplement, la non-linéarité de l’Éther.

La chasse à la magie et aux phénomènes paradoxaux :

               Les phénomènes physiques ne sont paradoxaux que lorsqu’ils sont mal compris. Faute d’une analyse logique d’une expérience, l’humanité a toujours été tentée d’imaginer une explication magique ou simplement de construire un ensemble règle formelle, souvent incohérentes entre elles, rendant compte, au moins qualitativement, des observations. Bien évidemment, sans s’interdire d’utiliser ces formules magiques, cette nouvelle physique refusera de les considérer comme des lois mystérieuses de la nature et cherchera aux faits des explications réellement scientifiques.

               Les différentes expressions des relations d’incertitudes seront unifiées en une seule, construite sur la notion de bruits d’observation, et s’appliquant de façon universelle. Prenons un exemple dans le domaine RADAR. La localisation d’une cible nécessite la mesure d’angles et de temps d’arrivée d’une impulsion. Le Radariste estime les probabilités de détection et de fausse alarme, et pour chaque événement observé les dimensions du volume de l’espace-temps correspondantes. Il admet que ses mesures sont imprécises mais ne nie pas que chaque cible ait une position réelle, même s’il ne peut la connaître exactement. Cette analyse, présentée sur un exemple lié au RADAR, sera évidemment faite d’une façon analogue pour toutes les mesures, mêmes au niveau des particules élémentaires.

               Le photon ne sera plus une particule mystérieuse, mais redeviendra, conformément  au concept d’Henri Poincaré, un quantum d’action (4).  Depuis que nous disposons de sources LASER, nous savons qu’en lumière monochromatique, les images présentent des défauts caractéristiques. Nous savons également que les senseurs ne détectent pas toujours les signaux, mais qu’en revanche, ils présentent toujours un taux de fausses détections non nul. Ceci s’expliquera simplement, comme en RADAR, en considérant le détecteur comme un dispositif à seuil en présence d’un signal mélangé avec un bruit aléatoire, variable spatialement et temporellement.

               Bien évidemment, les tentatives de développement de géométries non-euclidiennes en vue de leur utilisation en physique seront abandonnées.

La fin des grands instruments scientifiques :

               Ces grands instruments n’ont pu être développés que grâce à des coopérations mondiales, associant un grand nombre de pays, par exemple 500 chercheurs appartenant à 50 nations, et avec le soutien actif de ce que nous appelons « la communauté scientifique ». Y participer peut en effet apporter aux jeunes chercheurs une expérience de laboratoire, mais en aucun cas leur permettre de remettre en cause les concepts dogmatiques de leurs aînés. Ces grands programmes de recherche ne peuvent donc avoir pour objet de mettre en évidence les inévitables lacunes de la physique issue de la révolution conceptuelle de 1905, et contribuent à stériliser l’ensemble de la recherche.

               Désappointés par les résultats décevants de grands instruments développés à la fin du 20° siècle, en égard aux efforts financiers et à l’investissement humain fait par les innombrables chercheurs ayant contribué à leur réalisation, les états arrêteront de soutenir leur développement. Ces instruments seront devenus des ruines. Dans quelques millénaires, nos lointains descendants se demanderont sans doute quel avait bien pu être la raison de leur construction et quel rôle, politique ou religieux, ils avaient au 20° siècle.

               En revanche, les télescopes et radiotélescopes devraient continuer à être développés. Ils sont en effet les seuls qui puissent nous permettre d’explorer l’univers, et d’étudier les lois de la physique dans des conditions (température, pression, champ de gravité…) qu’il restera toujours impossible de réaliser sur Terre. Toutefois, ces grands télescopes ne survivront, et ne pourront contribuer aux progrès de la physique, que s’ils collectent des données brutes, claires, et bien documentées. En effet, il ne sera pas possible de construire une nouvelle physique sur la base de données ayant subi des prétraitements justifiés par les théories scientifiques reconnues et des hypothèses non validées.

De l’exploration spatiale à la compréhension de l’univers :  

               L’homme a rêvé de marcher sur la Lune et sur Mars. Une fois ces rêves abandonnés, et quelles qu’en aient été les raisons, l’espace reprendra une place temporairement occultée par ces épopées : celle de nourrir les rêves de l’humanité. Alors que nous nous croyions le centre du monde, les astronomes ont déjà observé une quantité de galaxies, et détecté la présence de plus de 30.000 exo-planètes dont certaines pourraient ressembler à la nôtre…

Les poètes, fascinés par  l’immense univers auquel nous appartenons, pourront s’émerveiller. Pour les physiciens, après l’abandon des grands instruments scientifiques, l’univers deviendra l’immense laboratoire dans lequel ils pourront observer en direct des expériences irréalisables sur Terre. Les mathématiciens, retrouveront enfin l’espace euclidien infini dans lequel ils raisonnent, et dont ils ne peuvent se passer.

La mort de la physique ?

               La physique, telle que nous la connaissions depuis le 17° siècle, avait toujours essayé de rendre compte d’observations faites à l’aide de dispositifs expérimentaux simples. Son but était de découvrir les lois permettant de décrire avec précision leurs expériences et finalement de faire progresser la science. Ensuite, eux-mêmes ou des inventeurs talentueux, concevaient des machines tirant profit des connaissances théoriques acquises. La science physique remplaçait par un ensemble de théories et des modèles mathématiques, la connaissance parfois empirique des experts.

               An début du 20° siècle, les physiciens n’avaient toujours pas expliqué l’échec de l’expérience faite par Michelson en 1881 pour mesurer la vitesse absolue de la Terre. Ils avaient tenté, en vain, d’améliorer les performances de leurs interféromètres. Ils devaient alors faire un choix : admettre que leurs équipements étaient inaptes à faire cette mesure, ou, considérer que cette mesure était théoriquement impossible. Après une longue controverse, cette deuxième option s’imposa.

               Aujourd’hui encore, la physique est enfermée par cette victoire des « relativistes » qui refusent absolument toute mise en cause de leur choix fondateurs qu’ils appellent « Le principe de relativité ». Selon celui-ci, il serait théoriquement impossible de mesurer une vitesse absolue. Ils généraliseront ensuite ce principe en l’étendant aux accélérations. Selon ce nouveau principe de relativité, il serait impossible de mesurer une vitesse absolue, mais également une accélération absolue. Aujourd’hui encore, l’académie des sciences considère que toute loi physique doit être « généralement covariante », c’est-à-dire confirmer l’impossibilité de mesurer la vitesse ou l’accélération absolue d’un corps, mais ceci est-il réellement un choix judicieux ?

               Tout au long du 20° siècle, la physique a construit un ensemble dogmatique fondé sur la relativité et la mécanique quantique. Ce choix fait par des disciples zélés a été maintenu malgré les nombreux défauts de ces théories, en particulier la complexité mathématique de la relativité générale et l’incapacité de la mécanique quantique à décrire les phases transitoires (en particulier celles correspondant aux émissions lumineuses intervenant lorsque les électrons d’un atome changent de niveau  d’énergie).

               Cette attitude était-elle responsable, alors même que de nombreux phénomènes n’étaient, et ne sont toujours pas, expliqués ? Pouvait-on prétendre que tout avait été découvert ? La physique était-elle vraiment morte ?

Une renaissance possible ?

               Est-il possible que le rêve de ce physicien se réalise ? La physique peut-elle renaître ? Un retour aux sources peut-il lui redonner le dynamisme et la cohérence qu’elle a perdue ?

               En 1904, Henri Poincaré avait été le premier physicien à ajouter aux principes habituels de la physique « le principe de relativité », c’est-à-dire l’universalité des lois de la physique (3). Prenons un exemple simple. Considérons une horloge mécanique à balancier. Elle est sensible aux variations des forces de gravitation, mais son mouvement obéit aux mêmes lois de la physique quelle que soit sa place et l’altitude du lieu qu’elle occupe sur la Terre.

               Ce principe de relativité est bien différent de celui implicitement adopté par les relativistes. Si nous l’adoptions, les lois de la physique peuvent faire intervenir de nouveaux paramètres.  Au lieu de chercher à identifier des gravitons ou d’imaginer l’existence d’une matière noire, l’Éther ne permettait-il pas de comprendre l’univers, et la formation des galaxies, en particulier des nébuleuses spirales ? Ne sont-elles pas analogues aux cyclones qui se développent sur nos océans ? Devrait-on, comme en météorologie, faire intervenir un potentiel gravitationnel et la vitesse  locale de l’Éther ?

               Cette renaissance de la physique ne pourra avoir lieu que si une réflexion ouverte et une analyse critique des acquis du 20° siècle est entreprise. Il faudra lutter à la fois contre les défenseurs des vieilles idées du début du 20° siècle qui, tout en veillant au respect des dogmes, laissent de nombreux mystificateurs propager les théories les plus absurdes dans les grands médias.

               Un prochain document précisera comment l’enchaînement de faits apparemment sans importance a conduit à la situation actuelle, qui devrait conduire à la mort de la recherche fondamentale en physique. De nombreux acteurs universitaires, médiatiques, industriels,  de promoteurs de projets scientifiques internationaux, ont contribué inconsciemment à stériliser la physique et à en détourner les étudiants.

 

Pierre FUERXER

Membre de l’AIRAMA

 

Télécharger en PDF

 

 

 

 

[1] La Relativité, Poincaré et Einstein, Planck, Hilbert, par Jules Leveugle, L’Harmattan 2004.

[2] L’anisotropie de l’espace, Maurice Allais, Ed Clément Juglar, 1997.

[3] L’expérience de William bertozzi , ICI en PDF

[4] La physique du 21° siècle sera-t-elle ondulatoire, Pierre Fuerxer, URSI, JS 2011.

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *