Étiquette : Astronomie

Un rêve de physicien…

Le rêve d’un physicien.

 

Préambule :

               Retraité depuis déjà longtemps, un polytechnicien revient sur sa carrière d’ingénieur. Les progrès en à peine plus d’un siècle n’ont-ils pas été considérables ? Faut-il s’en émerveiller ou s’en étonner ? Ceci résulte-t-il de progrès considérables des connaissances scientifiques ou de la technologie ? N’avait-il pas admis, au moins implicitement, au cours de sa carrière d’ingénieur que ceux qui savent réalisent, et ceux qui ignorent enseignent ? En réalité, comment technologie et progrès théoriques s’épaulent-ils ?

               Pour comprendre l’état actuel des connaissances, il se demande pourquoi des vérités scientifiques, aujourd’hui incontestées, se sont imposées. Les choix conceptuels qui ont été faits au 20° siècle ont-ils été judicieux ? D’autres approches n’auraient-elles pas été préférables ?

               Il se met alors successivement dans la peau d’un élève des promotions 2005, 1960 puis 2015 et  découvre  que les mathématiques et la physique ont toujours eu des relations conflictuelles. La rigueur des premiers et l’intuition des seconds sont-elles compatibles ? Les physiciens s’opposent-ils toujours aux idées nouvelles? La physique du 21° siècle sera-t-elle celle dont il a toujours rêvé ?

               Enfin, il décrit la physique dont il rêve, et qu’il espère voir s’imposer en 2070, trois fois 55 ans après la rupture de 1905 qui a conduit à la physique relativiste et quantique que nous connaissons.

La physique en 1905 :

Que lui aurait-on enseigné à l’école Polytechnique en 1905 ? Henri Poincaré, son jeune professeur  d’astronomie, lui aurait sans doute présenté le problème des trois corps, mais vraisemblablement pas les expériences de Michelson, ni les ides idées de Lorentz sur la contraction des corps en mouvement, qui étaient encore très contestées.

Les modes de pensée des physiciens et des mathématiciens étaient et restent très différents. Les mathématiciens raisonnaient avec rigueur sur la base d’axiomes parfaitement explicités. Les physiciens essayaient de construire des théories susceptibles d’expliquer, au moins qualitativement, les phénomènes qu’ils observent.

En 1905, ce jeune élève (on ne disait pas étudiant, terme réservé à l’université), s’endort pendant un cours dans le grand amphi (aujourd’hui devenu l’amphi Poincaré), alors que son professeur explique que les plus lourds que l’air ne peuvent pas voler. Malgré les débuts de l’aviation, son argumentation de son professeur avait l’apparence d’une démonstration. Depuis, nous avons appris que, grâce au développement de grandes souffleries, la démonstration de son professeur était mathématiquement exacte, mais que ses hypothèses correspondaient à un cas d’école « idéalisé » qui ne se rencontre qu’exceptionnellement dans le monde réel, et qu’heureusement les aviateurs savent éviter. En mathématicien, ce professeur avait fait une démonstration rigoureuse, mais sur la base d’hypothèses trop restrictives, réduisant la portée de ses conclusions. Les fous volants ont prouvé que sa démonstration n’était pas pertinente.

Au même moment, les physiciens étaient préoccupés par l’échec des expériences de Michelson. En 1881, celui-ci avait tenté de mesurer la « vitesse absolue » de la terre avec un interféromètre de seulement 1,20 m de longueur. Après ce premier échec, d’autres expériences avaient conduit à des résultats jugés non significatifs. Pour expliquer ces résultats, Lorentz avait imaginé que les corps en mouvement se contractent dans la direction de leur vitesse. Compte tenu de cette hypothèse,  la vitesse de la lumière devenait apparemment isotrope dans un interféromètre mobile. Il s’agissait là d’une hypothèse « ad hoc », justifiée par aucune théorie physique. Sans entrer dans la genèse de la théorie de la relativité, expliquée de façon remarquable par Jules Leveugle dans son livre publié en 2004 (1), Lorentz agissait comme bien d’autres physiciens avant lui. Il traduisait en loi physique le résultat d’une expérience, ici l’échec de la mesure la vitesse absolue de la terre.

Poincaré, après avoir démontré que l’hypothèse de Lorentz était mathématiquement recevable, établit les formules de changement de repère qui en résultaient. Il démontra ensuite que ces formules ont des propriétés remarquables et constituent, en langage mathématique, « un corps », notion encore largement ignorée des physiciens.  Il ajouta donc, aux grands principes de la physique, le principe de relativité, selon lequel les lois de la physique doivent être les mêmes pour tous les observateurs.

À cette époque, Planck était responsable du choix des articles de physique théorique au sein de la revue allemande « Annalen der Physik ». Comme l’a démontré Jules Leveugle à partir de documents originaux, celui-ci privilégiait naturellement les articles favorables à sa théorie des quanta, et prit parti pour la théorie de la relativité.

La physique vers 1960 :

               Une cinquantaine d’années plus tard, jeune polytechnicien, je découvre une physique totalement différente. Les polémiques nées autour des théories quantiques et relativistes sont totalement oubliées. À l’exception de Monsieur Tardi, lointain successeur de Poincaré au poste de professeur d’astrophysique, les physiciens présentent leur discipline d’une façon dogmatique. Le doute n’a plus sa place. La théorie de la relativité générale est une évidence. Les grands instruments, accélérateurs et cyclotrons, ont permis d’observer de nombreuses particules stables ou instables. Les plus grands espoirs sont mis dans « le modèle standard ». En un mot, nous approchions de la fin de l’histoire !

               Plus personne n’osait s’interroger sur les origines des certitudes scientifiques devenues de véritables dogmes. Encore moins s’étonner que les équations de Maxwell introduisent un « courant de déplacement fictif » circulant dans le vide. Peut-on parler d’onde et de courant sans qu’il existe, dans un milieu de propagation,  deux formes d’énergie ? Par exemple, en ondes mécaniques, l’énergie cinétique et une énergie potentielle ? Comment peut-on occulter ces réalités ?

               Plus personne ne s’étonnait qu’un photon, initialement supposé ponctuel par Einstein, et devenu plus tard beaucoup plus mystérieux, soit susceptible de  se matérialiser en un lieu précis, par exemple dans une diode semi-conductrice ? Cela ne rendait-il pas suspecte cette particule ?

               Heureusement, de nombreux ingénieurs, maîtrisant parfaitement les concepts et les techniques anciennes, ont pu participer à l’essor extraordinaire des techniques que nous avons connu : électronique, télécommunications, détection, géolocalisation, informatique… Tous domaines dans lesquels rien n’aurait été possible si la technologie n’avait autant progressé.

               La courbure gravitationnelle des rayons lumineux ayant été observée en 1915, lors d’une éclipse de Soleil, il eut été raisonnable d’abandonner la théorie de la relativité. En effet, cette expérience démontrait que la vitesse de la lumière n’est pas une constante universelle et que sa variation gravitationnelle, bien que faible, pouvait être mesurée.

               Au lieu de reconnaître que ce résultat reléguait la théorie de la relativité au rang d’une approximation locale, une nouvelle théorie extrêmement complexe, difficile à utiliser, et que seuls quelques spécialistes disent maîtriser, était présentée comme l’aboutissement d’une longue évolution  de la physique théorique vers sa perfection.

               Si la lumière ne se propageait pas strictement en ligne droite, ne suffisait-il pas d’en tenir compte ? Supposons que pour faire des mesures précises de distance, vous ne disposiez que d’un décamètre. Vous chercheriez à déterminer avec la plus grande précision possible les effets éléments parasites : tenson du décamètre, effet de la flèche du ruban lorsqu’il ne repose pas sur le sol… Vous n’auriez pas, comme les relativistes, pris votre décamètre  comme référence et modifié en conséquence la géométrie devenue non euclidienne !

               La théorie de la relativité était enseignée à tous les étudiants, bien que de nombreux physiciens aient longtemps douté de sa pertinence. Au long du 20° siècle, des physiciens illustres avaient cherché à en tester la validité de cette théorie. De nombreuses expériences avaient été faites pour valider (ou non) la théorie de la relativité. En 1925-1926 Miller avait fait des mesures avec un immense interféromètre extrêmement rustique. Maurice Allais a  analysé ses résultats, ainsi que d’autres expériences dans son livre sur « L’anisotropie de l’espace » (2). Il effectua personnellement des mesures avec des pendules « paraconiques », et, à la demande de l’IGN (Institut Géographique National), des mesures d’anomalies signalées sur les visées optiques. En 1964, William Bertozzi observa la vitesse d’un électron et nota que celle-ci restait toujours inférieure à celle de la lumière. Il en conclut à la validité de la relativité restreinte, mais ses résultats restaient assez qualitatifs. (Voir L’expérience de William Bertozzi (3) ).

               Toutes ces expériences, quelles qu’en aient été les conclusions, ont été réalisées avec les technologies de leur temps, ce qui les rend aujourd’hui éminemment contestables. D’autres expériences, impossibles en 1960, ne devraient-elles pas être réalisées ? Ne pourraient-elles pas conduire les étudiants à effectuer de remarquables Travaux de thèse ?

               Parallèlement, l’atome avait pris une immense place dans la physique. Un gros effort avait été fait dans de le développement des bombes nucléaires, puis des centrales nucléaires qui devaient rendre l’énergie à la fois disponible et bon marché. Physique nucléaire et mécanique quantique avaient pris naturellement une place essentielle dans l’enseignement de la physique.

               Une autre invention, celle du pompage optique avait conduit au développement du LASER qui a révolutionnera l’optique, l’industrie des machines outil, et même les produits audio-visuels destinés au grand public. Par des considérations purement théorique, Alfred Kastler avait prédit qu’il devait être possible de rendre plus intense l’émission des raies spectrales des atomes en les soumettant à un rayonnement lumineux de longueur d’onde plus courte. Dans les années 50, son équipe avait démontré l’exactitude de son intuition. Très rapidement, de nombreux chercheurs avaient réalisé des LASER. Aujourd’hui, le grand public ne s’étonne pas d’utiliser des quantités de sources LASER dans de très nombreux équipements.

La physique en 2015 :

               Après une carrière au cours de laquelle il avait participé avec passion aux innovations rendues possible par les progrès immenses de la technologie électronique, ce même polytechnicien s’interroge sur l’évolution de la physique au 21° siècle.

Le 14 septembre 2015, aux États Unis, les physiciens ont détecté pour la première fois  des ondes gravitationnelles. Les  interféromètres de Livingston  et de Hanford obtiennent un premier signal. Pour eux, cette détection est un événement très important, car elle confirme l’existence des ondes gravitationnelles indispensables à la cohérence globale de la physique.

               En effet, Poincaré avait établi en 1900 la masse de l’énergie. Sa démonstration, extrêmement simple, faisait appel à la seule mécanique classique et s’appliquait à toutes les formes d’énergie, comme cela est expliqué clairement dans le livre de Jules Leveugle (1). Ainsi, toute forme d’énergie a donc nécessairement une masse. Une onde électromagnétique, se déplaçant à la vitesse de la lumière, ne peut donc qu’être associée à une onde de gravitation de même vitesse.

               Sur le campus de Saclay, la découverte attendue des ondes gravitationnelles est présentée comme une confirmation éclatante de la théorie de la relativité. En réalité, plus d’ un siècle plus tôt, une analyse objective des écrits de Poincaré aurait permis de comprendre, par la seule réflexion, que ces ondes de gravitation étaient une conséquence naturelle des équations de Maxwell et de toutes les lois de la physique pré-relativiste.

               Tout au cours du 20° siècle, et Indépendamment des recherches théoriques des physiciens, le développement des systèmes électroniques, soutenu par la demande du marché, a conduit à des progrès considérables de la technologie, et par ricochet de la physique.  Enfin, les travaux théoriques de Fourier et Laplace, effectués il y a presque deux cent ans,  ont été enfin largement utilisés. Sans les systèmes de télécommunication, les RADAR, les gyromètres LASER, bien des phénomènes n’auraient pas été étudiés et compris : la modulation, les bruits et les interférences…

               Les gyromètres LASER ont mis en évidence l’effet de couplages parasites dans les systèmes optiques. Nous savons que ces gyromètres sont aveugles lorsque leur vitesse de rotation est inférieure à un seuil donné. Aurions-nous réalisé ces gyromètres si, en 1925, Michelson et Gale n’avaient pas observé la rotation de la Terre ? Quelle physique aurions-nous imaginé ?

En 2018, le prix Nobel de physique a été attribué au français Gérard Mourou. Ce prix a récompensé des travaux sur la génération d’impulsions LASER extrêmement courtes, utilisées notamment dans des applications médicales.  Ces résultats correspondent à des techniques de traitement de signal utilisées en RADAR et en télécommunications sous les noms de compressions d’impulsion et d’étalement de spectre. Ces techniques avaient été utilisées bien avant par les animaux, chauves-souris ou mammifères marins pour détecter et localiser leurs proies. Ce Prix Nobel de physique 2018, récompense ainsi une application de la physique classique et de travaux théoriques sur l’analyse spectrale de près de deux siècles.

 La physique quantique aurait pu revendiquer un rôle dans ces avancées, mais elle ne décrit que globalement l’émission de lumière par les LASER, sans expliquer le processus physique mis en œuvre. En effet, la théorie quantique ne décrit pas les transitions entre niveaux atomiques, mais seulement leurs résultats : l’émission d’un signal optique. Ainsi, elle n’explique pas les mécanismes physiques, et en particulier l’émission stimulée de lumière, à l’origine du rayonnement LASER.

La course aux grands instruments scientifiques s’est poursuivie. Des années 50 à nos jours, le CERN n’a cessé de construire des instruments de plus en plus puissants (accélérateurs de particules, synchrotrons, cyclotrons). Des laboratoires comme le projet de confinement LASER du « Lawrence Livermore National Laboratory », situé en Californie, ou le projet de Tokamak ITER, construit en France, font rêver à des systèmes capables de produire une énergie abondante et bon marché, un rêve déjà proposé par les centrales nucléaires.

L’analyse de ces grands programmes internationaux dépasse très largement le cadre de cette réflexion sur la physique de 2015. Aujourd’hui, la faisabilité de ces grands projets n’est toujours pas démontrée, et de nombreuses voix  s’élèvent pour contester leur capacité à atteindre les objectifs industriels annoncés. Comment ces projets pourraient-ils tenir ces promesses alors que la mise en service des centrales nucléaires, simples machines à vapeur à chauffage nucléaire, est contesté ? Comment ces monstres pourraient-ils fournir l’énergie abondante dont nos héritiers auront besoin ?

Pour avoir visité différents laboratoires travaillant sur le confinement LASER et des Tokamak, assisté à des congrès consacrés à l’étude des plasmas, ce physicien s’interroge. Que penseront les générations futures des grands instruments scientifiques conçus à la fin du 20° siècle, cyclotrons, Tokamak, lasers de puissance ou grands interféromètres, qui ont mobilisé tant de chercheurs et de moyens financiers ?

Une nécessaire mise en cause des dogmes :

               La physique peut-elle poursuivre longtemps dans  la voie actuelle ? Ne doit-elle pas s’interroger sur l’adéquation de l’orientation prise en 1905 ? Ne doit-elle pas mettre en cause les options prises, il y a plus d’un siècle, sur la base d’expériences alors inexpliquées ? Les choix faits ont-ils réellement été imposés par les résultats expérimentaux ? Les principes fondateurs de la physique actuelle justifiaient-ils réellement une telle révolution conceptuelle et la mise en cause de toute notre culture mathématique ? Depuis, ont-ils été invalidés par de nouvelles expériences ?

  • Considérons en premier, l’expérience de Michelson : apparemment simple, ce dispositif expérimental reste extrêmement difficile à étudier. Les optiques fonctionnent en champ proche, et depuis que les ordinateurs permettent d’effectuer des calculs de rayonnement sur les antennes actives des RADARS, et de choisir les meilleures apodisations, nous savons que les calculs élémentaires de déphasage faits alors par Michelson étaient loin d’être rigoureux. Des couplages négligés pourraient-ils rendre inopérants ces instruments ? En raison de couplages analogues, les gyromètres LASER n’ont-ils pas une plage de vitesse aveugle éliminable par une faible rotation mécanique périodique ?
  • Les quanta : En 1905, Einstein avait pensé pouvoir justifier l’hypothèse des quanta, chère à Planck, en observant l’arrivée aléatoire d’électrons dans un photomultiplicateur. En fait, cette expérience ne démontrait que la nature du courant électrique : un flux d’électrons. Elle n’apportait rien sur la connaissance du rayonnement lumineux.
  • La masse de l’électron : En 1964, l’expérience de William Bertozzi  a été considérée comme une preuve de la théorie de la relativité. À la sortie d’un accélérateur linéaire, la vitesse d’un électron ne pouvait dépasser la vitesse de la lumière. Effectivement, cette expérience prouvait bien qu’un électron ne peut dépasser la vitesse de la lumière, mais ne validait pas parfaitement la formule relativiste.
  • Les expériences d’intrication de photons sont totalement fantaisistes et peuvent seulement faire croire que la physique est un domaine mystérieux. Il est absurde d’imaginer l’existence d’un lien instantané entre photons, alors qu’une approche électromagnétique simple, et la modélisation statistique du détecteur, conduisent au bon résultat.
  • En astronomie, mesurer la distance des galaxies par le décalage vers le rouge (Red shift) est naturel. En revanche, affirmer qu’il s’agit d’un décalage Doppler ne serait démontré que si ces rayonnements étaient des fréquences pures, ce qui n’est pas le cas.
  • Enfin, mettre au programme de terminale les expériences d’interférences sur électrons uniques est totalement irresponsable, surtout en ne donnant pas l’explication classique de ce phénomène finalement assez simple. N’est-il pas naturel que le mouvement de l’électron induise des courants dans le masque et que ceux-ci influent sur sa trajectoire ? Pour un spécialiste de la discrétion RADAR, la présentation faite aux élèves de terminale de cette expérience est tout simplement risible. Quelle image de la physique et des physiciens, les plus intelligents d’entre eux auront-ils ? En déduiront-ils que la physique n’est, comme au temps des bouteilles de Leyde, qu’une science mystérieuse permettant de réaliser des expériences paradoxales pour briller dans les salons ?

Au lycée, la physique doit donner aux élèves les bases  nécessaires pour être sereins dans  le monde technique dans lequel ils vivront, et éprouver l’envie de le comprendre. Dans l’enseignement  supérieur, pour ne pas écarter les esprits les plus brillants, tout dogmatisme devrait être évité, les axiomes clairement explicités et justifiés, et surtout les domaines d’application des théories précisés.

Que devrait être la physique en 2070 ? :

Un peu  désappointé par ce constat, ce physicien se met à rêver et laisse libre cours à son imagination. Pour sortir des sentiers battus, le mieux n’est-il pas de prendre à contre-pied les choix actuels ? Acceptez de m’accompagner dans cette démarche et d’envisager à quelle physique pourrait conduire une mise en cause radicale des choix actuels.

Quelles seraient les bases de cette nouvelle physique ?

Parler d’ondes n’ayant pas de sens en l’absence d’un milieu de propagation, je vous propose  d’admettre l’existence de l’Éther. Le courant de déplacement introduit par Maxwell dans ses célèbres équations est donc réel. Contrairement à l’hypothèse de la relativité restreinte, le milieu de propagation de ces ondes ne devrait  pas être un solide mais une sorte de fluide. Nous admettrons que l’Éther, ce milieu de propagation des ondes, est non-linéaire. La variation gravitationnelle de la vitesse de la lumière résulterait alors de la non-linéarité de ce milieu, dont les propriétés seront représentées par la célèbre courbe en « S », apte à décrire, dit-on, la plupart des phénomènes physiques.   

Les ondes électromagnétiques correspondraient aux vibrations selon les deux directions de transverses par rapport à la direction de propagation. Les ondes gravitationnelles seraient, comme les ondes acoustiques, des ondes longitudinales. L’Éther pourrait ainsi vibrer selon les trois directions possibles, la vitesse de propagation de ces trois modes ondes étant « c », la vitesse de la lumière.

Comme en mécanique, et sans rien changer aux lois de l’électricité, l’énergie des champs électriques et magnétiques résulterait de la position et de la vitesse des charges électriques et de l’observateur par rapport au repère retenu ou par rapport à l’Éther, fluide siège de la propagation des ondes. Compte tenu de la non-linéarité de ce milieu, l’énergie des particules serait contenue dans les champs qui les entourent, plutôt que dans leurs seuls noyaux.

Toutes les particules seront alors des solutions d’une équation différentielle non linéaire. Certaines de ces solutions seront stables, d’autres instables et les particules correspondantes absentes de notre environnement. Comme des bulles se déplaçant dans l’eau de mer, ces particules se déplaceraient librement dans l’Éther… Cette nouvelle physique expliquerait enfin la dualité onde particule imaginée en 1923 par De Broglie. En optant résolument pour une physique réellement ondulatoire, elle unifierait les notions d’ondes et de particules, cette dualité perdant tout son sens.

Enfin, cette physique s’abstiendra de parler du Big-Bang autrement que comme un mythe de la création du monde qui, contrairement aux textes religieux, n’a ni signification philosophique ni valeur scientifique. Aucune expérience n’ayant prouvé que la dérive vers le rouge du rayonnement des galaxies lointaines résulte d’un effet Doppler, celle-ci sera attribuée à la non-linéarité du milieu traversé. Les raisons de ce décalage seront identifiées : la présence de particules neutres ou chargées dans le vide intersidéral, ou, tout simplement, la non-linéarité de l’Éther.

La chasse à la magie et aux phénomènes paradoxaux :

               Les phénomènes physiques ne sont paradoxaux que lorsqu’ils sont mal compris. Faute d’une analyse logique d’une expérience, l’humanité a toujours été tentée d’imaginer une explication magique ou simplement de construire un ensemble règle formelle, souvent incohérentes entre elles, rendant compte, au moins qualitativement, des observations. Bien évidemment, sans s’interdire d’utiliser ces formules magiques, cette nouvelle physique refusera de les considérer comme des lois mystérieuses de la nature et cherchera aux faits des explications réellement scientifiques.

               Les différentes expressions des relations d’incertitudes seront unifiées en une seule, construite sur la notion de bruits d’observation, et s’appliquant de façon universelle. Prenons un exemple dans le domaine RADAR. La localisation d’une cible nécessite la mesure d’angles et de temps d’arrivée d’une impulsion. Le Radariste estime les probabilités de détection et de fausse alarme, et pour chaque événement observé les dimensions du volume de l’espace-temps correspondantes. Il admet que ses mesures sont imprécises mais ne nie pas que chaque cible ait une position réelle, même s’il ne peut la connaître exactement. Cette analyse, présentée sur un exemple lié au RADAR, sera évidemment faite d’une façon analogue pour toutes les mesures, mêmes au niveau des particules élémentaires.

               Le photon ne sera plus une particule mystérieuse, mais redeviendra, conformément  au concept d’Henri Poincaré, un quantum d’action (4).  Depuis que nous disposons de sources LASER, nous savons qu’en lumière monochromatique, les images présentent des défauts caractéristiques. Nous savons également que les senseurs ne détectent pas toujours les signaux, mais qu’en revanche, ils présentent toujours un taux de fausses détections non nul. Ceci s’expliquera simplement, comme en RADAR, en considérant le détecteur comme un dispositif à seuil en présence d’un signal mélangé avec un bruit aléatoire, variable spatialement et temporellement.

               Bien évidemment, les tentatives de développement de géométries non-euclidiennes en vue de leur utilisation en physique seront abandonnées.

La fin des grands instruments scientifiques :

               Ces grands instruments n’ont pu être développés que grâce à des coopérations mondiales, associant un grand nombre de pays, par exemple 500 chercheurs appartenant à 50 nations, et avec le soutien actif de ce que nous appelons « la communauté scientifique ». Y participer peut en effet apporter aux jeunes chercheurs une expérience de laboratoire, mais en aucun cas leur permettre de remettre en cause les concepts dogmatiques de leurs aînés. Ces grands programmes de recherche ne peuvent donc avoir pour objet de mettre en évidence les inévitables lacunes de la physique issue de la révolution conceptuelle de 1905, et contribuent à stériliser l’ensemble de la recherche.

               Désappointés par les résultats décevants de grands instruments développés à la fin du 20° siècle, en égard aux efforts financiers et à l’investissement humain fait par les innombrables chercheurs ayant contribué à leur réalisation, les états arrêteront de soutenir leur développement. Ces instruments seront devenus des ruines. Dans quelques millénaires, nos lointains descendants se demanderont sans doute quel avait bien pu être la raison de leur construction et quel rôle, politique ou religieux, ils avaient au 20° siècle.

               En revanche, les télescopes et radiotélescopes devraient continuer à être développés. Ils sont en effet les seuls qui puissent nous permettre d’explorer l’univers, et d’étudier les lois de la physique dans des conditions (température, pression, champ de gravité…) qu’il restera toujours impossible de réaliser sur Terre. Toutefois, ces grands télescopes ne survivront, et ne pourront contribuer aux progrès de la physique, que s’ils collectent des données brutes, claires, et bien documentées. En effet, il ne sera pas possible de construire une nouvelle physique sur la base de données ayant subi des prétraitements justifiés par les théories scientifiques reconnues et des hypothèses non validées.

De l’exploration spatiale à la compréhension de l’univers :  

               L’homme a rêvé de marcher sur la Lune et sur Mars. Une fois ces rêves abandonnés, et quelles qu’en aient été les raisons, l’espace reprendra une place temporairement occultée par ces épopées : celle de nourrir les rêves de l’humanité. Alors que nous nous croyions le centre du monde, les astronomes ont déjà observé une quantité de galaxies, et détecté la présence de plus de 30.000 exo-planètes dont certaines pourraient ressembler à la nôtre…

Les poètes, fascinés par  l’immense univers auquel nous appartenons, pourront s’émerveiller. Pour les physiciens, après l’abandon des grands instruments scientifiques, l’univers deviendra l’immense laboratoire dans lequel ils pourront observer en direct des expériences irréalisables sur Terre. Les mathématiciens, retrouveront enfin l’espace euclidien infini dans lequel ils raisonnent, et dont ils ne peuvent se passer.

La mort de la physique ?

               La physique, telle que nous la connaissions depuis le 17° siècle, avait toujours essayé de rendre compte d’observations faites à l’aide de dispositifs expérimentaux simples. Son but était de découvrir les lois permettant de décrire avec précision leurs expériences et finalement de faire progresser la science. Ensuite, eux-mêmes ou des inventeurs talentueux, concevaient des machines tirant profit des connaissances théoriques acquises. La science physique remplaçait par un ensemble de théories et des modèles mathématiques, la connaissance parfois empirique des experts.

               An début du 20° siècle, les physiciens n’avaient toujours pas expliqué l’échec de l’expérience faite par Michelson en 1881 pour mesurer la vitesse absolue de la Terre. Ils avaient tenté, en vain, d’améliorer les performances de leurs interféromètres. Ils devaient alors faire un choix : admettre que leurs équipements étaient inaptes à faire cette mesure, ou, considérer que cette mesure était théoriquement impossible. Après une longue controverse, cette deuxième option s’imposa.

               Aujourd’hui encore, la physique est enfermée par cette victoire des « relativistes » qui refusent absolument toute mise en cause de leur choix fondateurs qu’ils appellent « Le principe de relativité ». Selon celui-ci, il serait théoriquement impossible de mesurer une vitesse absolue. Ils généraliseront ensuite ce principe en l’étendant aux accélérations. Selon ce nouveau principe de relativité, il serait impossible de mesurer une vitesse absolue, mais également une accélération absolue. Aujourd’hui encore, l’académie des sciences considère que toute loi physique doit être « généralement covariante », c’est-à-dire confirmer l’impossibilité de mesurer la vitesse ou l’accélération absolue d’un corps, mais ceci est-il réellement un choix judicieux ?

               Tout au long du 20° siècle, la physique a construit un ensemble dogmatique fondé sur la relativité et la mécanique quantique. Ce choix fait par des disciples zélés a été maintenu malgré les nombreux défauts de ces théories, en particulier la complexité mathématique de la relativité générale et l’incapacité de la mécanique quantique à décrire les phases transitoires (en particulier celles correspondant aux émissions lumineuses intervenant lorsque les électrons d’un atome changent de niveau  d’énergie).

               Cette attitude était-elle responsable, alors même que de nombreux phénomènes n’étaient, et ne sont toujours pas, expliqués ? Pouvait-on prétendre que tout avait été découvert ? La physique était-elle vraiment morte ?

Une renaissance possible ?

               Est-il possible que le rêve de ce physicien se réalise ? La physique peut-elle renaître ? Un retour aux sources peut-il lui redonner le dynamisme et la cohérence qu’elle a perdue ?

               En 1904, Henri Poincaré avait été le premier physicien à ajouter aux principes habituels de la physique « le principe de relativité », c’est-à-dire l’universalité des lois de la physique (3). Prenons un exemple simple. Considérons une horloge mécanique à balancier. Elle est sensible aux variations des forces de gravitation, mais son mouvement obéit aux mêmes lois de la physique quelle que soit sa place et l’altitude du lieu qu’elle occupe sur la Terre.

               Ce principe de relativité est bien différent de celui implicitement adopté par les relativistes. Si nous l’adoptions, les lois de la physique peuvent faire intervenir de nouveaux paramètres.  Au lieu de chercher à identifier des gravitons ou d’imaginer l’existence d’une matière noire, l’Éther ne permettait-il pas de comprendre l’univers, et la formation des galaxies, en particulier des nébuleuses spirales ? Ne sont-elles pas analogues aux cyclones qui se développent sur nos océans ? Devrait-on, comme en météorologie, faire intervenir un potentiel gravitationnel et la vitesse  locale de l’Éther ?

               Cette renaissance de la physique ne pourra avoir lieu que si une réflexion ouverte et une analyse critique des acquis du 20° siècle est entreprise. Il faudra lutter à la fois contre les défenseurs des vieilles idées du début du 20° siècle qui, tout en veillant au respect des dogmes, laissent de nombreux mystificateurs propager les théories les plus absurdes dans les grands médias.

               Un prochain document précisera comment l’enchaînement de faits apparemment sans importance a conduit à la situation actuelle, qui devrait conduire à la mort de la recherche fondamentale en physique. De nombreux acteurs universitaires, médiatiques, industriels,  de promoteurs de projets scientifiques internationaux, ont contribué inconsciemment à stériliser la physique et à en détourner les étudiants.

 

Pierre FUERXER

Membre de l’AIRAMA

 

Télécharger en PDF

 

 

 

 

[1] La Relativité, Poincaré et Einstein, Planck, Hilbert, par Jules Leveugle, L’Harmattan 2004.

[2] L’anisotropie de l’espace, Maurice Allais, Ed Clément Juglar, 1997.

[3] L’expérience de William bertozzi , ICI en PDF

[4] La physique du 21° siècle sera-t-elle ondulatoire, Pierre Fuerxer, URSI, JS 2011.

 

Les conséquences funestes d’a priori en sciences naturelles, à remplacer par des faits

 

Guy BerthaultGuy Berthault, ingénieur diplômé de l’École Polytechnique. Promotion 1945 Chevalier de la Légion d’Honneur et de l’Ordre National du Mérite

 

 

Mes travaux ont porté sur 2 domaines pour lesquels des concepts intellectuels — à défaut d’expériences probatoires — pouvaient conduire à des déductions erronées.

J’ai donc jugé nécessaire d’entreprendre, avec le concours d’organismes hautement qualifiés, des expériences de grande précision quant à leur mesure et leur objectivité.

J’en livre ici le détail, les résultats et les déductions à en tirer.


 

 

I. La conception de l’Univers à travers les âges.

 

Parlons d’abord, en Astronomie, de la conception originelle de l’Univers, fondée sur les apparences. Tout homme, naviguant sur la mer, loin des côtes, par beau temps, voit le ciel à l’horizontale, dans toutes les directions, et à la verticale. Il parle de « voûte céleste », une sphère apparente sur laquelle, par nuit claire, se déplacent, ensemble, les étoiles « portées » par elle. Ce qui fut décrit par Aristote dans son « De Coelo ».

Quatre siècles plus tard, l’astronome Claude Ptolémée, dans son ouvrage « l’Almageste », rendant compte de mesures de positions des planètes connues qu’il avait compilées, consacrait la théorie philosophique d’Aristote comme théorie scientifique, que l’on enseignait dans les Universités chrétiennes au Moyen-Âge.

Cependant, au 3ème siècle avant Jésus Christ, Aristarque de Samos, adoptant lui aussi l’existence de la sphère des étoiles fixes, postulait que le soleil en était le centre.

 

Il y avait donc, du temps de la Grèce Antique et de Rome, deux écoles philosophiques, qui s’entendaient sur l’existence de cette sphère portant les étoiles fixes, mais s’opposaient sur l’astre qui en était le centre, soit la Terre, soit le soleil. Cette querelle allait ressurgir au sein de la chrétienté, au Moyen-Âge.

 

Copernic, chanoine et astronome, s’interrogeant sur les orbites irrégulières que décrivent les planètes autour de la Terre, compléta les calculs des positions des planètes de Ptolémée et « démontra » qu’elles tournaient autour du soleil ; il leur attribua cependant, par ses calculs approximatifs de leur distance au soleil, des orbites circulaires que Kepler démontra bientôt être des ellipses dont le soleil était un foyer.

Copernic rendit compte de sa théorie dans l’ouvrage « De Revolutionibus orbium caelestium », paru en 1543, qui fut adressé après sa mort, par son ami Osiander, au Pape Paul III.

copernicDans sa Préface, Copernic, appliquant à la Terre le statut d’une planète, affirma sans le prouver qu’elle tournait autour du soleil, et que, de ce fait, c’était le soleil qui était le centre du monde, citant Trismégiste qui appelait le soleil « dieu visible ». Le Pape Paul III et ses successeurs ne réagirent pas.

 

Tycho Brahé, astronome du roi du Danemark, effectua à cette époque de très nombreuses mesures en position et distance des planètes du système solaire, que Képler utilisera et complétera par l’étude particulière de Mars, ce qui l’amènera à formuler ses trois Lois dans « Astronomia Nova » et « Harmonices Mundi ». Tycho Brahé avait justement fait remarquer que la position apparente du soleil et des planètes, vue de la Terre, restait identique, que le soleil tournât autour de la Terre ou l’inverse. Mais la tentation de considérer la Terre comme une planète quelconque était trop forte et Képler adopta l’hypothèse de Copernic.

 

Survint alors Galilée. Ce dernier, enseignant à l’Université de Padoue et se persuadant de ses succès en astronomie, s’affirma haut et fort copernicien.

L’Église réagit alors par le décret de 1616, qui condamnait deux propositions coperniciennes :

  1. Le soleil est le centre du monde, et
  2. La Terre n’est pas le centre du monde et se meut.

 

Malgré cette condamnation, Galilée écrivit « Il Dialogo » qui le fera condamner en 1633, par le Saint-Office. La  première  proposition  de  Galilée :  « Le  soleil  est  le  centre  du  monde  et  il  est  absolument  privé  de mouvement local », fut aussi condamnée par le Tribunal du Saint Office dans les termes suivants : « elle est absurde et fausse en philosophie et formellement hérétique comme contraire aux Saintes Écritures ».

La seconde proposition : « La terre n’est pas le centre du monde et elle se meut non seulement dans l’espace mais encore de mouvement diurne sur elle-même », fut aussi jugée « absurde et fausse en philosophie et (devant) être théologiquement considérée comme au moins erronée dans la foi ».

 

Galilée n’a pas démontré que le soleil était le centre du monde. Mais la condamnation de la seconde proposition, résulte de l’influence d’Aristote au sein de l’Église.

Cette condamnation créa des réactions chez les philosophes.

 

En premier lieu le « Discours de la Méthode » de Descartes (1637) qui, envisageant une mathématisation complète de la science, la fit reposer non plus sur les faits, mais d’abord sur les idées claires et distinctes, faisant de la raison la lumière naturelle, d’où la « philosophie des lumières ».

Cela ne sera pas sans conséquences sur les autres disciplines scientifiques, comme nous le verrons en géologie, car le rationalisme inverse le raisonnement scientifique, quand, au lieu de se fonder sur les faits observés et expérimentés desquels on induit des hypothèses, il privilégie les a priori de la raison comme bases : principes, postulats, lois…, et ne retient que les faits parfois mal interprétés qui les confortent.

Ainsi, de Descartes à Hegel, les rationalismes se développèrent, d’abord contre l’Église, Voltaire en est l’exemple, puis contre la monarchie, en France, où la Révolution engendre la terreur de Robespierre et les guerres de Napoléon.

 

 

II.   L’astronomie.

 

Isaac Newton
Portrait d’Isaac Newton âgé de 46 ans par Godfrey Kneller (1689).

En 1687, Newton énonça ses lois du mouvement dans ses « Principia Mathematica », avant les faits.

Loi I : « Tout corps persévère en son état de repos ou de mouvement rectiligne uniforme, sauf si des forces « imprimées » le contraignent d’en changer ». Ces forces étant la gravitation, sa loi ne la définit pas.

Loi II : « Le changement de mouvement est proportionnel à la force motrice imprimée et s’effectue suivant la droite par laquelle cette force est imprimée ».

Si une force quelconque génère un certain mouvement, elle en génèrera deux fois plus si sa grandeur double, et trois fois si sa grandeur triple.

Dans sa PROPOSITION VI – THÉORÈME VI, Newton écrit :

« Que la chute de tous les graves sur la Terre s’effectue en des temps égaux (en faisant abstraction, du moins, du retard inégal suscité par une très faible résistance de l’air), d’autres l’ont observé depuis longtemps ».

Ce qui contredit sa loi II, selon laquelle la chute d’un corps est proportionnelle à la force imprimée, qui est le poids.

Et Newton ajoute :

« Mais c’est avec la plus grande exactitude que l’on peut connaitre l’égalité des temps avec les pendules. J’en ai fait l’expérience sur de l’or, de l’argent, du plomb, du verre, du sable, du sel commun, du bois, de l’eau et du froment. Je comparais deux petites boites de bois rondes et égales. J’en remplissais l’une de bois, et aussi exactement que possible, je suspendais au centre d’oscillation de l’autre, le même poids d’or. Les boites attachées à des fils égaux de onze pieds formaient des pendules complètement semblables, quant au poids, à la figure et à la résistance de l’air; placées l’une à côté de l’autre, elles effectuaient des oscillations semblables ».

 

Si Newton avait fait ses expériences avec des masses de poids différents suspendues à des pendules de même longueur, il aurait constaté que les oscillations étaient les mêmes quelque soit le poids suspendu.

Les chutes et les oscillations des corps suspendus sont les faits à prendre en compte.

 

Loi III : « La réaction est toujours contraire et égale à l’action ». Newton dit notamment : « Si un cheval tire une pierre attachée par une corde, il sera lui aussi, pour ainsi dire, tout autant tiré par la pierre, car la corde qui est tendue des deux côtés par le même effort de résistance à la traction subie, poussera le cheval vers la pierre et la pierre vers le cheval ».

J’observe que si le cheval, immobile, part au galop en accélérant, la corde tendue entrainera la pierre, moins lourde que le cheval, du même mouvement accéléré, et dans le même sens que le cheval. On ne peut donc pas dire, dans ce cas, que la réaction de la pierre soit égale à l’action du cheval.

 

Dans le scholie des lois, Newton dit :

« Je vais montrer maintenant brièvement qu’il en est de même dans les attractions. Concevez qu’un obstacle quelconque s’interpose entre deux corps quelconques A et B qui s’attirent mutuellement et en empêchant le choc. Si l’un des deux corps, A, est plus attiré vers l’autre corps B que B vers A, l’obstacle subira davantage la pression de A que celle de B. Et par conséquent, il ne restera pas en équilibre. La pression la plus forte prévaudra et fera se mouvoir en ligne droite le système des deux corps et de l’obstacle en direction de B et partir à l’infini dans le vide, d’un mouvement toujours plus accéléré, ce qui est absurde et contraire à la première loi. Car ce système, d’après cette loi, devra persévérer en son état de repos ou de mouvement uniforme et par conséquent, les corps exerceront une égale pression sur l’obstacle et s’attireront donc autant l’un que l’autre ».

 

Pour ma part, j’observe que si A attire B plus que l’inverse, et qu’il y a alors une force résultante, cela correspond au cas dans la loi I : « Sauf si des forces imprimées (…) ». Et dire alors « que ce système devrait persévérer dans son état de repos ou de mouvement rectiligne uniforme », c’est dire qu’il n’y a pas de changement de mouvement engendré par une force motrice imprimée, donc pas d’action et de réaction.

Newton n’a donc pas démontré l’égalité de l’action et de la réaction gravitationnelles entre deux corps distants, l’expérience qu’il a réalisée avec un aimant et du fer relevant du magnétisme, non de la gravitation.

 

 

Cela remet en question l’attraction réciproque entre deux corps distants équation, où F et F’ expriment la force réciproque d’attraction, M et M’ les masses des corps, D leur distance, et G une constante. C’est cette réciprocité qui a déterminé le calcul des masses du soleil et des planètes.

 

En février 2014, la Royal Society a réuni les principaux spécialistes mesurant la constante G, sur le thème : « La constante newtonienne de gravitation, une constante trop difficile à mesurer », dont les écarts allant de 6,672 à 6,676. La constante l’est-elle ou non ?

Ajoutons qu’à l’heure actuelle, on connait l’effet de la gravitation, mais non la cause.

 

Venons-en au Big-Bang. Tout part du fait que le spectre de la lumière émise par les galaxies lointaines présente un décalage vers le rouge.

Big-Bang

En se fondant sur l’effet Doppler, qui est la variation de fréquence apparente du sifflet d’un train qui croise l’observateur (plus aigu lorsqu’il se rapproche, plus grave lorsqu’il s’éloigne), et en l’appliquant à la lumière, on a crû démontrer la fuite des galaxies. En 1928, Hubble en formulera sa loi v=Hr, où v est la vitesse de récession de la galaxie, r sa distance, H une constante. Georges Lemaître émit alors la thèse d’une fuite des galaxies à partir d’une explosion unique, appelée Big-Bang. Ce n’est pas démontré dans les faits. Mais on peut, sur des faits, expliquer le phénomène autrement. Le soleil est jaune au zénith, rouge orangé au coucher. La couleur est fonction du trajet dans l’air atmosphérique des rayons que l’on observe. Les rayons émis par les galaxies lointaines traversent l’atmosphère gazeuse de nombreuses galaxies, d’où un décalage vers le rouge.

 

 

III.   La Géologie.

 

Venons-en à l’autre grande discipline, dont les a priori ont eu autant d’implications : la Géologie.

Son fondateur, Nicolas Stenon, qui entendait « marcher de façon très exacte et ordonnée, selon la méthode de Descartes », en définit les fondements en 1667 dans son ouvrage « Canis Calchariae », en interprétant la superposition des strates comme une succession de dépôts sédimentaires (1).

Il en déduisit en 1669, dans « Prodromus », les principes de stratigraphie, à savoir, de superposition, de continuité, d’horizontalité originelle des strates, qui sont à la base de l’échelle relative des temps géologiques.

 

Charles Lyell
Portrait de Charles Lyell

Charles Lyell en définit la chronologie absolue. En 1828, il parcourut l’Auvergne, et s’intéressa à des dépôts feuilletés d’eau douce. Remarquant des feuillets de moins d’un millimètre qu’il attribua à un dépôt annuel, il s’aperçut que l’ensemble (230 mètres), a nécessité des centaines de milliers d’années pour se former. Dans ses « Principes de Géologie » (1832), il constate que la faune s’est renouvelée de 5 % pendant « l’ère glaciaire ». En admettant une vitesse constante de renouvellement (hypothèse uniformitarienne), il faudra vingt fois plus de temps pour que se produise une « révolution » de la faune. Or Lyell compte quatre révolutions depuis la fin de l’ère secondaire, et huit autres pour les temps antérieurs depuis le début de l’ère primaire. Et comme son contemporain James Croll évalue, pour des raisons astronomiques, que les temps glaciaires ont duré un million d’années, Lyell fixe à 240 millions d’années la base du primaire. Durée portée à 560 millions d’années par la datation radiométrique au 20ème siècle.

 

C’est cette succession des espèces dans un temps très long qui conduisit Darwin à exprimer, en 1859, sa théorie dans son ouvrage, « L’origine des espèces ». C’est celle de la sélection naturelle des espèces par la lutte pour la vie, induisant leur évolution dans le temps.

Deux ans plus tard, Marx écrivait à Lassalle :

« Très significative est l’œuvre de Darwin, qui me convient comme fondement en sciences naturelles de la lutte des classes dans l’histoire ». Engels de son côté, dans « Ludwig Feuerbach et la fin de la philosophie allemande » reconnaissait « la démonstration d’ensemble faite pour la première fois par Darwin selon laquelle tous les produits de la nature qui nous environnent actuellement, y compris les hommes, sont le produit d’un long processus de développement à partir d’un petit nombre de germes unicellulaires à l’origine, et que ces derniers sont, à leur tour, issus d’un protoplasme ou d’un corps albuminoïdal constitué par voie chimique ». Et il déduisit aussitôt de cette « découverte » de Darwin une loi d’évolution des sociétés : « Mais ce qui est vrai de la nature, reconnue également de ce fait comme un processus de développement historique, l’est aussi de l’histoire de la société dans toutes ses branches et de l’ensemble de toutes les sciences qui traitent des choses humaines et divines ».

 

Charles Darwin
Charles Darwin en 1869, par J. Cameron.

Le socialisme scientifique procède donc de Darwin, de même que le national-socialisme qui prônait la suprématie de la race aryenne. D’où le Goulag, et la Shoah, qui ont fait plus de 60 millions de morts.

Quant à la Géologie historique, fondée sur l’interprétation de Stenon, celle-ci n’est pas prouvée, car nul n’a été témoin de la stratification.

C’est pourquoi j’ai entrepris un programme expérimental d’étude de la stratification en 1970.

Il existe dans les roches sédimentaires, des strates de faible épaisseur, millimétrique, ou « laminae », qui sont semblables aux « feuillets » observés par Lyell, dont j’ai parlé précédemment. J’ai prélevé un échantillon de « sable de Fontainebleau », présentant ces « laminae », faiblement cimenté. J’en ai rompu le ciment et obtenu du sable hétérogranulaire, c’est-à-dire composé de particules de tailles différentes.

J’ai laissé tomber le sable dans un tube de verre, et vu se constituer dans le dépôt, la même lamination que celle de l’échantillon, et ce, à quelque vitesse de sédimentation que j’opère. Comme le montre les photos ci- jointes. Je compris alors que ce phénomène pouvait résulter de ce que le sable est une poudre dont la mécanique est intermédiaire entre celle des liquides et celle des solides. Si, dans un tube, on laisse tomber successivement trois corps solides, ces corps se disposent dans l’ordre de leur succession. Tandis que si on laisse tomber trois liquides de densités différentes, du mercure, de l’huile, de l’eau, ils vont se superposer dans l’ordre des densités décroissantes, sous l’effet de la gravité. On pouvait donc s’attendre à ce que la gravité provoque un granoclassement répétitif des particules de sable selon leur taille. La lamination est un phénomène mécanique, et non chronologique. En conséquence de quoi, les milliers de « feuillets » observés par Lyell, ne correspondent pas à des centaines de milliers d’années.

Figure 1 – Echantillon de diatomite Figure 2 - Lamination résultant d'un écoulement à sec
Figure 1 – Échantillon de diatomite Figure 2 – Lamination résultant d’un écoulement à sec

 

Le compte-rendu de mes expériences fut présenté à l’Académie des Sciences de Paris par le Professeur Georges Millot, directeur de l’Institut de Géologie de Strasbourg, doyen de l’Université, membre de l’Institut, alors Président de la Société Géologique de France, qui le publia dans ses comptes-rendus en 1986 (2).

À la suite de quoi, le Professeur me fit admettre à la Société Géologique de France, en qualité de sédimentologue.

Je fis ensuite la même expérience avec un échantillon laminé contenant des fossiles. Le résultat fut le même, et fit également l’objet d’une publication par l’Académie des Sciences en 1988, présentée par Georges Millot (3).

 

Qu’en était-il de la stratification épaisse ?

Un compte-rendu intitulé « Bijou Creek Flood » (4), publié aux U.S.A., ayant pour auteur un géologue américain, Edwin Mac Kee, rendit compte des dépôts stratifiés sur les berges de la rivière « Bijou Creek », résultant d’une crue de la rivière à partir des montagnes Rocheuses, consécutive à la fonte des neiges, accrue par des pluies.

Ce phénomène n’a pas duré plus de 48 heures. Vu la continuité du flot, il n’était pas question de supposer qu’une première strate était devenue roche, avant que la seconde la recouvrît, comme l’eût affirmé le principe de superposition. Les strates avaient environ 10 cm d’épaisseur (voir figure 3).

Fig. 3. – a) strates alternées de sable et de sable boueux Fig. 3. – b) stratification des dépôts
a b
 Fig. 3. – Structures sédimentaires des dépôts de la crue du ruisseau « East Bijou » en 1965
a) strates alternées de sable et de sable boueux – b) stratification des dépôts

 

 

Pour expliquer le phénomène, il faut tenir compte de ce que la rivière en crue a atteint une vitesse de 7 m/s en régime turbulent, et où, en chaque lieu de la rivière, la vitesse du courant varie alternativement de la surface en profondeur. Or, des sédimentologues tels que Hjulstrom et Lichstvan-Lebedev (5), ont expérimentalement déterminé les vitesses critiques de dépôt de particules de tailles distinctes. En situation de crue, la capacité de transport sédimentaire du courant est très élevée, et la variation de vitesse en chaque lieu, lorsqu’elle devient critique, provoque la sédimentation de quantités de particules de tailles distinctes, de sorte que le granoclassement observé en eau calme devient des « strates » de plusieurs centimètres d’épaisseur.

De la même manière, en 2008, la revue « Sedimentology » a publié un article sur le tsunami qui a frappé l’Asie du sud-est en 2004, qui présente des photos du dépôt laissé par le tsunami en quelques heures, montrant des strates superposées de 20 cm d’épaisseur.

 

Il me parut nécessaire d’étudier la stratification en laboratoire.

Un compte-rendu expérimental d’un groupe de sédimentologues américains opérant au laboratoire d’hydraulique de l’Université du Colorado, dans un canal circulant, montra la présence de strates dans le dépôt.

Je leur proposai donc d’en étudier les causes, et me rendis sur place à cette occasion. Je conclus un contrat avec l’Université, et ce fut l’assistant du groupe, Pierre Yves Julien, jeune hydraulicien et sédimentologue canadien, qui réalisa les expériences du contrat. Dans un canal où l’eau, mélangée à du sable dont les grosses particules sont noires et les petites blanches, est envoyée par une pompe et y revient, le circuit étant circulant. Le contraste de couleur des particules permet l’observation de la stratification dans le dépôt sédimentaire qui se développe à la fois latéralement, dans le sens du courant, et verticalement puisqu’il s’épaissit.

Le dépôt est laminé et stratifié. Une coupe latérale du dépôt montre une superposition de strates de plusieurs centimètres d’épaisseur, comme le montrent les photos ci-dessous.

 

Le compte-rendu de cette expérience a été publié en 1993 dans le Bulletin de la Société Géologique de France (6).

 

Figure 4 – Formation de couches granoclassées

Figure 4 – Formation de couches granoclassées

 

 

Figure 5 – Coupe transversale du dépôt Figure 6 – Vue longitudinale du dépôt
Figure 5 – Coupe transversale du dépôt Figure 6 – Vue longitudinale du dépôt

 

Ces données nouvelles et récentes remettent en cause l’interprétation de Stenon, de bâtir une chronologie relative sur les strates, selon ses trois principes.

Pour élaborer une chronologie issue de la sédimentation, il faut se référer, comme cause, aux mouvements marins, montants ou descendants, qui ont déposé des ensembles stratifiés appelés « séquences ».

C’est bien pour cela que de plus en plus de sédimentologues et géologues acceptent cette façon de raisonner en stratigraphie séquentielle. Mais il leur faudra aller plus avant, comme je vais le montrer.

 

Au  début  des  années  2000,  le  temps  m’est  apparu  venu  d’appliquer  les  enseignements  tirés  de  mes expériences, complétées par d’autres sources sur le terrain. Ayant 75 ans alors, il n’était pas question que je puisse y participer. Mais j’eus la chance, en me rendant à Moscou à cette époque, de faire la connaissance d’un jeune géologue et sédimentologue, Alexandre Lalomov, qui prit un grand intérêt à mes travaux publiés. Grâce à lui, je pus faire publier en 2002, sous le titre « Analysis of the main principles of stratigraphy on the basis of experimental data », dans « Lithology and mineral resources », journal de l’Académie des Sciences et de l’Institut de Géologie de Russie, un compte-rendu de nos travaux aux U.S.A (7).

En 2004, le même journal publiait de moi, « Sedimentological Interpretation of the Tonto Group », expliquant le fait que les faciès d’une série géologique soient à la fois superposés et juxtaposés sur l’aire de dépôt, ce qui est dû au courant d’apport des sédiments (8). Mes travaux firent aussi l’objet d’une publication en Chine (9).

 

Alexandre Lalomov détermina, dans plusieurs régions de Russie, la genèse hydraulique et sédimentaire des formations rocheuses, en Crimée, dans l’Oural et la région de Saint Petersburg (10).

Le plus décisif de ses travaux fut la détermination du temps de sédimentation de formations rocheuses, telles les formations de grès cambriens-ordoviciens de la région de Saint Petersbourg. La mécanique sédimentaire évalue la capacité de transport sédimentaire des courants à partir des vitesses critiques des paléo-courants, en fonction de la taille des particules. Le quotient du volume de la formation rocheuse étudiée par cette capacité, par unité de temps et de volume, indique les temps de sédimentation correspondants.

Cette méthode est appliquée par nombre de sédimentologues, aux noms desquels je citerais H.A.Einstein.

Le temps déterminé par cette méthode, appliquée aux grès cambriens-ordoviciens précités, représente 0,05% du temps de l’échelle géologique. Le compte-rendu de cette étude a été publié en 2011 dans « Lithology and Mineral Resources », journal de l’Académie des Sciences et de l’Institut de Géologie de Russie (11).

Les conditions paléo-hydrauliques, selon Alexandre Lalomov, apparaissent souvent comme catastrophiques.

 

Golovkinskii (Kazan-1868), sur les roches, et Walther (1894), sur les sédiments marins, ont établi que : « Seuls les faciès et aires de faciès juxtaposés en surface, ont pu être superposés originellement » (12). Comme il est montré, dans ma publication de 2002, les faciès, à la fois superposés et juxtaposés, constituent une séquence résultant d’une transgression ou régression marine. Une succession de séquences incluses entre une transgression suivie d’une régression finale est une « série ». Les données de la stratigraphie séquentielle et les expériences ci-dessus mentionnées, montrent qu’une série correspond à une période. Par conséquent, la séquence doit être considérée comme la référence de base de la chronologie relative, au lieu de l’étage.

 

Aujourd’hui, les sédimentologues, selon les résultats de leurs observations sous-marines et de leurs expériences de laboratoire, ont établi des relations entre conditions hydrauliques, profondeur et taille des particules. Cela permet de déterminer les vitesses critiques de transport en dessous desquelles une particule de taille donnée se sédimente.

 

L’Institut d’Hydraulique de Saint Petersbourg a exécuté à ma demande un programme expérimental d’érosion de roches sédimentaires par des courants puissants (v <27 m/s) pour compléter ces relations (13). D’autres devront suivre.

 

Pour information, toutes nos publications figurent sur mon site www.sedimentology.fr . En cliquant sur « Video », on peut y voir mes expériences. (Reprises ci-dessous)

 

 

 

Il en résulte que l’échelle des temps géologiques ne doit plus être fondée relativement sur la superposition des strates. Elle doit être fondée antérieurement sur la genèse sédimentaire, impliquant d’une part la gravitation, pour la formation de la lamination, et d’autre part de la vitesse du courant turbulent, pour la formation des faciès stratifiés superposés et juxtaposés, constituant les séquences.

Quant au temps absolu, les feuillets que Lyell a observés, et pris pour des dépôts annuels, sont principalement des laminae qui, comme je l’ai montré expérimentalement, ne caractérisent aucun temps absolu.

 

Il en est de même de sa chronologie de 240 millions d’année, fondée sur les « révolutions » biologiques, que le professeur Gohau a qualifié de « hypothèse uniformitarienne », non prouvée. Le Professeur Gohau dans son ouvrage « Une histoire de la Géologie » (14) dit « Ce qui mesure le temps, ce sont les durées de sédimentation et non celles des orogénèses et des « révolutions biologiques ». J’ajouterai que la datation radiométrique des roches n’est pas non plus fondée, car, la radioactivité existant dans le magma, on ne peut, dans un échantillon de roche, déterminer les quantités respectives d’éléments radioactifs produites à l’état de magma et de roche. À preuve, les datations au potassium/argon radioactifs de roches résultant d’éruptions volcaniques de dates historiques connues, indiquent parfois des millions d’années. Cela résulte d’un excès d’argon provenant en grande partie de la lave qui a donné naissance à la roche (15).

 

Christian Marchal, de l’ONERA, polytechnicien également, a fait paraître en 1996 dans le « Bulletin du Muséum d’Histoire Naturelle de Paris » (complété par un erratum publié dans « Geodiversitas » – 1997), une étude intitulée « Une cause probable de grands déplacements des pôles terrestres » (16), montrant que la surrection d’un grand massif montagneux comme l’Himalaya modifie de plusieurs millionièmes les moments d’inertie de la Terre, ce qui suffit à déplacer de quelques dizaines de degrés la position d’équilibre stable des pôles. Cette étude précise qu’il résulte de ces déplacements des pôles, combinés avec la rotation de la Terre, de larges transgressions et régressions des océans, leur amplitude étant beaucoup plus grande que les variations du niveau des océans dues à la fonte des glaciers consécutive à des variations cycliques des paramètres orbitaux de la Terre. Cela peut expliquer, en plus des données de l’analyse paléo-hydraulique, l’existence de conditions diluviennes dans le passé géologique, engendrées par l’orogénèse des chaînes de montagne, outre celles attribuées à la chute de météorites.

 

Comme il est dit dans le Bulletin, à l’Eocène, le pôle nord, avant l’orogénèse himalayenne, se trouvait à l’embouchure du fleuve sibérien Ienisseï, par 72 degrés de latitude nord. Après l’orogénèse, il se trouvait dans une position voisine de l’actuelle, après un déplacement de 18 degrés.

 

La direction des transgressions et régressions suivant chacune des 19 orogénèses intervenues depuis le début de l’ère Primaire, correspond à la succession des faciès de séquence résultants, tels que grès, argile, calcaire. Un  exemple  est  celui  du  Tonto  Group,  au  Cambrien.  Il  procède  de  l’orogénèse  cadomienne,  au commencement du Cambrien, et résulte d’une transgression de l’Océan Pacifique jusqu’au Nouveau Mexique. D’autres directions peuvent être déterminées par d’autres orogénèses qui se produisirent ailleurs sur la Terre.

 

La faune marine contemporaine varie selon la profondeur, la latitude et la longitude, et une telle diversification existe dans l’échelle des temps géologiques. L’apparent changement d’organismes marins fossilisés d’une série à une autre suivant une orogénèse, peut résulter de faunes différentes, transportées par des courants provenant de différents lieux résultant d’orogénèses successives. Ce qui a été attribué à un changement biologique peut être de nature écologique, expliqué par une faune venant de différentes orogénèses, prenant en compte le temps court de sédimentation.

Ajoutons que, de nos jours, on date par radiocarbone le collagène d’os de dinosaures fossiles, ce qui ramène leur âge de 65 millions d’années à moins de 40.000 ans.

 

En conclusion du chapitre géologique, une relation peut être établie entre cause et effet. L’orogénèse, c’est-à- dire le soulèvement des montagnes, qui est contingente des éruptions volcaniques (17), est la cause des déplacements de l’axe de rotation des pôles, ce qui provoque des séries marines et crée des dépôts, donc des roches sédimentaires. La durée de ces dépôts étant beaucoup plus rapide que le temps indiqué par l’échelle des temps géologiques, cela conduit à une révision de celle-ci.

 

J’ai exprimé cette relation causale dans « Towards a refoundation of historical geology » (18), publiée dans « Georesources », journal de l’Université de Kazan (12/2012), et dans « Orogenesis, cause of sedimentary formations » [19], publiée dans « Open Journal of Geology » lors de la Conférence Internationale de Géologie et de Géophysique tenue à Pékin (06/2013) (19). Je l’ai présentée à la conférence de géologie de Kazan, en octobre 2014. Elle a été présentée également à la conférence de lithologie de Moscou (20), en octobre 2015 par une géologue américaine, Rachel Dilly, qui la diffusera aux USA ».

 

Compte tenu des faits exposés, que reste-t-il de la théorie de Darwin qui a engendré les idéologies précitées ?

 

 

IV.   Conclusion.

 

L’incidence d’a priori scientifiques et leurs conséquences funestes pour l’humanité, invitent à analyser objectivement les sciences à partir des faits observés et expérimentés, et à éprouver les théories qui, dans l’enseignement, peuvent égarer l’esprit humain dans sa recherche de vérité.

 

L’histoire des derniers siècles nous montre bien cet enchaînement. Copernic et Galilée ont affirmé, mais sans preuves, que le soleil était le centre du monde. S’ils s’étaient contentés de parler par hypothèse, ce que le cardinal Bellarmin avait demandé à Galilée de faire, ils n’auraient pas été condamnés par le Saint-Office, lequel, de ce fait, n’aurait pas récusé la mobilité alors probable de la Terre. Il n’y aurait alors pas eu de réaction contre l’Église.

 

De même Descartes, s’il s’était attaché aux faits, n’aurait pu fonder ses jugements sur les seules idées claires et distinctes, idées persuasives qui ont conduit Stenon à son a priori, et Newton à ses lois inexactes énoncées avant les preuves empiriques. Or Descartes a ainsi engendré la philosophie des lumières, laquelle, notoirement antireligieuse chez Voltaire, a conduit à la révolution de 1789 et à la chute de la monarchie des Bourbons, remplacés par Napoléon 1er et plus tard Napoléon III, qui ont déclenché des guerres. Objectivement, ces évènements n’auraient pas dû avoir lieu.

Darwin et sa théorie de l'évolution

 

Et sans une géologie historique fondée sur un a priori inexact, Darwin n’aurait pas été conduit à écrire « L’origine des espèces », postulant cette lutte pour la vie entre espèces dont Marx et Engels se sont inspirés pour prôner la lutte des classes. Alors Staline serait resté séminariste et Hitler, peintre, ce qui nous eût évité la seconde guerre mondiale.

 

Leurs a priori étant mis à jour, les incidences précédentes s’effondrent. On ne refait pas l’histoire. Mais en redevenant objectifs, nous devrions être capables de lui faire reprendre le chemin de la Vérité, tant au point de vue scientifique, politique, que moral et spirituel. Cela apparait d’autant plus nécessaire, à tout point de vue, dans la situation critique où nous vivons.

 

 

 

Références :

[1] N. Stenon and N. Stensen, “Canis Carchariae Dissectum Caput, KIUAus., lat. u. engl. The earliest geological treatise, 1667.

 

[2] B.G. Sedimentology, “Experiments on Lamination of Sediments, Resulting from a Periodic Graded-Bedding Subsequent to Deposit”, compte-rendu de l’Académie des Sciences, Paris, t. 303, Série ii, No. 17, 1986.

 

[3] G. Berthault, “Sedimentation of a Heterogranular Mixture. Experimental Lamination in Still and Running Water”, compte- rendu de l’Académie des Sciences, Paris, t. 306, Série ii, 1988, pp. 717-724.

 

[4] E.D. McKee, E.J. Crosby, H.L. Berryhill Jr, “Flood Deposits, Bijou Creek, Colorado, June 1965”, Journal of Sedimentary Petrology, Vol. 37, No. 3, 1967, pp. 829-851.

 

[5] Lischtvan-Lebediev, “Gidrologia i gidraulika v mostovom doroshnom. Straitielvie”, Leningrad, 1959.

 

[6] F.Y. Julien and L.Y., Berthault G., “Experiments on Stratification of Heterogeneous Sand Mixtures”, Bulletin de la Société Géologique de France, 1993, Vol. 164. No. 5, pp 649-660.

 

[7] G. Berthault, “Analysis of Main Principles of Stratigraphy”, Lithology and Mineral Resources, Vol. 37, No. 5, 2002, pp. 509- 515. doi : 10.1023/A:1020220232661.

 

[8] G. Berthault, “Sedimentological Interpretation of the Tonto Group Stratigraphy, Grand Canyon Colorado River”, Lithology and Mineral Resources, Vol. 39, No. 5, 2004, pp. 504-508, doi : 10.1023/B : LIMI.0000040737.85572.4c.

 

[9] G. Berthault, “Geological Dating Principles Questioned Paleohydraulics a New Approach”, Journal of Geodesy and Geodynamics, Vol. 22, No. 3, 2002, pp. 19-26.

 

[10] A. Lalomov, “Reconstruction of Paleohydrodynamic Conditions during the Formation of Upper Jurassic Conglomerates of the Crimean Peninsula”, Lithology and Mineral Resources, Vol. 42, No. 3, 2007, pp. 268-280. doi : 10.1134/S0024490207030066.

 

[11] G. Berthault, A. Lalomov and M.A. Tugarova, “Reconstruction of Paleolithodynamic Formation Conditions of Cambrian- Ordovician Sandstones in the Northwestern Russian Platform” Lithology and Mineral Resources, Vol. 46, No. 1, 2011, pp. 60- 70. doi : 10.1134/S0024490211010020.

 

[12] G.V. Middleton, “Johannes Walther’s law of the correlation of facies”, Geological Society of America Bulletin, 1973, Geological Soc America.

 

[13] G. Berthault, A.L. Veksler, V.M. Donenberg and A. Lalomov, “Research on Erosion of Consolidated and Semi-Consolidated Soils by High Speed Water Flow”, Izvestia VMG, Vol. 257, 2010, pp. 10-22.

 

[14]  G. Gohau, “Une histoire de la géologie”, Paris, Seuil, P.277. 1990.

 

[15] J.C. Funkhauser and J.J. Naughton, « Radiogenic helium and argon in ultramafic inclusions from Hawaï », Journal Geological Research, Vol. 73, 15/07/1968, pp. 4601-4607.

 

[16] C. Marchal, “Earth’s Polar Displacements of Large Amplitude. A Possible Mechanism”, Bulletin du Muséum National d’Histoire Naturelle. Paris.4th, 18, Errata Geodiversitas, Vol. 19, No. 1, 1997, p. 139.

 

[17] M.R. Rampino and A. Prokoph, “Are Mantle Plumes Periodic ?” EOS Transactions American Geophysical Union, Vol. 94, No. 12, 2013, pp. 113-120, doi : 10.1002/2013EO120001.

 

[18]  G. Berthault, “Towards a Refoundation of Historical Geology”, Georesources, 2012, pp. 4-36.

 

[19]  G. Berthault, “Orogenesis, cause of sedimentary formations”, Open Journal of Geology, Vol.3, 2013, pp. 22-24.

 

[20] R. Dilly, G. Berthault, A. Lalomov, “Orogenesis, cause of sedimentary formations”, 8ème conférence lithologique “Evolution des processus sédimentaires dans l’histoire de la terre”, Académie des Sciences et Université gouvernementale du pétrole et du gaz, Moscou (10/2015).