Mois : octobre 2019

Un rêve de physicien…

Le rêve d’un physicien.

 

Préambule :

               Retraité depuis déjà longtemps, un polytechnicien revient sur sa carrière d’ingénieur. Les progrès en à peine plus d’un siècle n’ont-ils pas été considérables ? Faut-il s’en émerveiller ou s’en étonner ? Ceci résulte-t-il de progrès considérables des connaissances scientifiques ou de la technologie ? N’avait-il pas admis, au moins implicitement, au cours de sa carrière d’ingénieur que ceux qui savent réalisent, et ceux qui ignorent enseignent ? En réalité, comment technologie et progrès théoriques s’épaulent-ils ?

               Pour comprendre l’état actuel des connaissances, il se demande pourquoi des vérités scientifiques, aujourd’hui incontestées, se sont imposées. Les choix conceptuels qui ont été faits au 20° siècle ont-ils été judicieux ? D’autres approches n’auraient-elles pas été préférables ?

               Il se met alors successivement dans la peau d’un élève des promotions 2005, 1960 puis 2015 et  découvre  que les mathématiques et la physique ont toujours eu des relations conflictuelles. La rigueur des premiers et l’intuition des seconds sont-elles compatibles ? Les physiciens s’opposent-ils toujours aux idées nouvelles? La physique du 21° siècle sera-t-elle celle dont il a toujours rêvé ?

               Enfin, il décrit la physique dont il rêve, et qu’il espère voir s’imposer en 2070, trois fois 55 ans après la rupture de 1905 qui a conduit à la physique relativiste et quantique que nous connaissons.

La physique en 1905 :

Que lui aurait-on enseigné à l’école Polytechnique en 1905 ? Henri Poincaré, son jeune professeur  d’astronomie, lui aurait sans doute présenté le problème des trois corps, mais vraisemblablement pas les expériences de Michelson, ni les ides idées de Lorentz sur la contraction des corps en mouvement, qui étaient encore très contestées.

Les modes de pensée des physiciens et des mathématiciens étaient et restent très différents. Les mathématiciens raisonnaient avec rigueur sur la base d’axiomes parfaitement explicités. Les physiciens essayaient de construire des théories susceptibles d’expliquer, au moins qualitativement, les phénomènes qu’ils observent.

En 1905, ce jeune élève (on ne disait pas étudiant, terme réservé à l’université), s’endort pendant un cours dans le grand amphi (aujourd’hui devenu l’amphi Poincaré), alors que son professeur explique que les plus lourds que l’air ne peuvent pas voler. Malgré les débuts de l’aviation, son argumentation de son professeur avait l’apparence d’une démonstration. Depuis, nous avons appris que, grâce au développement de grandes souffleries, la démonstration de son professeur était mathématiquement exacte, mais que ses hypothèses correspondaient à un cas d’école « idéalisé » qui ne se rencontre qu’exceptionnellement dans le monde réel, et qu’heureusement les aviateurs savent éviter. En mathématicien, ce professeur avait fait une démonstration rigoureuse, mais sur la base d’hypothèses trop restrictives, réduisant la portée de ses conclusions. Les fous volants ont prouvé que sa démonstration n’était pas pertinente.

Au même moment, les physiciens étaient préoccupés par l’échec des expériences de Michelson. En 1881, celui-ci avait tenté de mesurer la « vitesse absolue » de la terre avec un interféromètre de seulement 1,20 m de longueur. Après ce premier échec, d’autres expériences avaient conduit à des résultats jugés non significatifs. Pour expliquer ces résultats, Lorentz avait imaginé que les corps en mouvement se contractent dans la direction de leur vitesse. Compte tenu de cette hypothèse,  la vitesse de la lumière devenait apparemment isotrope dans un interféromètre mobile. Il s’agissait là d’une hypothèse « ad hoc », justifiée par aucune théorie physique. Sans entrer dans la genèse de la théorie de la relativité, expliquée de façon remarquable par Jules Leveugle dans son livre publié en 2004 (1), Lorentz agissait comme bien d’autres physiciens avant lui. Il traduisait en loi physique le résultat d’une expérience, ici l’échec de la mesure la vitesse absolue de la terre.

Poincaré, après avoir démontré que l’hypothèse de Lorentz était mathématiquement recevable, établit les formules de changement de repère qui en résultaient. Il démontra ensuite que ces formules ont des propriétés remarquables et constituent, en langage mathématique, « un corps », notion encore largement ignorée des physiciens.  Il ajouta donc, aux grands principes de la physique, le principe de relativité, selon lequel les lois de la physique doivent être les mêmes pour tous les observateurs.

À cette époque, Planck était responsable du choix des articles de physique théorique au sein de la revue allemande « Annalen der Physik ». Comme l’a démontré Jules Leveugle à partir de documents originaux, celui-ci privilégiait naturellement les articles favorables à sa théorie des quanta, et prit parti pour la théorie de la relativité.

La physique vers 1960 :

               Une cinquantaine d’années plus tard, jeune polytechnicien, je découvre une physique totalement différente. Les polémiques nées autour des théories quantiques et relativistes sont totalement oubliées. À l’exception de Monsieur Tardi, lointain successeur de Poincaré au poste de professeur d’astrophysique, les physiciens présentent leur discipline d’une façon dogmatique. Le doute n’a plus sa place. La théorie de la relativité générale est une évidence. Les grands instruments, accélérateurs et cyclotrons, ont permis d’observer de nombreuses particules stables ou instables. Les plus grands espoirs sont mis dans « le modèle standard ». En un mot, nous approchions de la fin de l’histoire !

               Plus personne n’osait s’interroger sur les origines des certitudes scientifiques devenues de véritables dogmes. Encore moins s’étonner que les équations de Maxwell introduisent un « courant de déplacement fictif » circulant dans le vide. Peut-on parler d’onde et de courant sans qu’il existe, dans un milieu de propagation,  deux formes d’énergie ? Par exemple, en ondes mécaniques, l’énergie cinétique et une énergie potentielle ? Comment peut-on occulter ces réalités ?

               Plus personne ne s’étonnait qu’un photon, initialement supposé ponctuel par Einstein, et devenu plus tard beaucoup plus mystérieux, soit susceptible de  se matérialiser en un lieu précis, par exemple dans une diode semi-conductrice ? Cela ne rendait-il pas suspecte cette particule ?

               Heureusement, de nombreux ingénieurs, maîtrisant parfaitement les concepts et les techniques anciennes, ont pu participer à l’essor extraordinaire des techniques que nous avons connu : électronique, télécommunications, détection, géolocalisation, informatique… Tous domaines dans lesquels rien n’aurait été possible si la technologie n’avait autant progressé.

               La courbure gravitationnelle des rayons lumineux ayant été observée en 1915, lors d’une éclipse de Soleil, il eut été raisonnable d’abandonner la théorie de la relativité. En effet, cette expérience démontrait que la vitesse de la lumière n’est pas une constante universelle et que sa variation gravitationnelle, bien que faible, pouvait être mesurée.

               Au lieu de reconnaître que ce résultat reléguait la théorie de la relativité au rang d’une approximation locale, une nouvelle théorie extrêmement complexe, difficile à utiliser, et que seuls quelques spécialistes disent maîtriser, était présentée comme l’aboutissement d’une longue évolution  de la physique théorique vers sa perfection.

               Si la lumière ne se propageait pas strictement en ligne droite, ne suffisait-il pas d’en tenir compte ? Supposons que pour faire des mesures précises de distance, vous ne disposiez que d’un décamètre. Vous chercheriez à déterminer avec la plus grande précision possible les effets éléments parasites : tenson du décamètre, effet de la flèche du ruban lorsqu’il ne repose pas sur le sol… Vous n’auriez pas, comme les relativistes, pris votre décamètre  comme référence et modifié en conséquence la géométrie devenue non euclidienne !

               La théorie de la relativité était enseignée à tous les étudiants, bien que de nombreux physiciens aient longtemps douté de sa pertinence. Au long du 20° siècle, des physiciens illustres avaient cherché à en tester la validité de cette théorie. De nombreuses expériences avaient été faites pour valider (ou non) la théorie de la relativité. En 1925-1926 Miller avait fait des mesures avec un immense interféromètre extrêmement rustique. Maurice Allais a  analysé ses résultats, ainsi que d’autres expériences dans son livre sur « L’anisotropie de l’espace » (2). Il effectua personnellement des mesures avec des pendules « paraconiques », et, à la demande de l’IGN (Institut Géographique National), des mesures d’anomalies signalées sur les visées optiques. En 1964, William Bertozzi observa la vitesse d’un électron et nota que celle-ci restait toujours inférieure à celle de la lumière. Il en conclut à la validité de la relativité restreinte, mais ses résultats restaient assez qualitatifs. (Voir L’expérience de William Bertozzi (3) ).

               Toutes ces expériences, quelles qu’en aient été les conclusions, ont été réalisées avec les technologies de leur temps, ce qui les rend aujourd’hui éminemment contestables. D’autres expériences, impossibles en 1960, ne devraient-elles pas être réalisées ? Ne pourraient-elles pas conduire les étudiants à effectuer de remarquables Travaux de thèse ?

               Parallèlement, l’atome avait pris une immense place dans la physique. Un gros effort avait été fait dans de le développement des bombes nucléaires, puis des centrales nucléaires qui devaient rendre l’énergie à la fois disponible et bon marché. Physique nucléaire et mécanique quantique avaient pris naturellement une place essentielle dans l’enseignement de la physique.

               Une autre invention, celle du pompage optique avait conduit au développement du LASER qui a révolutionnera l’optique, l’industrie des machines outil, et même les produits audio-visuels destinés au grand public. Par des considérations purement théorique, Alfred Kastler avait prédit qu’il devait être possible de rendre plus intense l’émission des raies spectrales des atomes en les soumettant à un rayonnement lumineux de longueur d’onde plus courte. Dans les années 50, son équipe avait démontré l’exactitude de son intuition. Très rapidement, de nombreux chercheurs avaient réalisé des LASER. Aujourd’hui, le grand public ne s’étonne pas d’utiliser des quantités de sources LASER dans de très nombreux équipements.

La physique en 2015 :

               Après une carrière au cours de laquelle il avait participé avec passion aux innovations rendues possible par les progrès immenses de la technologie électronique, ce même polytechnicien s’interroge sur l’évolution de la physique au 21° siècle.

Le 14 septembre 2015, aux États Unis, les physiciens ont détecté pour la première fois  des ondes gravitationnelles. Les  interféromètres de Livingston  et de Hanford obtiennent un premier signal. Pour eux, cette détection est un événement très important, car elle confirme l’existence des ondes gravitationnelles indispensables à la cohérence globale de la physique.

               En effet, Poincaré avait établi en 1900 la masse de l’énergie. Sa démonstration, extrêmement simple, faisait appel à la seule mécanique classique et s’appliquait à toutes les formes d’énergie, comme cela est expliqué clairement dans le livre de Jules Leveugle (1). Ainsi, toute forme d’énergie a donc nécessairement une masse. Une onde électromagnétique, se déplaçant à la vitesse de la lumière, ne peut donc qu’être associée à une onde de gravitation de même vitesse.

               Sur le campus de Saclay, la découverte attendue des ondes gravitationnelles est présentée comme une confirmation éclatante de la théorie de la relativité. En réalité, plus d’ un siècle plus tôt, une analyse objective des écrits de Poincaré aurait permis de comprendre, par la seule réflexion, que ces ondes de gravitation étaient une conséquence naturelle des équations de Maxwell et de toutes les lois de la physique pré-relativiste.

               Tout au cours du 20° siècle, et Indépendamment des recherches théoriques des physiciens, le développement des systèmes électroniques, soutenu par la demande du marché, a conduit à des progrès considérables de la technologie, et par ricochet de la physique.  Enfin, les travaux théoriques de Fourier et Laplace, effectués il y a presque deux cent ans,  ont été enfin largement utilisés. Sans les systèmes de télécommunication, les RADAR, les gyromètres LASER, bien des phénomènes n’auraient pas été étudiés et compris : la modulation, les bruits et les interférences…

               Les gyromètres LASER ont mis en évidence l’effet de couplages parasites dans les systèmes optiques. Nous savons que ces gyromètres sont aveugles lorsque leur vitesse de rotation est inférieure à un seuil donné. Aurions-nous réalisé ces gyromètres si, en 1925, Michelson et Gale n’avaient pas observé la rotation de la Terre ? Quelle physique aurions-nous imaginé ?

En 2018, le prix Nobel de physique a été attribué au français Gérard Mourou. Ce prix a récompensé des travaux sur la génération d’impulsions LASER extrêmement courtes, utilisées notamment dans des applications médicales.  Ces résultats correspondent à des techniques de traitement de signal utilisées en RADAR et en télécommunications sous les noms de compressions d’impulsion et d’étalement de spectre. Ces techniques avaient été utilisées bien avant par les animaux, chauves-souris ou mammifères marins pour détecter et localiser leurs proies. Ce Prix Nobel de physique 2018, récompense ainsi une application de la physique classique et de travaux théoriques sur l’analyse spectrale de près de deux siècles.

 La physique quantique aurait pu revendiquer un rôle dans ces avancées, mais elle ne décrit que globalement l’émission de lumière par les LASER, sans expliquer le processus physique mis en œuvre. En effet, la théorie quantique ne décrit pas les transitions entre niveaux atomiques, mais seulement leurs résultats : l’émission d’un signal optique. Ainsi, elle n’explique pas les mécanismes physiques, et en particulier l’émission stimulée de lumière, à l’origine du rayonnement LASER.

La course aux grands instruments scientifiques s’est poursuivie. Des années 50 à nos jours, le CERN n’a cessé de construire des instruments de plus en plus puissants (accélérateurs de particules, synchrotrons, cyclotrons). Des laboratoires comme le projet de confinement LASER du « Lawrence Livermore National Laboratory », situé en Californie, ou le projet de Tokamak ITER, construit en France, font rêver à des systèmes capables de produire une énergie abondante et bon marché, un rêve déjà proposé par les centrales nucléaires.

L’analyse de ces grands programmes internationaux dépasse très largement le cadre de cette réflexion sur la physique de 2015. Aujourd’hui, la faisabilité de ces grands projets n’est toujours pas démontrée, et de nombreuses voix  s’élèvent pour contester leur capacité à atteindre les objectifs industriels annoncés. Comment ces projets pourraient-ils tenir ces promesses alors que la mise en service des centrales nucléaires, simples machines à vapeur à chauffage nucléaire, est contesté ? Comment ces monstres pourraient-ils fournir l’énergie abondante dont nos héritiers auront besoin ?

Pour avoir visité différents laboratoires travaillant sur le confinement LASER et des Tokamak, assisté à des congrès consacrés à l’étude des plasmas, ce physicien s’interroge. Que penseront les générations futures des grands instruments scientifiques conçus à la fin du 20° siècle, cyclotrons, Tokamak, lasers de puissance ou grands interféromètres, qui ont mobilisé tant de chercheurs et de moyens financiers ?

Une nécessaire mise en cause des dogmes :

               La physique peut-elle poursuivre longtemps dans  la voie actuelle ? Ne doit-elle pas s’interroger sur l’adéquation de l’orientation prise en 1905 ? Ne doit-elle pas mettre en cause les options prises, il y a plus d’un siècle, sur la base d’expériences alors inexpliquées ? Les choix faits ont-ils réellement été imposés par les résultats expérimentaux ? Les principes fondateurs de la physique actuelle justifiaient-ils réellement une telle révolution conceptuelle et la mise en cause de toute notre culture mathématique ? Depuis, ont-ils été invalidés par de nouvelles expériences ?

  • Considérons en premier, l’expérience de Michelson : apparemment simple, ce dispositif expérimental reste extrêmement difficile à étudier. Les optiques fonctionnent en champ proche, et depuis que les ordinateurs permettent d’effectuer des calculs de rayonnement sur les antennes actives des RADARS, et de choisir les meilleures apodisations, nous savons que les calculs élémentaires de déphasage faits alors par Michelson étaient loin d’être rigoureux. Des couplages négligés pourraient-ils rendre inopérants ces instruments ? En raison de couplages analogues, les gyromètres LASER n’ont-ils pas une plage de vitesse aveugle éliminable par une faible rotation mécanique périodique ?
  • Les quanta : En 1905, Einstein avait pensé pouvoir justifier l’hypothèse des quanta, chère à Planck, en observant l’arrivée aléatoire d’électrons dans un photomultiplicateur. En fait, cette expérience ne démontrait que la nature du courant électrique : un flux d’électrons. Elle n’apportait rien sur la connaissance du rayonnement lumineux.
  • La masse de l’électron : En 1964, l’expérience de William Bertozzi  a été considérée comme une preuve de la théorie de la relativité. À la sortie d’un accélérateur linéaire, la vitesse d’un électron ne pouvait dépasser la vitesse de la lumière. Effectivement, cette expérience prouvait bien qu’un électron ne peut dépasser la vitesse de la lumière, mais ne validait pas parfaitement la formule relativiste.
  • Les expériences d’intrication de photons sont totalement fantaisistes et peuvent seulement faire croire que la physique est un domaine mystérieux. Il est absurde d’imaginer l’existence d’un lien instantané entre photons, alors qu’une approche électromagnétique simple, et la modélisation statistique du détecteur, conduisent au bon résultat.
  • En astronomie, mesurer la distance des galaxies par le décalage vers le rouge (Red shift) est naturel. En revanche, affirmer qu’il s’agit d’un décalage Doppler ne serait démontré que si ces rayonnements étaient des fréquences pures, ce qui n’est pas le cas.
  • Enfin, mettre au programme de terminale les expériences d’interférences sur électrons uniques est totalement irresponsable, surtout en ne donnant pas l’explication classique de ce phénomène finalement assez simple. N’est-il pas naturel que le mouvement de l’électron induise des courants dans le masque et que ceux-ci influent sur sa trajectoire ? Pour un spécialiste de la discrétion RADAR, la présentation faite aux élèves de terminale de cette expérience est tout simplement risible. Quelle image de la physique et des physiciens, les plus intelligents d’entre eux auront-ils ? En déduiront-ils que la physique n’est, comme au temps des bouteilles de Leyde, qu’une science mystérieuse permettant de réaliser des expériences paradoxales pour briller dans les salons ?

Au lycée, la physique doit donner aux élèves les bases  nécessaires pour être sereins dans  le monde technique dans lequel ils vivront, et éprouver l’envie de le comprendre. Dans l’enseignement  supérieur, pour ne pas écarter les esprits les plus brillants, tout dogmatisme devrait être évité, les axiomes clairement explicités et justifiés, et surtout les domaines d’application des théories précisés.

Que devrait être la physique en 2070 ? :

Un peu  désappointé par ce constat, ce physicien se met à rêver et laisse libre cours à son imagination. Pour sortir des sentiers battus, le mieux n’est-il pas de prendre à contre-pied les choix actuels ? Acceptez de m’accompagner dans cette démarche et d’envisager à quelle physique pourrait conduire une mise en cause radicale des choix actuels.

Quelles seraient les bases de cette nouvelle physique ?

Parler d’ondes n’ayant pas de sens en l’absence d’un milieu de propagation, je vous propose  d’admettre l’existence de l’Éther. Le courant de déplacement introduit par Maxwell dans ses célèbres équations est donc réel. Contrairement à l’hypothèse de la relativité restreinte, le milieu de propagation de ces ondes ne devrait  pas être un solide mais une sorte de fluide. Nous admettrons que l’Éther, ce milieu de propagation des ondes, est non-linéaire. La variation gravitationnelle de la vitesse de la lumière résulterait alors de la non-linéarité de ce milieu, dont les propriétés seront représentées par la célèbre courbe en « S », apte à décrire, dit-on, la plupart des phénomènes physiques.   

Les ondes électromagnétiques correspondraient aux vibrations selon les deux directions de transverses par rapport à la direction de propagation. Les ondes gravitationnelles seraient, comme les ondes acoustiques, des ondes longitudinales. L’Éther pourrait ainsi vibrer selon les trois directions possibles, la vitesse de propagation de ces trois modes ondes étant « c », la vitesse de la lumière.

Comme en mécanique, et sans rien changer aux lois de l’électricité, l’énergie des champs électriques et magnétiques résulterait de la position et de la vitesse des charges électriques et de l’observateur par rapport au repère retenu ou par rapport à l’Éther, fluide siège de la propagation des ondes. Compte tenu de la non-linéarité de ce milieu, l’énergie des particules serait contenue dans les champs qui les entourent, plutôt que dans leurs seuls noyaux.

Toutes les particules seront alors des solutions d’une équation différentielle non linéaire. Certaines de ces solutions seront stables, d’autres instables et les particules correspondantes absentes de notre environnement. Comme des bulles se déplaçant dans l’eau de mer, ces particules se déplaceraient librement dans l’Éther… Cette nouvelle physique expliquerait enfin la dualité onde particule imaginée en 1923 par De Broglie. En optant résolument pour une physique réellement ondulatoire, elle unifierait les notions d’ondes et de particules, cette dualité perdant tout son sens.

Enfin, cette physique s’abstiendra de parler du Big-Bang autrement que comme un mythe de la création du monde qui, contrairement aux textes religieux, n’a ni signification philosophique ni valeur scientifique. Aucune expérience n’ayant prouvé que la dérive vers le rouge du rayonnement des galaxies lointaines résulte d’un effet Doppler, celle-ci sera attribuée à la non-linéarité du milieu traversé. Les raisons de ce décalage seront identifiées : la présence de particules neutres ou chargées dans le vide intersidéral, ou, tout simplement, la non-linéarité de l’Éther.

La chasse à la magie et aux phénomènes paradoxaux :

               Les phénomènes physiques ne sont paradoxaux que lorsqu’ils sont mal compris. Faute d’une analyse logique d’une expérience, l’humanité a toujours été tentée d’imaginer une explication magique ou simplement de construire un ensemble règle formelle, souvent incohérentes entre elles, rendant compte, au moins qualitativement, des observations. Bien évidemment, sans s’interdire d’utiliser ces formules magiques, cette nouvelle physique refusera de les considérer comme des lois mystérieuses de la nature et cherchera aux faits des explications réellement scientifiques.

               Les différentes expressions des relations d’incertitudes seront unifiées en une seule, construite sur la notion de bruits d’observation, et s’appliquant de façon universelle. Prenons un exemple dans le domaine RADAR. La localisation d’une cible nécessite la mesure d’angles et de temps d’arrivée d’une impulsion. Le Radariste estime les probabilités de détection et de fausse alarme, et pour chaque événement observé les dimensions du volume de l’espace-temps correspondantes. Il admet que ses mesures sont imprécises mais ne nie pas que chaque cible ait une position réelle, même s’il ne peut la connaître exactement. Cette analyse, présentée sur un exemple lié au RADAR, sera évidemment faite d’une façon analogue pour toutes les mesures, mêmes au niveau des particules élémentaires.

               Le photon ne sera plus une particule mystérieuse, mais redeviendra, conformément  au concept d’Henri Poincaré, un quantum d’action (4).  Depuis que nous disposons de sources LASER, nous savons qu’en lumière monochromatique, les images présentent des défauts caractéristiques. Nous savons également que les senseurs ne détectent pas toujours les signaux, mais qu’en revanche, ils présentent toujours un taux de fausses détections non nul. Ceci s’expliquera simplement, comme en RADAR, en considérant le détecteur comme un dispositif à seuil en présence d’un signal mélangé avec un bruit aléatoire, variable spatialement et temporellement.

               Bien évidemment, les tentatives de développement de géométries non-euclidiennes en vue de leur utilisation en physique seront abandonnées.

La fin des grands instruments scientifiques :

               Ces grands instruments n’ont pu être développés que grâce à des coopérations mondiales, associant un grand nombre de pays, par exemple 500 chercheurs appartenant à 50 nations, et avec le soutien actif de ce que nous appelons « la communauté scientifique ». Y participer peut en effet apporter aux jeunes chercheurs une expérience de laboratoire, mais en aucun cas leur permettre de remettre en cause les concepts dogmatiques de leurs aînés. Ces grands programmes de recherche ne peuvent donc avoir pour objet de mettre en évidence les inévitables lacunes de la physique issue de la révolution conceptuelle de 1905, et contribuent à stériliser l’ensemble de la recherche.

               Désappointés par les résultats décevants de grands instruments développés à la fin du 20° siècle, en égard aux efforts financiers et à l’investissement humain fait par les innombrables chercheurs ayant contribué à leur réalisation, les états arrêteront de soutenir leur développement. Ces instruments seront devenus des ruines. Dans quelques millénaires, nos lointains descendants se demanderont sans doute quel avait bien pu être la raison de leur construction et quel rôle, politique ou religieux, ils avaient au 20° siècle.

               En revanche, les télescopes et radiotélescopes devraient continuer à être développés. Ils sont en effet les seuls qui puissent nous permettre d’explorer l’univers, et d’étudier les lois de la physique dans des conditions (température, pression, champ de gravité…) qu’il restera toujours impossible de réaliser sur Terre. Toutefois, ces grands télescopes ne survivront, et ne pourront contribuer aux progrès de la physique, que s’ils collectent des données brutes, claires, et bien documentées. En effet, il ne sera pas possible de construire une nouvelle physique sur la base de données ayant subi des prétraitements justifiés par les théories scientifiques reconnues et des hypothèses non validées.

De l’exploration spatiale à la compréhension de l’univers :  

               L’homme a rêvé de marcher sur la Lune et sur Mars. Une fois ces rêves abandonnés, et quelles qu’en aient été les raisons, l’espace reprendra une place temporairement occultée par ces épopées : celle de nourrir les rêves de l’humanité. Alors que nous nous croyions le centre du monde, les astronomes ont déjà observé une quantité de galaxies, et détecté la présence de plus de 30.000 exo-planètes dont certaines pourraient ressembler à la nôtre…

Les poètes, fascinés par  l’immense univers auquel nous appartenons, pourront s’émerveiller. Pour les physiciens, après l’abandon des grands instruments scientifiques, l’univers deviendra l’immense laboratoire dans lequel ils pourront observer en direct des expériences irréalisables sur Terre. Les mathématiciens, retrouveront enfin l’espace euclidien infini dans lequel ils raisonnent, et dont ils ne peuvent se passer.

La mort de la physique ?

               La physique, telle que nous la connaissions depuis le 17° siècle, avait toujours essayé de rendre compte d’observations faites à l’aide de dispositifs expérimentaux simples. Son but était de découvrir les lois permettant de décrire avec précision leurs expériences et finalement de faire progresser la science. Ensuite, eux-mêmes ou des inventeurs talentueux, concevaient des machines tirant profit des connaissances théoriques acquises. La science physique remplaçait par un ensemble de théories et des modèles mathématiques, la connaissance parfois empirique des experts.

               An début du 20° siècle, les physiciens n’avaient toujours pas expliqué l’échec de l’expérience faite par Michelson en 1881 pour mesurer la vitesse absolue de la Terre. Ils avaient tenté, en vain, d’améliorer les performances de leurs interféromètres. Ils devaient alors faire un choix : admettre que leurs équipements étaient inaptes à faire cette mesure, ou, considérer que cette mesure était théoriquement impossible. Après une longue controverse, cette deuxième option s’imposa.

               Aujourd’hui encore, la physique est enfermée par cette victoire des « relativistes » qui refusent absolument toute mise en cause de leur choix fondateurs qu’ils appellent « Le principe de relativité ». Selon celui-ci, il serait théoriquement impossible de mesurer une vitesse absolue. Ils généraliseront ensuite ce principe en l’étendant aux accélérations. Selon ce nouveau principe de relativité, il serait impossible de mesurer une vitesse absolue, mais également une accélération absolue. Aujourd’hui encore, l’académie des sciences considère que toute loi physique doit être « généralement covariante », c’est-à-dire confirmer l’impossibilité de mesurer la vitesse ou l’accélération absolue d’un corps, mais ceci est-il réellement un choix judicieux ?

               Tout au long du 20° siècle, la physique a construit un ensemble dogmatique fondé sur la relativité et la mécanique quantique. Ce choix fait par des disciples zélés a été maintenu malgré les nombreux défauts de ces théories, en particulier la complexité mathématique de la relativité générale et l’incapacité de la mécanique quantique à décrire les phases transitoires (en particulier celles correspondant aux émissions lumineuses intervenant lorsque les électrons d’un atome changent de niveau  d’énergie).

               Cette attitude était-elle responsable, alors même que de nombreux phénomènes n’étaient, et ne sont toujours pas, expliqués ? Pouvait-on prétendre que tout avait été découvert ? La physique était-elle vraiment morte ?

Une renaissance possible ?

               Est-il possible que le rêve de ce physicien se réalise ? La physique peut-elle renaître ? Un retour aux sources peut-il lui redonner le dynamisme et la cohérence qu’elle a perdue ?

               En 1904, Henri Poincaré avait été le premier physicien à ajouter aux principes habituels de la physique « le principe de relativité », c’est-à-dire l’universalité des lois de la physique (3). Prenons un exemple simple. Considérons une horloge mécanique à balancier. Elle est sensible aux variations des forces de gravitation, mais son mouvement obéit aux mêmes lois de la physique quelle que soit sa place et l’altitude du lieu qu’elle occupe sur la Terre.

               Ce principe de relativité est bien différent de celui implicitement adopté par les relativistes. Si nous l’adoptions, les lois de la physique peuvent faire intervenir de nouveaux paramètres.  Au lieu de chercher à identifier des gravitons ou d’imaginer l’existence d’une matière noire, l’Éther ne permettait-il pas de comprendre l’univers, et la formation des galaxies, en particulier des nébuleuses spirales ? Ne sont-elles pas analogues aux cyclones qui se développent sur nos océans ? Devrait-on, comme en météorologie, faire intervenir un potentiel gravitationnel et la vitesse  locale de l’Éther ?

               Cette renaissance de la physique ne pourra avoir lieu que si une réflexion ouverte et une analyse critique des acquis du 20° siècle est entreprise. Il faudra lutter à la fois contre les défenseurs des vieilles idées du début du 20° siècle qui, tout en veillant au respect des dogmes, laissent de nombreux mystificateurs propager les théories les plus absurdes dans les grands médias.

               Un prochain document précisera comment l’enchaînement de faits apparemment sans importance a conduit à la situation actuelle, qui devrait conduire à la mort de la recherche fondamentale en physique. De nombreux acteurs universitaires, médiatiques, industriels,  de promoteurs de projets scientifiques internationaux, ont contribué inconsciemment à stériliser la physique et à en détourner les étudiants.

 

Pierre FUERXER

Membre de l’AIRAMA

 

Télécharger en PDF

 

 

 

 

[1] La Relativité, Poincaré et Einstein, Planck, Hilbert, par Jules Leveugle, L’Harmattan 2004.

[2] L’anisotropie de l’espace, Maurice Allais, Ed Clément Juglar, 1997.

[3] L’expérience de William bertozzi , ICI en PDF

[4] La physique du 21° siècle sera-t-elle ondulatoire, Pierre Fuerxer, URSI, JS 2011.

 

L’œuvre méconnue de Maurice Allais, prix Nobel d’Économie. Philippe Bourcier de Carbon AIRAMA

L’AIRAMA (Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie), fondée dès 2004, à pour objet statutaire de promouvoir la pensée, l’œuvre et les solutions, de Maurice Allais (31 mai 1911- 9 octobre 2010), qu’il n’a cessé de proclamer en particulier dans ses « Combats pour l’Europe ». http://combats-maurice-allais.info/lassociation-airama/

Conférence du 15 mai 2018 de Philippe Bourcier de Carbon

À l’occasion de cette remise aujourd’hui du Prix Maurice ALLAIS de l’AIRAMA à notre camarade Guy BERTHAULT, je suis heureux d’être convié ici à prononcer quelques mots devant vous pour évoquer sa mémoire.

Lorsqu’en 2004, voici 14 ans, je m’étais résolu avec notre camarade Jean-Pierre BOUYSSONNIE ancien Président de Thomson et de l’AX, à fonder l’Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie, Maurice Allais était déjà depuis 5 années exclu des médias en France, alors qu’il avait été, à 77 ans en 1988, le seul Français à avoir jamais été distingué en Économie par l’Académie Nobel depuis 1969, date de l’institution de son Prix de Science Économique. Guy BERTHAULT fut alors parmi les tout premiers à se joindre à notre initiative.

Parmi nos objectifs, en tentant ainsi autour de Maurice Allais de mobiliser des personnalités du monde des intellectuels, de l’entreprise et de l’économie, créer l’AIRAMA nous paraissait alors de nature, sinon à mettre un terme, du moins à fissurer l’extravagant ostracisme médiatique, sournois autant que féroce, dont, force était bien de le constater, il était devenu victime en France. Il le restera pourtant jusqu’à sa disparition en 2010 à quelques mois de son centenaire, recevant néanmoins en sa qualité de Grand-Croix de la Légion d’Honneur, lors de ses obsèques dans la cour de l’hôtel des invalides, en clin d’œil de la république, l’hommage national de la ministre alors chargée de la Recherche.

Pourquoi un traitement médiatique si singulier et si soudain à son encontre en France ?

On est réduit à des conjectures, mais il nous reste des points de repères.

Alors en effet qu’au cours de ses recherches ses publications étaient réputées tant par leur rigueur que par leur caractère ardu, vers la fin de sa carrière professorale à l’École des Mines, il avait déjà en 1977 fait paraître à l’intention d’un public beaucoup plus large, éclairé mais non spécialisé, son livre sur « L’impôt sur le capital et la réforme monétaire », ce qui lui avait valu deux refus de sa candidature à l’Institut des Sciences Morales et Politiques, alors qu’elle était pourtant fortement appuyée par Raymond Aron.

Il n’y fut reçu, cette fois avec empressement, qu’en 1990, deux ans après avoir reçu en 1988 son Prix d’Économie décerné par l’Académie suédoise en mémoire d’Alfred Nobel.

Mais surtout, ce sont les deux livres qu’il a tenu à publier pour un large public en 1999 qui, ainsi qu’il le voyait lui-même, auraient entraîné, en dépit de sa reconnaissance internationale, son exclusion stricte des médias en France :

Le premier qu’il a intitulé « La mondialisation, la destruction des emplois et de la croissance : l’évidence empirique » et qu’il aura voulu dédier « aux innombrables victimes dans le monde entier de l’idéologie libre-échangiste mondialiste, idéologie aussi funeste qu’erronée… » par lequel il exposait la malfaisance des politiques économiques mondialistes préconisées depuis 1974 par la Commission de Bruxelles et par le GATT devenu OMC.

Et plus encore peut-être son second livre « La crise mondiale aujourd’hui. Pour de profondes réformes des institutions financières et monétaires » par lequel il énonçait et démontrait, pour un large public, les seuls principes des réformes capables d’empêcher la récurrence des crises et catastrophes monétaires qui bouleversent les sociétés actuelles : Il explique :

  1. « La création monétaire doit relever de l’État et de l’État seul. Toute création monétaire autre que la monnaie de base par la Banque Centrale doit être rendue impossible, de manière à ce que disparaissent les « faux droits » résultant actuellement de la création monétaire bancaire privée.
  2. Tout financement d’investissement à un terme donné doit être assuré par des emprunts à des termes plus longs, ou tout au moins de même terme. »

« Cette double condition, écrit-il, implique une modification profonde des structures bancaires et financières reposant sur la dissociation totale des activités bancaires telles qu’elles se constatent aujourd’hui, et leur attribution selon trois catégories d’établissements distincts et indépendants :

  1. des banques de dépôt assurant seulement, à l’exclusion de toute opération de prêt, les encaissements et les paiements, et la garde des dépôts de leurs clients, les frais correspondants étant facturés à ces derniers, et les comptes des clients ne pouvant comporter aucun découvert ;
  2. des banques de prêt empruntant à des termes donnés et prêtant les fonds empruntés à des termes plus courts, le montant global des prêts ne pouvant excéder le montant global des fonds empruntés ;
  3. des banques d’affaires empruntant directement auprès du public, ou aux banques de prêt, et investissant les fonds empruntés dans les entreprises. »

Dans son principe, une telle réforme rendrait impossible la création monétaire et de pouvoir d’achat ex nihilo par le système bancaire, ainsi que l’emprunt à court terme pour financer des prêts de terme plus long. Elle ne permettrait que des prêts de maturité plus courte que celle correspondant aux fonds empruntés.

« Les banques de prêt et les banques d’affaire serviraient d’intermédiaires entre les épargnants et les emprunteurs. Elles seraient soumises à une obligation impérative : emprunter à long terme pour prêter à plus court terme, à l’inverse de ce qui se passe aujourd’hui. »

En cela Allais s’inspirait en partie d’Irving Fisher, l’animateur du Plan de Chicago de 1933, et du Plan 100% monnaie de 1935, qui entendait compléter la réforme bancaire de 1932 du Glass-Steagall Act, déjà si difficilement imposée par l’opinion publique aux États-Unis à la suite de la grande crise de 1929, laquelle réforme légale exigeait déjà des établissements bancaires qu’ils optent exclusivement pour des fonctions, soit de banques d’affaires, soit de banques commerciales. Du reste il faut bien noter que le Glass-Steagall Act, quoique bien largement amodié, resta en vigueur 67 ans durant jusqu’en 1999, évitant ainsi aux USA le retour des crises bancaires violentes au long de cette période.

Qui ne comprendrait que Maurice Allais, Prix Nobel d’économie, par ses démonstrations et surtout par ses propositions de réforme du secteur financier et bancaire, ne mettait directement ainsi en cause publiquement des intérêts privés colossaux.

Bien qu’ostracisé de manière obscène par les médias en France, Maurice Allais aura néanmoins formé de nombreux disciples au cours des décennies de sa longue carrière de professeur, et sa pensée rigoureuse, originale et puissante aura su marquer de nombreux esprits, en France, comme à l’étranger, dans le monde francophone en particulier.

Et qui l’eût cru, c’est au pays des banques, la Suisse, que les graines qu’il aura semé avec audace et obstination, lèvent aujourd’hui : en effet, pour la première fois depuis la réforme de 1891 obtenue par référendum d’initiative populaire, une votation constitutionnelle, soigneusement préparée et organisée depuis plus de deux ans, en particulier sous les avis d’anciens banquiers et professionnels de la finance, dont plusieurs anciens disciples d’Allais, l’initiative dite « Monnaie pleine » ou « Vollgeld » va le 10 juin prochain être soumise aux suffrages des électeurs de la Confédération Helvétique, réservant l’émission du Franc Suisse à la seule banque centrale créée en 1891, la BNS ou Banque Nationale Suisse, et interdisant aux banques commerciales privées de continuer leur émission monétaire ex nihilo par les pratiques actuelles du crédit.

Le site de cette initiative expose avec pédagogie tous les aspects de la réforme constitutionnelle proposée sur le lien internet suivant http://www.initiative-monnaie-pleine.ch/

Nos voisins suisses nous donnent ainsi un bel exemple de démocratie vivante et réelle, les médias de la confédération y organisant depuis quelques mois de nombreux débats sur ces questions. De fait la Suisse est devenue aujourd’hui pour nous Français un miroir particulièrement cruel, car il faut bien constater que nous n’en percevons toujours aucun écho dans nos médias français.

Je crois que Maurice Allais aurait été particulièrement satisfait de savoir que huit ans après sa disparition, son enseignement obstiné aurait enfin la perspective de s’incarner dans une loi constitutionnelle, et que de toute manière la quintessence de ses recommandations en matière financière et monétaire aura au moins été entendue par une partie importante de l’électorat suisse jusqu’alors maintenu soigneusement dans l’ignorance et l’incompréhension de la nature et des mécanismes des pratiques financières prédatrices actuelles.

Plutôt que de vous exposer ici les grandes lignes de l’œuvre économique si prodigieusement féconde et foisonnante de cet esprit exceptionnel, mort à 99 ans à sa table de travail, en ayant marqué en six décennies de publications sans doute tous les grands secteurs la Science économique, je tenais à saisir cette occasion d’évoquer devant vous d’abord l’âme de son combat intellectuel, celui qui lui aura coûté le plus cher. Par son combat intellectuel indomptable extraordinaire en effet, qui lui aura valu d’être relégué en France au Goulag médiatique, il est permis de considérer qu’en quelque sorte Maurice Allais est désormais devenu le Soljenitsyne français du capitalisme financier et de l’ultra-libéralisme mondialiste actuel.

L’aspect protéiforme de son œuvre le rend par ailleurs inclassable parmi les économistes : on pourra le qualifier de libéral en ce sens qu’il aura démontré que la liberté individuelle d’entreprendre, la propriété privée et le principe de concurrence constituent des conditions indispensables à l’efficacité des marchés économiques, à celle de l’allocation des ressources, comme à celle des processus de production des richesses. Mais on pourra aussi le classer de dirigiste par le souci qu’il place dans la pérennité des sociétés, exigeant l’existence d’un arbitre indépendant des forces économiques, régissant les règles des marchés pour maintenir leur efficience économique. Il reconnaît ainsi que le principe d’appropriation privée ne saurait être universel et doit être limité, et qu’il existe des biens collectifs par nature. On pourra même le qualifier de socialiste par son souci de limiter les inégalités sociales résultant des processus de production économiquement efficaces, en assurant des mécanismes de péréquation de la distribution des fruits de la croissance économique. Selon lui toute rente, et tout droit économique non gagné, en particulier la rente monétaire, doit être confisqué par la collectivité au bénéfice de cette péréquation. Certains ont résumé leur embarras en le qualifiant de l’oxymore « libéral socialiste ».

Je voudrais terminer en soulignant le caractère probablement le plus original de cet économiste : Dès sa jeunesse il aura été passionné par la Physique, discipline dans lequel il a toujours excellé. Il a déclaré qu’à sa sortie de l’école Polytechnique, alors qu’il pensait se destiner à la Physique, c’est lors du voyage d’étude qu’il entreprit aux États-Unis en 1933, devant le spectacle incompréhensible de ces villages de toiles abritant des familles de chômeurs et de mendiants en haillons, dressés dans les grands parcs publics des grandes villes américaines de ce continent de l’abondance, qu’il décida alors de choisir le champ des études économiques afin d’y trouver les réponses à cette énigme et de résoudre ce paradoxe. Et dès lors il s’attela d’abord à la lecture des œuvres de Walras, de Fisher et de Pareto, envers lesquels il a toujours rappelé sa filiation intellectuelle, pour finir par élaborer en 1943 son premier ouvrage de 1.200 pages « À la recherche d’une discipline économique », devenue « Traité d’économie pure ». Une refondation rigoureuse et originale, à partir de l’expérience ou de constats empiriques, de tous les grands principes de la littérature économique. C’est ce tour de force initial que l’Académie Nobel aura sans doute voulu particulièrement distinguer dans son œuvre foisonnante, quarante-cinq ans plus tard, en 1988.

Ainsi dans toute son immense œuvre économique, Maurice Allais entendait-il assurer toujours la prééminence du fait et de ses aspects constatés sur la conceptualisation, sur la formulation du principe ou sur l’élaboration de la théorie explicative. Il ne craignait pas de devoir remettre en cause, théorie, principes ou concept, dès lors que ceux-ci se révélaient incompatibles aux constats factuels.

L’économie étant historiquement un domaine intellectuel où, sous une apparence de science et de rigueur, concepts, principes et théories sont d’autant plus largement promus qu’ils justifient rationnellement des intérêts concrets socialement et politiquement puissants, cette démarche factuelle de physicien appliquée par Maurice Allais à l’économie, n’aura pas manqué de lui valoir souvent l’incompréhension, sinon l’irritation de ses collègues économistes, et plus souvent encore, l’hostilité des puissants.

Et c’est cette démarche même de Maurice Allais préservant à tout moment la prééminence du fait expérimental sur la théorie, que notre hôte Guy BERTHAULT aura scrupuleusement suivie dans ses travaux qui renouvellent désormais les principes de la sédimentologie, et pour lesquels il reçoit aujourd’hui le Prix Maurice Allais de l’AIRAMA.

Soyez remerciés pour votre attention.

Philippe BOURCIER de CARBON

Président d’honneur, fondateur de l’AIRAMA

Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie.

 

 

Source : https://lilianeheldkhawam.com/2019/10/09/loeuvre-meconnue-de-maurice-allais-prix-nobel-deconomie-philippe-bourcier-de-carbon/

 

 

Télécharger la Conférence de Philippe Bourcier de Carbon en PDF

 

 

 

Le nouveau livre « Coup d’État planétaire » est disponible.

Vous attendez un effondrement financier, mais c’est un monde nouveau qui émerge, et qui balaie sèchement l’ancien.

Aucune démocratie ne semble avoir les moyens de s’y opposer.

Coup d’Etat planétaire par Liliane Held-Khawam

 

Après avoir démontré avec Dépossession la captation des mécanismes monétaires, et financiers, Coup d’État planétaire démontre le phagocytage généralisé des outils et processus de production de biens et de services, privés et publics.

Tout ce qui produit de la valeur ajoutée sur la surface du globe est en passe d’être pris en charge directement ou indirectement par l’infrastructure supranationale d’une certaine élite financière.

Soutenue par une technologie omniprésente, un système-monde qui englobe l’ensemble de la planète et de ses ressources (y compris humaines) nous fait passer de l’ère de la mondialisation à celle de la globalisation.

La dématérialisation de l’administration publique et des institutions en général offre à la nouvelle équipe dirigeante la possibilité de gérer la planète à distance.

Un empire transversal, privé et corporatisé, d’un type nouveau est soigneusement décrit dans cet ouvrage (400 pages), avec des sources mais aussi des textes de lois, d’accords, et moult extraits de divers registres de commerce.

Forte d’un pouvoir absolu, par la captation des richesses productives, la nouvelle élite risque bien de faire la pluie et le beau temps aux quatre coins du monde.

L’ensemble des paradigmes qui régissent l’organisation de la vie sur terre est en voie de restructuration en profondeur. Après avoir usé et abusé d’un faux libéralisme, la réorganisation sociétale semble promettre de ressusciter le modèle soviétique, au profit de privés cette fois.

Avec ce que nous avons appelé néo-soviétisme, nous franchissons ainsi une nouvelle étape du sinistre néolibéralisme.

Les détenteurs des ressources planétaires peuvent être fiers du succès d’un projet herculéen, qui promet le retour d’un féodalisme globalisé et modernisé.

Disponibilité

Disponible en librairie (en Suisse certains Payot et la librairie du Valentin disposent d’ores et déjà d’un stock)

Commande en ligne sur le site de l’éditeur :

en euro : https://reorganisationdumonde.com/produit/coup-detat-planetaire/
en franc suisse : https://reorganisationdumonde.com/produit/coup-detat-planetaire/?wmc-currency=CHF
en dollar : https://reorganisationdumonde.com/produit/coup-detat-planetaire/?wmc-currency=USD

Attention : Nous ne travaillons plus avec Amazon

table des matières

Préface par Philippe Bourcier de Carbon

Avant-propos

Introduction

Partie I : les seigneurs de la Création monétaire confisquent l’industrie Mondiale

Chapitre 1 : Un Nouveau Monde, une nouvelle élite

Chapitre 2 : Planète industrie

Chapitre 3 : Vers des monopoles sectoriels ?

Partie II : les dirigeants de l’après-guerre se parent de messianisme pour se donner un vernis vertueux

Chapitre 4 : Est-ce qu’un État peut encore être souverain ?

Chapitre 5 : Aux origines, une mondialisation messianique ancre le Nouveau Monde

Chapitre 6 : Une alliance anglo-saxonne ancre l’économie-monde

Chapitre 7 : Le monde des affaires invité à mondialiser l’économie

Chapitre 8 : De la mondialisation à la globalisation

Partie III : les seigneurs du business s’emparent de la gouvernance des états

Chapitre 9 : La face cachée du développement durable

Chapitre 10 : Contrôle des territoires et des populations

Chapitre 11 : Politique commune des États

Chapitre 12 : Le monde des affaires, partenaire officiel des gouvernements

Chapitre 13 : Destruction des mers sous bannière de développement durable

Chapitre 14 : Des confiscations à prévoir avec la révolution sociétale

Chapitre 15 : Soumission aux organismes supranationaux

Chapitre 16 : Le FMI dicte la gouvernance des États

Partie IV : Captation des ressources productives publiques, y compris humaines

Chapitre 17 : Ce libéralisme qui tue le marché

Chapitre 18 : Des privilèges publics parfaitement antilibéraux

Chapitre 19 : Intégration et globalisation des territoires nationaux

Chapitre 20 : Une nouvelle gouvernance publique inspirée des Nazis

Chapitre 21 : Les dérives de la gestion publique

Chapitre 22 : Les seigneurs de la finance convoitent le business public

Chapitre 23 : Un coûteux partenariat public-privé non libéral

Chapitre 24 : Corporatisation d’organismes nationaux et supranationaux

Chapitre 25 : Appropriation et Corporatisation des espaces nationaux

Chapitre 26 : Concentration de processus économiques selon les zones

Chapitre 27 : De l’État gestionnaire à l’État investisseur aux mains de la finance globale

Chapitre 28 : Vers une cyber-société contrôlée par les GAFAM

Conclusion

 

 

Source : https://lilianeheldkhawam.com/2019/10/05/le-nouveau-livre-coup-detat-planetaire-est-disponible/

 

 

Télécharger la Préface de Philippe Bourcier de Carbon en PDF