Catégorie : Actualité

Un rêve de physicien…

Le rêve d’un physicien.

 

Préambule :

               Retraité depuis déjà longtemps, un polytechnicien revient sur sa carrière d’ingénieur. Les progrès en à peine plus d’un siècle n’ont-ils pas été considérables ? Faut-il s’en émerveiller ou s’en étonner ? Ceci résulte-t-il de progrès considérables des connaissances scientifiques ou de la technologie ? N’avait-il pas admis, au moins implicitement, au cours de sa carrière d’ingénieur que ceux qui savent réalisent, et ceux qui ignorent enseignent ? En réalité, comment technologie et progrès théoriques s’épaulent-ils ?

               Pour comprendre l’état actuel des connaissances, il se demande pourquoi des vérités scientifiques, aujourd’hui incontestées, se sont imposées. Les choix conceptuels qui ont été faits au 20° siècle ont-ils été judicieux ? D’autres approches n’auraient-elles pas été préférables ?

               Il se met alors successivement dans la peau d’un élève des promotions 2005, 1960 puis 2015 et  découvre  que les mathématiques et la physique ont toujours eu des relations conflictuelles. La rigueur des premiers et l’intuition des seconds sont-elles compatibles ? Les physiciens s’opposent-ils toujours aux idées nouvelles? La physique du 21° siècle sera-t-elle celle dont il a toujours rêvé ?

               Enfin, il décrit la physique dont il rêve, et qu’il espère voir s’imposer en 2070, trois fois 55 ans après la rupture de 1905 qui a conduit à la physique relativiste et quantique que nous connaissons.

La physique en 1905 :

Que lui aurait-on enseigné à l’école Polytechnique en 1905 ? Henri Poincaré, son jeune professeur  d’astronomie, lui aurait sans doute présenté le problème des trois corps, mais vraisemblablement pas les expériences de Michelson, ni les ides idées de Lorentz sur la contraction des corps en mouvement, qui étaient encore très contestées.

Les modes de pensée des physiciens et des mathématiciens étaient et restent très différents. Les mathématiciens raisonnaient avec rigueur sur la base d’axiomes parfaitement explicités. Les physiciens essayaient de construire des théories susceptibles d’expliquer, au moins qualitativement, les phénomènes qu’ils observent.

En 1905, ce jeune élève (on ne disait pas étudiant, terme réservé à l’université), s’endort pendant un cours dans le grand amphi (aujourd’hui devenu l’amphi Poincaré), alors que son professeur explique que les plus lourds que l’air ne peuvent pas voler. Malgré les débuts de l’aviation, son argumentation de son professeur avait l’apparence d’une démonstration. Depuis, nous avons appris que, grâce au développement de grandes souffleries, la démonstration de son professeur était mathématiquement exacte, mais que ses hypothèses correspondaient à un cas d’école « idéalisé » qui ne se rencontre qu’exceptionnellement dans le monde réel, et qu’heureusement les aviateurs savent éviter. En mathématicien, ce professeur avait fait une démonstration rigoureuse, mais sur la base d’hypothèses trop restrictives, réduisant la portée de ses conclusions. Les fous volants ont prouvé que sa démonstration n’était pas pertinente.

Au même moment, les physiciens étaient préoccupés par l’échec des expériences de Michelson. En 1881, celui-ci avait tenté de mesurer la « vitesse absolue » de la terre avec un interféromètre de seulement 1,20 m de longueur. Après ce premier échec, d’autres expériences avaient conduit à des résultats jugés non significatifs. Pour expliquer ces résultats, Lorentz avait imaginé que les corps en mouvement se contractent dans la direction de leur vitesse. Compte tenu de cette hypothèse,  la vitesse de la lumière devenait apparemment isotrope dans un interféromètre mobile. Il s’agissait là d’une hypothèse « ad hoc », justifiée par aucune théorie physique. Sans entrer dans la genèse de la théorie de la relativité, expliquée de façon remarquable par Jules Leveugle dans son livre publié en 2004 (1), Lorentz agissait comme bien d’autres physiciens avant lui. Il traduisait en loi physique le résultat d’une expérience, ici l’échec de la mesure la vitesse absolue de la terre.

Poincaré, après avoir démontré que l’hypothèse de Lorentz était mathématiquement recevable, établit les formules de changement de repère qui en résultaient. Il démontra ensuite que ces formules ont des propriétés remarquables et constituent, en langage mathématique, « un corps », notion encore largement ignorée des physiciens.  Il ajouta donc, aux grands principes de la physique, le principe de relativité, selon lequel les lois de la physique doivent être les mêmes pour tous les observateurs.

À cette époque, Planck était responsable du choix des articles de physique théorique au sein de la revue allemande « Annalen der Physik ». Comme l’a démontré Jules Leveugle à partir de documents originaux, celui-ci privilégiait naturellement les articles favorables à sa théorie des quanta, et prit parti pour la théorie de la relativité.

La physique vers 1960 :

               Une cinquantaine d’années plus tard, jeune polytechnicien, je découvre une physique totalement différente. Les polémiques nées autour des théories quantiques et relativistes sont totalement oubliées. À l’exception de Monsieur Tardi, lointain successeur de Poincaré au poste de professeur d’astrophysique, les physiciens présentent leur discipline d’une façon dogmatique. Le doute n’a plus sa place. La théorie de la relativité générale est une évidence. Les grands instruments, accélérateurs et cyclotrons, ont permis d’observer de nombreuses particules stables ou instables. Les plus grands espoirs sont mis dans « le modèle standard ». En un mot, nous approchions de la fin de l’histoire !

               Plus personne n’osait s’interroger sur les origines des certitudes scientifiques devenues de véritables dogmes. Encore moins s’étonner que les équations de Maxwell introduisent un « courant de déplacement fictif » circulant dans le vide. Peut-on parler d’onde et de courant sans qu’il existe, dans un milieu de propagation,  deux formes d’énergie ? Par exemple, en ondes mécaniques, l’énergie cinétique et une énergie potentielle ? Comment peut-on occulter ces réalités ?

               Plus personne ne s’étonnait qu’un photon, initialement supposé ponctuel par Einstein, et devenu plus tard beaucoup plus mystérieux, soit susceptible de  se matérialiser en un lieu précis, par exemple dans une diode semi-conductrice ? Cela ne rendait-il pas suspecte cette particule ?

               Heureusement, de nombreux ingénieurs, maîtrisant parfaitement les concepts et les techniques anciennes, ont pu participer à l’essor extraordinaire des techniques que nous avons connu : électronique, télécommunications, détection, géolocalisation, informatique… Tous domaines dans lesquels rien n’aurait été possible si la technologie n’avait autant progressé.

               La courbure gravitationnelle des rayons lumineux ayant été observée en 1915, lors d’une éclipse de Soleil, il eut été raisonnable d’abandonner la théorie de la relativité. En effet, cette expérience démontrait que la vitesse de la lumière n’est pas une constante universelle et que sa variation gravitationnelle, bien que faible, pouvait être mesurée.

               Au lieu de reconnaître que ce résultat reléguait la théorie de la relativité au rang d’une approximation locale, une nouvelle théorie extrêmement complexe, difficile à utiliser, et que seuls quelques spécialistes disent maîtriser, était présentée comme l’aboutissement d’une longue évolution  de la physique théorique vers sa perfection.

               Si la lumière ne se propageait pas strictement en ligne droite, ne suffisait-il pas d’en tenir compte ? Supposons que pour faire des mesures précises de distance, vous ne disposiez que d’un décamètre. Vous chercheriez à déterminer avec la plus grande précision possible les effets éléments parasites : tenson du décamètre, effet de la flèche du ruban lorsqu’il ne repose pas sur le sol… Vous n’auriez pas, comme les relativistes, pris votre décamètre  comme référence et modifié en conséquence la géométrie devenue non euclidienne !

               La théorie de la relativité était enseignée à tous les étudiants, bien que de nombreux physiciens aient longtemps douté de sa pertinence. Au long du 20° siècle, des physiciens illustres avaient cherché à en tester la validité de cette théorie. De nombreuses expériences avaient été faites pour valider (ou non) la théorie de la relativité. En 1925-1926 Miller avait fait des mesures avec un immense interféromètre extrêmement rustique. Maurice Allais a  analysé ses résultats, ainsi que d’autres expériences dans son livre sur « L’anisotropie de l’espace » (2). Il effectua personnellement des mesures avec des pendules « paraconiques », et, à la demande de l’IGN (Institut Géographique National), des mesures d’anomalies signalées sur les visées optiques. En 1964, William Bertozzi observa la vitesse d’un électron et nota que celle-ci restait toujours inférieure à celle de la lumière. Il en conclut à la validité de la relativité restreinte, mais ses résultats restaient assez qualitatifs. (Voir L’expérience de William Bertozzi (3) ).

               Toutes ces expériences, quelles qu’en aient été les conclusions, ont été réalisées avec les technologies de leur temps, ce qui les rend aujourd’hui éminemment contestables. D’autres expériences, impossibles en 1960, ne devraient-elles pas être réalisées ? Ne pourraient-elles pas conduire les étudiants à effectuer de remarquables Travaux de thèse ?

               Parallèlement, l’atome avait pris une immense place dans la physique. Un gros effort avait été fait dans de le développement des bombes nucléaires, puis des centrales nucléaires qui devaient rendre l’énergie à la fois disponible et bon marché. Physique nucléaire et mécanique quantique avaient pris naturellement une place essentielle dans l’enseignement de la physique.

               Une autre invention, celle du pompage optique avait conduit au développement du LASER qui a révolutionnera l’optique, l’industrie des machines outil, et même les produits audio-visuels destinés au grand public. Par des considérations purement théorique, Alfred Kastler avait prédit qu’il devait être possible de rendre plus intense l’émission des raies spectrales des atomes en les soumettant à un rayonnement lumineux de longueur d’onde plus courte. Dans les années 50, son équipe avait démontré l’exactitude de son intuition. Très rapidement, de nombreux chercheurs avaient réalisé des LASER. Aujourd’hui, le grand public ne s’étonne pas d’utiliser des quantités de sources LASER dans de très nombreux équipements.

La physique en 2015 :

               Après une carrière au cours de laquelle il avait participé avec passion aux innovations rendues possible par les progrès immenses de la technologie électronique, ce même polytechnicien s’interroge sur l’évolution de la physique au 21° siècle.

Le 14 septembre 2015, aux États Unis, les physiciens ont détecté pour la première fois  des ondes gravitationnelles. Les  interféromètres de Livingston  et de Hanford obtiennent un premier signal. Pour eux, cette détection est un événement très important, car elle confirme l’existence des ondes gravitationnelles indispensables à la cohérence globale de la physique.

               En effet, Poincaré avait établi en 1900 la masse de l’énergie. Sa démonstration, extrêmement simple, faisait appel à la seule mécanique classique et s’appliquait à toutes les formes d’énergie, comme cela est expliqué clairement dans le livre de Jules Leveugle (1). Ainsi, toute forme d’énergie a donc nécessairement une masse. Une onde électromagnétique, se déplaçant à la vitesse de la lumière, ne peut donc qu’être associée à une onde de gravitation de même vitesse.

               Sur le campus de Saclay, la découverte attendue des ondes gravitationnelles est présentée comme une confirmation éclatante de la théorie de la relativité. En réalité, plus d’ un siècle plus tôt, une analyse objective des écrits de Poincaré aurait permis de comprendre, par la seule réflexion, que ces ondes de gravitation étaient une conséquence naturelle des équations de Maxwell et de toutes les lois de la physique pré-relativiste.

               Tout au cours du 20° siècle, et Indépendamment des recherches théoriques des physiciens, le développement des systèmes électroniques, soutenu par la demande du marché, a conduit à des progrès considérables de la technologie, et par ricochet de la physique.  Enfin, les travaux théoriques de Fourier et Laplace, effectués il y a presque deux cent ans,  ont été enfin largement utilisés. Sans les systèmes de télécommunication, les RADAR, les gyromètres LASER, bien des phénomènes n’auraient pas été étudiés et compris : la modulation, les bruits et les interférences…

               Les gyromètres LASER ont mis en évidence l’effet de couplages parasites dans les systèmes optiques. Nous savons que ces gyromètres sont aveugles lorsque leur vitesse de rotation est inférieure à un seuil donné. Aurions-nous réalisé ces gyromètres si, en 1925, Michelson et Gale n’avaient pas observé la rotation de la Terre ? Quelle physique aurions-nous imaginé ?

En 2018, le prix Nobel de physique a été attribué au français Gérard Mourou. Ce prix a récompensé des travaux sur la génération d’impulsions LASER extrêmement courtes, utilisées notamment dans des applications médicales.  Ces résultats correspondent à des techniques de traitement de signal utilisées en RADAR et en télécommunications sous les noms de compressions d’impulsion et d’étalement de spectre. Ces techniques avaient été utilisées bien avant par les animaux, chauves-souris ou mammifères marins pour détecter et localiser leurs proies. Ce Prix Nobel de physique 2018, récompense ainsi une application de la physique classique et de travaux théoriques sur l’analyse spectrale de près de deux siècles.

 La physique quantique aurait pu revendiquer un rôle dans ces avancées, mais elle ne décrit que globalement l’émission de lumière par les LASER, sans expliquer le processus physique mis en œuvre. En effet, la théorie quantique ne décrit pas les transitions entre niveaux atomiques, mais seulement leurs résultats : l’émission d’un signal optique. Ainsi, elle n’explique pas les mécanismes physiques, et en particulier l’émission stimulée de lumière, à l’origine du rayonnement LASER.

La course aux grands instruments scientifiques s’est poursuivie. Des années 50 à nos jours, le CERN n’a cessé de construire des instruments de plus en plus puissants (accélérateurs de particules, synchrotrons, cyclotrons). Des laboratoires comme le projet de confinement LASER du « Lawrence Livermore National Laboratory », situé en Californie, ou le projet de Tokamak ITER, construit en France, font rêver à des systèmes capables de produire une énergie abondante et bon marché, un rêve déjà proposé par les centrales nucléaires.

L’analyse de ces grands programmes internationaux dépasse très largement le cadre de cette réflexion sur la physique de 2015. Aujourd’hui, la faisabilité de ces grands projets n’est toujours pas démontrée, et de nombreuses voix  s’élèvent pour contester leur capacité à atteindre les objectifs industriels annoncés. Comment ces projets pourraient-ils tenir ces promesses alors que la mise en service des centrales nucléaires, simples machines à vapeur à chauffage nucléaire, est contesté ? Comment ces monstres pourraient-ils fournir l’énergie abondante dont nos héritiers auront besoin ?

Pour avoir visité différents laboratoires travaillant sur le confinement LASER et des Tokamak, assisté à des congrès consacrés à l’étude des plasmas, ce physicien s’interroge. Que penseront les générations futures des grands instruments scientifiques conçus à la fin du 20° siècle, cyclotrons, Tokamak, lasers de puissance ou grands interféromètres, qui ont mobilisé tant de chercheurs et de moyens financiers ?

Une nécessaire mise en cause des dogmes :

               La physique peut-elle poursuivre longtemps dans  la voie actuelle ? Ne doit-elle pas s’interroger sur l’adéquation de l’orientation prise en 1905 ? Ne doit-elle pas mettre en cause les options prises, il y a plus d’un siècle, sur la base d’expériences alors inexpliquées ? Les choix faits ont-ils réellement été imposés par les résultats expérimentaux ? Les principes fondateurs de la physique actuelle justifiaient-ils réellement une telle révolution conceptuelle et la mise en cause de toute notre culture mathématique ? Depuis, ont-ils été invalidés par de nouvelles expériences ?

  • Considérons en premier, l’expérience de Michelson : apparemment simple, ce dispositif expérimental reste extrêmement difficile à étudier. Les optiques fonctionnent en champ proche, et depuis que les ordinateurs permettent d’effectuer des calculs de rayonnement sur les antennes actives des RADARS, et de choisir les meilleures apodisations, nous savons que les calculs élémentaires de déphasage faits alors par Michelson étaient loin d’être rigoureux. Des couplages négligés pourraient-ils rendre inopérants ces instruments ? En raison de couplages analogues, les gyromètres LASER n’ont-ils pas une plage de vitesse aveugle éliminable par une faible rotation mécanique périodique ?
  • Les quanta : En 1905, Einstein avait pensé pouvoir justifier l’hypothèse des quanta, chère à Planck, en observant l’arrivée aléatoire d’électrons dans un photomultiplicateur. En fait, cette expérience ne démontrait que la nature du courant électrique : un flux d’électrons. Elle n’apportait rien sur la connaissance du rayonnement lumineux.
  • La masse de l’électron : En 1964, l’expérience de William Bertozzi  a été considérée comme une preuve de la théorie de la relativité. À la sortie d’un accélérateur linéaire, la vitesse d’un électron ne pouvait dépasser la vitesse de la lumière. Effectivement, cette expérience prouvait bien qu’un électron ne peut dépasser la vitesse de la lumière, mais ne validait pas parfaitement la formule relativiste.
  • Les expériences d’intrication de photons sont totalement fantaisistes et peuvent seulement faire croire que la physique est un domaine mystérieux. Il est absurde d’imaginer l’existence d’un lien instantané entre photons, alors qu’une approche électromagnétique simple, et la modélisation statistique du détecteur, conduisent au bon résultat.
  • En astronomie, mesurer la distance des galaxies par le décalage vers le rouge (Red shift) est naturel. En revanche, affirmer qu’il s’agit d’un décalage Doppler ne serait démontré que si ces rayonnements étaient des fréquences pures, ce qui n’est pas le cas.
  • Enfin, mettre au programme de terminale les expériences d’interférences sur électrons uniques est totalement irresponsable, surtout en ne donnant pas l’explication classique de ce phénomène finalement assez simple. N’est-il pas naturel que le mouvement de l’électron induise des courants dans le masque et que ceux-ci influent sur sa trajectoire ? Pour un spécialiste de la discrétion RADAR, la présentation faite aux élèves de terminale de cette expérience est tout simplement risible. Quelle image de la physique et des physiciens, les plus intelligents d’entre eux auront-ils ? En déduiront-ils que la physique n’est, comme au temps des bouteilles de Leyde, qu’une science mystérieuse permettant de réaliser des expériences paradoxales pour briller dans les salons ?

Au lycée, la physique doit donner aux élèves les bases  nécessaires pour être sereins dans  le monde technique dans lequel ils vivront, et éprouver l’envie de le comprendre. Dans l’enseignement  supérieur, pour ne pas écarter les esprits les plus brillants, tout dogmatisme devrait être évité, les axiomes clairement explicités et justifiés, et surtout les domaines d’application des théories précisés.

Que devrait être la physique en 2070 ? :

Un peu  désappointé par ce constat, ce physicien se met à rêver et laisse libre cours à son imagination. Pour sortir des sentiers battus, le mieux n’est-il pas de prendre à contre-pied les choix actuels ? Acceptez de m’accompagner dans cette démarche et d’envisager à quelle physique pourrait conduire une mise en cause radicale des choix actuels.

Quelles seraient les bases de cette nouvelle physique ?

Parler d’ondes n’ayant pas de sens en l’absence d’un milieu de propagation, je vous propose  d’admettre l’existence de l’Éther. Le courant de déplacement introduit par Maxwell dans ses célèbres équations est donc réel. Contrairement à l’hypothèse de la relativité restreinte, le milieu de propagation de ces ondes ne devrait  pas être un solide mais une sorte de fluide. Nous admettrons que l’Éther, ce milieu de propagation des ondes, est non-linéaire. La variation gravitationnelle de la vitesse de la lumière résulterait alors de la non-linéarité de ce milieu, dont les propriétés seront représentées par la célèbre courbe en « S », apte à décrire, dit-on, la plupart des phénomènes physiques.   

Les ondes électromagnétiques correspondraient aux vibrations selon les deux directions de transverses par rapport à la direction de propagation. Les ondes gravitationnelles seraient, comme les ondes acoustiques, des ondes longitudinales. L’Éther pourrait ainsi vibrer selon les trois directions possibles, la vitesse de propagation de ces trois modes ondes étant « c », la vitesse de la lumière.

Comme en mécanique, et sans rien changer aux lois de l’électricité, l’énergie des champs électriques et magnétiques résulterait de la position et de la vitesse des charges électriques et de l’observateur par rapport au repère retenu ou par rapport à l’Éther, fluide siège de la propagation des ondes. Compte tenu de la non-linéarité de ce milieu, l’énergie des particules serait contenue dans les champs qui les entourent, plutôt que dans leurs seuls noyaux.

Toutes les particules seront alors des solutions d’une équation différentielle non linéaire. Certaines de ces solutions seront stables, d’autres instables et les particules correspondantes absentes de notre environnement. Comme des bulles se déplaçant dans l’eau de mer, ces particules se déplaceraient librement dans l’Éther… Cette nouvelle physique expliquerait enfin la dualité onde particule imaginée en 1923 par De Broglie. En optant résolument pour une physique réellement ondulatoire, elle unifierait les notions d’ondes et de particules, cette dualité perdant tout son sens.

Enfin, cette physique s’abstiendra de parler du Big-Bang autrement que comme un mythe de la création du monde qui, contrairement aux textes religieux, n’a ni signification philosophique ni valeur scientifique. Aucune expérience n’ayant prouvé que la dérive vers le rouge du rayonnement des galaxies lointaines résulte d’un effet Doppler, celle-ci sera attribuée à la non-linéarité du milieu traversé. Les raisons de ce décalage seront identifiées : la présence de particules neutres ou chargées dans le vide intersidéral, ou, tout simplement, la non-linéarité de l’Éther.

La chasse à la magie et aux phénomènes paradoxaux :

               Les phénomènes physiques ne sont paradoxaux que lorsqu’ils sont mal compris. Faute d’une analyse logique d’une expérience, l’humanité a toujours été tentée d’imaginer une explication magique ou simplement de construire un ensemble règle formelle, souvent incohérentes entre elles, rendant compte, au moins qualitativement, des observations. Bien évidemment, sans s’interdire d’utiliser ces formules magiques, cette nouvelle physique refusera de les considérer comme des lois mystérieuses de la nature et cherchera aux faits des explications réellement scientifiques.

               Les différentes expressions des relations d’incertitudes seront unifiées en une seule, construite sur la notion de bruits d’observation, et s’appliquant de façon universelle. Prenons un exemple dans le domaine RADAR. La localisation d’une cible nécessite la mesure d’angles et de temps d’arrivée d’une impulsion. Le Radariste estime les probabilités de détection et de fausse alarme, et pour chaque événement observé les dimensions du volume de l’espace-temps correspondantes. Il admet que ses mesures sont imprécises mais ne nie pas que chaque cible ait une position réelle, même s’il ne peut la connaître exactement. Cette analyse, présentée sur un exemple lié au RADAR, sera évidemment faite d’une façon analogue pour toutes les mesures, mêmes au niveau des particules élémentaires.

               Le photon ne sera plus une particule mystérieuse, mais redeviendra, conformément  au concept d’Henri Poincaré, un quantum d’action (4).  Depuis que nous disposons de sources LASER, nous savons qu’en lumière monochromatique, les images présentent des défauts caractéristiques. Nous savons également que les senseurs ne détectent pas toujours les signaux, mais qu’en revanche, ils présentent toujours un taux de fausses détections non nul. Ceci s’expliquera simplement, comme en RADAR, en considérant le détecteur comme un dispositif à seuil en présence d’un signal mélangé avec un bruit aléatoire, variable spatialement et temporellement.

               Bien évidemment, les tentatives de développement de géométries non-euclidiennes en vue de leur utilisation en physique seront abandonnées.

La fin des grands instruments scientifiques :

               Ces grands instruments n’ont pu être développés que grâce à des coopérations mondiales, associant un grand nombre de pays, par exemple 500 chercheurs appartenant à 50 nations, et avec le soutien actif de ce que nous appelons « la communauté scientifique ». Y participer peut en effet apporter aux jeunes chercheurs une expérience de laboratoire, mais en aucun cas leur permettre de remettre en cause les concepts dogmatiques de leurs aînés. Ces grands programmes de recherche ne peuvent donc avoir pour objet de mettre en évidence les inévitables lacunes de la physique issue de la révolution conceptuelle de 1905, et contribuent à stériliser l’ensemble de la recherche.

               Désappointés par les résultats décevants de grands instruments développés à la fin du 20° siècle, en égard aux efforts financiers et à l’investissement humain fait par les innombrables chercheurs ayant contribué à leur réalisation, les états arrêteront de soutenir leur développement. Ces instruments seront devenus des ruines. Dans quelques millénaires, nos lointains descendants se demanderont sans doute quel avait bien pu être la raison de leur construction et quel rôle, politique ou religieux, ils avaient au 20° siècle.

               En revanche, les télescopes et radiotélescopes devraient continuer à être développés. Ils sont en effet les seuls qui puissent nous permettre d’explorer l’univers, et d’étudier les lois de la physique dans des conditions (température, pression, champ de gravité…) qu’il restera toujours impossible de réaliser sur Terre. Toutefois, ces grands télescopes ne survivront, et ne pourront contribuer aux progrès de la physique, que s’ils collectent des données brutes, claires, et bien documentées. En effet, il ne sera pas possible de construire une nouvelle physique sur la base de données ayant subi des prétraitements justifiés par les théories scientifiques reconnues et des hypothèses non validées.

De l’exploration spatiale à la compréhension de l’univers :  

               L’homme a rêvé de marcher sur la Lune et sur Mars. Une fois ces rêves abandonnés, et quelles qu’en aient été les raisons, l’espace reprendra une place temporairement occultée par ces épopées : celle de nourrir les rêves de l’humanité. Alors que nous nous croyions le centre du monde, les astronomes ont déjà observé une quantité de galaxies, et détecté la présence de plus de 30.000 exo-planètes dont certaines pourraient ressembler à la nôtre…

Les poètes, fascinés par  l’immense univers auquel nous appartenons, pourront s’émerveiller. Pour les physiciens, après l’abandon des grands instruments scientifiques, l’univers deviendra l’immense laboratoire dans lequel ils pourront observer en direct des expériences irréalisables sur Terre. Les mathématiciens, retrouveront enfin l’espace euclidien infini dans lequel ils raisonnent, et dont ils ne peuvent se passer.

La mort de la physique ?

               La physique, telle que nous la connaissions depuis le 17° siècle, avait toujours essayé de rendre compte d’observations faites à l’aide de dispositifs expérimentaux simples. Son but était de découvrir les lois permettant de décrire avec précision leurs expériences et finalement de faire progresser la science. Ensuite, eux-mêmes ou des inventeurs talentueux, concevaient des machines tirant profit des connaissances théoriques acquises. La science physique remplaçait par un ensemble de théories et des modèles mathématiques, la connaissance parfois empirique des experts.

               An début du 20° siècle, les physiciens n’avaient toujours pas expliqué l’échec de l’expérience faite par Michelson en 1881 pour mesurer la vitesse absolue de la Terre. Ils avaient tenté, en vain, d’améliorer les performances de leurs interféromètres. Ils devaient alors faire un choix : admettre que leurs équipements étaient inaptes à faire cette mesure, ou, considérer que cette mesure était théoriquement impossible. Après une longue controverse, cette deuxième option s’imposa.

               Aujourd’hui encore, la physique est enfermée par cette victoire des « relativistes » qui refusent absolument toute mise en cause de leur choix fondateurs qu’ils appellent « Le principe de relativité ». Selon celui-ci, il serait théoriquement impossible de mesurer une vitesse absolue. Ils généraliseront ensuite ce principe en l’étendant aux accélérations. Selon ce nouveau principe de relativité, il serait impossible de mesurer une vitesse absolue, mais également une accélération absolue. Aujourd’hui encore, l’académie des sciences considère que toute loi physique doit être « généralement covariante », c’est-à-dire confirmer l’impossibilité de mesurer la vitesse ou l’accélération absolue d’un corps, mais ceci est-il réellement un choix judicieux ?

               Tout au long du 20° siècle, la physique a construit un ensemble dogmatique fondé sur la relativité et la mécanique quantique. Ce choix fait par des disciples zélés a été maintenu malgré les nombreux défauts de ces théories, en particulier la complexité mathématique de la relativité générale et l’incapacité de la mécanique quantique à décrire les phases transitoires (en particulier celles correspondant aux émissions lumineuses intervenant lorsque les électrons d’un atome changent de niveau  d’énergie).

               Cette attitude était-elle responsable, alors même que de nombreux phénomènes n’étaient, et ne sont toujours pas, expliqués ? Pouvait-on prétendre que tout avait été découvert ? La physique était-elle vraiment morte ?

Une renaissance possible ?

               Est-il possible que le rêve de ce physicien se réalise ? La physique peut-elle renaître ? Un retour aux sources peut-il lui redonner le dynamisme et la cohérence qu’elle a perdue ?

               En 1904, Henri Poincaré avait été le premier physicien à ajouter aux principes habituels de la physique « le principe de relativité », c’est-à-dire l’universalité des lois de la physique (3). Prenons un exemple simple. Considérons une horloge mécanique à balancier. Elle est sensible aux variations des forces de gravitation, mais son mouvement obéit aux mêmes lois de la physique quelle que soit sa place et l’altitude du lieu qu’elle occupe sur la Terre.

               Ce principe de relativité est bien différent de celui implicitement adopté par les relativistes. Si nous l’adoptions, les lois de la physique peuvent faire intervenir de nouveaux paramètres.  Au lieu de chercher à identifier des gravitons ou d’imaginer l’existence d’une matière noire, l’Éther ne permettait-il pas de comprendre l’univers, et la formation des galaxies, en particulier des nébuleuses spirales ? Ne sont-elles pas analogues aux cyclones qui se développent sur nos océans ? Devrait-on, comme en météorologie, faire intervenir un potentiel gravitationnel et la vitesse  locale de l’Éther ?

               Cette renaissance de la physique ne pourra avoir lieu que si une réflexion ouverte et une analyse critique des acquis du 20° siècle est entreprise. Il faudra lutter à la fois contre les défenseurs des vieilles idées du début du 20° siècle qui, tout en veillant au respect des dogmes, laissent de nombreux mystificateurs propager les théories les plus absurdes dans les grands médias.

               Un prochain document précisera comment l’enchaînement de faits apparemment sans importance a conduit à la situation actuelle, qui devrait conduire à la mort de la recherche fondamentale en physique. De nombreux acteurs universitaires, médiatiques, industriels,  de promoteurs de projets scientifiques internationaux, ont contribué inconsciemment à stériliser la physique et à en détourner les étudiants.

 

Pierre FUERXER

Membre de l’AIRAMA

 

Télécharger en PDF

 

 

 

 

[1] La Relativité, Poincaré et Einstein, Planck, Hilbert, par Jules Leveugle, L’Harmattan 2004.

[2] L’anisotropie de l’espace, Maurice Allais, Ed Clément Juglar, 1997.

[3] L’expérience de William bertozzi , ICI en PDF

[4] La physique du 21° siècle sera-t-elle ondulatoire, Pierre Fuerxer, URSI, JS 2011.

 

L’œuvre méconnue de Maurice Allais, prix Nobel d’Économie. Philippe Bourcier de Carbon AIRAMA

L’AIRAMA (Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie), fondée dès 2004, à pour objet statutaire de promouvoir la pensée, l’œuvre et les solutions, de Maurice Allais (31 mai 1911- 9 octobre 2010), qu’il n’a cessé de proclamer en particulier dans ses « Combats pour l’Europe ». http://combats-maurice-allais.info/lassociation-airama/

Conférence du 15 mai 2018 de Philippe Bourcier de Carbon

À l’occasion de cette remise aujourd’hui du Prix Maurice ALLAIS de l’AIRAMA à notre camarade Guy BERTHAULT, je suis heureux d’être convié ici à prononcer quelques mots devant vous pour évoquer sa mémoire.

Lorsqu’en 2004, voici 14 ans, je m’étais résolu avec notre camarade Jean-Pierre BOUYSSONNIE ancien Président de Thomson et de l’AX, à fonder l’Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie, Maurice Allais était déjà depuis 5 années exclu des médias en France, alors qu’il avait été, à 77 ans en 1988, le seul Français à avoir jamais été distingué en Économie par l’Académie Nobel depuis 1969, date de l’institution de son Prix de Science Économique. Guy BERTHAULT fut alors parmi les tout premiers à se joindre à notre initiative.

Parmi nos objectifs, en tentant ainsi autour de Maurice Allais de mobiliser des personnalités du monde des intellectuels, de l’entreprise et de l’économie, créer l’AIRAMA nous paraissait alors de nature, sinon à mettre un terme, du moins à fissurer l’extravagant ostracisme médiatique, sournois autant que féroce, dont, force était bien de le constater, il était devenu victime en France. Il le restera pourtant jusqu’à sa disparition en 2010 à quelques mois de son centenaire, recevant néanmoins en sa qualité de Grand-Croix de la Légion d’Honneur, lors de ses obsèques dans la cour de l’hôtel des invalides, en clin d’œil de la république, l’hommage national de la ministre alors chargée de la Recherche.

Pourquoi un traitement médiatique si singulier et si soudain à son encontre en France ?

On est réduit à des conjectures, mais il nous reste des points de repères.

Alors en effet qu’au cours de ses recherches ses publications étaient réputées tant par leur rigueur que par leur caractère ardu, vers la fin de sa carrière professorale à l’École des Mines, il avait déjà en 1977 fait paraître à l’intention d’un public beaucoup plus large, éclairé mais non spécialisé, son livre sur « L’impôt sur le capital et la réforme monétaire », ce qui lui avait valu deux refus de sa candidature à l’Institut des Sciences Morales et Politiques, alors qu’elle était pourtant fortement appuyée par Raymond Aron.

Il n’y fut reçu, cette fois avec empressement, qu’en 1990, deux ans après avoir reçu en 1988 son Prix d’Économie décerné par l’Académie suédoise en mémoire d’Alfred Nobel.

Mais surtout, ce sont les deux livres qu’il a tenu à publier pour un large public en 1999 qui, ainsi qu’il le voyait lui-même, auraient entraîné, en dépit de sa reconnaissance internationale, son exclusion stricte des médias en France :

Le premier qu’il a intitulé « La mondialisation, la destruction des emplois et de la croissance : l’évidence empirique » et qu’il aura voulu dédier « aux innombrables victimes dans le monde entier de l’idéologie libre-échangiste mondialiste, idéologie aussi funeste qu’erronée… » par lequel il exposait la malfaisance des politiques économiques mondialistes préconisées depuis 1974 par la Commission de Bruxelles et par le GATT devenu OMC.

Et plus encore peut-être son second livre « La crise mondiale aujourd’hui. Pour de profondes réformes des institutions financières et monétaires » par lequel il énonçait et démontrait, pour un large public, les seuls principes des réformes capables d’empêcher la récurrence des crises et catastrophes monétaires qui bouleversent les sociétés actuelles : Il explique :

  1. « La création monétaire doit relever de l’État et de l’État seul. Toute création monétaire autre que la monnaie de base par la Banque Centrale doit être rendue impossible, de manière à ce que disparaissent les « faux droits » résultant actuellement de la création monétaire bancaire privée.
  2. Tout financement d’investissement à un terme donné doit être assuré par des emprunts à des termes plus longs, ou tout au moins de même terme. »

« Cette double condition, écrit-il, implique une modification profonde des structures bancaires et financières reposant sur la dissociation totale des activités bancaires telles qu’elles se constatent aujourd’hui, et leur attribution selon trois catégories d’établissements distincts et indépendants :

  1. des banques de dépôt assurant seulement, à l’exclusion de toute opération de prêt, les encaissements et les paiements, et la garde des dépôts de leurs clients, les frais correspondants étant facturés à ces derniers, et les comptes des clients ne pouvant comporter aucun découvert ;
  2. des banques de prêt empruntant à des termes donnés et prêtant les fonds empruntés à des termes plus courts, le montant global des prêts ne pouvant excéder le montant global des fonds empruntés ;
  3. des banques d’affaires empruntant directement auprès du public, ou aux banques de prêt, et investissant les fonds empruntés dans les entreprises. »

Dans son principe, une telle réforme rendrait impossible la création monétaire et de pouvoir d’achat ex nihilo par le système bancaire, ainsi que l’emprunt à court terme pour financer des prêts de terme plus long. Elle ne permettrait que des prêts de maturité plus courte que celle correspondant aux fonds empruntés.

« Les banques de prêt et les banques d’affaire serviraient d’intermédiaires entre les épargnants et les emprunteurs. Elles seraient soumises à une obligation impérative : emprunter à long terme pour prêter à plus court terme, à l’inverse de ce qui se passe aujourd’hui. »

En cela Allais s’inspirait en partie d’Irving Fisher, l’animateur du Plan de Chicago de 1933, et du Plan 100% monnaie de 1935, qui entendait compléter la réforme bancaire de 1932 du Glass-Steagall Act, déjà si difficilement imposée par l’opinion publique aux États-Unis à la suite de la grande crise de 1929, laquelle réforme légale exigeait déjà des établissements bancaires qu’ils optent exclusivement pour des fonctions, soit de banques d’affaires, soit de banques commerciales. Du reste il faut bien noter que le Glass-Steagall Act, quoique bien largement amodié, resta en vigueur 67 ans durant jusqu’en 1999, évitant ainsi aux USA le retour des crises bancaires violentes au long de cette période.

Qui ne comprendrait que Maurice Allais, Prix Nobel d’économie, par ses démonstrations et surtout par ses propositions de réforme du secteur financier et bancaire, ne mettait directement ainsi en cause publiquement des intérêts privés colossaux.

Bien qu’ostracisé de manière obscène par les médias en France, Maurice Allais aura néanmoins formé de nombreux disciples au cours des décennies de sa longue carrière de professeur, et sa pensée rigoureuse, originale et puissante aura su marquer de nombreux esprits, en France, comme à l’étranger, dans le monde francophone en particulier.

Et qui l’eût cru, c’est au pays des banques, la Suisse, que les graines qu’il aura semé avec audace et obstination, lèvent aujourd’hui : en effet, pour la première fois depuis la réforme de 1891 obtenue par référendum d’initiative populaire, une votation constitutionnelle, soigneusement préparée et organisée depuis plus de deux ans, en particulier sous les avis d’anciens banquiers et professionnels de la finance, dont plusieurs anciens disciples d’Allais, l’initiative dite « Monnaie pleine » ou « Vollgeld » va le 10 juin prochain être soumise aux suffrages des électeurs de la Confédération Helvétique, réservant l’émission du Franc Suisse à la seule banque centrale créée en 1891, la BNS ou Banque Nationale Suisse, et interdisant aux banques commerciales privées de continuer leur émission monétaire ex nihilo par les pratiques actuelles du crédit.

Le site de cette initiative expose avec pédagogie tous les aspects de la réforme constitutionnelle proposée sur le lien internet suivant http://www.initiative-monnaie-pleine.ch/

Nos voisins suisses nous donnent ainsi un bel exemple de démocratie vivante et réelle, les médias de la confédération y organisant depuis quelques mois de nombreux débats sur ces questions. De fait la Suisse est devenue aujourd’hui pour nous Français un miroir particulièrement cruel, car il faut bien constater que nous n’en percevons toujours aucun écho dans nos médias français.

Je crois que Maurice Allais aurait été particulièrement satisfait de savoir que huit ans après sa disparition, son enseignement obstiné aurait enfin la perspective de s’incarner dans une loi constitutionnelle, et que de toute manière la quintessence de ses recommandations en matière financière et monétaire aura au moins été entendue par une partie importante de l’électorat suisse jusqu’alors maintenu soigneusement dans l’ignorance et l’incompréhension de la nature et des mécanismes des pratiques financières prédatrices actuelles.

Plutôt que de vous exposer ici les grandes lignes de l’œuvre économique si prodigieusement féconde et foisonnante de cet esprit exceptionnel, mort à 99 ans à sa table de travail, en ayant marqué en six décennies de publications sans doute tous les grands secteurs la Science économique, je tenais à saisir cette occasion d’évoquer devant vous d’abord l’âme de son combat intellectuel, celui qui lui aura coûté le plus cher. Par son combat intellectuel indomptable extraordinaire en effet, qui lui aura valu d’être relégué en France au Goulag médiatique, il est permis de considérer qu’en quelque sorte Maurice Allais est désormais devenu le Soljenitsyne français du capitalisme financier et de l’ultra-libéralisme mondialiste actuel.

L’aspect protéiforme de son œuvre le rend par ailleurs inclassable parmi les économistes : on pourra le qualifier de libéral en ce sens qu’il aura démontré que la liberté individuelle d’entreprendre, la propriété privée et le principe de concurrence constituent des conditions indispensables à l’efficacité des marchés économiques, à celle de l’allocation des ressources, comme à celle des processus de production des richesses. Mais on pourra aussi le classer de dirigiste par le souci qu’il place dans la pérennité des sociétés, exigeant l’existence d’un arbitre indépendant des forces économiques, régissant les règles des marchés pour maintenir leur efficience économique. Il reconnaît ainsi que le principe d’appropriation privée ne saurait être universel et doit être limité, et qu’il existe des biens collectifs par nature. On pourra même le qualifier de socialiste par son souci de limiter les inégalités sociales résultant des processus de production économiquement efficaces, en assurant des mécanismes de péréquation de la distribution des fruits de la croissance économique. Selon lui toute rente, et tout droit économique non gagné, en particulier la rente monétaire, doit être confisqué par la collectivité au bénéfice de cette péréquation. Certains ont résumé leur embarras en le qualifiant de l’oxymore « libéral socialiste ».

Je voudrais terminer en soulignant le caractère probablement le plus original de cet économiste : Dès sa jeunesse il aura été passionné par la Physique, discipline dans lequel il a toujours excellé. Il a déclaré qu’à sa sortie de l’école Polytechnique, alors qu’il pensait se destiner à la Physique, c’est lors du voyage d’étude qu’il entreprit aux États-Unis en 1933, devant le spectacle incompréhensible de ces villages de toiles abritant des familles de chômeurs et de mendiants en haillons, dressés dans les grands parcs publics des grandes villes américaines de ce continent de l’abondance, qu’il décida alors de choisir le champ des études économiques afin d’y trouver les réponses à cette énigme et de résoudre ce paradoxe. Et dès lors il s’attela d’abord à la lecture des œuvres de Walras, de Fisher et de Pareto, envers lesquels il a toujours rappelé sa filiation intellectuelle, pour finir par élaborer en 1943 son premier ouvrage de 1.200 pages « À la recherche d’une discipline économique », devenue « Traité d’économie pure ». Une refondation rigoureuse et originale, à partir de l’expérience ou de constats empiriques, de tous les grands principes de la littérature économique. C’est ce tour de force initial que l’Académie Nobel aura sans doute voulu particulièrement distinguer dans son œuvre foisonnante, quarante-cinq ans plus tard, en 1988.

Ainsi dans toute son immense œuvre économique, Maurice Allais entendait-il assurer toujours la prééminence du fait et de ses aspects constatés sur la conceptualisation, sur la formulation du principe ou sur l’élaboration de la théorie explicative. Il ne craignait pas de devoir remettre en cause, théorie, principes ou concept, dès lors que ceux-ci se révélaient incompatibles aux constats factuels.

L’économie étant historiquement un domaine intellectuel où, sous une apparence de science et de rigueur, concepts, principes et théories sont d’autant plus largement promus qu’ils justifient rationnellement des intérêts concrets socialement et politiquement puissants, cette démarche factuelle de physicien appliquée par Maurice Allais à l’économie, n’aura pas manqué de lui valoir souvent l’incompréhension, sinon l’irritation de ses collègues économistes, et plus souvent encore, l’hostilité des puissants.

Et c’est cette démarche même de Maurice Allais préservant à tout moment la prééminence du fait expérimental sur la théorie, que notre hôte Guy BERTHAULT aura scrupuleusement suivie dans ses travaux qui renouvellent désormais les principes de la sédimentologie, et pour lesquels il reçoit aujourd’hui le Prix Maurice Allais de l’AIRAMA.

Soyez remerciés pour votre attention.

Philippe BOURCIER de CARBON

Président d’honneur, fondateur de l’AIRAMA

Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie.

 

 

Source : https://lilianeheldkhawam.com/2019/10/09/loeuvre-meconnue-de-maurice-allais-prix-nobel-deconomie-philippe-bourcier-de-carbon/

 

 

Télécharger la Conférence de Philippe Bourcier de Carbon en PDF

 

 

 

Le nouveau livre « Coup d’État planétaire » est disponible.

Vous attendez un effondrement financier, mais c’est un monde nouveau qui émerge, et qui balaie sèchement l’ancien.

Aucune démocratie ne semble avoir les moyens de s’y opposer.

Coup d’Etat planétaire par Liliane Held-Khawam

 

Après avoir démontré avec Dépossession la captation des mécanismes monétaires, et financiers, Coup d’État planétaire démontre le phagocytage généralisé des outils et processus de production de biens et de services, privés et publics.

Tout ce qui produit de la valeur ajoutée sur la surface du globe est en passe d’être pris en charge directement ou indirectement par l’infrastructure supranationale d’une certaine élite financière.

Soutenue par une technologie omniprésente, un système-monde qui englobe l’ensemble de la planète et de ses ressources (y compris humaines) nous fait passer de l’ère de la mondialisation à celle de la globalisation.

La dématérialisation de l’administration publique et des institutions en général offre à la nouvelle équipe dirigeante la possibilité de gérer la planète à distance.

Un empire transversal, privé et corporatisé, d’un type nouveau est soigneusement décrit dans cet ouvrage (400 pages), avec des sources mais aussi des textes de lois, d’accords, et moult extraits de divers registres de commerce.

Forte d’un pouvoir absolu, par la captation des richesses productives, la nouvelle élite risque bien de faire la pluie et le beau temps aux quatre coins du monde.

L’ensemble des paradigmes qui régissent l’organisation de la vie sur terre est en voie de restructuration en profondeur. Après avoir usé et abusé d’un faux libéralisme, la réorganisation sociétale semble promettre de ressusciter le modèle soviétique, au profit de privés cette fois.

Avec ce que nous avons appelé néo-soviétisme, nous franchissons ainsi une nouvelle étape du sinistre néolibéralisme.

Les détenteurs des ressources planétaires peuvent être fiers du succès d’un projet herculéen, qui promet le retour d’un féodalisme globalisé et modernisé.

Disponibilité

Disponible en librairie (en Suisse certains Payot et la librairie du Valentin disposent d’ores et déjà d’un stock)

Commande en ligne sur le site de l’éditeur :

en euro : https://reorganisationdumonde.com/produit/coup-detat-planetaire/
en franc suisse : https://reorganisationdumonde.com/produit/coup-detat-planetaire/?wmc-currency=CHF
en dollar : https://reorganisationdumonde.com/produit/coup-detat-planetaire/?wmc-currency=USD

Attention : Nous ne travaillons plus avec Amazon

table des matières

Préface par Philippe Bourcier de Carbon

Avant-propos

Introduction

Partie I : les seigneurs de la Création monétaire confisquent l’industrie Mondiale

Chapitre 1 : Un Nouveau Monde, une nouvelle élite

Chapitre 2 : Planète industrie

Chapitre 3 : Vers des monopoles sectoriels ?

Partie II : les dirigeants de l’après-guerre se parent de messianisme pour se donner un vernis vertueux

Chapitre 4 : Est-ce qu’un État peut encore être souverain ?

Chapitre 5 : Aux origines, une mondialisation messianique ancre le Nouveau Monde

Chapitre 6 : Une alliance anglo-saxonne ancre l’économie-monde

Chapitre 7 : Le monde des affaires invité à mondialiser l’économie

Chapitre 8 : De la mondialisation à la globalisation

Partie III : les seigneurs du business s’emparent de la gouvernance des états

Chapitre 9 : La face cachée du développement durable

Chapitre 10 : Contrôle des territoires et des populations

Chapitre 11 : Politique commune des États

Chapitre 12 : Le monde des affaires, partenaire officiel des gouvernements

Chapitre 13 : Destruction des mers sous bannière de développement durable

Chapitre 14 : Des confiscations à prévoir avec la révolution sociétale

Chapitre 15 : Soumission aux organismes supranationaux

Chapitre 16 : Le FMI dicte la gouvernance des États

Partie IV : Captation des ressources productives publiques, y compris humaines

Chapitre 17 : Ce libéralisme qui tue le marché

Chapitre 18 : Des privilèges publics parfaitement antilibéraux

Chapitre 19 : Intégration et globalisation des territoires nationaux

Chapitre 20 : Une nouvelle gouvernance publique inspirée des Nazis

Chapitre 21 : Les dérives de la gestion publique

Chapitre 22 : Les seigneurs de la finance convoitent le business public

Chapitre 23 : Un coûteux partenariat public-privé non libéral

Chapitre 24 : Corporatisation d’organismes nationaux et supranationaux

Chapitre 25 : Appropriation et Corporatisation des espaces nationaux

Chapitre 26 : Concentration de processus économiques selon les zones

Chapitre 27 : De l’État gestionnaire à l’État investisseur aux mains de la finance globale

Chapitre 28 : Vers une cyber-société contrôlée par les GAFAM

Conclusion

 

 

Source : https://lilianeheldkhawam.com/2019/10/05/le-nouveau-livre-coup-detat-planetaire-est-disponible/

 

 

Télécharger la Préface de Philippe Bourcier de Carbon en PDF

 

 

 

Les fluctuations cycliques des économies capitalistes

Le 15 septembre 2013, nous vous informions de la Conférence de Presse « Indicateur Oméga-Allais » :

L’Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais, l’AIRAMA, a tenu début juillet une conférence de presse à la Maison de L’Amérique Latine de Paris pour procéder au lancement de l’ « indicateur Oméga Allais », développé par Jean et Pierre Fuerxer en vue de chiffrer précisément, en termes de perte d’emplois et de croissance, le coût de la politique gouvernementale de rejet du « protectionnisme intelligent » de notre seul prix Nobel d’économie, Maurice Allais.

Un article sur le modèle OMEGA avait été publié par une revue aujourd’hui disparue que nous vous proposons de redonner aujourd’hui.

 

*
*     *

Les fluctuations cycliques fondamentales

des économies capitalistes, le modèle « ω »

Jean Fuerxer

Ministère de l’Intérieur

Pierre Fuerxer

Ministère de la Défense

Est proposé un modèle dynamique de base d’une économie capi­taliste ayant la structure d’un système cybernétique linéaire bouclé. Le comportement temporel spontané de l’économie est décrit à partir d’un équilibre stationnaire de Keynes.

Le modèle «ω», généralisation de l’oscillateur de Samuelson (1939), montre que l’ économie a trois périodes de résonance pour 3,5 , 9 et 50 ans, correspondant aux cycles identifiés par Kitchin, Juglar et Kondratieff.

Un autre résultat essentiel est de prouver que les cycles économiques sont d’origine réelle et endogène.

 

A basic economic model of capitalistic econonzy is proposed, which as the structure of a cybernetic linear loops system. The spontaneous temporal behaviour of economy is described, starting from a Keynes stationary equilibrium.

The « ω » mode!, a generalisation of Samuelson’s oscillator (1939), shows that the economy has three resonance peaks centered on 3.5, 9 and 50 years, which are the business and economic cycles found by Kitchin, Juglar and Kondratieff.

Another main result is to prove that business cycles have a real and endogeneous origin.

 

Télécharger l’article en PDF (3.66 Mo)

 

Liliane Held-Khawam nous présente sont nouveau livre

Il est arrivé !

Dépossession par Liliane Held-Khawam

 

1. Disponible sur le site www.reorganisationdumonde.com :

En euros : HTTPS://REORGANISATIONDUMONDE.COM/PRODUIT/DEPOSSESSION/

En franc suisse : HTTPS://REORGANISATIONDUMONDE.COM/PRODUIT/DEPOSSESSION/?CURRENCY=CHF

2. Des points de vente (liste en cours d’enrichissement) : HTTPS://REORGANISATIONDUMONDE.COM/POINTS-DE-VENTE/

3. Payot : HTTPS://WWW.PAYOT.CH/DETAIL/DEPOSSESSION-LILIANE_HELD_KHAWAM__MARC_CHESNEY-9782970126201

4. Decitre : HTTPS://WWW.DECITRE.FR/LIVRES/DEPOSSESSION-9782970126201.HTML

5. FNAC : HTTPS://LIVRE.FNAC.COM/A12927088/LILIANE-HELD-KHAWAM-DEPOSSESSION?OMNSEARCHPOS=5

Le premier volume qui traite de la réorganisation de la planète est arrivé !

Numéro ISBN: 978-2-9701262-0-1

Compte tenu du fait que Dépossession sera suivi d’autres, nous avons opté pour la création d’une maison d’édition qui porte le nom de Réorganisation du monde.

Un nouveau site a aussi été créé à cet effet : https://reorganisationdumonde.com/. Il n’est pas encore tout à fait au point. Si vous croisez des difficultés, merci de me le faire savoir. Vous trouverez une fiche de contact en cas de besoin…

Nous sommes en train d’établir des contacts avec des diffuseurs afin d’aller à la rencontre des lecteurs via les libraires. Pardon pour le décalage dans le temps, mais notre maison d’édition n’étant pas connue, il a fallu attendre l’arrivée du livre pour que ces potentiels partenaires puissent se faire leur propre opinion.

Pour l’heure, vous pouvez trouver Dépossession sur Amazon avec les conditions usuelles pour les consommateurs de l’UE. (Mise à jour : Amazon a mis en place un système de boycott soft.)

HTTPS://WWW.AMAZON.FR/D%C3%A9POSSESSION-LILIANE-HELD-KHAWAM/DP/2970126206/REF=SR_1_1?S=BOOKS&IE=UTF8&QID=1535804689&SR=1-1&KEYWORDS=LILIANE+HELD

Autrement, vous pourrez commander aussi sur le site de Réorganisation du monde :

HTTPS://REORGANISATIONDUMONDE.COM/PRODUIT/DEPOSSESSION/

Évidemment avec des coûts d’expédition probablement plus élevés que ceux de Amazon. Un calculateur des frais postaux est à disposition.

Dans tous les cas, le numéro ISBN permettra à tout libraire de nous retrouver et de passer sa commande…

ISBN: 978-2-9701262-0-1

Je vous mets ci-dessous la table des matières, ainsi que la préface du Professeur de Banques/Finances Marc Chesney… https://www.bf.uzh.ch/static/employee/detail/index.php?language=en&alias=chesney-marc&tab=detail

Excellente lecture et à bientôt.

LHK

Annexes:

  • Préface de Marc Chesney :

Dans ce livre choc, Liliane Held-Khawam met en lumière l’hyperpuissance de l’oligarchie financière qui s’approprie sans vergogne les richesses de ce monde et qui dispose d’un pouvoir insensé. Elle décrit comment l’alliance entre banques commerciales et centrales, soutenue par le monde politique, est un facteur clé accentuant la concentration aberrante de richesses.
Elle critique l’explosion de la dette, qui prend tant les individus que l’État en otage, ainsi que le délitement et l’impuissance de ce dernier face au secteur financier. Le système bancaire parallèle, non-régulé, qui permet toutes sortes de montages douteux et de manipulations de marchés, est aussi passé au crible de son analyse. L’humain, qui devrait être placé au centre de l’économie est maintenant marginalisé et spolié dans le cadre d’une finance casino débridée. Ce livre fournit ainsi une analyse salutaire et sans concession, essentielle à tout lecteur, en vue de mieux comprendre le monde actuel !  Il est temps de se réveiller !

  • Table des matières de Dépossession

La physique après la découverte des ondes gravitationnelles

L’occasion d’un renouveau inespéré.

Une victoire des concepts du 20° siècle ?

            Nous savons tous que la physique a fait des progrès considérables au cours du 20° siècle. Elle a permis un développement extraordinaire de la technologie et des systèmes. Au début du 21° siècle, la théorie de la relativité et la mécanique quantique semblent définitivement validées, même si certains physiciens reconnaissent l’existence de problèmes de compatibilité entre ces deux théories.

            Devrions-nous dire, comme Lord Kelvin en 1900, « Il n’y a plus rien à découvrir en physique aujourd’hui, tout ce qui reste à faire est d’améliorer la précision des mesures » ? Il n’est pas surprenant que ce remarquable physicien ait pensé cela. Ne savons-nous pas qu’au cours du temps toutes les théories s’affinent et deviennent de plus en plus sûres d’elles-mêmes et dogmatiques ?

            Au cours du 20° siècle, les deux théories de la relativité et la théorie quantique n’ont pas échappé à ce travers. Après avoir été initialement très contestées, elles ont caché derrière un dogmatisme de plus en plus rigoureux leurs inévitables failles. Elles sont tellement incontestables qu’aujourd’hui l’Académie des Sciences refuserait d’examiner une nouvelle théorie si elle n’était pas « généralement covariante », c’est-à-dire compatible avec la théorie de la relativité générale !

            Présentée comme « la victoire finale » des concepts de la physique du 20° siècle, la découverte expérimentale des ondes gravitationnelles en serait-elle la preuve définitive ?  Au contraire, comme au début du 20° siècle, cette validation expérimentale ne devrait-elle pas nous conduire à mener de nouveaux travaux, et à approfondir les concepts ayant présidé à leur élaboration ?

Les ondes gravitationnelles : Une nécessité théorique ?

            L’électromagnétisme introduit deux notions essentielles : le champ électrique et le champ magnétique. Ces deux champs sont associés dans les équations de Maxwell qui permettent de les décrire localement sur la base de sommes d’ondes se propageant à une vitesse « c », dite vitesse de la lumière, érigée au rang de constante universelle. Les vibrations longitudinales, qui semblaient impossibles à générer et à observer, étaient niées ou simplement ignorées par les physiciens.

Nous savions que les ondes optiques sont déviées par les champs de gravitation. Ce phénomène a été vérifié expérimentalement depuis plus d’un siècle. Malgré cela, la relativité générale ne pouvait renoncer à son principal postulat : les lois de la physique sont les mêmes en tout point de l’espace. En fait, elles n’ont cette invariance que grâce à un artifice : la modification locale des unités de mesure qui impose l’abandon de la géométrie euclidienne, base de tous nos raisonnements.

Ce choix, très pénalisant, a conduit à des calculs d’une extrême complexité. Ceci limite fortement l’intérêt pratique de cette théorie, dès lors que les problèmes à étudier sont complexes. N’est-il pas temps de d’oublier ce postulat et de construire une nouvelle physique, réellement ondulatoire, associant champs électriques, magnétiques et gravitationnels ?

La détection des ondes gravitationnelles :

            La détection de ces ondes à l’aide de très grands interféromètres nous apporte des éléments essentiels à la construction d’une nouvelle physique ondulatoire. De nombreux documents publiés sur INTERNET présentent les signaux émis par la collision de trous noirs. Les mesures faites par ces interféromètres correspondent parfaitement aux modélisations faites par les astrophysiciens.

            Leurs résultats confirment donc clairement l’existence de ces ondes, mais surtout les intuitions des physiciens. En effet, les signaux observés par les deux détecteurs LIGO pendant la centaine de millisecondes que durent ces collisions confirment des points essentiels :

  • Il existe un décalage temporel entre les signaux détectés par les deux interféromètres,
  • Ces temps d’arrivée correspondent à un même événement observé optiquement par ailleurs,
  • Enfin, les différences entre les mesures sont cohérentes avec la direction d’arrivée.

Les ondes gravitationnelles sont donc des ondes se propageant à la même vitesse que la lumière. Alors que les ondes électromagnétiques sont des ondes transverses, les ondes gravitationnelles ne peuvent qu’être que des ondes longitudinales. L’ensemble de ces ondes correspond alors aux trois directions de vibration possibles de l’Éther, leur milieu de propagation commun (deux vibrations transverses orthogonales et une longitudinale).

L’indispensable mise en cause de nos modes de pensée :

La confirmation expérimentale de l’existence des ondes gravitationnelles nécessite de notre part une réflexion sur la cohérence de nos concepts de la physique. Devons-nous traiter différemment ces ondes et les ondes électromagnétiques ? Sont-elles analogues ou de nature différente ?

À mon avis, influencés par les thèses relativistes, les physiciens ont fait une grave confusion que je vais essayer de vous faire comprendre à partir d’un exemple volontairement caricatural.

Considérons un physicien décidant de vérifier l’universalité de la loi de Mariotte. Il réalise un dispositif constitué d’un volume variable et d’un manomètre. Il commence par l’installer à Paris. Il suit alors un protocole expérimental rigoureux. Pour cela, il commence par étalonner son manomètre en faisant le vide, puis en laissant la pression atmosphérique entrer dans le dispositif. Après avoir refermé son dispositif, il peut vérifier la loi de Mariotte en faisant varier le volume d’air emprisonné et en mesurant la pression (bien évidemment, je suppose la température stabilisée entre les mesures successives de pression).

Supposons que, pour confirmer l’universalité de la loi ainsi vérifiée, il se déplace au Pic du Midi et refasse l’expérience, en respectant le même protocole expérimental. Il constate que la loi de Mariotte est bien conservée. Cette loi est donc bien une loi universelle, mais ceci n’implique pas que la pression atmosphérique soit la même à Paris et au Pic du Midi.

Cet exemple caricatural correspond à une erreur bien difficile à éviter. Ainsi, les expériences interférométriques, ou les « expériences de pensée » proposées comme preuves de la théorie de la relativité, présentent de nombreuses lacunes conceptuelles. Les dimensions d’un interféromètre de Michelson sont-elles indépendantes de sa vitesse de déplacement ? La contraction relativiste des corps est-elle réelle ou apparente, les lois de Descartes sont-elles valides dans un repère mobile ?…

Un autre exemple particulièrement intéressant correspond à l’utilisation du principe d’équivalence pour calculer la déviation gravitationnelle de la lumière. Dans son article initial, Einstein n’avait obtenu que la moitié de la déviation qui sera observée expérimentalement. Il aurait trouvé la valeur exacte s’il avait compris que son repère mobile était implicitement construit sur des mesures optiques de distances, et donc qu’il était déformé par l’accélération [1].

Comme dans l’exemple caricatural de la loi de Mariotte, l’observateur a étalonné son repère en supposant la propagation de la lumière isotrope. Admettons l’existence d’un repère euclidien sous-jacent, et dans ce repère, une onde se propageant dans une direction orthogonale à un champ de gravitation uniforme. En raison du ralentissement gravitationnel de la vitesse de la lumière, la distance entre les fronts d’ondes est d’autant plus faible que le champ de gravitation est élevé. Inversement, dans un repère lié à l’observateur, et construit sur la base de mesures optiques, ces distances sont inchangées. Dans le cas particulier d’un champ de gravitation uniforme, ces deux repères sont superposables par modification de l’unité de temps. Le principe d’équivalence peut être adopté. Dans tous les autres cas, et en particulier lors du calcul de la courbure des rayons optique dans un champ non uniforme, cette approximation ne peut être faite.

Il faut donc être particulièrement circonspect dans l’utilisation des concepts relativistes. L’universalité d’une loi de la physique dans un petit domaine ne peut être étendue à l’espace complet sans d’infinies précautions. Même si déterminer des propriétés physiques locales est utile, seule la référence à un espace-temps euclidien sous-jacent permet de raisonner juste.

Enfin, les étudiants et les chercheurs doivent se sentir libre de rêver à une nouvelle physique. Ils ne doivent pas se sentir obligés de respecter des dogmes abstraits sans en comprendre les raisons profondes. Ceci ne peut que les faire fuir ou étouffer leur créativité. Les étudiants doivent apprendre une physique plus humaine, faillible et révisable, tributaire d’accidents de l’histoire. En un mot, ils ne doivent pas penser naître trop tard dans un monde trop vieux.

La relecture nécessaire des nombreux opposants :

            Malgré le discours officiel des théoriciens, de nombreux chercheurs, rebutés par le dogmatisme des physiciens relativistes et quantiques, ont cherché à les mettre leurs théories en défaut. Ils ont souvent réalisé, avec des moyens très limités, des expériences dont les résultats auraient mérité d’être pris en compte et qui auraient dû être refaites avec de plus gros moyens. Je vous incite à étudier celles faites ou  décrites par Maurice Allais [2], par Hector Múnera [3] et bien d’autres chercheurs dans le monde, et à en imaginer d’autres réalisables dans vos laboratoires.

Pourquoi imaginer une nouvelle physique ?

            J’avais montré, dans une présentation faite à l’URSI en 2011 [4], que de nombreux résultats, devenus des vérités incontestables, n’étaient en réalité que les conséquences d’idées a-priori ou des interprétations d’expériences, mais en aucune manière des preuves scientifiquement établies.

J’avais mis en cause la capacité de VIRGO à détecter des ondes gravitationnelles. Je dois reconnaître que les améliorations de ses performances intervenues depuis, et la réalisation des interféromètres LIGO aux USA, ont permis de détecter ces ondes gravitationnelles. Cependant, je continue à penser que ces instruments n’auraient pas dû être appelés « interféromètres de Michelson », ce qu’ils ne sont pas. La description rigoureuse des dispositifs expérimentaux, des bases conceptuelles sur lesquels ils sont construits, serait absolument nécessaires à la compréhension de leurs résultats.

Par ailleurs, j’avais montré qu’il est très rare qu’un résultat expérimental impose l’adoption d’une théorie. Pour cela, j’avais retenu deux exemples. Le rayonnement du corps noir et l’accélération du BIG-BANG. Poincaré avait démontré que le rayonnement de corps noir n’était pas explicable sans faire intervenir une non-linéarité [5]. Cependant, ce résultat théorique n’imposait pas le choix de l’hypothèse de Planck. De même, les expériences dites « d’intrication de photons » n’imposent pas l’existence de celui-ci comme « particule » mais seulement comme quantum d’action.

Ces exemples montrent qu’un manque de rigueur mathématique fait prendre à un chercheur des risques d’erreur considérables. N’est-il pas naturel que, persuadé d’avoir fait une grande découverte et brûlant d’impatience, il néglige de faire un examen critique des faits et d’envisager toutes les explications possibles ?

Ne devrions-nous pas chercher, en permanence, à découvrir si des explications nouvelles, ou d’anciennes rejetées pour des raisons oubliées, ne rendraient pas compte aussi bien ou même mieux des résultats expérimentaux que les théories les plus reconnues ?

Le choix d’une physique ondulatoire :

            Les motivations des physiciens sont loin d’être celles des entrepreneurs et des hommes politiques. Même s’il leur arrive de chercher à concrétiser par des développements industriels les résultats de leurs travaux, ils sont avant tout motivés par l’envie de comprendre. N’est-il pas valorisant de comprendre ce qui est mystérieux et de faire ce qui est impossible ?

            La découverte des ondes gravitationnelles n’est-elle pas une occasion exceptionnelle de repenser la physique moderne ? Que pourrait être cette nouvelle physique ondulatoire ? Compte tenu de mon expérience professionnelle, je vous propose le rêve d’un radioélectricien attaché aux représentations non-quantiques des rayonnements. Mes grands choix seraient les suivants :

  • En premier, je donnerais la priorité aux aspects ondulatoires, en reconnaissant l’existence d’un milieu de propagation que j’appellerais, un peu par provocation, l’Éther. Ceci permettrait de donner une signification réelle au courant de déplacement, réputé fictif, apparaissant dans les équations de Maxwell et à la densité locale d’énergie associée aux champs.
  • Ensuite, je donnerais aux potentiels électriques et gravitationnels des statuts comparables, les potentiels électriques et magnétiques étant liés à des ondes transverses d’une part, et le potentiel gravitationnel à des ondes longitudinales.
  • Enfin, après avoir réintroduit l’Éther, devenu le milieu de propagation de toutes les ondes, je proposerais le choix d’un repère euclidien sous-jacent. Sauf preuve du contraire, toutes les ondes se propageraient dans ce milieu à la même vitesse qui dépendrait d’un potentiel à l’origine de la courbure gravitationnelle des rayons lumineux.

Ce choix est analogue à celui adopté en acoustique aérienne ou sous-marine. Tous les phénomènes physiques seraient décrits dans cet espace-temps  » réel », observé à l’aide des ondes électromagnétiques. Les grandeurs physiques dans ce repère sous-jacent seraient obtenues par dé-convolution, puis validées en utilisant les lois de propagation  des ondes et en calculant les durées et distances apparentes observables à l’aide d’horloges et de mesures optiques. Ceci ne serait en réalité que le choix d’utiliser des techniques couramment utilisées en recherche pétrolière dans un milieu extrêmement complexe.

Les particules seraient des solutions de ces nouvelles équations de propagation non linéaires associant les ondes inévitablement associées. Un simple électron a en effet une charge électrique, un champ magnétique et une masse correspondant à son énergie. Même si cette tâche dépasse largement nos capacités de calcul actuelles, toutes les particules stables ou instables pourraient alors, au moins en théorie, être décrites à partir de ces seules équations …

Des énigmes scientifiques réputées insolubles seront alors résolues. Pourquoi le mystère étudié par Maurice Allais que constitue depuis déjà longtemps la loi de Titius-Bode [6] ne serait-il pas élucidé grâce à une représentation ondulatoire des champs de gravitation ?

Refuser la science médiatique :

Notre société médiatique est à la recherche du sensationnel et de l’insolite. La physique du 20° siècle ne pouvait qu’être de son temps. Il était donc inévitable que des « vulgarisateurs » aient popularisé, sans les expliquer, des théories parfois extravagantes, notamment en cosmologie, et qu’ils aient trouvé un public, même dans des milieux scientifiques.

Il est plus grave de constater que des expériences soient présentées comme des preuves irréfutables des nouvelles théories, alors que les faits pouvaient être aussi bien expliqués par les anciennes théories. J’ai constaté avec effroi que le programme de physique, en classe de terminale, présente à l’appui du discours officiel une célèbre expérience d’interférences sur électrons uniques réalisée pour la première fois en 1961. Il laisse les étudiants imaginer, sans doute involontairement, qu’il s’agit de propriétés mystérieuses de la matière.

Cette expérience de diffraction est censée illustrer la dualité onde particule, une propriété quasiment « magique » des électrons qui pourraient interférer avec eux-mêmes !  En affirmant que les particules sont des solutions particulières d’une équation des ondes, la physique du 21° siècle expliquera simplement ces effets qui ne sont absolument plus paradoxaux.

L’énergie de l’électron sera celle de ses champs (essentiellement son champ électrique), extérieur à la particule proprement dite. Celle-ci, analogue au cœur d’un cyclone, et ne contiendrait pratiquement pas d’énergie. Si l’électron traverse le masque, une partie de son énergie électromagnétique est réfléchie et une autre reste attachée à lui. Quelle soit la trajectoire de la particule « électron », qu’elle soit réfléchie par le masque, absorbée ou transmise par l’une des fentes, son champ ne peut que passer simultanément par les deux fentes et sa trajectoire modifiée.

L’énergie et sa quantité de mouvement de l’électron sont alors réparties entre les deux faces du masque, que la particule traverse ou non le masque.  Cette explication n’est-elle pas plus satisfaisante que l’introduction d’une longueur d’onde sans signification physique ?

Attirer à nouveau les esprits les plus brillants :

Nous savons que les étudiants sont de moins en moins nombreux à choisir d’entreprendre des études scientifiques. Ceci est certainement partiellement dû à la mondialisation des entreprises et au développement du commerce international qui offre de nombreux débouchés dans les services. Dans ce contexte, le « management », en offrant de brillantes perspectives de carrières ne peut qu’attirer les plus dynamiques des étudiants.

Dans le domaine de la recherche scientifique, cette même mondialisation réduit la place des chercheurs dans leur propre université. Petites mains travaillant dans un gigantesque projet international, ils sont souvent réduits à un rôle subalterne et n’ont aucun contrôle du projet. Que pouvez-vous décider quand vous appartenez à une équipe de 500 chercheurs appartenant à 50 pays ?

Dans l’industrie, les ingénieurs ne s’intéressent pas aux grandes théories. Un spécialiste des gyroscopes LASER m’avait présenté ses équipements et leur principe. En réponse à une question, il m’avait répondu qu’il existait une théorie relativiste de ces gyromètres, mais qu’il ne l’utilisait pas. Quel est l’intérêt d’une théorie si elle n’a pas d’applications pratiques ? Les grands progrès techniques n’ont-ils pas été très souvent dus à des passionnés qui ont eu des idées simples ?

L’observation expérimentale des ondes gravitationnelles ne doit-elle pas être l’occasion d’une révision profonde de la physique moderne ? Pouvoir représenter de façon ondulatoire toute la matière et construire, à partir d’observations optiques, un espace euclidien sous-jacent doit révolutionner la physique en lui apportant la rigueur scientifique qui lui fait souvent défaut ?

Le remplacement de dogmes et de formalismes abstraits qui ont envahis la physique par des lois universelles valides dans un espace euclidien sous-jacent devrait permettre un renouveau de la physique et attirer de nombreux étudiants.

Enfin, le rejet du cloisonnement excessif des disciplines, conséquence inévitable du mode de fonctionnement de ce que nous appelons « la communauté scientifique », stérilise la recherche. Les chercheurs hyper spécialisés, utilisant des vocabulaires différents selon les disciplines, ne bénéficient plus des retombées entre domaines apparemment différents, alors même qu’ils utilisant en réalité des outils mathématiques identiques ou quasi-identiques.

 

 

Pierre Fuerxer,

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

[1] la relativité, Poincaré, Planck, Hilbert, par Jules Leveugle, L’Harmattan, 2004,

[2] L’anisotropie de l’espace, par Maurice Allais, Clément Juglar, Mars 1997,

[3] Should the laws of gravitation be reconsidered ?, Héctor A.Munera, Aperion, Montreal,

[4] et [5] URSI France, Journées Scientifiques 2011.

[6] Des très remarquables régularités dans les distributions des planètes et des satellites des planètes,

            par Maurice Allais, Clément Juglar, 2005.

 

 

La démographiques influe-t-elle sur le chômage ?

Un sujet d’actualité :

La réforme des retraites et l’évolution du chômage sont au centre des préoccupations de nos compatriotes. Il est donc nécessaire de bien comprendre les contraintes imposées par la démographie qu’aucune politique publique ne peut ignorer.

La pyramide des âges :

Nous avons été habitués à considérer  la pyramide des âges sous une forme symétrique. L’axe vertical, correspond aux classes d’âge de zéro à 100 ans. Les populations correspondant à chaque tranche d’âge sont représentées selon l’axe horizontal. Pour chaque âge, la largeur de la pyramide représente ainsi la population correspondante.

Figure 1 : Représentation classique de la démographie.

Il est possible de superposer les courbes correspondant à deux dates (2014 en rouge, 2019 en bleu).

Figure 2 : Évolution entre 2014 et 2019.

            Courbe rouge : valeurs au 1er janvier 2014, courbe bleue : valeurs eu 1er janvier 2019.

            Par souci de simplicité, nous adopterons une représentation plus simple dans lesquelles l’axe horizontal correspond à la classe d’âge et l’axe vertical la répartition de la population entre ces classes.

Figure 3 : Représentation simplifiée des pyramides de la figure 2.

Entre 2014 et 2019, les habitants ont vieilli de cinq ans. Nous pouvons donc décaler ces courbes de façon à faire coïncider les dates de naissance. Les courbes ne coïncident pas totalement pour des raisons multiples : les effets de l’émigration et de l’immigration mais aussi les décès. Ceci est parfaitement illustré par les écarts entre 80 et 100 ans observés entre les courbes rouges et bleues.

Cinq ans plus tard, la mortalité des aînés a décalé vers le bas la courbe correspondant à 2014. Évidemment, la part de population de mois de 5 ans n’est pas prédite.

Figure 4 : Le vieillissement des classes d’âge.

  • Courbe bleue : pyramide des âges en 2014 décalée de 5 ans ;
  • Courbe bleue : pyramide des âges en 2019.

La prévision démographique à court terme :

            Pour tenir compte du vieillissement de la population, il convient de prendre en compte la mortalité de chaque tranche d’âge. Les statistiques de l’INED présentent en effet des valeurs de mortalité en fonction de l’âge.

En tenant compte de cette courbe de mortalité, il possible de prédire une partie importante des futures pyramides des âges. La pyramide réelle pourra cependant différer de cette projection en fonction du solde migratoire.  

Les données de mortalité sont établies avec un pas de 5 ans, incompatible avec un traitement de la pyramide des âges.  Elles doivent donc être interpolées avec un pas annuel. Cette interpolation correspond à la figure 5.

Figure 5 : Mortalité en fonction de l’âge.

Cette figure indique, pour chaque âge, le taux de survivants moyen. La connaissance de ce taux permet de  prédire l’évolution de la population française entre deux années, ici 2014 et 2019 (figure 6).

Figure 6 : Comparaison des valeurs prédites observées en 2019.

La courbe rouge correspond aux valeurs réelles de 2019. La courbe pointillée bleue aux valeurs prédites à partir de celles de 2014. La concordance entre les deux courbes est frappante. Les différences, notamment entre 20 et 40 ans, sont certainement dues au solde des flux migratoires.

La prévision démographique à long terme :

            L’excellente qualité de cette projection à cinq permet de faire des prévisions à plus long terme. Nous avons tenté une projection sur 15 ans, de 2014 à 2029 (figure 7). Malheureusement, ce procédé ne permet évidemment pas de prévoir les naissances futures…

Deux options sont alors possibles :

  • Supposer la natalité constante,
  • Supposer la tendance des 5 dernières années connue conservée après 2019.

 

            Les effets du « Baby Boom » de 1945 sur ces courbes sont particulièrement nets.

Figure 7 : Extrapolation de 2014 à 2029.

  • Courbe rouge : Valeurs en 2014,
  • Courbe bleue : Prévision 2019,
  • Courbe verte : Prévision 2024,
  • Courbe cyan : Prévision 2029.

Une retombée inattendue : La prévision du passé !

            La date de naissance des personnes du même âgé étant connue, il est facile de faire une estimation de la natalité des années passées.

L’utilisation en inverse de la courbe de mortalité permet ainsi de tracer une courbe de fécondité, c’est à dire le taux des naissances. La courbe exacte est certainement dans les archives de l’INED, mais une valeur crédible peut en être obtenue simplement de cette façon. Un décalage initial permet de présenter une estimation de l’année de conception, humainement plus significative.


Figure 8 : Courbe de natalité.

            On note sur cette courbe des accidents en 1918, 1940 et le « Baby Boom » de 1945.

Spécificité de la démographie française :

            La démographie française a été fortement marquée par les deux guerres mondiales. La figure 9 présente les pyramides des âges en 2014, celle prévue en 2029 et enfin celle qui correspondrait à une stabilité globale dans le temps d’une population.

Figure 9 : Prévision faite pour 2029.

  • Courbe rouge : Pyramide observée en 2014,
  • Courbe bleue : Pyramide prévue en 2029.
  • Courbe pointillée verte ; Pyramide de référence.

Il reste alors à prendre en compte les différentes hypothèses  de natalité et d’évaluer l’effet de celle-ci sur l’évolution de la pyramide des âges et l’équilibre des régimes de retraite.

Conséquences pour les régimes de retraite :

            Ces projections démographiques permettent de prévoir, en fonction des décisions politiques familiales,  la part des actifs potentiels dans la population nationale ainsi que celle des jeunes encore inactifs et des retraités. Elles permettent également de déterminer l’effet d’une entrée plus tardive dans le monde du travail ou d’un départ à la retraite plus précoce des actifs.  

Si la valeur de la population du pays était constante la pyramide des âges correspondrait à la courbe de mortalité (figure 9). Celle de la population française étant très différente, nous pouvons étudier l’évolution temporelle de la part de la population possiblement active dans la population totale.

Nous allons étudier l’évolution au cours du temps de cette part de la population sur la base de deux hypothèses de natalité :

  • Une natalité constate, conduisant à terme à une stabilisation de la population française,
  • Une décroissance de la natalité selon la tendance observée au cours des 5 dernières années.

Nous prendrons en compte trois durées d’activité :

  • 15 à 64 ans comme l’UIT,
  • 18 à 62, valeur médiane,
  • 21 à 60 ans, pour rappeler une valeur symbolique d’âge de la retraite.

 

 

Évolution prédite en supposant une natalité constante:

            Selon cette hypothèse, la part de la population française en âge de travailler se réduira au cours du temps, et ceci dans les trois hypothèses de durée d’activité retenues. Les pyramides des âges, complétées par l’estimation de la natalité future sont représentées sur la figure 10.

Figure 10 : Prévision faite pour 2029.

  • Courbe rouge : Pyramide observée en 2014,
  • Courbe bleue : Pyramide prévue en 2019.
  • Courbe verte ; Pyramide prévue en 2024.
  • Courbe cyan : Pyramide prévue pour 2029.

La figure 11 présente l’évolution au cours du temps du taux d’actifs potentiels. Les droites en pointillé correspondent au taux correspondant à une population stable, en supposant la natalité constante.

Figure 11 : Évolution au cours du temps du taux de population potentiellement active.

  • Courbes rouges : travail de 15 à 64 ans,
  • Courbes bleues : travail de 18 à 62 ans,
  • Courbes vertes : travail de 21 à 60 ans.

Il est également possible de tracer un abaque donnant l’évolution dans le temps de ce taux en fonction de l’hypothèse de durée du travail (figure 12). Les trois hypothèses de temps de travail correspondent aux abscisses 0, 1 et 2. Les droites parallèles correspondent à l’évolution temporelle de ce taux. Leur faible décalage montre que la durée du travail reste prépondérante sur l’évolution de la pyramide des âges dont l’effet sur l’évolution temporelle de la pyramide dont l’effet est bien plus limité.

Figure 12 : Effets relatifs de la durée du travail et de la pyramide des âges.

Les effets de la seconde guerre mondiale, et en particulier du « Baby-Boom » qui l’a suivie s’atténuerons. Dans cette hypothèse, les taux de population active  se stabiliseront.  Après 2029, ils seront proches de ceux d’une population de fécondité stable.

Évolution prédite en supposant une baisse linéaire de la natalité :

La poursuite linéaire de la baisse de la natalité observée ces dernières années conduirait à une réduction des inactifs (figure 13).

Figure 13 : Hypothèse d’une baisse constante de la fécondité à partir de 2014.

Dans cette hypothèse, après un embellissement temporaire, nous retrouverions à long terme un excès de retraités et une diminution de la part des actifs, lorsque la baisse de la population n’assurera plus le remplacement des actifs mis à la retraite.

Figure 14 : Évolution au cours du temps du taux de population potentiellement active.

  • Courbes rouges : travail de 15 à 64 ans,
  • Courbes bleues : travail de 18 à 62 ans,
  • Courbes vertes : travail de 21 à 60 ans.

Une persistance anormale du chômage ?

            Comment se fait-il que la réduction du nombre des actifs potentiels n’ait pas fait baisser le taux de chômage toujours proche de 9%? La raison en est clairement à la réduction de l’emploi industriel qui n’a cessé de régresser depuis 1974 (figure 15), ceci en raison de la politique économique menée en France (voir le texte sur le chômage importé).

Figure 15 : Emploi industriel en équivalent temps plein (en milliers).

            L’emploi industriel a diminué d’un million depuis 1974 et de 20 mille par an de 2014 à 2019, soit 0,8% par an. En même temps, l’emploi total a augmenté de 28 mille par an, soit 1,3% par an. Enfin, la population a augmenté de 1,6% par an entre 2014 et 2019. Dans l’hypothèse d’une stabilité du nombre des naissances, la population ne devrait plus augmenter, hors immigration, que de  0,6% par an entre 2024 et 2029.

 

Figure 16 : Augmentation prévue de la population.

  • Courbe rouge : Augmentation prévue de la population,
  • Courbe pointillée bleue : Pente à 0,6% par an.

            Sur la période 2014-2019, au lieu de progresser, l’emploi industriel a diminué tant en valeur absolue qu’en pourcentage. Dans le même temps, la croissance des besoins liée la croissance de la population, et la constance  du nombre des actifs potentiels, aurait dû faire baisser fortement  le nombre des chômeurs, ce qui n’a pas été le cas.

            Comment se fait-il que cette politique mondialiste prônant un laisser-fairisme universel, la concurrence généralisée entre les peuples et les acteurs économiques, perdure malgré son échec évident dans tous les domaines : développement économique, justice sociale, écologie et même culture… Maurice Allais, prix Nobel d’économie français et européen convaincu, n’a-t-il pas critiqué cette politique absurde dont la nocivité est une « évidence empirique » ?

            Comment se fait-il que des « économistes » aient pu dire qu’il existait un taux minimal de chômage, le NAIRU (non accelerating inflation rate of unemployment), ou taux de chômage qui n’accélère pas l’inflation ? Peut-on raisonnablement considérer que réduire l’emploi est raisonnable, alors même que l’on sait qu’un revenu décent est nécessaire à tous ceux qui ne se mettent pas volontairement en marge de la société ? Ce concept même a-t-il un sens dans les pays de l’union européenne depuis la création de l’EURO et la libération des transferts de capitaux ? Faudrait-il un taux unique de l’UE ? Comment serait-il piloté ?

            Comment se fait-il que de nombreux acteurs participent, souvent de bonne foi, à la destruction de l’économie et de la planète qu’ils prétendent protéger ? En réalité, les acteurs économiques, qu’ils soient chefs d’entreprise ou simple citoyens, décident en fonction des contraintes auxquelles ils sont soumis à court terme et de leurs projets. Ils ne sont, le plus souvent, que les acteurs involontaires d’une politique qu’ils désapprouvent.

 Ils participent ainsi, sans le savoir, non à un complot, mais à une politique dont les seuls résultats sont le pillage de la planète, parfois au nom de l’écologie, et l’enrichissement d’une toute petite partie de la population mondiale qui, dominant les états, accapare à son profit tout le pouvoir.

 

Pierre Fuerxer

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

Quelles prévisions faire pour 2023 ?

Prévisions Économiques 2018-2023

 

Introduction :

            Le modèle Oméga-Allais, a été testé sur la période 1949-2005. Il a permis de faire des prévisions économiques à 5 ans sur la base de quelques séries statistiques fondamentales comme le PIB et le niveau de l’investissement. Depuis, le contexte mondial a beaucoup évolué. Est-il encore possible de de prévoir à 5 ans ou plus l’évolution de notre économie ?

Rappel des prévisions faites fin 2014 :

            Dans le document intitulé « Une reprise réelle ou fictive », publié en 2015, il y a trois ans, je prévoyais une baisse à terme du PIB. Celle-ci était faite à partir  de séries économiques en base 2005 publiées par l’INSEE. Ces prévisions étaient les suivantes (figure 1) :

 

Figure 1 : Prévisions faites à partir de fin 2014.

 

  • La courbe verte correspond aux valeurs de PIB en base 2005 publiées en 2014 par l’INSEE.
  • La courbe bleue était la prévision faite à partir de 2005, en tenant compte de la fuite des capitaux publiée par la Banque de France (valeurs annuelles connues jusqu’en 2010). Ces prévisions étaient validées jusqu’en 2015, soit sur 10 ans.
  • La courbe rouge était une prévision supposant la fuite des capitaux terminée après 2010. Compte tenu du délai moyen entre les décisions d’investir et la croissance de la production, l’économie était alors supposée libre de toute influence extérieure postérieure à 2010.

Évidemment, ces prévisions  supposaient  la constance des influences conjoncturelles extérieures : croissance de la dette, taux d’intérêt, prix du pétrole qui, pour certaines ont un effet quasi immédiat…

            Personne n’ignore que depuis fin 2014 des événements importants ont eu lieu. Il convient donc d’expliquer les différences entre ces prévisions et les données réelles. L’évolution du contexte international et d’autres facteurs comme le niveau de la dette extérieure de la France expliquent-ils les écarts observés ?

 

En 2014, la conjoncture était exceptionnellement favorable. Malgré cela, le modèle Oméga-Allais continuait à prévoir une forte baisse du PIB. L’optimisme des responsables économiques était-il justifié ? Pouvaient-ils baser une politique économique sur le seul respect (plus ou moins strict) des critères de Maastricht ?

 

L’évaluation des performances de l’économie :

            Les performances de notre économie ne peuvent être évaluées que sur la base des données statistiques publiées par l’INSEE. Celles-ci semblent meilleures que les prévisions faites fin 2014 par le modèle Oméga-Allais. Ne devons-nous pas expliquer ces différences et évaluer nos critères d’évaluation ? Rendent-ils compte fidèlement de la réalité ?

Les critères de Maastricht :

            La politique économique de la France  a été jugée en fonction du respect des critères de Maastricht. Leur objectif essentiel semble avoir été d’assurer la stabilité des prix et de la monnaie. Nous ne retiendrons que les deux suivants applicables aux pays de la Zone Euro :

  • La dette du secteur public devait être inférieure à 60% du PIB.
  • Le déficit public devait être inférieur à 3% du PIB.

Ces critères avaient-ils une réelle valeur macroéconomique ? Pouvaient-ils assurer une convergence des économies des pays de la Zone Euro ?

Les critères de gestion prudente d’un particulier :

            Un particulier prévoyant veille à ne jamais dépenser plus qu’il ne gagne, même s’il accepte parfois d’emprunter, par exemple pour faire de gros achat. À tout instant, il arbitre entre les différents postes de dépenses en fonction de ses objectifs à court et à long terme.

            Un état souverain fait de même, mais les choix de ses nombreux citoyens restent libres. Il ne peut qu’ajuster les taux de changes et la répartition des impôts de façon à mener les particuliers et les entreprises à contribuer, de gré ou de force, à sa politique économique. Ces deux moyens d’action sont complémentaires et tous deux indispensables à la conduite d’une politique économique.

            Un état comme le nôtre, ayant renoncé à sa souveraineté monétaire, ne peut plus avoir de politique économique indépendante et doit se soumettre totalement à une autorité supérieure, l’Union Européenne.

Qu’étaient les objectifs des critères de Maastricht ?

            L’autorité supérieure à laquelle se soumettent nos gouvernements est clairement l’Union Européenne. Il s’agit du « Maitre de la monnaie« , c’est-à-dire, comme le disait François Mitterrand lors de sa compagne électorale : Du monde de la finance !

            Il faut bien admettre que les critères de Maastricht étaient destinés à protéger les intérêts de cette autorité supérieure. Ils ne sont, en fait, que les critères de solvabilité que tout prêteur exige de ses débiteurs. Le déficit maximum de 3% limite la capacité instantanée d’endettement des états.  La limitation de leurs dettes à 60% du PIB imposait une limite à leur endettement global.

Ces critères ne peuvent, en aucune manière, conduire à une convergence des économies des pays de la Zone Euro !

Des critères réellement économiques :

D’autres critères sont largement utilisés par les économistes. Le plus connu est le niveau de la dette. La dette accumulée est-elle insupportable ?

            Les dernières données publiées par l’INSEE font apparaître une dette qui s’emballe (figure 2). Le taux de 60% du PIB est dépassé depuis 2008 !

Figure 2 : Dette extérieure selon l’INSEE.

 

            Entre 1995 et 2010, la dette augmentait en moyenne de 12,5 Milliards par trimestre (figure 3). Depuis 2010, elle augmente de 20 Milliards par trimestre. Est-il raisonnable de devoir bientôt  plus que son revenu annuel ?

Figure 3 : Variation du PIB  corrigé.

En pointillé : valeur publiée. En rouge : valeur corrigée de la croissance de la dette.

 

            Une autre donnée observée avec attention est le déficit de la balance commerciale. Son déficit courant de plus de 60 Milliards par an est proche de la croissance de la dette. Ces montants  correspondent à un PIB fictif qui s’ajoute au PIB réel.

En effet, un particulier qui emprunte une somme X peut faire des achats à concurrence de cette même somme. Il dispose en effet d’un revenu fictif qui conduit pour une part à une demande intérieure, donc une production, et pour le reste à des dépenses à l’étranger.

Pour un état disposant de sa pleine souveraineté, cet excès de dépenses conduirait à une inflation, qui est finalement un impôt sur tous les dépôts bancaires, payé par tous les citoyens.  Dans le cas des états de la Zone Euro, cet excès de dépense se traduit par un déficit extérieur, la dette correspondante correspondant au déficit commercial. Au lieu d’accepter une dépréciation de leur monnaie, les nations contractent une dette qu’elles devront un jour rembourser.

La privatisation de l’ÉTAT !

               Maurice Allais avait montré qu’une part de la dette Publique est injustifiée. En effet, tant que notre pays était souverain, il pouvait ajuster la masse monétaire en fonction des besoins de l’économie. S’il dépensait trop, il pouvait ajuster le taux de change et ainsi rétablir les grands équilibres au prix d’un impôt discret prélevé sur les dépôts bancaires.

            Depuis 1974, l’état n’a plus le pouvoir d’ajuster la masse monétaire. La création monétaire est faite par des banques privées, ce qui correspond à une réelle perte de pouvoir. Ainsi, les nations perdent le contrôle de leur économie !

            Le « capital » de l’état est ainsi progressivement « privatisé ». Que penseriez-vous d’une société sans capitaux propres ?

 

De nouveaux obstacles à la prévision économique :

Il est évident que l’établissement de statistiques précises est une condition sans laquelle il est impossible d’établir des prévisions économiques à long terme fiables. La perpétuelle modification des bases statistiques récemment introduite dans les publications de l’INSEE est un obstacle réel à l’établissement de prévisions économiques.

 

Pour toutes ces données, nous avons observé une évolution de plus en plus rapide des bases statistiques:

  • Dans une note explicative, l’INSEE expliquait en parlant de l’évolution du PIB«  Les comptes nationaux procèdent régulièrement à des changements de base. Après les « bases » « 1995 », « 2000 » et « 2005 », les comptes nationaux sont passés le 15 mai 2014 à la « base 2010 ». C’est une source importante de révision des agrégats macro-économiques publiés jusqu’alors,… ».
  • L’INSEE ajoutait : « Mais cette année, les changements sont plus importants qu’à l’accoutumée. En effet, les concepts qui gouvernent l’établissement de ces chiffres ont fait l’objet d’un toilettage, ce qu’on appelle dans la terminologie des comptes nationaux un « changement de base ». Cela signifie que la définition exacte de nombreuses données et le contour de tous les grands agrégats (PIB, consommation, investissement, solde des administrations publiques, etc.) sont modifiés. Corrélativement, le niveau et, dans une moindre mesure, la chronique de ces données sont modifiés sur l’ensemble de la période couverte par les comptes nationaux, c’est-à-dire depuis 1949… ».
  • Ensuite l’INSEE expliquait : « En base 2010, l’Insee comptabilise par exemple en investissement les sommes que les agents économiques (entreprises privées, mais aussi organismes publics) dépensent pour la R&D, alors qu’elles étaient jusqu’à présent comptabilisées en consommations intermédiaires … »
  • Enfin l’INSEE ajoutait : « Il résulte de l’ensemble des modifications apportées une révision substantielle à la hausse du niveau du PIB (+ 3,2 % en 2010, soit + 61,8 Md€) pour un impact nettement plus modeste sur les taux d’évolution».

 

Depuis, les bases changent et se diversifient, et toutes les années de référence apparaissent… Le travail de prévision à long terme devient ainsi de plus en plus difficile.

Est-il encore possible de faire confiance aux statistiques officielles ?

 

Des prévisions pour 2023 ?

            Évidemment, les prévisions  faites en 2015 supposaient  la constance des influences conjoncturelles extérieures : croissance de la dette, taux d’intérêt, cours mondiaux qui ont un effet quasi immédiat…

            Elles supposaient également la stabilité des bases statistiques nécessaires à une bonne prévision. Qui peut croire que nous puissions avoir longtemps une croissance en valeur réelle de 0,15% par trimestre, soit en 2018 de 3 Milliards en valeur réelle, une dette qui progresse par an de 80 Milliards, un déficit commercial de plus de 60 Milliards et une fuite des capitaux de 20 Milliards par an ?

Une économie apparemment stabilisée :

En fait, il apparaît clairement une cohérence troublante entre ces chiffres. Tout se passe comme si 60 Milliards de production étaient sous-traités à l’étranger.

  • Nous importons 60 Milliards de denrées,
  • Nous exportons plus de capital que nécessaire, selon les paramètres du modèle Oméga-Allais (1/5 de cette production).
  • Notre dette augmente plus chaque année de la différence entre ces deux sommes.

Comme nous l’avons montré précédemment, (cf. : Le chômage importé), la politique  économique menée depuis déjà longtemps est directement responsable du chômage excessif dont souffre notre économie.

Pendant combien de temps accepterons-nous de compléter par des importations l’écart entre la production nationale et les revenus distribués à nos compatriotes ? Que se passera-t-il lorsqu’on nous demandera de rembourser la dette ?

 

Sous réserve de l’effet des modifications des bases statistiques, la valeur du PIB semble stabilisée en croissance régulière. La réalité semble bien différente.

 

      Figure 4 : Évolution du PIB :

  • Courbe rouge : PIB en base 2005.
  • Courbe bleue : PIB en base 2010.
  • Courbe verte : PIB en base 2014 (recalée de -4%).

 

Les valeurs annuelles du PIB présentée en 2018 sont supérieure de 4% par à celle présentées en 2015 en base 2005. Comme l’a démontré le prédicteur Oméga-Allais, cette évolution des statistiques interdit de faire des prévisions fiables. Pour ce faire, il est en effet nécessaire de disposer de données cohérentes sur une période d’au moins 15 années.

Il faut également nécessaire de connaître la fuite des capitaux sur la même période.

Figure 5 : Écart entre les données en base 2005 et 2014.

 

Cet écart de l’ordre de 10% du PIB entre les bases statistiques 2005 et 2014 ne peut que résulter de modifications très importantes du mode de calcul. Changer en permanence les bases statistiques revient à se boucher les yeux sur l’économie réelle !

Adapter les agrégats à l’évolution de l’économie est essentiel. Pour les transports, le pétrole a remplacé le fourrage ! Mais la baisse au cours du temps du prix des nouveaux produits et services ne doit pas cacher la hausse des autres.

 

Un avenir très sombre :

            L’évolution de notre économie est extrêmement préoccupante. La consommation est dopée par la croissance de la dette. Nous sommes dans une spirale infernale. Toute réduction de la croissance de la dette réduirait sensiblement le niveau de vie de nos concitoyens, puis conduirait à une réduction corrélative des investissements internes.

            N’envisageons même pas les conséquences qu’aurait une tentative de réduction de celle-ci.

            Les aviateurs connaissent la chute en vrille, seule figure d’acrobatie aérienne inconditionnellement stable, et dont il est difficile de sortir. Nos dirigeants semblent ne pas comprendre que la politique actuelle conduira à un surendettement catastrophique pour notre économie.

Enfin, réfléchissons à l’origine de cette dette qui peut se décomposer en deux parties bien distinctes : Une fluctuation aléatoire  à moyenne nulle et une dette systémique correspondant à un transfert de souveraineté des nations à des organismes supranationaux, ou même privés, qui ne défendent que leurs intérêts.

 

Figure 6 : Dette publique depuis 1973.
Extrait du rapport Pucci-Pinel.

 

À la suite d’André Jacques Holbecq qui dit dans son livre (La dette publique, une affaire rentable) un rapport de 2010 montrant l’évolution de la dette publique depuis 1973, attachons nous à séparer cette dette en deux parties : une dette fluctuant à court terme indispensable au fonctionnement de l’état, d’une dette systémique qui était alors quasi nulle.

 

            Souvenez-vous. Nous sommes rentrés dans cette spirale infernale vers 2009. C’est-à-dire peu après la signature du traité de Lisbonne !

            Les français n’avaient-ils pas eu raison de répondre NON au référendum de 2005 ?

 

 

Pierre FUERXER

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

 

 

Comment l’écologie est utilisée comme prétexte à taxation

L’imposture écologique

D’un rêve humaniste à la vérité scientifique.

Une vraie question :

Nous savons tous que les ressources naturelles sont limitées. Les exemples ne manquent pas. Auprès de nous, les mines de charbon anglaises et les mines de fer lorraines ont été fermées après avoir contribué à l’économie européenne.

Nous savons également que des méthodes agricoles inappropriées ont  stérilisé les sols : cultures sur brûlis, déforestation excessive, abus de pesticides…

L’humanité ne fait-elle pas, depuis toujours, un usage excessif de ressources limitées, souvent non renouvelables ?

Aveuglée par le mirage d’un progrès sans fin, l’humanité ne devrait-elle pas se rendre compte de l’irresponsabilité de sa conduite ?

L’écologie, si elle correspond réellement au souci de préserver l’avenir de nos descendants, n’est-elle pas alors une nécessité impérieuse ? Ne doit-elle pas être la préoccupation de tous les responsables économiques ?

Peut-elle être instrumentée par des intérêts particuliers ou se satisfaire de réponses simplistes, ne prenant pas en compte la complexité de l’économie moderne ?

Une planification économique souple :

            En France, des mesures ont été prises par les pouvoirs publics, mais leur efficacité est restée limitée. En 1962, le général De Gaulle avait rattaché le SGDN (secrétariat général de la défense nationale) au premier ministre dans le but de lui donner plus de poids dans les choix stratégiques pour le pays.

Par ailleurs, des plans successifs, établis en concertation avec les différents acteurs, devaient permettre d’anticiper les conséquences des décisions de politique industrielle. Force est de constater que ces outils, bien qu’incomparablement supérieurs aux plans autoritaires de l’union  soviétique, n’ont eu qu’une efficacité limitée.

Nos compatriotes comprennent clairement que la protection de notre planète et de ses ressources doit être l’objectif des responsables économiques. Malheureusement, ne pouvant analyser par eux-mêmes ces problèmes complexes, ils font confiances aux spécialistes.

L’usage abusif du syllogisme :

            Au cours du temps, les experts ont souvent changé d’avis et recommandé des solutions différentes, que ce soit pour le chauffage des appartements ou la propulsion des véhicules automobiles. À chaque fois, ils ont justifié leurs préconisations par des arguments péremptoires, basées sur des simplifications excessives des critères de choix. Ils ont ainsi perdu une grande part de leur crédibilité auprès des personnes compétentes.

Pour être convaincants, ils ont justifié leurs positions par des syllogismes dont la capacité à conduire à des contre-sens est connue depuis l’antiquité. L’exemple type de ces argumentaires est celui visant à inciter les consommateurs à changer de changer de véhicule :

  • Vous voulez protéger la planète,
  • Donc vous voulez réduire les émissions de gaz carbonique (mais cette affirmation n’est pas démontrée).
  • Donc vous voulez changer votre vieille voiture diesel (et prendre un voiture diesel moderne, une essence ou, solution ultime un véhicule électrique).

Cette argumentation est évidemment absurde. Elle est construite sur un postulat : le gaz carbonique est seul responsable du réchauffement climatique. Supposons que le gaz carbonique soit réellement néfaste et le seul responsable du réchauffement climatique, donc d’une apocalypse annoncée. Que devrions-nous faire pour réduire sa production ?

  • Acheter un véhicule électrique ? Avons-nous déterminé la consommation de pétrole et de gaz nécessaire à sa fabrication (y compris celle de la batterie) et de l’électricité qu’elle consommera et qui est produite par les centrales à Gaz ou même au charbon ? (Tant qu’an moins une partie de l’électricité est produite par des centrales au charbon, nous devons prendre en compte ce cas le plus pénalisant du point de vue de la production de gaz carbonique).
  • À défaut, acheter l’un des véhicules à moteur thermique bénéficiant des primes actuellement décidées  et dont nous devons également évaluer la contribution à la production de gaz carbonique.

Est-il donc juste d’affirmer que le meilleur choix est toujours l’achat d’un véhicule électrique et qu’il faut détruire les véhicules anciens ?

Une comparaison objective des véhicules ?

            Sur cette base, nous pouvons maintenant comparer objectivement les différents choix qui nous sont proposés. Dans tous les cas la production d’un véhicule nécessite la consommation d’énergie, et donc la production d’une quantité minimale de gaz carbonique. Sans chiffrer précisément cette quantité d’énergie, nous pouvons l’estimer  proportionnelle au PRU (prix de revient usine) des véhicules.

Pour que la comparaison des véhicules soit objective, il faut ajouter à la contribution carbone d’un véhicule électrique celle des batteries louées qu’il faut lui associer.

 

Il faut prendre ensuite en compte la consommation kilométrique d’énergie et la production de gaz carbonique correspondante. Ce calcul est facile dans le cas des véhicules à moteur thermique. Pour les véhicules électriques, il faut prendre en compte le gaz carbonique produit dans la centrale électrique ayant servi à recharger la batterie, et le rendement énergétique de cette batterie (Comme cela a été dit précédemment, lorsque plusieurs centrales alimentent le réseau, le taux de gaz carbonique pris en compte doit être celui de la centrale la moins performante).

 

            Ce n’est que sur la base de ces estimations qu’il est possible de faire une comparaison objective des différentes techniques automobiles. Nos véhicules actuels ne sont-ils pas alors, le plus souvent, les plus éco-responsables ? Puisqu’ils existent, les dépenses initiales ayant déjà été faites, continuer à utiliser la plupart de nos véhicules actuels réduirait souvent la production totale de gaz carbonique.

 

Ne nous fait-on pas prendre des vessies pour des lanternes grâce à un syllogisme…

 

 

Pierre Fuerxer.

Membre de l’AIRAMA.

 

 

Télécharger l’article en PDF

 

 

Remise du prix Maurice Allais 2018, à M. Guy Berthault

Entouré de ses camarades de promotion (1), leurs épouses, des veuves d’anciens camarades , des membres du conseil d’administration de l’AIRAMA (Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais prix Nobel 1988 en économie et physique) et de Cécile Zammit-Popescu, maire de Meulan, Guy Berthault, ingénieur diplômé de l’École Polytechnique, promotion 1945, Chevalier de la Légion d’Honneur et de l’Ordre National du Mérite, a reçu le 15 mai dernier, au cours d’une réception à son domicile meulanais, le Prix Maurice Allais décerné par l’AIRAMA.

le Prix Maurice Allais décerné par l’AIRAMA

Arnaud Upinsky
Arnaud Upinsky, président de l’AIRAMA

Cette distinction lui a été attribuée pour les travaux et l’aide scientifique, en physique, qu’il a apportée à Maurice Allais. C’est ce qu’a exprimé le président de l’AIRAMA, Arnaud Upinsky, avant de remettre le prix. Auparavant Philippe Bourcier de Carbon, président d’honneur, avait fait un rappel de la contribution de Maurice Allais en économie et physique, soulignant les difficultés qu’il avait rencontrées pour être reconnu, le prix Nobel qu’il reçut en 1988 venant toutefois « couronner » sa carrière. Probablement avait-il eu tort d’avoir raison trop tôt car il dénonçait les dangers de la mondialisation et ses conséquences : diminution, voire stagnation de la croissance et augmentation du chômage.

Contribution scientifique de Guy Berthault

Guy Berthault
Guy Berthault recevant le Prix Maurice Allais 2018

C’est le trésorier, Pierre Fuerxer, qui évoqua la contribution scientifique de Guy Berthault et sa carrière atypique. En voici quelques extraits :

« Guy Berthault est un polytechnicien de la promotion 1945. Son père ayant créé une société qui est devenue une des plus grandes entreprises françaises de la grande distribution, il a naturellement été amené à participer au développement de l’entreprise familiale. Il a donc été D.G.A. de Viniprix et administrateur d’Euromarché, membre de section du Conseil Économique et Social. Il a été, en France, un grand promoteur de l’intéressement et de la participation du personnel à l’entreprise…

… Comme Maurice Allais, devenu économiste, Guy Berthault a continué à s’intéresser à la science et en particulier à la physique. Ayant lu dans la revue des anciens élèves de l’École Polytechnique le compte-rendu des expériences pendulaires de Maurice Allais, il a fait sa connaissance en 1989. Il lui a proposé sa collaboration. Dans le cadre de celle-ci, il a organisé avec des physiciens internationaux des expéditions pour mesurer « l’effet Allais », déviation azimutale d’un pendule lors d’une éclipse de soleil. Celles-ci ont eu lieu lors de différentes éclipses de soleil en Finlande et Russie en 1990, au Mexique en 1991, au Brésil en 1994, en France en 1999…

Travaux de Guy Berthault en géologie

Guy Berthault observe que la géologie historique, fondée sur l’interprétation de Stenon, n’est pas prouvée, car nul n’a été témoin de la stratification. Pour cette raison, il a entrepris un programme expérimental d’étude de la stratification en 1970.

Il existe, dans les roches sédimentaires, des strates de faible épaisseur millimétrique ou « laminae », qui sont semblables aux « feuillets » observés par Lyell qui les interpréta comme des dépôts annuels. Guy Berthault préleva un échantillon de grès de Fontainebleau, qu’il broya et laissa tomber dans une éprouvette à sec, puis dans l’eau. Il en résulta alors des laminées identiques à celles de l’échantillon de grès. Il s’agissait donc d’un phénomène mécanique naturel et non de dépôts annuels pouvant servir à établir une chronologie.

Le compte-rendu de ses expériences fut présenté à l’Académie des Sciences de Paris par le professeur Georges Millot, directeur de l’Institut de Géologie de Strasbourg, doyen de l’Université, membre de l’Institut, alors président de la Société Géologique de France, qui le publia dans ses comptes-rendus en 1986. À la suite de quoi, le professeur Georges Millot le fit admettre à la Société Géologique de France, en qualité de sédimentologue.

Guy Berthault fit étudier la stratification au laboratoire d’hydraulique de l’Université du Colorado dans un canal circulant et montra la présence de strates dans le dépôt… Ces expériences ont confirmé que la stratification des dépôts résulte d’un phénomène mécanique naturel… Le compte-rendu de cette étude a été publié en 2011 dans « Lithology and Minerai Resources », journal de l’Académie des Sciences et de l’Institut de Géologie de Russie.

Par ailleurs, il a été conforté dans ses analyses par le fait que la datation radiométrique des roches n’est pas davantage fondée… À preuve, les datations au potassium/argon radioactifs de roches résultant d’éruptions volcaniques récentes, de dates historiques connues, indiquent parfois des millions d’années. Cela résulte d’un excès d’argon provenant en grande partie de la lave qui a donné naissance à la roche…

… Guy Berthault soutient depuis plus de dix ans le développement à l’observatoire Royal de Belgique, par l’équipe de Michel Van Ruymbeke, des balances gravitationnelles permettant de valider en statique les postulats retenus par Newton : symétrie des forces, égalité de l’action en de la réaction, indépendance des matériaux… »

Dans cet article, nous ne pouvons évoquer toutes les contributions de Guy Berthault mais sa démarche est toujours la même : remplacer les a priori par des faits. Ses travaux scientifiques, en particulier dans les domaines de la sédimentologie, de la stratigraphie et de la datation géologique, ouvrent de nouvelles perspectives à la communauté scientifique.

C’est avec l’orchestre créé par des membres de la promotion 1945, Dixieland Senior’s, un jazz band toujours animé par François Mayer (trombone), dernier musicien du groupe d’origine, que l’après-midi se poursuivit dans la convivialité et la bonne humeur.

Par cette remise de prix, à laquelle les Échos de Meulan sont honorés d’avoir été conviés, nous mesurons combien cette distinction met en valeur un homme d’une grande simplicité, animé par une rigueur scientifique basée sur les faits comme l’était Maurice Allais.

 

Source : les Échos de Meulan du 9 juin 2018, par Yves Maretheu

 


 

(1) Rencontre du 70ème anniversaire de sortie de polytechnique de la promotion 1945