Catégorie : Analyses & Recherches

La reconnaissance des apports de Maurice Allais présente ici des analyses et des poursuites de recherche ouvertes par Maurice Allais.
Elle est subdivisionnée aux domaines principaux traités par Maurice Allais :
— L’économie,
— La monnaie,
— La physique,
— Divers.

Un rêve de physicien…

Le rêve d’un physicien.

 

Préambule :

               Retraité depuis déjà longtemps, un polytechnicien revient sur sa carrière d’ingénieur. Les progrès en à peine plus d’un siècle n’ont-ils pas été considérables ? Faut-il s’en émerveiller ou s’en étonner ? Ceci résulte-t-il de progrès considérables des connaissances scientifiques ou de la technologie ? N’avait-il pas admis, au moins implicitement, au cours de sa carrière d’ingénieur que ceux qui savent réalisent, et ceux qui ignorent enseignent ? En réalité, comment technologie et progrès théoriques s’épaulent-ils ?

               Pour comprendre l’état actuel des connaissances, il se demande pourquoi des vérités scientifiques, aujourd’hui incontestées, se sont imposées. Les choix conceptuels qui ont été faits au 20° siècle ont-ils été judicieux ? D’autres approches n’auraient-elles pas été préférables ?

               Il se met alors successivement dans la peau d’un élève des promotions 2005, 1960 puis 2015 et  découvre  que les mathématiques et la physique ont toujours eu des relations conflictuelles. La rigueur des premiers et l’intuition des seconds sont-elles compatibles ? Les physiciens s’opposent-ils toujours aux idées nouvelles? La physique du 21° siècle sera-t-elle celle dont il a toujours rêvé ?

               Enfin, il décrit la physique dont il rêve, et qu’il espère voir s’imposer en 2070, trois fois 55 ans après la rupture de 1905 qui a conduit à la physique relativiste et quantique que nous connaissons.

La physique en 1905 :

Que lui aurait-on enseigné à l’école Polytechnique en 1905 ? Henri Poincaré, son jeune professeur  d’astronomie, lui aurait sans doute présenté le problème des trois corps, mais vraisemblablement pas les expériences de Michelson, ni les ides idées de Lorentz sur la contraction des corps en mouvement, qui étaient encore très contestées.

Les modes de pensée des physiciens et des mathématiciens étaient et restent très différents. Les mathématiciens raisonnaient avec rigueur sur la base d’axiomes parfaitement explicités. Les physiciens essayaient de construire des théories susceptibles d’expliquer, au moins qualitativement, les phénomènes qu’ils observent.

En 1905, ce jeune élève (on ne disait pas étudiant, terme réservé à l’université), s’endort pendant un cours dans le grand amphi (aujourd’hui devenu l’amphi Poincaré), alors que son professeur explique que les plus lourds que l’air ne peuvent pas voler. Malgré les débuts de l’aviation, son argumentation de son professeur avait l’apparence d’une démonstration. Depuis, nous avons appris que, grâce au développement de grandes souffleries, la démonstration de son professeur était mathématiquement exacte, mais que ses hypothèses correspondaient à un cas d’école « idéalisé » qui ne se rencontre qu’exceptionnellement dans le monde réel, et qu’heureusement les aviateurs savent éviter. En mathématicien, ce professeur avait fait une démonstration rigoureuse, mais sur la base d’hypothèses trop restrictives, réduisant la portée de ses conclusions. Les fous volants ont prouvé que sa démonstration n’était pas pertinente.

Au même moment, les physiciens étaient préoccupés par l’échec des expériences de Michelson. En 1881, celui-ci avait tenté de mesurer la « vitesse absolue » de la terre avec un interféromètre de seulement 1,20 m de longueur. Après ce premier échec, d’autres expériences avaient conduit à des résultats jugés non significatifs. Pour expliquer ces résultats, Lorentz avait imaginé que les corps en mouvement se contractent dans la direction de leur vitesse. Compte tenu de cette hypothèse,  la vitesse de la lumière devenait apparemment isotrope dans un interféromètre mobile. Il s’agissait là d’une hypothèse « ad hoc », justifiée par aucune théorie physique. Sans entrer dans la genèse de la théorie de la relativité, expliquée de façon remarquable par Jules Leveugle dans son livre publié en 2004 (1), Lorentz agissait comme bien d’autres physiciens avant lui. Il traduisait en loi physique le résultat d’une expérience, ici l’échec de la mesure la vitesse absolue de la terre.

Poincaré, après avoir démontré que l’hypothèse de Lorentz était mathématiquement recevable, établit les formules de changement de repère qui en résultaient. Il démontra ensuite que ces formules ont des propriétés remarquables et constituent, en langage mathématique, « un corps », notion encore largement ignorée des physiciens.  Il ajouta donc, aux grands principes de la physique, le principe de relativité, selon lequel les lois de la physique doivent être les mêmes pour tous les observateurs.

À cette époque, Planck était responsable du choix des articles de physique théorique au sein de la revue allemande « Annalen der Physik ». Comme l’a démontré Jules Leveugle à partir de documents originaux, celui-ci privilégiait naturellement les articles favorables à sa théorie des quanta, et prit parti pour la théorie de la relativité.

La physique vers 1960 :

               Une cinquantaine d’années plus tard, jeune polytechnicien, je découvre une physique totalement différente. Les polémiques nées autour des théories quantiques et relativistes sont totalement oubliées. À l’exception de Monsieur Tardi, lointain successeur de Poincaré au poste de professeur d’astrophysique, les physiciens présentent leur discipline d’une façon dogmatique. Le doute n’a plus sa place. La théorie de la relativité générale est une évidence. Les grands instruments, accélérateurs et cyclotrons, ont permis d’observer de nombreuses particules stables ou instables. Les plus grands espoirs sont mis dans « le modèle standard ». En un mot, nous approchions de la fin de l’histoire !

               Plus personne n’osait s’interroger sur les origines des certitudes scientifiques devenues de véritables dogmes. Encore moins s’étonner que les équations de Maxwell introduisent un « courant de déplacement fictif » circulant dans le vide. Peut-on parler d’onde et de courant sans qu’il existe, dans un milieu de propagation,  deux formes d’énergie ? Par exemple, en ondes mécaniques, l’énergie cinétique et une énergie potentielle ? Comment peut-on occulter ces réalités ?

               Plus personne ne s’étonnait qu’un photon, initialement supposé ponctuel par Einstein, et devenu plus tard beaucoup plus mystérieux, soit susceptible de  se matérialiser en un lieu précis, par exemple dans une diode semi-conductrice ? Cela ne rendait-il pas suspecte cette particule ?

               Heureusement, de nombreux ingénieurs, maîtrisant parfaitement les concepts et les techniques anciennes, ont pu participer à l’essor extraordinaire des techniques que nous avons connu : électronique, télécommunications, détection, géolocalisation, informatique… Tous domaines dans lesquels rien n’aurait été possible si la technologie n’avait autant progressé.

               La courbure gravitationnelle des rayons lumineux ayant été observée en 1915, lors d’une éclipse de Soleil, il eut été raisonnable d’abandonner la théorie de la relativité. En effet, cette expérience démontrait que la vitesse de la lumière n’est pas une constante universelle et que sa variation gravitationnelle, bien que faible, pouvait être mesurée.

               Au lieu de reconnaître que ce résultat reléguait la théorie de la relativité au rang d’une approximation locale, une nouvelle théorie extrêmement complexe, difficile à utiliser, et que seuls quelques spécialistes disent maîtriser, était présentée comme l’aboutissement d’une longue évolution  de la physique théorique vers sa perfection.

               Si la lumière ne se propageait pas strictement en ligne droite, ne suffisait-il pas d’en tenir compte ? Supposons que pour faire des mesures précises de distance, vous ne disposiez que d’un décamètre. Vous chercheriez à déterminer avec la plus grande précision possible les effets éléments parasites : tenson du décamètre, effet de la flèche du ruban lorsqu’il ne repose pas sur le sol… Vous n’auriez pas, comme les relativistes, pris votre décamètre  comme référence et modifié en conséquence la géométrie devenue non euclidienne !

               La théorie de la relativité était enseignée à tous les étudiants, bien que de nombreux physiciens aient longtemps douté de sa pertinence. Au long du 20° siècle, des physiciens illustres avaient cherché à en tester la validité de cette théorie. De nombreuses expériences avaient été faites pour valider (ou non) la théorie de la relativité. En 1925-1926 Miller avait fait des mesures avec un immense interféromètre extrêmement rustique. Maurice Allais a  analysé ses résultats, ainsi que d’autres expériences dans son livre sur « L’anisotropie de l’espace » (2). Il effectua personnellement des mesures avec des pendules « paraconiques », et, à la demande de l’IGN (Institut Géographique National), des mesures d’anomalies signalées sur les visées optiques. En 1964, William Bertozzi observa la vitesse d’un électron et nota que celle-ci restait toujours inférieure à celle de la lumière. Il en conclut à la validité de la relativité restreinte, mais ses résultats restaient assez qualitatifs. (Voir L’expérience de William Bertozzi (3) ).

               Toutes ces expériences, quelles qu’en aient été les conclusions, ont été réalisées avec les technologies de leur temps, ce qui les rend aujourd’hui éminemment contestables. D’autres expériences, impossibles en 1960, ne devraient-elles pas être réalisées ? Ne pourraient-elles pas conduire les étudiants à effectuer de remarquables Travaux de thèse ?

               Parallèlement, l’atome avait pris une immense place dans la physique. Un gros effort avait été fait dans de le développement des bombes nucléaires, puis des centrales nucléaires qui devaient rendre l’énergie à la fois disponible et bon marché. Physique nucléaire et mécanique quantique avaient pris naturellement une place essentielle dans l’enseignement de la physique.

               Une autre invention, celle du pompage optique avait conduit au développement du LASER qui a révolutionnera l’optique, l’industrie des machines outil, et même les produits audio-visuels destinés au grand public. Par des considérations purement théorique, Alfred Kastler avait prédit qu’il devait être possible de rendre plus intense l’émission des raies spectrales des atomes en les soumettant à un rayonnement lumineux de longueur d’onde plus courte. Dans les années 50, son équipe avait démontré l’exactitude de son intuition. Très rapidement, de nombreux chercheurs avaient réalisé des LASER. Aujourd’hui, le grand public ne s’étonne pas d’utiliser des quantités de sources LASER dans de très nombreux équipements.

La physique en 2015 :

               Après une carrière au cours de laquelle il avait participé avec passion aux innovations rendues possible par les progrès immenses de la technologie électronique, ce même polytechnicien s’interroge sur l’évolution de la physique au 21° siècle.

Le 14 septembre 2015, aux États Unis, les physiciens ont détecté pour la première fois  des ondes gravitationnelles. Les  interféromètres de Livingston  et de Hanford obtiennent un premier signal. Pour eux, cette détection est un événement très important, car elle confirme l’existence des ondes gravitationnelles indispensables à la cohérence globale de la physique.

               En effet, Poincaré avait établi en 1900 la masse de l’énergie. Sa démonstration, extrêmement simple, faisait appel à la seule mécanique classique et s’appliquait à toutes les formes d’énergie, comme cela est expliqué clairement dans le livre de Jules Leveugle (1). Ainsi, toute forme d’énergie a donc nécessairement une masse. Une onde électromagnétique, se déplaçant à la vitesse de la lumière, ne peut donc qu’être associée à une onde de gravitation de même vitesse.

               Sur le campus de Saclay, la découverte attendue des ondes gravitationnelles est présentée comme une confirmation éclatante de la théorie de la relativité. En réalité, plus d’ un siècle plus tôt, une analyse objective des écrits de Poincaré aurait permis de comprendre, par la seule réflexion, que ces ondes de gravitation étaient une conséquence naturelle des équations de Maxwell et de toutes les lois de la physique pré-relativiste.

               Tout au cours du 20° siècle, et Indépendamment des recherches théoriques des physiciens, le développement des systèmes électroniques, soutenu par la demande du marché, a conduit à des progrès considérables de la technologie, et par ricochet de la physique.  Enfin, les travaux théoriques de Fourier et Laplace, effectués il y a presque deux cent ans,  ont été enfin largement utilisés. Sans les systèmes de télécommunication, les RADAR, les gyromètres LASER, bien des phénomènes n’auraient pas été étudiés et compris : la modulation, les bruits et les interférences…

               Les gyromètres LASER ont mis en évidence l’effet de couplages parasites dans les systèmes optiques. Nous savons que ces gyromètres sont aveugles lorsque leur vitesse de rotation est inférieure à un seuil donné. Aurions-nous réalisé ces gyromètres si, en 1925, Michelson et Gale n’avaient pas observé la rotation de la Terre ? Quelle physique aurions-nous imaginé ?

En 2018, le prix Nobel de physique a été attribué au français Gérard Mourou. Ce prix a récompensé des travaux sur la génération d’impulsions LASER extrêmement courtes, utilisées notamment dans des applications médicales.  Ces résultats correspondent à des techniques de traitement de signal utilisées en RADAR et en télécommunications sous les noms de compressions d’impulsion et d’étalement de spectre. Ces techniques avaient été utilisées bien avant par les animaux, chauves-souris ou mammifères marins pour détecter et localiser leurs proies. Ce Prix Nobel de physique 2018, récompense ainsi une application de la physique classique et de travaux théoriques sur l’analyse spectrale de près de deux siècles.

 La physique quantique aurait pu revendiquer un rôle dans ces avancées, mais elle ne décrit que globalement l’émission de lumière par les LASER, sans expliquer le processus physique mis en œuvre. En effet, la théorie quantique ne décrit pas les transitions entre niveaux atomiques, mais seulement leurs résultats : l’émission d’un signal optique. Ainsi, elle n’explique pas les mécanismes physiques, et en particulier l’émission stimulée de lumière, à l’origine du rayonnement LASER.

La course aux grands instruments scientifiques s’est poursuivie. Des années 50 à nos jours, le CERN n’a cessé de construire des instruments de plus en plus puissants (accélérateurs de particules, synchrotrons, cyclotrons). Des laboratoires comme le projet de confinement LASER du « Lawrence Livermore National Laboratory », situé en Californie, ou le projet de Tokamak ITER, construit en France, font rêver à des systèmes capables de produire une énergie abondante et bon marché, un rêve déjà proposé par les centrales nucléaires.

L’analyse de ces grands programmes internationaux dépasse très largement le cadre de cette réflexion sur la physique de 2015. Aujourd’hui, la faisabilité de ces grands projets n’est toujours pas démontrée, et de nombreuses voix  s’élèvent pour contester leur capacité à atteindre les objectifs industriels annoncés. Comment ces projets pourraient-ils tenir ces promesses alors que la mise en service des centrales nucléaires, simples machines à vapeur à chauffage nucléaire, est contesté ? Comment ces monstres pourraient-ils fournir l’énergie abondante dont nos héritiers auront besoin ?

Pour avoir visité différents laboratoires travaillant sur le confinement LASER et des Tokamak, assisté à des congrès consacrés à l’étude des plasmas, ce physicien s’interroge. Que penseront les générations futures des grands instruments scientifiques conçus à la fin du 20° siècle, cyclotrons, Tokamak, lasers de puissance ou grands interféromètres, qui ont mobilisé tant de chercheurs et de moyens financiers ?

Une nécessaire mise en cause des dogmes :

               La physique peut-elle poursuivre longtemps dans  la voie actuelle ? Ne doit-elle pas s’interroger sur l’adéquation de l’orientation prise en 1905 ? Ne doit-elle pas mettre en cause les options prises, il y a plus d’un siècle, sur la base d’expériences alors inexpliquées ? Les choix faits ont-ils réellement été imposés par les résultats expérimentaux ? Les principes fondateurs de la physique actuelle justifiaient-ils réellement une telle révolution conceptuelle et la mise en cause de toute notre culture mathématique ? Depuis, ont-ils été invalidés par de nouvelles expériences ?

  • Considérons en premier, l’expérience de Michelson : apparemment simple, ce dispositif expérimental reste extrêmement difficile à étudier. Les optiques fonctionnent en champ proche, et depuis que les ordinateurs permettent d’effectuer des calculs de rayonnement sur les antennes actives des RADARS, et de choisir les meilleures apodisations, nous savons que les calculs élémentaires de déphasage faits alors par Michelson étaient loin d’être rigoureux. Des couplages négligés pourraient-ils rendre inopérants ces instruments ? En raison de couplages analogues, les gyromètres LASER n’ont-ils pas une plage de vitesse aveugle éliminable par une faible rotation mécanique périodique ?
  • Les quanta : En 1905, Einstein avait pensé pouvoir justifier l’hypothèse des quanta, chère à Planck, en observant l’arrivée aléatoire d’électrons dans un photomultiplicateur. En fait, cette expérience ne démontrait que la nature du courant électrique : un flux d’électrons. Elle n’apportait rien sur la connaissance du rayonnement lumineux.
  • La masse de l’électron : En 1964, l’expérience de William Bertozzi  a été considérée comme une preuve de la théorie de la relativité. À la sortie d’un accélérateur linéaire, la vitesse d’un électron ne pouvait dépasser la vitesse de la lumière. Effectivement, cette expérience prouvait bien qu’un électron ne peut dépasser la vitesse de la lumière, mais ne validait pas parfaitement la formule relativiste.
  • Les expériences d’intrication de photons sont totalement fantaisistes et peuvent seulement faire croire que la physique est un domaine mystérieux. Il est absurde d’imaginer l’existence d’un lien instantané entre photons, alors qu’une approche électromagnétique simple, et la modélisation statistique du détecteur, conduisent au bon résultat.
  • En astronomie, mesurer la distance des galaxies par le décalage vers le rouge (Red shift) est naturel. En revanche, affirmer qu’il s’agit d’un décalage Doppler ne serait démontré que si ces rayonnements étaient des fréquences pures, ce qui n’est pas le cas.
  • Enfin, mettre au programme de terminale les expériences d’interférences sur électrons uniques est totalement irresponsable, surtout en ne donnant pas l’explication classique de ce phénomène finalement assez simple. N’est-il pas naturel que le mouvement de l’électron induise des courants dans le masque et que ceux-ci influent sur sa trajectoire ? Pour un spécialiste de la discrétion RADAR, la présentation faite aux élèves de terminale de cette expérience est tout simplement risible. Quelle image de la physique et des physiciens, les plus intelligents d’entre eux auront-ils ? En déduiront-ils que la physique n’est, comme au temps des bouteilles de Leyde, qu’une science mystérieuse permettant de réaliser des expériences paradoxales pour briller dans les salons ?

Au lycée, la physique doit donner aux élèves les bases  nécessaires pour être sereins dans  le monde technique dans lequel ils vivront, et éprouver l’envie de le comprendre. Dans l’enseignement  supérieur, pour ne pas écarter les esprits les plus brillants, tout dogmatisme devrait être évité, les axiomes clairement explicités et justifiés, et surtout les domaines d’application des théories précisés.

Que devrait être la physique en 2070 ? :

Un peu  désappointé par ce constat, ce physicien se met à rêver et laisse libre cours à son imagination. Pour sortir des sentiers battus, le mieux n’est-il pas de prendre à contre-pied les choix actuels ? Acceptez de m’accompagner dans cette démarche et d’envisager à quelle physique pourrait conduire une mise en cause radicale des choix actuels.

Quelles seraient les bases de cette nouvelle physique ?

Parler d’ondes n’ayant pas de sens en l’absence d’un milieu de propagation, je vous propose  d’admettre l’existence de l’Éther. Le courant de déplacement introduit par Maxwell dans ses célèbres équations est donc réel. Contrairement à l’hypothèse de la relativité restreinte, le milieu de propagation de ces ondes ne devrait  pas être un solide mais une sorte de fluide. Nous admettrons que l’Éther, ce milieu de propagation des ondes, est non-linéaire. La variation gravitationnelle de la vitesse de la lumière résulterait alors de la non-linéarité de ce milieu, dont les propriétés seront représentées par la célèbre courbe en « S », apte à décrire, dit-on, la plupart des phénomènes physiques.   

Les ondes électromagnétiques correspondraient aux vibrations selon les deux directions de transverses par rapport à la direction de propagation. Les ondes gravitationnelles seraient, comme les ondes acoustiques, des ondes longitudinales. L’Éther pourrait ainsi vibrer selon les trois directions possibles, la vitesse de propagation de ces trois modes ondes étant « c », la vitesse de la lumière.

Comme en mécanique, et sans rien changer aux lois de l’électricité, l’énergie des champs électriques et magnétiques résulterait de la position et de la vitesse des charges électriques et de l’observateur par rapport au repère retenu ou par rapport à l’Éther, fluide siège de la propagation des ondes. Compte tenu de la non-linéarité de ce milieu, l’énergie des particules serait contenue dans les champs qui les entourent, plutôt que dans leurs seuls noyaux.

Toutes les particules seront alors des solutions d’une équation différentielle non linéaire. Certaines de ces solutions seront stables, d’autres instables et les particules correspondantes absentes de notre environnement. Comme des bulles se déplaçant dans l’eau de mer, ces particules se déplaceraient librement dans l’Éther… Cette nouvelle physique expliquerait enfin la dualité onde particule imaginée en 1923 par De Broglie. En optant résolument pour une physique réellement ondulatoire, elle unifierait les notions d’ondes et de particules, cette dualité perdant tout son sens.

Enfin, cette physique s’abstiendra de parler du Big-Bang autrement que comme un mythe de la création du monde qui, contrairement aux textes religieux, n’a ni signification philosophique ni valeur scientifique. Aucune expérience n’ayant prouvé que la dérive vers le rouge du rayonnement des galaxies lointaines résulte d’un effet Doppler, celle-ci sera attribuée à la non-linéarité du milieu traversé. Les raisons de ce décalage seront identifiées : la présence de particules neutres ou chargées dans le vide intersidéral, ou, tout simplement, la non-linéarité de l’Éther.

La chasse à la magie et aux phénomènes paradoxaux :

               Les phénomènes physiques ne sont paradoxaux que lorsqu’ils sont mal compris. Faute d’une analyse logique d’une expérience, l’humanité a toujours été tentée d’imaginer une explication magique ou simplement de construire un ensemble règle formelle, souvent incohérentes entre elles, rendant compte, au moins qualitativement, des observations. Bien évidemment, sans s’interdire d’utiliser ces formules magiques, cette nouvelle physique refusera de les considérer comme des lois mystérieuses de la nature et cherchera aux faits des explications réellement scientifiques.

               Les différentes expressions des relations d’incertitudes seront unifiées en une seule, construite sur la notion de bruits d’observation, et s’appliquant de façon universelle. Prenons un exemple dans le domaine RADAR. La localisation d’une cible nécessite la mesure d’angles et de temps d’arrivée d’une impulsion. Le Radariste estime les probabilités de détection et de fausse alarme, et pour chaque événement observé les dimensions du volume de l’espace-temps correspondantes. Il admet que ses mesures sont imprécises mais ne nie pas que chaque cible ait une position réelle, même s’il ne peut la connaître exactement. Cette analyse, présentée sur un exemple lié au RADAR, sera évidemment faite d’une façon analogue pour toutes les mesures, mêmes au niveau des particules élémentaires.

               Le photon ne sera plus une particule mystérieuse, mais redeviendra, conformément  au concept d’Henri Poincaré, un quantum d’action (4).  Depuis que nous disposons de sources LASER, nous savons qu’en lumière monochromatique, les images présentent des défauts caractéristiques. Nous savons également que les senseurs ne détectent pas toujours les signaux, mais qu’en revanche, ils présentent toujours un taux de fausses détections non nul. Ceci s’expliquera simplement, comme en RADAR, en considérant le détecteur comme un dispositif à seuil en présence d’un signal mélangé avec un bruit aléatoire, variable spatialement et temporellement.

               Bien évidemment, les tentatives de développement de géométries non-euclidiennes en vue de leur utilisation en physique seront abandonnées.

La fin des grands instruments scientifiques :

               Ces grands instruments n’ont pu être développés que grâce à des coopérations mondiales, associant un grand nombre de pays, par exemple 500 chercheurs appartenant à 50 nations, et avec le soutien actif de ce que nous appelons « la communauté scientifique ». Y participer peut en effet apporter aux jeunes chercheurs une expérience de laboratoire, mais en aucun cas leur permettre de remettre en cause les concepts dogmatiques de leurs aînés. Ces grands programmes de recherche ne peuvent donc avoir pour objet de mettre en évidence les inévitables lacunes de la physique issue de la révolution conceptuelle de 1905, et contribuent à stériliser l’ensemble de la recherche.

               Désappointés par les résultats décevants de grands instruments développés à la fin du 20° siècle, en égard aux efforts financiers et à l’investissement humain fait par les innombrables chercheurs ayant contribué à leur réalisation, les états arrêteront de soutenir leur développement. Ces instruments seront devenus des ruines. Dans quelques millénaires, nos lointains descendants se demanderont sans doute quel avait bien pu être la raison de leur construction et quel rôle, politique ou religieux, ils avaient au 20° siècle.

               En revanche, les télescopes et radiotélescopes devraient continuer à être développés. Ils sont en effet les seuls qui puissent nous permettre d’explorer l’univers, et d’étudier les lois de la physique dans des conditions (température, pression, champ de gravité…) qu’il restera toujours impossible de réaliser sur Terre. Toutefois, ces grands télescopes ne survivront, et ne pourront contribuer aux progrès de la physique, que s’ils collectent des données brutes, claires, et bien documentées. En effet, il ne sera pas possible de construire une nouvelle physique sur la base de données ayant subi des prétraitements justifiés par les théories scientifiques reconnues et des hypothèses non validées.

De l’exploration spatiale à la compréhension de l’univers :  

               L’homme a rêvé de marcher sur la Lune et sur Mars. Une fois ces rêves abandonnés, et quelles qu’en aient été les raisons, l’espace reprendra une place temporairement occultée par ces épopées : celle de nourrir les rêves de l’humanité. Alors que nous nous croyions le centre du monde, les astronomes ont déjà observé une quantité de galaxies, et détecté la présence de plus de 30.000 exo-planètes dont certaines pourraient ressembler à la nôtre…

Les poètes, fascinés par  l’immense univers auquel nous appartenons, pourront s’émerveiller. Pour les physiciens, après l’abandon des grands instruments scientifiques, l’univers deviendra l’immense laboratoire dans lequel ils pourront observer en direct des expériences irréalisables sur Terre. Les mathématiciens, retrouveront enfin l’espace euclidien infini dans lequel ils raisonnent, et dont ils ne peuvent se passer.

La mort de la physique ?

               La physique, telle que nous la connaissions depuis le 17° siècle, avait toujours essayé de rendre compte d’observations faites à l’aide de dispositifs expérimentaux simples. Son but était de découvrir les lois permettant de décrire avec précision leurs expériences et finalement de faire progresser la science. Ensuite, eux-mêmes ou des inventeurs talentueux, concevaient des machines tirant profit des connaissances théoriques acquises. La science physique remplaçait par un ensemble de théories et des modèles mathématiques, la connaissance parfois empirique des experts.

               An début du 20° siècle, les physiciens n’avaient toujours pas expliqué l’échec de l’expérience faite par Michelson en 1881 pour mesurer la vitesse absolue de la Terre. Ils avaient tenté, en vain, d’améliorer les performances de leurs interféromètres. Ils devaient alors faire un choix : admettre que leurs équipements étaient inaptes à faire cette mesure, ou, considérer que cette mesure était théoriquement impossible. Après une longue controverse, cette deuxième option s’imposa.

               Aujourd’hui encore, la physique est enfermée par cette victoire des « relativistes » qui refusent absolument toute mise en cause de leur choix fondateurs qu’ils appellent « Le principe de relativité ». Selon celui-ci, il serait théoriquement impossible de mesurer une vitesse absolue. Ils généraliseront ensuite ce principe en l’étendant aux accélérations. Selon ce nouveau principe de relativité, il serait impossible de mesurer une vitesse absolue, mais également une accélération absolue. Aujourd’hui encore, l’académie des sciences considère que toute loi physique doit être « généralement covariante », c’est-à-dire confirmer l’impossibilité de mesurer la vitesse ou l’accélération absolue d’un corps, mais ceci est-il réellement un choix judicieux ?

               Tout au long du 20° siècle, la physique a construit un ensemble dogmatique fondé sur la relativité et la mécanique quantique. Ce choix fait par des disciples zélés a été maintenu malgré les nombreux défauts de ces théories, en particulier la complexité mathématique de la relativité générale et l’incapacité de la mécanique quantique à décrire les phases transitoires (en particulier celles correspondant aux émissions lumineuses intervenant lorsque les électrons d’un atome changent de niveau  d’énergie).

               Cette attitude était-elle responsable, alors même que de nombreux phénomènes n’étaient, et ne sont toujours pas, expliqués ? Pouvait-on prétendre que tout avait été découvert ? La physique était-elle vraiment morte ?

Une renaissance possible ?

               Est-il possible que le rêve de ce physicien se réalise ? La physique peut-elle renaître ? Un retour aux sources peut-il lui redonner le dynamisme et la cohérence qu’elle a perdue ?

               En 1904, Henri Poincaré avait été le premier physicien à ajouter aux principes habituels de la physique « le principe de relativité », c’est-à-dire l’universalité des lois de la physique (3). Prenons un exemple simple. Considérons une horloge mécanique à balancier. Elle est sensible aux variations des forces de gravitation, mais son mouvement obéit aux mêmes lois de la physique quelle que soit sa place et l’altitude du lieu qu’elle occupe sur la Terre.

               Ce principe de relativité est bien différent de celui implicitement adopté par les relativistes. Si nous l’adoptions, les lois de la physique peuvent faire intervenir de nouveaux paramètres.  Au lieu de chercher à identifier des gravitons ou d’imaginer l’existence d’une matière noire, l’Éther ne permettait-il pas de comprendre l’univers, et la formation des galaxies, en particulier des nébuleuses spirales ? Ne sont-elles pas analogues aux cyclones qui se développent sur nos océans ? Devrait-on, comme en météorologie, faire intervenir un potentiel gravitationnel et la vitesse  locale de l’Éther ?

               Cette renaissance de la physique ne pourra avoir lieu que si une réflexion ouverte et une analyse critique des acquis du 20° siècle est entreprise. Il faudra lutter à la fois contre les défenseurs des vieilles idées du début du 20° siècle qui, tout en veillant au respect des dogmes, laissent de nombreux mystificateurs propager les théories les plus absurdes dans les grands médias.

               Un prochain document précisera comment l’enchaînement de faits apparemment sans importance a conduit à la situation actuelle, qui devrait conduire à la mort de la recherche fondamentale en physique. De nombreux acteurs universitaires, médiatiques, industriels,  de promoteurs de projets scientifiques internationaux, ont contribué inconsciemment à stériliser la physique et à en détourner les étudiants.

 

Pierre FUERXER

Membre de l’AIRAMA

 

Télécharger en PDF

 

 

 

 

[1] La Relativité, Poincaré et Einstein, Planck, Hilbert, par Jules Leveugle, L’Harmattan 2004.

[2] L’anisotropie de l’espace, Maurice Allais, Ed Clément Juglar, 1997.

[3] L’expérience de William bertozzi , ICI en PDF

[4] La physique du 21° siècle sera-t-elle ondulatoire, Pierre Fuerxer, URSI, JS 2011.

 

Une faillite inévitable ?

Les conséquences d’un choix politique fait en 1974.

Une réduction continue de l’emploi industriel :

Un document précédent (Le chômage importé [1]) montrait que le niveau élevé du chômage en France est clairement lié aux importations en provenance des pays à faible coût de main d’œuvre.     

Je présentais dans ce document le graphique suivant qui représente la réduction constante de la part de l’emploi industriel dans la population nationale depuis 1974 :

Figure 1 : Pourcentage des emplois industriels dans la population totale :

     Courbe rouge : Taux d’emploi observés,

Droite pointillée bleue : tendance à long terme.

 

            Cette cassure intervient en France six ans après 1968 et l’arrêt temporaire des investissements industriels que ces événements avaient provoqués. J’ai montré que le modèle Oméga original, publié en 1990 [2], décrit parfaitement l’évolution du PIB (en valeur corrigée des fluctuations monétaires) lorsque la fuite des capitaux est prise en compte. Peut-il expliquer également d’autres phénomènes mis en évidence par Maurice Allais, décrire les mécanismes sous-jacents, justifier ses « évidences empiriques » ? Ce modèle mérite-t-il pleinement d’être appelé Modèle Oméga-Allais ?

Les causes connues des difficultés actuelles :

            Depuis 1974, la France a renoncé au droit de battre monnaie, c’est-à-dire de créer « ex-nihilo » sa propre monnaie. Ce renoncement correspondait en fait à l’abandon, à terme, par l’état de toute souveraineté économique réelle. Cette décision a eu de nombreuses conséquences :

  • Ne pouvant plus être faite par l’État, la création monétaire nécessaire au fonctionnement de l’économie a été laissée aux banques privées,
  • Aujourd’hui, ces banques réalisent à leur profit l’ajustement de la masse monétaire, et, contrairement à l’état, prélèvent abusivement des intérêts sur ces sommes créées « ex nihilo ». De ce fait, en lieu et place de l’état, elles collectent un « impôt bancaire » sur la masse monétaire ainsi crée, ce dont de nombreux citoyens n’ont pas conscience.
  • Il en résulte une « dette publique » qui a été analysée dans de nombreux documents comme le rapport Pucci-Pinel de 2010, cité par André Jacques Holbecq dans son livre récemment réédité (La dette publique, une affaire rentable), et que bien sûr les articles de Maurice Allais, prix Nobel d’Économie. Cette dette publique, agitée comme un épouvantail, résulte presque exclusivement de la privatisation de la « planche à billets » au profit des banques. Cette véritable haute trahison, qui n’aurait jamais dû avoir lieu, pourrait être légitimement récusée.
  • Dans le passé, une création monétaire excessive par les états conduisait parfois à l’hyperinflation, à une hausse excessive des prix et finalement imposait une forte dévaluation de la monnaie. Cependant, utilisée avec prudence, cette inflation équivalant à un impôt prélevé sur tous les avoirs, et permettait d’équilibrer mécaniquement les comptes de la nation.
  • Ne disposant plus de ce mécanisme régulateur, l’état ne peut plus imposer à l’économie nationale des investissements ou des dépenses sociales sans emprunter les sommes nécessaires aux banques, et prévoir de les rembourser. Il perd ainsi la quasi-totalité de son pouvoir économique.
  • Enfin, la politique économique ayant été laissée aux banques, celles-ci ont naturellement cherché à protéger les dépôts bancaires, même si cela contribuait indirectement à la hausse du chômage dans notre pays.

L’État, ayant perdu son pouvoir économique, n’a pu lutter efficacement contre la montée du chômage que nous observons depuis 1974, malgré l’adoption de nombreux expédients qui permettent seulement d’en minimiser le niveau apparent et d’en limiter les inévitables conséquences sociales.

Une réduction de l’emploi d’une linéarité surprenante :

            Depuis 1974, l’emploi industriel a été réduit linéairement, année après année. Cette décroissance linéaire résulte-t-elle de circonstances fortuites ou d’une loi macro-économique sous-jacente ? En emplois équivalents temps plein, celui-ci suit la répartition des valeurs ajoutées entre les branches de l’économie représentée sur la figure 2.

 

Figure 2 : Répartition de la valeur ajoutée.

En bleu : Activité commerciales

En vert : Activités de service,

En rouge : Activité industrielles.

 

En effet, ces valeurs ajoutées sont très directement liées à l’emploi. La part de valeur ajoutée des activités commerciales est sensiblement proportionnelle au PIB, tout en étant fortement impactée par ses fluctuations économiques à court terme. Celle des activités de services suit la même tendance tout en étant plus stable à court terme. Enfin, la valeur ajoutée des activités industrielles diminue régulièrement, les emplois associés migrant vers les pays à faible coût de main-d’œuvre.

Ces données sont parfaitement cohérentes avec la décroissance linéaire de l’emploi industriel présentée sur la figure 1.

La délocalisation des emplois industriels :

            La délocalisation des emplois industriels a eu pour conséquence immédiate une hausse du chômage, mais également deux conséquences indirectes dont les effets se cumulent :

  • Une réduction du niveau de l’investissement industriel en France par rapport à la valeur qu’il aurait dû avoir pour maintenir la production,
  • Un déficit commercial résultant des importations devenues indispensables pour remplacer la production nationale absente.

Il faut enfin ajouter à celles-ci les effets indirects de la fuite des capitaux qui réduit mécaniquement la demande intérieure. Dans un premier temps, cette politique d’achat à l’étranger semble n’avoir que des avantages. Les coûts d’achat plus faibles à l’étranger semblent conduire à une augmentation du pouvoir d’achat des consommateurs et permettre de meilleures marges commerciales. Ensuite, l’économie nationale souffre : la production industrielle diminuant, la demande induite par la réalisation des investissements locaux ayant disparu, le  chômage augmente ainsi que les charges sociales qui lui sont liées, la recette des impôts diminue…

À long terme, la fuite des capitaux et le déficit de la balance commerciale ne peuvent conduire une économie qu’à la ruine.

Peut-on modéliser ce processus engagé en 1974 ?

            Le modèle Omega s’était donné pour objectif de démontrer que les fluctuations cycliques observées par les plus grands économistes de la fin du 19° siècle et du début du 20° siècle (le cycle Juglar, puis ceux Kitchin et Kondratieff) résultent du comportement naturel des acteurs économiques et apparaissent spontanément dans une économie fermée, inévitablement soumise à des perturbations multiples modélisables par un bruit blanc gaussien. Il a parfaitement atteint cet objectif.

Il restait à introduire les effets de la politique économique, responsabilité traditionnelle de l’État. Dans un premier temps, les effets de cette politique économique ont été modélisés en introduisant des incitations à investir et à consommer, représentant globalement les effets, souvent contradictoires, des politiques économiques menées. Bien que la France ait renoncé au droit de créer elle-même sa propre monnaie dès 1974, elle disposait encore d’une souveraineté économique résiduelle. Celle-ci lui permettait, en particulier, d’assurer l’équilibre de ses échanges extérieurs et de prendre en compte, sans remette en cause ses acquis, la mondialisation progressive de l’économie.

La création de l’EURO (€) et la libération des transferts de capitaux ont radicalement modifié les choses. La gestion de la nouvelle monnaie n’a plus à tenir compte des besoins des différentes nations.  La BCE, nouvelle autorité supranationale, s’est donné pour seul objectif de réguler le taux d’inflation, c’est-à-dire protéger les intérêts des détenteurs de capitaux. L’État perdait ainsi le dernier levier qui lui aurait permis de mener une politique économique et sociale propre.

Notre nation, la France, lorsqu’elle a choisi d’entrer dans l’EURO a perdu tout pouvoir économique réel, mais ceci ne nous empêche pas de faire des prévisions économiques à long terme !

Ainsi, comme cela a été montré, la prise en compte de la fuite des capitaux a permis de corriger les prévisions de PIB. Il reste cependant nécessaire de chiffrer l’effet du déficit du commerce extérieur qui n’est plus ajustable, comme par le passé, par une dévaluation de notre monnaie.

Une hypothèse de référence : une économie initialement stable :

            L’analyse d’un système complexe nécessite de séparer, autant que possible, les différents mécanismes contribuant à son évolution. De façon à mieux comprendre le rôle de la fuite des capitaux et des importations en provenance des pays à bas coût de main d’œuvre, nous allons considérer une économie nationale initialement stable, c’est-à-dire dont la consommation est constante, les prix internes fixes, les échanges internationaux équilibrés et le volume de la population constant.

Ce modèle stable est assez proche de l’économie française des cinquante dernières années, une fois son taux de croissance moyen compensé (le modèle Ω montre en effet qu’une faible modification du taux d’investissement peut conduire à une variation linéaire, croissante ou décroissante, d’une économie. Les résultats que nous obtiendrons sur cette économie globalement stable seront donc directement transposables à une économie réelle en croissance lente et régulière).  

            Nous introduirons ensuite dans cette économie un écart de compétitivité avec le reste du monde de façon à étudier les effets à long terme d’un déséquilibre extérieur. La population française ne représentant que 1% de la population mondiale, nous supposerons le monde extérieur stable et insensible à l’évolution de notre propre économie.

Enfin, nous considérerons que les pouvoirs publics et les organisations syndicales veillent au maintien du pouvoir d’achat des salariés. Nous supposerons donc que la politique économique menée se donne pour objectif de maintenir le pouvoir d’achat de la population (faute de pouvoir l’élever). Selon cette hypothèse, seul apparaît l’effet du remplacement d’une production nationale par l’importation de produits étrangers meilleurs marchés.

Dans ces conditions, nous admettons dans ce modèle qu’il n’y a pas de fluctuation des activités commerciales et que le volume des activités de service reste stable. Seule la production  industrielle décroît linéairement au cours du temps. Une fois corrigées du taux de croissance à long terme, les données statistiques publiées par l’INSEE (figure 2), sont quasiment identiques à celles de ce modèle simplifié. Nous avons donc décidé de ne prendre un compte, ni une légère croissance de la population et du PIB, ni leurs variations à court terme, dans le but de ne pas compliquer inutilement les calculs, et brouiller les conclusions de cette étude.

Une modélisation plus fine de l’économie :

            Le modèle OMEGA avait été conçu de façon à décrire le plus clairement possible le fonctionnement d’une économie en faisait des hypothèses fortes :

  • La stabilité monétaire : Une monnaie stable était supposée et disponible en fonction des besoins des entreprises mais aussi des consommateurs. La consommation s’adaptait dynamiquement à la production selon une loi décrivant le comportement temporel des consommateurs et assurant, à long terme, l’égalité moyenne entre production et consommation.
  • L’absence de déséquilibre extérieur : apparemment isolé, le modèle initial ne considérait pas réellement une économie fermée, mais plutôt une économie dont les échanges extérieurs, balance commerciale et investissements, étaient en moyenne équilibrés.
  • Pour prendre en compte des échanges internationaux importants, il a suffi d’introduire dans le modèle les déséquilibres extérieurs pour établir des prévisions valides, l’influence de l’évolution de l’économie mondiale restant une donnée exogène.
  • Le modèle Oméga étant linéaire, l’évaluation d’une situation économique réelle s’obtient très simplement en ajoutant aux modes propres de cette économie, les perturbations extérieures, en particulier les écarts entre sa compétitivité et celle du reste du monde. 

La séparation des variables :

            La linéarité du modèle nous a permis de considérer une économie stable puis d’introduire le déséquilibre des échanges extérieurs. Ceci conduit à une modélisation particulièrement simple :

  • Tous les paramètres économiques entrant dans le modèle économique sont constants : le PIB, les prix, la population…
  • Les seuls éléments variables sont la baisse des investissements industriels et le déficit de la balance commerciale.

Pour déterminer l’évolution du système économique, nous avons pris en compte la baisse de l’emploi industriel, estimé le niveau des désinvestissements nationaux résultant de cette baisse, puis estimé le déficit de la balance commerciale qui devait en résulter, en supposant constants les services et les activités commerciales qui contribuent à la création de valeur ajoutée et donc au PIB. Nous calculons alors, à quelles conditions ce PIB et les prix peuvent être globalement maintenus.

Le choix de données macro-économiques :

            De façon à éviter de prendre en compte la complexité de notre société, nous nous bornons à quelques données économiques essentielles représentant de façon schématique l’économie française :  

La part des activités délocalisables :

            Les courbes de l’INSEE montrent que, même à pouvoir d’achat global constant, les activités industrielles (et agricoles) ont été les plus délocalisées. La baisse de l’emploi industriel, source du chômage importé, serait donc la conséquence principale de la mondialisation. L’emploi industriel, chiffrée initialement à 35% de l’emploi total en 1974, correspondait alors à 35% du PIB. Depuis, sa contribution au PIB baisserait de 0,5% par an, pour devenir nulle vers 2045, ce qui est évidemment une extrapolation abusive.

La constance des activités de service :

            En cohérence avec l’hypothèse précédente, la part des activités de service, liées au fonctionnement de la société, seraient quasiment conservée. Ceci est une hypothèse naturelle, dans la mesure où la plupart des services sont liés, directement ou indirectement, aux entreprises et aux consommateurs.

La consommation :

            Celle-ci dépend du pouvoir d’achat, directement influencé par la politique économique et la conjoncture mondiale. Analysée en permanence par les économistes et les responsables politiques, ses variations reflètent davantage l’influence de la conjoncture mondiale que celle de la politique nationale. Nous ne prendrons pas en compte ses variations aléatoires jugées non significatives et ne mettent pas en cause l’hypothèse retenue dans le modèle : la stabilité du PIB. Nous admettrons enfin que la politique économique suivie par la nation parvient à stabiliser la consommation.

La réduction de l’investissement industriel :

            L’effet d’une réduction de 0,5% par an de l’investissement  industriel correspond à un désinvestissement régulier. Dans le modèle Oméga, un coefficient de capital moyen β lie l’investissement à la production. Sa valeur pour l’ensemble de l’économie avait été fixée à 2. Une  fonction de production Fy transformait alors un flux d’investissement en flux de production.

            La valeur du paramètre β retenue dans le modèle était une valeur moyenne. Il est raisonnable de retenir pour ce paramètre une valeur plus élevée dans l’industrie, qu’il serait facile de modifier au cours du temps.  Faute d’une valeur statistique publiée par l’INSEE, nous pouvons retenir pour ce paramètre β les valeurs suivantes :

  • Pour le commerce et les services qui représentaient 2/3 du PIB : β=1,
  • Pour l’industrie qui représentait 1/3 du PIB: β=4.

Dans ces conditions, la réduction annuelle de la production industrielle de 0,5% par an « économiserait » annuellement en investissements 2% du PIB ! Ne pas entretenir la capacité de production permet, comme chacun le sait, de faire apparaître à court terme des bénéfices fictifs. Cette somme peut alors être affectée librement, par exemple à la délocalisation de capitaux.

Le déficit de la balance commerciale :

            Celui-ci doit être calculé en valeur réelle pour l’économie française, puis ajusté en fonction de l’écart de compétitivité entre les produits nationaux et les produits importés.

            Une réduction annuelle de la production nationale de 0,5% conduit au bout de « n » années, à une dette équivalente, « n » fois 0,5% du PIB. En l’absence d’intérêts, le cumul de ces dettes croit quadratiquement, d’année en année. Sa valeur est alors au bout de « n » années : n2/2. Il reste alors à introduire le rapport λ entres les prix extérieurs et les prix correspondant à une production nationale. Les prix extérieurs étant plus faibles, la dette extérieure résultant des importations sera réduite dans ce rapport λ. La somme « économisée » chaque année en raison de la désindustrialisation pourra être partagée entre les différents acteurs économiques, ce dont nous devrons tenir compte dans le bilan économique global. Chaque année, nous évaluerons cette somme à (1-λ).n.0,5% du PIB. Dans les simulations nous prendrons pour λ la valeur 0,2. Cette valeur, applicable aux seuls prix industriels, est raisonnable compte tenu des déséquilibres mondiaux.

Des résultats trompeurs :

            À partir de cette description macro-économique de l’économie française, nous pouvons déterminer par simulation les conséquences des déséquilibres persistant depuis 1974. Nous allons calculer les sommes économisées en réduisant, année après année, les investissements industriels puis estimer le coût des produits importés correspondants. Ensuite, nous comparerons entre elles les dépenses rendues nécessaires par la désindustrialisation.

 

Les figures présentent systématiquement à deux valeurs :

  • En pointillés bleus : Celles obtenues en l’absence d’intérêts réel,
  • En rouge : Celles obtenues avec un taux d’intérêt réel élevé de 2%, soit une multiplication par 4 du capital en 70 ans.
  • L’échelle utilisée en ordonnées est leur valeur exprimée en PIB, supposé constant.

 

Part des emplois industriels :

            Conformément aux observations faites depuis 1974, nous modélisons la réduction constante de l’emploi industriel par la droite de la figure 3 ci-dessous, conduisant inévitablement à une catastrophe :

Figure 3 : Taux d’emploi industriel.

Économie résultant de la réduction annuelle des investissements :

            Il s’agit des sommes non investies et des intérêts qu’elles peuvent apporter à l’industriel devenu importateur. Celles-ci correspondent aux éléments suivants :

  • 2 % du PIB résultant du désinvestissement,
  • La réduction des prix de revient, soit (1-λ) fois la réduction de la production nationale remplacée par des produits importés. Celle-ci est équivalente à un revenu à partager entre les différents intervenants, importateurs, distributeurs et consommateurs.

Figure 4 : « Économie cumulées » résultant de la réduction des investissements industriels.

Dix premières années.

Les courbes vertes et cyan sont les contributions de la réduction du capital investi.

Les autres correspondent à λ = 0,2, valeur très favorable.

 

            Conformément aux hypothèses retenues, la seule réduction de l’investissement conduit à ne pas avoir dépensé 20% du PIB au bout de 10 ans.

 

Figure 5 : « Économie cumulées » résultant de la réduction des investissements industriels.

Tendance à long terme.

Il suffirait de travailler de moins en moins pour faire des économies colossales !

Le déficit cumulé de la balance commerciale :

Cette somme correspond au cumul des déficits successifs de la balance commerciale résultant des délocalisations, toujours dans l’hypothèse d’un PIB constant, le rapport λ entre les prix des produits importés et les produits locaux étant toujours 0,2. Ce déficit augmente rapidement :

Figure 6 : Déficit extérieur cumulé en PIB.

Courbe bleue : Sans intérêts,

Courbe rouge : avec un intérêt de 2%.

 

             Ce calcul simple ne prend pas en compte une autre dette, nous l’appellerons la dette sociale. Nous reviendrons ultérieurement sur cette dette qui devient rapidement colossale.

Une évolution catastrophique :

            Confronté à la réalité, le rêve de prospérité auquel les graphiques précédents font croire devient un véritable cauchemar. Le monde réel oblige à corriger les graves omissions qui peuvent faire croire à la bonne santé de notre économie.

Le spectre de la déflation :

            Depuis la crise de 1929 qui a conduit Maurice Allais à s’intéresser à l’économie, puis à devenir le premier Prix Nobel français d’économie, les milieux financiers redoutent la déflation. Comme en 1929, la baisse des revenus et des prix conduirait à une déstabilisation de l’économie et à une grave crise qui peut être catastrophique.

            La réduction de l’investissement industriel et l’introduction de produits provenant de pays à faible coût de main d’œuvre, devrait conduire à une réduction du PIB, de la demande et donc à une baisse des prix. 

Celle-ci serait évitable en injectant de la monnaie, ce qui aurait au moins pour effet d’éviter la baisse des prix nominaux. Aujourd’hui, cette nécessaire injection de monnaie, inévitablement inflationniste, ne peut plus être faite, qu’à contre-emploi, par la BCE, dont la mission est de stabiliser les prix… Pour cette raison, la baisse des prix nominaux ne peut être évitée que par une hausse des taxes encore possible au niveau national…

Une dévaluation de notre monnaie aurait permis de rétablir facilement les grands équilibres, et en particulier celui de la balance commerciale. Notre pays (ou les entreprises à sa place) ne pouvant plus créer « ex nihilo » la monnaie nécessaire au maintien de la demande, devrait l’emprunter aux banques, et en conséquence s’engager à la rembourser, ce qu’il serait évidemment incapable de faire.

Une dette oubliée : La dette sociale :

            À long terme, toutes choses égales par ailleurs, les économies cumulées résultant d’un achat à l’étranger deviendraient considérables, si cette dette ne venait pas transformer ce rêve en cauchemar.

Nos calculs ont en effet supposé le système économique globalement stable, notamment la population et le PIB par habitant. Ceci suppose pratiquement que le chômage résultant de la croissance des importations soit indemnisé directement ou indirectement à près de100 %.

 

En effet, supposons qu’un industriel français vende un produit à un prix P. Si nous décidons d’acheter un produit étranger au prix λ.P, nettement plus faible, nous faisons apparemment une économie de (1-λ)P. En réalité, le PIB sera réduit du prix P du produit qui n’est plus acheté, et augmenté du prix du produit importé financé par une dette extérieure. Cependant, les produits importés ne pourront trouver de clients que si le pouvoir d’achat des citoyens est préservé.

Le remplacement du produit national par un produit importé conduit donc à :

  • Une réduction du PIB du prix P,
  • Un achat à l’étranger de prix λP,
  • Une indemnité à répartir entre les travailleurs lésés attribuée de façon à maintenir la demande au niveau qu’elle aurait eu en l’absence d’importation chiffrée à (1-λ)P.

 

En fait, le PIB et la demande ne seront maintenus à leur niveau précédent que si une hausse globale des bénéfices de (1-λ)P est transformée en soutien de la demande. Cette hausse des bénéfices est l’une des deux composants des « économies apparentes » précédemment calculées (figure4). Cette seconde composante des économies apparente, serait alors totalement consacrée au financement des aides aux chômeurs.

 

Dans cette hypothèse, tout se passe comme si les importateurs achetaient à l’étranger en créant une dette extérieure et revendaient au prix d’une production nationale. Si leur bénéfice sur la revente finançait la dette sociale ainsi définie, chacun conserverait ses revenus. La paix sociale serait ainsi préservée. En réalité, le partage de ce bénéfice conduit à une augmentation des inégalités de revenu.

 

Des transferts entre partenaires économiques :

            Nous avons supposé que l’économie était gérée de façon à maintenir la valeur du PIB par habitant. L’achat à l’étranger réduit les salaires directs et indirects qui auraient été versés. Pour que le revenu moyen des travailleurs soit maintenu, il faut que cette perte soit compensée, par exemple par des prestations sociales : Chômage, départ anticipé en retraite…

            Le remplacement de productions industrielles nationales par des importations est alors très rentable pour les importateurs qui bénéficient d’une réduction de leurs dépenses (coût direct des produits et charges sociales associées), mais profitent en plus de marges supérieures sur les produits. Dans la modélisation retenue, construite sur le maintien du PIB, nous avons montré que pour que le maintien des prix et du PIB soit réel, il faut que malgré des inégalités inévitables, cette indemnisation soit totale et concerne autant des entreprises que les citoyens touchés par les délocalisations.

            Les importations de produits en provenance des pays à faible coût de main-d’œuvre déstabilisent l’économie, tant les entreprises que les consommateurs. Ceci incite les entreprises à innover et à devenir plus compétitives. Mais ces importations offrent surtout aux entreprises l’opportunité de s’approprier une partie croissante de la richesse nationale.  Dans un pays disposant de sa propre monnaie, et d’une réelle souveraineté monétaire, cette accumulation capitalistique n’est pas une fin en soi. L’accumulation d’un capital dormant, ne rapportant rien, présente un intérêt limité…

            La liberté de transfert des capitaux associé à la création de l’EURO modifie radicalement ces données économiques et institue une concurrence  féroce au sein de l’Union Européenne.

Conséquences sur l’économie nationale :

            Pour faire le bilan des effets des importations en provenance des pays à faible coût de main-d’œuvre sur l’économie française, nous devons évaluer les effets directs des désinvestissements, puis le coût réel des importations nécessaires au maintien du PIB moyen des citoyens.

Cumul des désinvestissements réels :

            Compte tenu de la nécessaire indemnisation du chômage, nous devons admettre que la part réelle des « économies cumulées » pouvant être consacrée au remboursement de la dette est celle résultant du seul désinvestissement industriel, soit annuellement 2% du PIB.

            Le cumul de ceux-ci est représenté figure 7. Il atteint rapidement un niveau élevé par rapport à  l’investissement industriel et en 2045, la totalité de celui-ci : 4/3 du PIB (figure 8).

 

Figure 7 : désinvestissements.

Évaluation sur 1974 à 2020.

 

Figure 8 : Désinvestissements.

Extrapolation jusqu’à l’arrêt de l’industrie en 2045.

 

            Depuis la libération des transferts de capitaux, ces sommes peuvent s’investir ailleurs, par exemple dans les pays de la zone EURO dont la main d’œuvre est meilleur marché. De nombreuses mesures, comme la directive relative aux travailleurs détachés, permettent la mise en concurrence directe des travailleurs et des régimes de protection sociale. Ces revenus n’ont donc aucune raison d’être affectés au remboursement de la dette résultant du déficit de la balance commerciale.

Cumul des déficits commerciaux :

            Ceux-ci correspondent à la somme des déficits observés années après années. Ils sont calculés en supposant que les prix des approvisionnements au cours de la période considérée restent inférieurs aux prix des productions nationales dans le rapport λ. Bien évidemment, en raison du développement économique de nos fournisseurs, ce rapport devrait être progressivement réduit.

Figure 9 : déficit cumulé de la balance commerciale.

Solde des échanges avec le reste du monde :

            La figure 10 présente la différence entre ces deux sommes, c’est-à-dire le bilan de la nation.

 

Figure 10 : Solde des échanges.

La courbe rouge correspond à un taux d’intérêt à long terme élevé : 2%,

La courbe pointillée bleue à l’absence d’intérêt, le capital,

La courbe noire à un taux d’intérêt de 1% par an, (soit un capital multiplié par deux en 70 ans).

Des résultats saisissants :

            Bien que la simulation présentée ici ne décrive pas complétement l’évolution de l’économie française, elle permet de comprendre les conséquences de la désindustrialisation observée depuis 1974. Nous ferons nos analyses sur la base du taux d’intérêt réel moyen (c’est-à-dire corrigé de la hausse des prix), de1% par an.

  • Comme prévu par la simulation, le désinvestissement produit dans un premier temps un effet positif. Ne pas entretenir l’outil productif donne l’impression de la prospérité, mais celle-ci est trompeuse. Les investisseurs ont accumulent un capital non investi important. Il est donc naturel que la Banque de France ait pu observer une forte fuite des capitaux, représentée sur la figure 11, dès la libération des transferts de capitaux. La simulation montre qu’à cette période, la réduction des investissements industriels avait largement permis aux entreprises françaises de financer la délocalisation partielle de leurs activités.

Figure 11 : Fuite des capitaux (source BDF).

 

  • La tendance s’inverse après une période d’une vingtaine d’années (vers 1990), la croissance des importations devenant prépondérante. Le cumul des « économies » correspondant aux investissements non réalisés commence à baisser.
  • Aujourd’hui, en 2019, un déficit apparaît, somme de la valeur calculée par simulation et du désinvestissement effectué lors de l’adoption de l’EURO. Nous sommes donc déjà fortement engagés dans une implosion économique.
  • Selon la simulation, le déficit se creuserait jusqu’à ce que le capital industriel soit totalement détruit et que l’activité industrielle devienne nulle. La dette serait alors de l’ordre du PIB, ou bien supérieure si les prix des produits importés augmentaient.

Ces résultats sont d’autant plus inquiétants que la simulation est plutôt optimiste et peu sensible aux variations paramètres économiques retenus:

  • La simulation montre que l’évolution de la dette est peu sensible au taux d’intérêt réel, pourvu qu’il reste modéré. Toutefois, ce taux d’intérêt ne manquera pas d’augmenter au cours du temps, avec le niveau de la dette.
  • En revanche, les prix des produits importés, donc du paramètre λ, ne manqueront pas d’augmenter, ce qui sera très pénalisant pour notre économie.
  • En 2020, le pays est entré dans une décroissance inévitable du pouvoir d’achat qui s’accélérera d’année en année si des mesures rigoureuses ne sont pas prises.
  • Au plus tard en 2045, si la tendance actuelle se maintenait, l’activité industrielle (et agricole) serait nulle, ce qui entraînerait par ricochet l’annulation totale du PIB.
  • La dette réelle (hors dette publique) serait égale ou supérieure au PIB, mais bien avant, aucun investisseur n’aurait accepté de la financer…

Il est donc certain qu’il faut que des réformes profondes aient lieu très rapidement, avant que le processus de destruction engagé ne devienne irréversible.

Conclusion :

Cette analyse démontre clairement que le maintien dans les années futures du pouvoir d’achat des français est impossible. Il reste à déterminer jusqu’à quel niveau il descendra si des mesures réellement efficaces, nécessitant l’effort de tous, ne sont pas prises à temps.

Nous avons tous observé les conséquences de la mondialisation financières : Les barrières qui protégeaient les nations sont progressivement abaissées. Les privatisations concèdent à des grands groupes la gestion des services publics. La presse, libérée de la censure étatique, est soumise à celle des intérêts de ses actionnaires. Les protections sociales des états sont mises en compétition. Les multinationales peuvent attaquer les états si elles estiment leurs intérêts menacés…

Louis XIV, savait bien qu’à terme, son pouvoir et celui le Surintendant Fouquet n’étaient pas compatibles. On ne confie pas au renard la clef du poulailler. Pourquoi alors, avons-nous confié la garde du trésor public aux banques privées ?

Les dictatures du « politiquement correct » et du « scientifiquement correct » sont en train de stériliser tous les domaines de la pensée. Ainsi, les sciences ont adopté une approche dogmatique. Il devient impossible de contester une mystérieuse « communauté scientifique » et ses censeurs anonymes dénoncés vigoureusement par Maurice Allais. Sans la diversité des théories, la science n’aurait jamais progressé. La vérité scientifique ne peut résulter que d’un travail sérieux et contradictoire, pas d’un vote ! Comme le disait Claude Allègre en 2010 à propos des travaux du GIEC : « La simple idée d’une « vérité scientifique » établie par une commission de l’ONU, c’est un crime contre l’intelligence« . L’économie est une science et l’unanimité de ses experts plutôt suspecte ! Au lieu d’établir une vérité officielle, nous devons revenir aux faits et donner à la confrontation des idées la place qu’elle mérite!

La science économique parviendra-t-elle à reprendre sa liberté d’expression, à analyser objectivement les causes des désordres actuels, et enfin à proposer une politique économique nouvelle permettant de résoudre les vrais problèmes de la nation ?

Après tant d’années pendant lesquelles les problèmes économiques n’ont été traités que par des expédients, les français sont-ils prêts à entendre le langage de la vérité ? Trouveront-ils des responsables capables de mettre en œuvre une politique économique nouvelle, alliant progrès économiques et justice sociale, capable de redresser l’économie française ?

 

Pierre FUERXER,

Membre de l’AIRAMA.

 

 

 

 

 

 


[1] Le 11 octobre 2016 : http://combats-maurice-allais.info/le-chomage-importe/

[2] Republié le 6 septembre 2019 : http://combats-maurice-allais.info/les-fluctuations-cycliques-des-economies-capitalistes/ en PDF : http://combats-maurice-allais.info/wp-content/uploads/2019/09/Article_original_du_modele_OMEGA.pdf

 

 

 

Le coût de l’immigration

L’évidence empirique :

Les grandes découvertes scientifiques résultent souvent de l’observation par des esprits curieux de faits qu’ils n’avaient aucunement prévu d’étudier.

Ainsi, la vocation de Maurice Allais pour l’économie est née d’un voyage aux États-Unis au cours duquel il a mesuré l’ampleur des dégâts occasionnés par la crise économique de 1929. Beaucoup plus récemment, européen convaincu, il a observé les conséquences de la mondialisation, c’est-à-dire la destruction des emplois et de croissance européenne. Il affirme alors, en 2007, dans son livre consacré à la mondialisation la primauté des faits sur les théories avec un sous-titre percutant : l’évidence empirique.

Une tragédie de notre histoire nationale, l’arrivée soudaine des rapatriés d’Algérie, nous donne l’occasion d’évaluer sur un cas d’école l’effet d’une vague d’immigrants sur une économie dont l’évolution était encore très peu dépendante des échanges extérieurs. Nous disposions en effet d’une monnaie souveraine, et cherchions à maintenir l’équilibre de la balance commerciale. Puisse cette épreuve que notre pays aurait aimé ne pas vivre, contribuer au progrès de la science économique…

L’utilisation de statistiques officielles :

            Depuis bien longtemps, l’INSEE publie de nombreuses statistiques. Pour ne pas tomber dans le travers des modèles complexes, nous pouvons n’utiliser que deux séries statistiques annuelles :

  • La population française depuis 1944,
  • Le PIB en prix chaînés depuis 1949.

 

Figure 1 : Variation de la population métropolitaine.

Courbe rouge : Variation par rapport à 1950.

Droite pointillée bleue : tendance à long terme,

Droite en tirets verts : droite décalée de 4%.

 

 

Figure 2 : Variation du PIB.

Courbe rouge : Valeurs relatives par rapport au PIB de 1950.

Droite pointillée bleue : tendance à long terme dans les années 50,

Droite en tirets verts : même tendance décalée de -10%.

 

L’arrivée des rapatriés correspond à la discontinuité observée en 1962.

Un résultat réellement surprenant ?

Nous pouvons alors calculer l’effet de l’arrivée des rapatriés sur le PIB par habitant français.

 

Figure 3 : Évolution du PIB par habitant depuis 1950.

La progression très rapide du PIB par habitant au début des années 50 s’arrête dès 1958 pour des raisons qui restent à expliciter (événements d’Algérie, rappel sous les drapeaux ou mobilisation des jeunes français, tensions avec les USA et l’OTAN).

Au début des années 60, la réduction du PIB par habitant est essentiellement due à l’afflux des rapatriés. La baisse de ce PIB par rapport à la tendance observée dans les années 50 atteint 10%. Le PIB par habitant baisse même de 5% sur 5 ans et n’augmente à nouveau qu’après 1968, toutefois plus lentement que pendant l’immédiat après-guerre. L’analyse complète de ces phénomènes sort du cadre strict de cette étude et sera abordée dans un prochain document.

Une évaluation empirique du coût de l’immigration :

            Sans entrer dans les différents types d’immigration (immigration de travail, de peuplement, regroupement familial…), les principaux effets de l’immigration apparaissent clairement :

  • L’arrivée d’immigrants ne modifie pas immédiatement le niveau du PIB. Le PIB doit alors être partagé entre les citoyens et les nouveaux arrivants.
  • L’arrivée des immigrants nécessite des investissements supplémentaires qui réduisent la part de la consommation de tous les ménages (construction de logement, infrastructures…).
  • Elle conduit donc, au moins temporairement, à un appauvrissement de la population locale dont la valeur est supérieure à la contribution directe de l’immigration au taux d’accroissement de la population (à long terme 3 à 4 fois ce taux d’immigration). L’arrivée de nouveaux travailleurs ne peut être valorisée qu’à long terme.

Pour autant, il ne faudrait pas en conclure que l’immigration est nuisible en elle-même. L’arrivée d’immigrants en Amérique du Nord a indiscutablement contribué à l’essor de l’économie du nouveau monde, même si cela s’est fait au détriment des premiers habitants, les Indiens.

Une immigration temporaire peut permettre de faire face à un manque temporaire de main d’œuvre ou à un déséquilibre de la pyramide des âges. Toutefois, celle-ci est évidemment contre-indiquée dans un pays qui, comme la France, souffre d’un important chômage de masse.

Ne vaudrait-il pas mieux rechercher les causes de ce chômage et appliquer les mesures susceptibles de le réduire à son niveau irréductible indispensable à l’adaptation des entreprises à la demande et à l’évolution des marchés ?

Pourquoi certains pays recourent-ils l’immigration ?

               Bien évidemment, les dirigeants avancent des motifs humanitaires. Qui peut dire qu’il n’est pas nécessaire de secourir les migrants fuyant la guerre ou les catastrophes économiques ? Est-on certains qu’il n’existe pas d’autres solutions qui leur éviterait un déracinement familial et culturel ?

            Dans les années 60, lorsque les entreprises ne trouvaient pas la main d’œuvre dont elles avaient besoin, elles savaient faire appel à des travailleurs étrangers, mais ceux-ci ne cotisaient pas pour la retraite et savaient qu’ils devraient économiser et sans doute repartir un jour pour leur pays d’origine.

            L’immigration de peuplement, surtout depuis le regroupement familial, est bien différente. Elle est économiquement négative pour les citoyens, surtout si, comme en France, un chômage de masse pèse sur les revenus de tous les contribuables.

Pour l’employeur, il est transitoirement préférable d’embaucher un immigré, moins exigeant qu’un concitoyen. Il est naturel qu’il fasse ce choix, qui lui est quasiment imposé par une concurrence exacerbée par la mondialisation. Cet employeur peut même délocaliser sa production, a ainsi éviter de payer les salaires nationaux et les charges sociales associées. Il contribuera ainsi directement au déséquilibre des comptes sociaux, au déficit de la balance commerciale et à la désindustrialisation de la nation.

Pour la nation, le coût d’un chômeur s’ajoute au salaire de l’immigré qui le remplace. Il coûte alors plus cher, mais la charge supplémentaire est payée par la communauté, notamment les indemnités de chômage et les charges sociales associées.

Le recours à une immigration temporaire ou à une immigration de peuplement a des conséquences à long terme qu’il convient de prendre en compte. Malheureusement, comme dans tous les domaines de l’économie, les conséquences à long terme sont opposées aux résultats immédiats des décisions prises en urgence, sous la pression des faits.

N’oublions pas que l’intérêt national n’est pas la somme des intérêts particuliers ! Pourquoi la puissance publique ne choisit-elle pas de défendre l’intérêt à long terme de la nation ?

 

Pierre Fuerxer

Membre de l’AIRAMA.

La physique après la découverte des ondes gravitationnelles

L’occasion d’un renouveau inespéré.

Une victoire des concepts du 20° siècle ?

            Nous savons tous que la physique a fait des progrès considérables au cours du 20° siècle. Elle a permis un développement extraordinaire de la technologie et des systèmes. Au début du 21° siècle, la théorie de la relativité et la mécanique quantique semblent définitivement validées, même si certains physiciens reconnaissent l’existence de problèmes de compatibilité entre ces deux théories.

            Devrions-nous dire, comme Lord Kelvin en 1900, « Il n’y a plus rien à découvrir en physique aujourd’hui, tout ce qui reste à faire est d’améliorer la précision des mesures » ? Il n’est pas surprenant que ce remarquable physicien ait pensé cela. Ne savons-nous pas qu’au cours du temps toutes les théories s’affinent et deviennent de plus en plus sûres d’elles-mêmes et dogmatiques ?

            Au cours du 20° siècle, les deux théories de la relativité et la théorie quantique n’ont pas échappé à ce travers. Après avoir été initialement très contestées, elles ont caché derrière un dogmatisme de plus en plus rigoureux leurs inévitables failles. Elles sont tellement incontestables qu’aujourd’hui l’Académie des Sciences refuserait d’examiner une nouvelle théorie si elle n’était pas « généralement covariante », c’est-à-dire compatible avec la théorie de la relativité générale !

            Présentée comme « la victoire finale » des concepts de la physique du 20° siècle, la découverte expérimentale des ondes gravitationnelles en serait-elle la preuve définitive ?  Au contraire, comme au début du 20° siècle, cette validation expérimentale ne devrait-elle pas nous conduire à mener de nouveaux travaux, et à approfondir les concepts ayant présidé à leur élaboration ?

Les ondes gravitationnelles : Une nécessité théorique ?

            L’électromagnétisme introduit deux notions essentielles : le champ électrique et le champ magnétique. Ces deux champs sont associés dans les équations de Maxwell qui permettent de les décrire localement sur la base de sommes d’ondes se propageant à une vitesse « c », dite vitesse de la lumière, érigée au rang de constante universelle. Les vibrations longitudinales, qui semblaient impossibles à générer et à observer, étaient niées ou simplement ignorées par les physiciens.

Nous savions que les ondes optiques sont déviées par les champs de gravitation. Ce phénomène a été vérifié expérimentalement depuis plus d’un siècle. Malgré cela, la relativité générale ne pouvait renoncer à son principal postulat : les lois de la physique sont les mêmes en tout point de l’espace. En fait, elles n’ont cette invariance que grâce à un artifice : la modification locale des unités de mesure qui impose l’abandon de la géométrie euclidienne, base de tous nos raisonnements.

Ce choix, très pénalisant, a conduit à des calculs d’une extrême complexité. Ceci limite fortement l’intérêt pratique de cette théorie, dès lors que les problèmes à étudier sont complexes. N’est-il pas temps de d’oublier ce postulat et de construire une nouvelle physique, réellement ondulatoire, associant champs électriques, magnétiques et gravitationnels ?

La détection des ondes gravitationnelles :

            La détection de ces ondes à l’aide de très grands interféromètres nous apporte des éléments essentiels à la construction d’une nouvelle physique ondulatoire. De nombreux documents publiés sur INTERNET présentent les signaux émis par la collision de trous noirs. Les mesures faites par ces interféromètres correspondent parfaitement aux modélisations faites par les astrophysiciens.

            Leurs résultats confirment donc clairement l’existence de ces ondes, mais surtout les intuitions des physiciens. En effet, les signaux observés par les deux détecteurs LIGO pendant la centaine de millisecondes que durent ces collisions confirment des points essentiels :

  • Il existe un décalage temporel entre les signaux détectés par les deux interféromètres,
  • Ces temps d’arrivée correspondent à un même événement observé optiquement par ailleurs,
  • Enfin, les différences entre les mesures sont cohérentes avec la direction d’arrivée.

Les ondes gravitationnelles sont donc des ondes se propageant à la même vitesse que la lumière. Alors que les ondes électromagnétiques sont des ondes transverses, les ondes gravitationnelles ne peuvent qu’être que des ondes longitudinales. L’ensemble de ces ondes correspond alors aux trois directions de vibration possibles de l’Éther, leur milieu de propagation commun (deux vibrations transverses orthogonales et une longitudinale).

L’indispensable mise en cause de nos modes de pensée :

La confirmation expérimentale de l’existence des ondes gravitationnelles nécessite de notre part une réflexion sur la cohérence de nos concepts de la physique. Devons-nous traiter différemment ces ondes et les ondes électromagnétiques ? Sont-elles analogues ou de nature différente ?

À mon avis, influencés par les thèses relativistes, les physiciens ont fait une grave confusion que je vais essayer de vous faire comprendre à partir d’un exemple volontairement caricatural.

Considérons un physicien décidant de vérifier l’universalité de la loi de Mariotte. Il réalise un dispositif constitué d’un volume variable et d’un manomètre. Il commence par l’installer à Paris. Il suit alors un protocole expérimental rigoureux. Pour cela, il commence par étalonner son manomètre en faisant le vide, puis en laissant la pression atmosphérique entrer dans le dispositif. Après avoir refermé son dispositif, il peut vérifier la loi de Mariotte en faisant varier le volume d’air emprisonné et en mesurant la pression (bien évidemment, je suppose la température stabilisée entre les mesures successives de pression).

Supposons que, pour confirmer l’universalité de la loi ainsi vérifiée, il se déplace au Pic du Midi et refasse l’expérience, en respectant le même protocole expérimental. Il constate que la loi de Mariotte est bien conservée. Cette loi est donc bien une loi universelle, mais ceci n’implique pas que la pression atmosphérique soit la même à Paris et au Pic du Midi.

Cet exemple caricatural correspond à une erreur bien difficile à éviter. Ainsi, les expériences interférométriques, ou les « expériences de pensée » proposées comme preuves de la théorie de la relativité, présentent de nombreuses lacunes conceptuelles. Les dimensions d’un interféromètre de Michelson sont-elles indépendantes de sa vitesse de déplacement ? La contraction relativiste des corps est-elle réelle ou apparente, les lois de Descartes sont-elles valides dans un repère mobile ?…

Un autre exemple particulièrement intéressant correspond à l’utilisation du principe d’équivalence pour calculer la déviation gravitationnelle de la lumière. Dans son article initial, Einstein n’avait obtenu que la moitié de la déviation qui sera observée expérimentalement. Il aurait trouvé la valeur exacte s’il avait compris que son repère mobile était implicitement construit sur des mesures optiques de distances, et donc qu’il était déformé par l’accélération [1].

Comme dans l’exemple caricatural de la loi de Mariotte, l’observateur a étalonné son repère en supposant la propagation de la lumière isotrope. Admettons l’existence d’un repère euclidien sous-jacent, et dans ce repère, une onde se propageant dans une direction orthogonale à un champ de gravitation uniforme. En raison du ralentissement gravitationnel de la vitesse de la lumière, la distance entre les fronts d’ondes est d’autant plus faible que le champ de gravitation est élevé. Inversement, dans un repère lié à l’observateur, et construit sur la base de mesures optiques, ces distances sont inchangées. Dans le cas particulier d’un champ de gravitation uniforme, ces deux repères sont superposables par modification de l’unité de temps. Le principe d’équivalence peut être adopté. Dans tous les autres cas, et en particulier lors du calcul de la courbure des rayons optique dans un champ non uniforme, cette approximation ne peut être faite.

Il faut donc être particulièrement circonspect dans l’utilisation des concepts relativistes. L’universalité d’une loi de la physique dans un petit domaine ne peut être étendue à l’espace complet sans d’infinies précautions. Même si déterminer des propriétés physiques locales est utile, seule la référence à un espace-temps euclidien sous-jacent permet de raisonner juste.

Enfin, les étudiants et les chercheurs doivent se sentir libre de rêver à une nouvelle physique. Ils ne doivent pas se sentir obligés de respecter des dogmes abstraits sans en comprendre les raisons profondes. Ceci ne peut que les faire fuir ou étouffer leur créativité. Les étudiants doivent apprendre une physique plus humaine, faillible et révisable, tributaire d’accidents de l’histoire. En un mot, ils ne doivent pas penser naître trop tard dans un monde trop vieux.

La relecture nécessaire des nombreux opposants :

            Malgré le discours officiel des théoriciens, de nombreux chercheurs, rebutés par le dogmatisme des physiciens relativistes et quantiques, ont cherché à les mettre leurs théories en défaut. Ils ont souvent réalisé, avec des moyens très limités, des expériences dont les résultats auraient mérité d’être pris en compte et qui auraient dû être refaites avec de plus gros moyens. Je vous incite à étudier celles faites ou  décrites par Maurice Allais [2], par Hector Múnera [3] et bien d’autres chercheurs dans le monde, et à en imaginer d’autres réalisables dans vos laboratoires.

Pourquoi imaginer une nouvelle physique ?

            J’avais montré, dans une présentation faite à l’URSI en 2011 [4], que de nombreux résultats, devenus des vérités incontestables, n’étaient en réalité que les conséquences d’idées a-priori ou des interprétations d’expériences, mais en aucune manière des preuves scientifiquement établies.

J’avais mis en cause la capacité de VIRGO à détecter des ondes gravitationnelles. Je dois reconnaître que les améliorations de ses performances intervenues depuis, et la réalisation des interféromètres LIGO aux USA, ont permis de détecter ces ondes gravitationnelles. Cependant, je continue à penser que ces instruments n’auraient pas dû être appelés « interféromètres de Michelson », ce qu’ils ne sont pas. La description rigoureuse des dispositifs expérimentaux, des bases conceptuelles sur lesquels ils sont construits, serait absolument nécessaires à la compréhension de leurs résultats.

Par ailleurs, j’avais montré qu’il est très rare qu’un résultat expérimental impose l’adoption d’une théorie. Pour cela, j’avais retenu deux exemples. Le rayonnement du corps noir et l’accélération du BIG-BANG. Poincaré avait démontré que le rayonnement de corps noir n’était pas explicable sans faire intervenir une non-linéarité [5]. Cependant, ce résultat théorique n’imposait pas le choix de l’hypothèse de Planck. De même, les expériences dites « d’intrication de photons » n’imposent pas l’existence de celui-ci comme « particule » mais seulement comme quantum d’action.

Ces exemples montrent qu’un manque de rigueur mathématique fait prendre à un chercheur des risques d’erreur considérables. N’est-il pas naturel que, persuadé d’avoir fait une grande découverte et brûlant d’impatience, il néglige de faire un examen critique des faits et d’envisager toutes les explications possibles ?

Ne devrions-nous pas chercher, en permanence, à découvrir si des explications nouvelles, ou d’anciennes rejetées pour des raisons oubliées, ne rendraient pas compte aussi bien ou même mieux des résultats expérimentaux que les théories les plus reconnues ?

Le choix d’une physique ondulatoire :

            Les motivations des physiciens sont loin d’être celles des entrepreneurs et des hommes politiques. Même s’il leur arrive de chercher à concrétiser par des développements industriels les résultats de leurs travaux, ils sont avant tout motivés par l’envie de comprendre. N’est-il pas valorisant de comprendre ce qui est mystérieux et de faire ce qui est impossible ?

            La découverte des ondes gravitationnelles n’est-elle pas une occasion exceptionnelle de repenser la physique moderne ? Que pourrait être cette nouvelle physique ondulatoire ? Compte tenu de mon expérience professionnelle, je vous propose le rêve d’un radioélectricien attaché aux représentations non-quantiques des rayonnements. Mes grands choix seraient les suivants :

  • En premier, je donnerais la priorité aux aspects ondulatoires, en reconnaissant l’existence d’un milieu de propagation que j’appellerais, un peu par provocation, l’Éther. Ceci permettrait de donner une signification réelle au courant de déplacement, réputé fictif, apparaissant dans les équations de Maxwell et à la densité locale d’énergie associée aux champs.
  • Ensuite, je donnerais aux potentiels électriques et gravitationnels des statuts comparables, les potentiels électriques et magnétiques étant liés à des ondes transverses d’une part, et le potentiel gravitationnel à des ondes longitudinales.
  • Enfin, après avoir réintroduit l’Éther, devenu le milieu de propagation de toutes les ondes, je proposerais le choix d’un repère euclidien sous-jacent. Sauf preuve du contraire, toutes les ondes se propageraient dans ce milieu à la même vitesse qui dépendrait d’un potentiel à l’origine de la courbure gravitationnelle des rayons lumineux.

Ce choix est analogue à celui adopté en acoustique aérienne ou sous-marine. Tous les phénomènes physiques seraient décrits dans cet espace-temps  » réel », observé à l’aide des ondes électromagnétiques. Les grandeurs physiques dans ce repère sous-jacent seraient obtenues par dé-convolution, puis validées en utilisant les lois de propagation  des ondes et en calculant les durées et distances apparentes observables à l’aide d’horloges et de mesures optiques. Ceci ne serait en réalité que le choix d’utiliser des techniques couramment utilisées en recherche pétrolière dans un milieu extrêmement complexe.

Les particules seraient des solutions de ces nouvelles équations de propagation non linéaires associant les ondes inévitablement associées. Un simple électron a en effet une charge électrique, un champ magnétique et une masse correspondant à son énergie. Même si cette tâche dépasse largement nos capacités de calcul actuelles, toutes les particules stables ou instables pourraient alors, au moins en théorie, être décrites à partir de ces seules équations …

Des énigmes scientifiques réputées insolubles seront alors résolues. Pourquoi le mystère étudié par Maurice Allais que constitue depuis déjà longtemps la loi de Titius-Bode [6] ne serait-il pas élucidé grâce à une représentation ondulatoire des champs de gravitation ?

Refuser la science médiatique :

Notre société médiatique est à la recherche du sensationnel et de l’insolite. La physique du 20° siècle ne pouvait qu’être de son temps. Il était donc inévitable que des « vulgarisateurs » aient popularisé, sans les expliquer, des théories parfois extravagantes, notamment en cosmologie, et qu’ils aient trouvé un public, même dans des milieux scientifiques.

Il est plus grave de constater que des expériences soient présentées comme des preuves irréfutables des nouvelles théories, alors que les faits pouvaient être aussi bien expliqués par les anciennes théories. J’ai constaté avec effroi que le programme de physique, en classe de terminale, présente à l’appui du discours officiel une célèbre expérience d’interférences sur électrons uniques réalisée pour la première fois en 1961. Il laisse les étudiants imaginer, sans doute involontairement, qu’il s’agit de propriétés mystérieuses de la matière.

Cette expérience de diffraction est censée illustrer la dualité onde particule, une propriété quasiment « magique » des électrons qui pourraient interférer avec eux-mêmes !  En affirmant que les particules sont des solutions particulières d’une équation des ondes, la physique du 21° siècle expliquera simplement ces effets qui ne sont absolument plus paradoxaux.

L’énergie de l’électron sera celle de ses champs (essentiellement son champ électrique), extérieur à la particule proprement dite. Celle-ci, analogue au cœur d’un cyclone, et ne contiendrait pratiquement pas d’énergie. Si l’électron traverse le masque, une partie de son énergie électromagnétique est réfléchie et une autre reste attachée à lui. Quelle soit la trajectoire de la particule « électron », qu’elle soit réfléchie par le masque, absorbée ou transmise par l’une des fentes, son champ ne peut que passer simultanément par les deux fentes et sa trajectoire modifiée.

L’énergie et sa quantité de mouvement de l’électron sont alors réparties entre les deux faces du masque, que la particule traverse ou non le masque.  Cette explication n’est-elle pas plus satisfaisante que l’introduction d’une longueur d’onde sans signification physique ?

Attirer à nouveau les esprits les plus brillants :

Nous savons que les étudiants sont de moins en moins nombreux à choisir d’entreprendre des études scientifiques. Ceci est certainement partiellement dû à la mondialisation des entreprises et au développement du commerce international qui offre de nombreux débouchés dans les services. Dans ce contexte, le « management », en offrant de brillantes perspectives de carrières ne peut qu’attirer les plus dynamiques des étudiants.

Dans le domaine de la recherche scientifique, cette même mondialisation réduit la place des chercheurs dans leur propre université. Petites mains travaillant dans un gigantesque projet international, ils sont souvent réduits à un rôle subalterne et n’ont aucun contrôle du projet. Que pouvez-vous décider quand vous appartenez à une équipe de 500 chercheurs appartenant à 50 pays ?

Dans l’industrie, les ingénieurs ne s’intéressent pas aux grandes théories. Un spécialiste des gyroscopes LASER m’avait présenté ses équipements et leur principe. En réponse à une question, il m’avait répondu qu’il existait une théorie relativiste de ces gyromètres, mais qu’il ne l’utilisait pas. Quel est l’intérêt d’une théorie si elle n’a pas d’applications pratiques ? Les grands progrès techniques n’ont-ils pas été très souvent dus à des passionnés qui ont eu des idées simples ?

L’observation expérimentale des ondes gravitationnelles ne doit-elle pas être l’occasion d’une révision profonde de la physique moderne ? Pouvoir représenter de façon ondulatoire toute la matière et construire, à partir d’observations optiques, un espace euclidien sous-jacent doit révolutionner la physique en lui apportant la rigueur scientifique qui lui fait souvent défaut ?

Le remplacement de dogmes et de formalismes abstraits qui ont envahis la physique par des lois universelles valides dans un espace euclidien sous-jacent devrait permettre un renouveau de la physique et attirer de nombreux étudiants.

Enfin, le rejet du cloisonnement excessif des disciplines, conséquence inévitable du mode de fonctionnement de ce que nous appelons « la communauté scientifique », stérilise la recherche. Les chercheurs hyper spécialisés, utilisant des vocabulaires différents selon les disciplines, ne bénéficient plus des retombées entre domaines apparemment différents, alors même qu’ils utilisant en réalité des outils mathématiques identiques ou quasi-identiques.

 

 

Pierre Fuerxer,

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

[1] la relativité, Poincaré, Planck, Hilbert, par Jules Leveugle, L’Harmattan, 2004,

[2] L’anisotropie de l’espace, par Maurice Allais, Clément Juglar, Mars 1997,

[3] Should the laws of gravitation be reconsidered ?, Héctor A.Munera, Aperion, Montreal,

[4] et [5] URSI France, Journées Scientifiques 2011.

[6] Des très remarquables régularités dans les distributions des planètes et des satellites des planètes,

            par Maurice Allais, Clément Juglar, 2005.

 

 

La démographiques influe-t-elle sur le chômage ?

Un sujet d’actualité :

La réforme des retraites et l’évolution du chômage sont au centre des préoccupations de nos compatriotes. Il est donc nécessaire de bien comprendre les contraintes imposées par la démographie qu’aucune politique publique ne peut ignorer.

La pyramide des âges :

Nous avons été habitués à considérer  la pyramide des âges sous une forme symétrique. L’axe vertical, correspond aux classes d’âge de zéro à 100 ans. Les populations correspondant à chaque tranche d’âge sont représentées selon l’axe horizontal. Pour chaque âge, la largeur de la pyramide représente ainsi la population correspondante.

Figure 1 : Représentation classique de la démographie.

Il est possible de superposer les courbes correspondant à deux dates (2014 en rouge, 2019 en bleu).

Figure 2 : Évolution entre 2014 et 2019.

            Courbe rouge : valeurs au 1er janvier 2014, courbe bleue : valeurs eu 1er janvier 2019.

            Par souci de simplicité, nous adopterons une représentation plus simple dans lesquelles l’axe horizontal correspond à la classe d’âge et l’axe vertical la répartition de la population entre ces classes.

Figure 3 : Représentation simplifiée des pyramides de la figure 2.

Entre 2014 et 2019, les habitants ont vieilli de cinq ans. Nous pouvons donc décaler ces courbes de façon à faire coïncider les dates de naissance. Les courbes ne coïncident pas totalement pour des raisons multiples : les effets de l’émigration et de l’immigration mais aussi les décès. Ceci est parfaitement illustré par les écarts entre 80 et 100 ans observés entre les courbes rouges et bleues.

Cinq ans plus tard, la mortalité des aînés a décalé vers le bas la courbe correspondant à 2014. Évidemment, la part de population de mois de 5 ans n’est pas prédite.

Figure 4 : Le vieillissement des classes d’âge.

  • Courbe bleue : pyramide des âges en 2014 décalée de 5 ans ;
  • Courbe bleue : pyramide des âges en 2019.

La prévision démographique à court terme :

            Pour tenir compte du vieillissement de la population, il convient de prendre en compte la mortalité de chaque tranche d’âge. Les statistiques de l’INED présentent en effet des valeurs de mortalité en fonction de l’âge.

En tenant compte de cette courbe de mortalité, il possible de prédire une partie importante des futures pyramides des âges. La pyramide réelle pourra cependant différer de cette projection en fonction du solde migratoire.  

Les données de mortalité sont établies avec un pas de 5 ans, incompatible avec un traitement de la pyramide des âges.  Elles doivent donc être interpolées avec un pas annuel. Cette interpolation correspond à la figure 5.

Figure 5 : Mortalité en fonction de l’âge.

Cette figure indique, pour chaque âge, le taux de survivants moyen. La connaissance de ce taux permet de  prédire l’évolution de la population française entre deux années, ici 2014 et 2019 (figure 6).

Figure 6 : Comparaison des valeurs prédites observées en 2019.

La courbe rouge correspond aux valeurs réelles de 2019. La courbe pointillée bleue aux valeurs prédites à partir de celles de 2014. La concordance entre les deux courbes est frappante. Les différences, notamment entre 20 et 40 ans, sont certainement dues au solde des flux migratoires.

La prévision démographique à long terme :

            L’excellente qualité de cette projection à cinq permet de faire des prévisions à plus long terme. Nous avons tenté une projection sur 15 ans, de 2014 à 2029 (figure 7). Malheureusement, ce procédé ne permet évidemment pas de prévoir les naissances futures…

Deux options sont alors possibles :

  • Supposer la natalité constante,
  • Supposer la tendance des 5 dernières années connue conservée après 2019.

 

            Les effets du « Baby Boom » de 1945 sur ces courbes sont particulièrement nets.

Figure 7 : Extrapolation de 2014 à 2029.

  • Courbe rouge : Valeurs en 2014,
  • Courbe bleue : Prévision 2019,
  • Courbe verte : Prévision 2024,
  • Courbe cyan : Prévision 2029.

Une retombée inattendue : La prévision du passé !

            La date de naissance des personnes du même âgé étant connue, il est facile de faire une estimation de la natalité des années passées.

L’utilisation en inverse de la courbe de mortalité permet ainsi de tracer une courbe de fécondité, c’est à dire le taux des naissances. La courbe exacte est certainement dans les archives de l’INED, mais une valeur crédible peut en être obtenue simplement de cette façon. Un décalage initial permet de présenter une estimation de l’année de conception, humainement plus significative.


Figure 8 : Courbe de natalité.

            On note sur cette courbe des accidents en 1918, 1940 et le « Baby Boom » de 1945.

Spécificité de la démographie française :

            La démographie française a été fortement marquée par les deux guerres mondiales. La figure 9 présente les pyramides des âges en 2014, celle prévue en 2029 et enfin celle qui correspondrait à une stabilité globale dans le temps d’une population.

Figure 9 : Prévision faite pour 2029.

  • Courbe rouge : Pyramide observée en 2014,
  • Courbe bleue : Pyramide prévue en 2029.
  • Courbe pointillée verte ; Pyramide de référence.

Il reste alors à prendre en compte les différentes hypothèses  de natalité et d’évaluer l’effet de celle-ci sur l’évolution de la pyramide des âges et l’équilibre des régimes de retraite.

Conséquences pour les régimes de retraite :

            Ces projections démographiques permettent de prévoir, en fonction des décisions politiques familiales,  la part des actifs potentiels dans la population nationale ainsi que celle des jeunes encore inactifs et des retraités. Elles permettent également de déterminer l’effet d’une entrée plus tardive dans le monde du travail ou d’un départ à la retraite plus précoce des actifs.  

Si la valeur de la population du pays était constante la pyramide des âges correspondrait à la courbe de mortalité (figure 9). Celle de la population française étant très différente, nous pouvons étudier l’évolution temporelle de la part de la population possiblement active dans la population totale.

Nous allons étudier l’évolution au cours du temps de cette part de la population sur la base de deux hypothèses de natalité :

  • Une natalité constate, conduisant à terme à une stabilisation de la population française,
  • Une décroissance de la natalité selon la tendance observée au cours des 5 dernières années.

Nous prendrons en compte trois durées d’activité :

  • 15 à 64 ans comme l’UIT,
  • 18 à 62, valeur médiane,
  • 21 à 60 ans, pour rappeler une valeur symbolique d’âge de la retraite.

 

 

Évolution prédite en supposant une natalité constante:

            Selon cette hypothèse, la part de la population française en âge de travailler se réduira au cours du temps, et ceci dans les trois hypothèses de durée d’activité retenues. Les pyramides des âges, complétées par l’estimation de la natalité future sont représentées sur la figure 10.

Figure 10 : Prévision faite pour 2029.

  • Courbe rouge : Pyramide observée en 2014,
  • Courbe bleue : Pyramide prévue en 2019.
  • Courbe verte ; Pyramide prévue en 2024.
  • Courbe cyan : Pyramide prévue pour 2029.

La figure 11 présente l’évolution au cours du temps du taux d’actifs potentiels. Les droites en pointillé correspondent au taux correspondant à une population stable, en supposant la natalité constante.

Figure 11 : Évolution au cours du temps du taux de population potentiellement active.

  • Courbes rouges : travail de 15 à 64 ans,
  • Courbes bleues : travail de 18 à 62 ans,
  • Courbes vertes : travail de 21 à 60 ans.

Il est également possible de tracer un abaque donnant l’évolution dans le temps de ce taux en fonction de l’hypothèse de durée du travail (figure 12). Les trois hypothèses de temps de travail correspondent aux abscisses 0, 1 et 2. Les droites parallèles correspondent à l’évolution temporelle de ce taux. Leur faible décalage montre que la durée du travail reste prépondérante sur l’évolution de la pyramide des âges dont l’effet sur l’évolution temporelle de la pyramide dont l’effet est bien plus limité.

Figure 12 : Effets relatifs de la durée du travail et de la pyramide des âges.

Les effets de la seconde guerre mondiale, et en particulier du « Baby-Boom » qui l’a suivie s’atténuerons. Dans cette hypothèse, les taux de population active  se stabiliseront.  Après 2029, ils seront proches de ceux d’une population de fécondité stable.

Évolution prédite en supposant une baisse linéaire de la natalité :

La poursuite linéaire de la baisse de la natalité observée ces dernières années conduirait à une réduction des inactifs (figure 13).

Figure 13 : Hypothèse d’une baisse constante de la fécondité à partir de 2014.

Dans cette hypothèse, après un embellissement temporaire, nous retrouverions à long terme un excès de retraités et une diminution de la part des actifs, lorsque la baisse de la population n’assurera plus le remplacement des actifs mis à la retraite.

Figure 14 : Évolution au cours du temps du taux de population potentiellement active.

  • Courbes rouges : travail de 15 à 64 ans,
  • Courbes bleues : travail de 18 à 62 ans,
  • Courbes vertes : travail de 21 à 60 ans.

Une persistance anormale du chômage ?

            Comment se fait-il que la réduction du nombre des actifs potentiels n’ait pas fait baisser le taux de chômage toujours proche de 9%? La raison en est clairement à la réduction de l’emploi industriel qui n’a cessé de régresser depuis 1974 (figure 15), ceci en raison de la politique économique menée en France (voir le texte sur le chômage importé).

Figure 15 : Emploi industriel en équivalent temps plein (en milliers).

            L’emploi industriel a diminué d’un million depuis 1974 et de 20 mille par an de 2014 à 2019, soit 0,8% par an. En même temps, l’emploi total a augmenté de 28 mille par an, soit 1,3% par an. Enfin, la population a augmenté de 1,6% par an entre 2014 et 2019. Dans l’hypothèse d’une stabilité du nombre des naissances, la population ne devrait plus augmenter, hors immigration, que de  0,6% par an entre 2024 et 2029.

 

Figure 16 : Augmentation prévue de la population.

  • Courbe rouge : Augmentation prévue de la population,
  • Courbe pointillée bleue : Pente à 0,6% par an.

            Sur la période 2014-2019, au lieu de progresser, l’emploi industriel a diminué tant en valeur absolue qu’en pourcentage. Dans le même temps, la croissance des besoins liée la croissance de la population, et la constance  du nombre des actifs potentiels, aurait dû faire baisser fortement  le nombre des chômeurs, ce qui n’a pas été le cas.

            Comment se fait-il que cette politique mondialiste prônant un laisser-fairisme universel, la concurrence généralisée entre les peuples et les acteurs économiques, perdure malgré son échec évident dans tous les domaines : développement économique, justice sociale, écologie et même culture… Maurice Allais, prix Nobel d’économie français et européen convaincu, n’a-t-il pas critiqué cette politique absurde dont la nocivité est une « évidence empirique » ?

            Comment se fait-il que des « économistes » aient pu dire qu’il existait un taux minimal de chômage, le NAIRU (non accelerating inflation rate of unemployment), ou taux de chômage qui n’accélère pas l’inflation ? Peut-on raisonnablement considérer que réduire l’emploi est raisonnable, alors même que l’on sait qu’un revenu décent est nécessaire à tous ceux qui ne se mettent pas volontairement en marge de la société ? Ce concept même a-t-il un sens dans les pays de l’union européenne depuis la création de l’EURO et la libération des transferts de capitaux ? Faudrait-il un taux unique de l’UE ? Comment serait-il piloté ?

            Comment se fait-il que de nombreux acteurs participent, souvent de bonne foi, à la destruction de l’économie et de la planète qu’ils prétendent protéger ? En réalité, les acteurs économiques, qu’ils soient chefs d’entreprise ou simple citoyens, décident en fonction des contraintes auxquelles ils sont soumis à court terme et de leurs projets. Ils ne sont, le plus souvent, que les acteurs involontaires d’une politique qu’ils désapprouvent.

 Ils participent ainsi, sans le savoir, non à un complot, mais à une politique dont les seuls résultats sont le pillage de la planète, parfois au nom de l’écologie, et l’enrichissement d’une toute petite partie de la population mondiale qui, dominant les états, accapare à son profit tout le pouvoir.

 

Pierre Fuerxer

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

Quelles prévisions faire pour 2023 ?

Prévisions Économiques 2018-2023

 

Introduction :

            Le modèle Oméga-Allais, a été testé sur la période 1949-2005. Il a permis de faire des prévisions économiques à 5 ans sur la base de quelques séries statistiques fondamentales comme le PIB et le niveau de l’investissement. Depuis, le contexte mondial a beaucoup évolué. Est-il encore possible de de prévoir à 5 ans ou plus l’évolution de notre économie ?

Rappel des prévisions faites fin 2014 :

            Dans le document intitulé « Une reprise réelle ou fictive », publié en 2015, il y a trois ans, je prévoyais une baisse à terme du PIB. Celle-ci était faite à partir  de séries économiques en base 2005 publiées par l’INSEE. Ces prévisions étaient les suivantes (figure 1) :

 

Figure 1 : Prévisions faites à partir de fin 2014.

 

  • La courbe verte correspond aux valeurs de PIB en base 2005 publiées en 2014 par l’INSEE.
  • La courbe bleue était la prévision faite à partir de 2005, en tenant compte de la fuite des capitaux publiée par la Banque de France (valeurs annuelles connues jusqu’en 2010). Ces prévisions étaient validées jusqu’en 2015, soit sur 10 ans.
  • La courbe rouge était une prévision supposant la fuite des capitaux terminée après 2010. Compte tenu du délai moyen entre les décisions d’investir et la croissance de la production, l’économie était alors supposée libre de toute influence extérieure postérieure à 2010.

Évidemment, ces prévisions  supposaient  la constance des influences conjoncturelles extérieures : croissance de la dette, taux d’intérêt, prix du pétrole qui, pour certaines ont un effet quasi immédiat…

            Personne n’ignore que depuis fin 2014 des événements importants ont eu lieu. Il convient donc d’expliquer les différences entre ces prévisions et les données réelles. L’évolution du contexte international et d’autres facteurs comme le niveau de la dette extérieure de la France expliquent-ils les écarts observés ?

 

En 2014, la conjoncture était exceptionnellement favorable. Malgré cela, le modèle Oméga-Allais continuait à prévoir une forte baisse du PIB. L’optimisme des responsables économiques était-il justifié ? Pouvaient-ils baser une politique économique sur le seul respect (plus ou moins strict) des critères de Maastricht ?

 

L’évaluation des performances de l’économie :

            Les performances de notre économie ne peuvent être évaluées que sur la base des données statistiques publiées par l’INSEE. Celles-ci semblent meilleures que les prévisions faites fin 2014 par le modèle Oméga-Allais. Ne devons-nous pas expliquer ces différences et évaluer nos critères d’évaluation ? Rendent-ils compte fidèlement de la réalité ?

Les critères de Maastricht :

            La politique économique de la France  a été jugée en fonction du respect des critères de Maastricht. Leur objectif essentiel semble avoir été d’assurer la stabilité des prix et de la monnaie. Nous ne retiendrons que les deux suivants applicables aux pays de la Zone Euro :

  • La dette du secteur public devait être inférieure à 60% du PIB.
  • Le déficit public devait être inférieur à 3% du PIB.

Ces critères avaient-ils une réelle valeur macroéconomique ? Pouvaient-ils assurer une convergence des économies des pays de la Zone Euro ?

Les critères de gestion prudente d’un particulier :

            Un particulier prévoyant veille à ne jamais dépenser plus qu’il ne gagne, même s’il accepte parfois d’emprunter, par exemple pour faire de gros achat. À tout instant, il arbitre entre les différents postes de dépenses en fonction de ses objectifs à court et à long terme.

            Un état souverain fait de même, mais les choix de ses nombreux citoyens restent libres. Il ne peut qu’ajuster les taux de changes et la répartition des impôts de façon à mener les particuliers et les entreprises à contribuer, de gré ou de force, à sa politique économique. Ces deux moyens d’action sont complémentaires et tous deux indispensables à la conduite d’une politique économique.

            Un état comme le nôtre, ayant renoncé à sa souveraineté monétaire, ne peut plus avoir de politique économique indépendante et doit se soumettre totalement à une autorité supérieure, l’Union Européenne.

Qu’étaient les objectifs des critères de Maastricht ?

            L’autorité supérieure à laquelle se soumettent nos gouvernements est clairement l’Union Européenne. Il s’agit du « Maitre de la monnaie« , c’est-à-dire, comme le disait François Mitterrand lors de sa compagne électorale : Du monde de la finance !

            Il faut bien admettre que les critères de Maastricht étaient destinés à protéger les intérêts de cette autorité supérieure. Ils ne sont, en fait, que les critères de solvabilité que tout prêteur exige de ses débiteurs. Le déficit maximum de 3% limite la capacité instantanée d’endettement des états.  La limitation de leurs dettes à 60% du PIB imposait une limite à leur endettement global.

Ces critères ne peuvent, en aucune manière, conduire à une convergence des économies des pays de la Zone Euro !

Des critères réellement économiques :

D’autres critères sont largement utilisés par les économistes. Le plus connu est le niveau de la dette. La dette accumulée est-elle insupportable ?

            Les dernières données publiées par l’INSEE font apparaître une dette qui s’emballe (figure 2). Le taux de 60% du PIB est dépassé depuis 2008 !

Figure 2 : Dette extérieure selon l’INSEE.

 

            Entre 1995 et 2010, la dette augmentait en moyenne de 12,5 Milliards par trimestre (figure 3). Depuis 2010, elle augmente de 20 Milliards par trimestre. Est-il raisonnable de devoir bientôt  plus que son revenu annuel ?

Figure 3 : Variation du PIB  corrigé.

En pointillé : valeur publiée. En rouge : valeur corrigée de la croissance de la dette.

 

            Une autre donnée observée avec attention est le déficit de la balance commerciale. Son déficit courant de plus de 60 Milliards par an est proche de la croissance de la dette. Ces montants  correspondent à un PIB fictif qui s’ajoute au PIB réel.

En effet, un particulier qui emprunte une somme X peut faire des achats à concurrence de cette même somme. Il dispose en effet d’un revenu fictif qui conduit pour une part à une demande intérieure, donc une production, et pour le reste à des dépenses à l’étranger.

Pour un état disposant de sa pleine souveraineté, cet excès de dépenses conduirait à une inflation, qui est finalement un impôt sur tous les dépôts bancaires, payé par tous les citoyens.  Dans le cas des états de la Zone Euro, cet excès de dépense se traduit par un déficit extérieur, la dette correspondante correspondant au déficit commercial. Au lieu d’accepter une dépréciation de leur monnaie, les nations contractent une dette qu’elles devront un jour rembourser.

La privatisation de l’ÉTAT !

               Maurice Allais avait montré qu’une part de la dette Publique est injustifiée. En effet, tant que notre pays était souverain, il pouvait ajuster la masse monétaire en fonction des besoins de l’économie. S’il dépensait trop, il pouvait ajuster le taux de change et ainsi rétablir les grands équilibres au prix d’un impôt discret prélevé sur les dépôts bancaires.

            Depuis 1974, l’état n’a plus le pouvoir d’ajuster la masse monétaire. La création monétaire est faite par des banques privées, ce qui correspond à une réelle perte de pouvoir. Ainsi, les nations perdent le contrôle de leur économie !

            Le « capital » de l’état est ainsi progressivement « privatisé ». Que penseriez-vous d’une société sans capitaux propres ?

 

De nouveaux obstacles à la prévision économique :

Il est évident que l’établissement de statistiques précises est une condition sans laquelle il est impossible d’établir des prévisions économiques à long terme fiables. La perpétuelle modification des bases statistiques récemment introduite dans les publications de l’INSEE est un obstacle réel à l’établissement de prévisions économiques.

 

Pour toutes ces données, nous avons observé une évolution de plus en plus rapide des bases statistiques:

  • Dans une note explicative, l’INSEE expliquait en parlant de l’évolution du PIB«  Les comptes nationaux procèdent régulièrement à des changements de base. Après les « bases » « 1995 », « 2000 » et « 2005 », les comptes nationaux sont passés le 15 mai 2014 à la « base 2010 ». C’est une source importante de révision des agrégats macro-économiques publiés jusqu’alors,… ».
  • L’INSEE ajoutait : « Mais cette année, les changements sont plus importants qu’à l’accoutumée. En effet, les concepts qui gouvernent l’établissement de ces chiffres ont fait l’objet d’un toilettage, ce qu’on appelle dans la terminologie des comptes nationaux un « changement de base ». Cela signifie que la définition exacte de nombreuses données et le contour de tous les grands agrégats (PIB, consommation, investissement, solde des administrations publiques, etc.) sont modifiés. Corrélativement, le niveau et, dans une moindre mesure, la chronique de ces données sont modifiés sur l’ensemble de la période couverte par les comptes nationaux, c’est-à-dire depuis 1949… ».
  • Ensuite l’INSEE expliquait : « En base 2010, l’Insee comptabilise par exemple en investissement les sommes que les agents économiques (entreprises privées, mais aussi organismes publics) dépensent pour la R&D, alors qu’elles étaient jusqu’à présent comptabilisées en consommations intermédiaires … »
  • Enfin l’INSEE ajoutait : « Il résulte de l’ensemble des modifications apportées une révision substantielle à la hausse du niveau du PIB (+ 3,2 % en 2010, soit + 61,8 Md€) pour un impact nettement plus modeste sur les taux d’évolution».

 

Depuis, les bases changent et se diversifient, et toutes les années de référence apparaissent… Le travail de prévision à long terme devient ainsi de plus en plus difficile.

Est-il encore possible de faire confiance aux statistiques officielles ?

 

Des prévisions pour 2023 ?

            Évidemment, les prévisions  faites en 2015 supposaient  la constance des influences conjoncturelles extérieures : croissance de la dette, taux d’intérêt, cours mondiaux qui ont un effet quasi immédiat…

            Elles supposaient également la stabilité des bases statistiques nécessaires à une bonne prévision. Qui peut croire que nous puissions avoir longtemps une croissance en valeur réelle de 0,15% par trimestre, soit en 2018 de 3 Milliards en valeur réelle, une dette qui progresse par an de 80 Milliards, un déficit commercial de plus de 60 Milliards et une fuite des capitaux de 20 Milliards par an ?

Une économie apparemment stabilisée :

En fait, il apparaît clairement une cohérence troublante entre ces chiffres. Tout se passe comme si 60 Milliards de production étaient sous-traités à l’étranger.

  • Nous importons 60 Milliards de denrées,
  • Nous exportons plus de capital que nécessaire, selon les paramètres du modèle Oméga-Allais (1/5 de cette production).
  • Notre dette augmente plus chaque année de la différence entre ces deux sommes.

Comme nous l’avons montré précédemment, (cf. : Le chômage importé), la politique  économique menée depuis déjà longtemps est directement responsable du chômage excessif dont souffre notre économie.

Pendant combien de temps accepterons-nous de compléter par des importations l’écart entre la production nationale et les revenus distribués à nos compatriotes ? Que se passera-t-il lorsqu’on nous demandera de rembourser la dette ?

 

Sous réserve de l’effet des modifications des bases statistiques, la valeur du PIB semble stabilisée en croissance régulière. La réalité semble bien différente.

 

      Figure 4 : Évolution du PIB :

  • Courbe rouge : PIB en base 2005.
  • Courbe bleue : PIB en base 2010.
  • Courbe verte : PIB en base 2014 (recalée de -4%).

 

Les valeurs annuelles du PIB présentée en 2018 sont supérieure de 4% par à celle présentées en 2015 en base 2005. Comme l’a démontré le prédicteur Oméga-Allais, cette évolution des statistiques interdit de faire des prévisions fiables. Pour ce faire, il est en effet nécessaire de disposer de données cohérentes sur une période d’au moins 15 années.

Il faut également nécessaire de connaître la fuite des capitaux sur la même période.

Figure 5 : Écart entre les données en base 2005 et 2014.

 

Cet écart de l’ordre de 10% du PIB entre les bases statistiques 2005 et 2014 ne peut que résulter de modifications très importantes du mode de calcul. Changer en permanence les bases statistiques revient à se boucher les yeux sur l’économie réelle !

Adapter les agrégats à l’évolution de l’économie est essentiel. Pour les transports, le pétrole a remplacé le fourrage ! Mais la baisse au cours du temps du prix des nouveaux produits et services ne doit pas cacher la hausse des autres.

 

Un avenir très sombre :

            L’évolution de notre économie est extrêmement préoccupante. La consommation est dopée par la croissance de la dette. Nous sommes dans une spirale infernale. Toute réduction de la croissance de la dette réduirait sensiblement le niveau de vie de nos concitoyens, puis conduirait à une réduction corrélative des investissements internes.

            N’envisageons même pas les conséquences qu’aurait une tentative de réduction de celle-ci.

            Les aviateurs connaissent la chute en vrille, seule figure d’acrobatie aérienne inconditionnellement stable, et dont il est difficile de sortir. Nos dirigeants semblent ne pas comprendre que la politique actuelle conduira à un surendettement catastrophique pour notre économie.

Enfin, réfléchissons à l’origine de cette dette qui peut se décomposer en deux parties bien distinctes : Une fluctuation aléatoire  à moyenne nulle et une dette systémique correspondant à un transfert de souveraineté des nations à des organismes supranationaux, ou même privés, qui ne défendent que leurs intérêts.

 

Figure 6 : Dette publique depuis 1973.
Extrait du rapport Pucci-Pinel.

 

À la suite d’André Jacques Holbecq qui dit dans son livre (La dette publique, une affaire rentable) un rapport de 2010 montrant l’évolution de la dette publique depuis 1973, attachons nous à séparer cette dette en deux parties : une dette fluctuant à court terme indispensable au fonctionnement de l’état, d’une dette systémique qui était alors quasi nulle.

 

            Souvenez-vous. Nous sommes rentrés dans cette spirale infernale vers 2009. C’est-à-dire peu après la signature du traité de Lisbonne !

            Les français n’avaient-ils pas eu raison de répondre NON au référendum de 2005 ?

 

 

Pierre FUERXER

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

 

 

Le mécanisme de la privatisation qui illustre la disparition d’État

Le mécanisme de la privatisation :

Introduction :

Contrairement à ce que de nombreux commentateurs pensent, les mécanismes fondamentaux de l’économie sont extrêmement simples.

Bien évidemment, les experts financiers inventent des règles et de dispositifs opaques pour le grand public. Les statisticiens, dans le but de décrire de mieux en mieux notre nation et son économie, diversifient leurs statistiques et améliorent leurs agrégats. Ces  modifications perpétuelles ont pour résultat de dérouter le public qui renonce souvent à comprendre et fait confiance aux experts.

Dans un premier temps, cet article explique sur la base de modèles mathématiques élémentaires que la réalité est biens plus simple qu’on ne le pense. Ensuite, il applique ce modèle aux données statistiques les plus récentes. Enfin, il explicite comment les mesures prises depuis 1973 ont conduit naturellement à la perte quasi-totale de notre indépendance, et finalement à une quasi-privatisation de l’état lui-même et des entreprises nationales.

 

Le fonctionnement normal de la monnaie :

Considérons une économie en croissance constante. Son PIB (Produit Intérieur Brut) est donc en croissance exponentielle.

Figure 1 : Exemple de croissance du PIB

  • Courbe bleue : Valeurs successives du PIB.
  • Courbe rouge : excès de PIB.

 

Un PIB de valeur unité en 1974 augmente de 2% par an. Il augmente au cours du temps de façon exponentielle. La masse monétaire doit donc augmenter régulièrement de façon à s’adapter au niveau de l’activité économique. Autrement dit, il faut ajuster le volume de la monnaie en circulation à l’activité économique.  En admettant, toujours pour simplifier l’exposé, que la masse monétaire nécessaire est égale au PIB annuel (valeur couramment observée dans les nations indépendantes), l’état doit augmenter chaque année la masse monétaire de l’accroissement du PIB national.

Bien évidemment, cette croissance de la masse monétaire est également nécessaire, que l’augmentation du PIB soit réelle ou simplement due à une dépréciation de la monnaie.

 

Dans un état souverain, l’état augmente la masse monétaire ex-nihilo grâce aux DTS (Droits de Tirage Spéciaux). S’il crée exactement la quantité de monnaie nécessaire à l’économie, les prix sont stables. S’il en crée davantage, la monnaie se déprécie, les prix augmentent et un ajustement des taux de change doit intervenir.

 

 

La création de la dette :

Depuis que l’état s’est interdit de procéder aux augmentations nécessaires de la masse monétaire par le mécanisme des DTS, il doit emprunter aux banques les sommes nécessaires. Celles-ci procèdent également par création ex-nihilo de cette monnaie. En revanche, elles transforment ce service en dette de l’état et exigent le versement d’un intérêt.

Supposons qu’elles exigent un intérêt de 2% égal au taux de croissance du PIB. La dette augmente de plus en plus vite au cours du temps.

Figure 2 : Augmentation de la dette avec un intérêt de 2%

  • Courbe bleue : Valeurs successives du PIB.
  • Courbe rouge : Dette au cours du temps

 

Cet intérêt identique au taux de croissance du PIB semble  modique. En réalité, il conduit en une trentaine d’années à une dette indue de 100% du PIB.

 

Des conséquences catastrophiques :

En comparant l’état à une entreprise dont la masse monétaire serait le fond de roulement, la nation qui était propriétaire de son entreprise perd son bien et devient quasiment « locataire » de son territoire.

Sa part du capital social se réduit au cours du temps. La nation est ainsi progressivement privatisée. Vers 2005, l’état perd la majorité au capital et paye un loyer déjà important, les citoyens devenant ses sous-locataires !

 

Figure 3 : Taux de participation de l’état

 

On démontrerait facilement que, lorsque les taux d’intérêt de la dette et du PIB sont dans un rapport constant, cette « privatisation partielle » ne dépend que de la croissance apparente du PIB.  Son rythme d’évolution temporelle ne joue alors aucun rôle.

Application à la dette française :

Considérons la variation du PIB depuis 1974. Nous constatons que sa variation moyenne est de 2% par an.

Figure 4 : Variation du PIB trimestriel depuis 1974

  • En rouge : Valeurs de l’INSEE.
    • En bleu : Approximation exponentielle.

 

Un calcul approché du niveau de la dette conduit aux résultats suivants :

Figure 5 : Évolution de la dette depuis 2014

  • En rouge : Valeurs du PIB annuel en trimestres glissants.
  • En bleu : Calcul approché de la dette,
  • Tirets verts : Prévision depuis 1974,
  • En  vert : Recalage en 2004.

 

Ces résultats montrent clairement que la dette publique n’est pas un phénomène complexe, mais le résultat mécanique d’une décision politique prise en 1973-1974.

 

Il reste à expliquer les modifications intervenues depuis 2010 :

  • Une augmentation injustifiée apparaît. Le transfert de la dette grecque à la BCE a sans doute joué un rôle, mais l’essentiel a certainement été la baisse des ressources fiscales pendant la crise de 2008.
  • La limitation de la dette à une valeur inférieure à 100% du PIB, qui est sans doute liée à une compagne de privatisation de biens publics.

 

L’étude de ces points accessoires sort de l’objet de ce document et ne pourrait qu’embrouiller l’exposé. Elle n’est donc pas développée dans ce document.

Conclusion :

            Cette analyse de la dette publique montre clairement qu’elle résulte d’une décision politique ancienne. Celle-ci a été camouflée sous différents prétextes vertueux. Les anciens se souviennent des raisons avancées à l’époque : éviter un recours excessif à la planche à billets, nous permettre de faire des investissement qui n’auraient  pas été possibles sans faire appel aux financements étrangers …

            Bien évidemment, l’analyse objective des faits réels montre clairement que l’abandon des DTS (avances non remboursables de la B.D.F.) avait d’autres raisons. En réalité, les réformes successives introduites dans les finances publiques n’ont eu qu’un seul objectif : déposséder, au profit des banques, les gouvernements futurs de leur pouvoir économique.

 

            N’oublions pas que la causalité économique et la causalité banquaire n’ont rien en commun. Les entreprises, qu’elle soient grandes ou unipersonnelles, les particuliers, doivent économiser pour créer ou pérenniser leur activité. Un salarié travaille avant d’être payé, un entrepreneur achète des machines et des fournitures avant d’espérer produire et vendre…     Ils travaillent dans le temps long. Leurs actifs sont des biens réels et l’épargne précède le revenu. Comme dans la vie courante, les dépôts monétaires précèdent les dépenses.

 

            L’univers bancaire, que nous appellerons « La Banque » est fort différent. Il monétise toute sortes de promesses de payer. Il place dans ses actifs les reconnaissances de dette de ses clients et dans le passif la monnaie correspondante qu’ils créent eux-mêmes…

Ce processus est immédiat. Selon le point de vue de la banque, les dettes créent les dépôts qui entrent naturellement dans la masse monétaire qui, à son tour, fait fonctionner l’économie en permettant le commerce. Est-il étonnant alors que les points de vue économiques et  bancaires soient incompatibles ?

 

            L’étude des conséquences de la mondialisation bancaire est plus complexe. Encore plus que les données économiques de base, les statistiques monétaires sont difficiles à analyser. Les changements perpétuels des monnaies et des bases statistiques rendent difficile les analyses économiques à long terme.

Des données importantes comme la masse monétaire ne sont plus publiées par les pays de la « Zone Euro ». Les données de l’ensemble de ces pays sont absentes des statistiques de la banque mondiale qui ne peut même pas présenter une valeur relative à l’UE toute entière.

 Il y a toujours des raison aux disparitions de données statistiques ou à leurs modifications. 

A nous de les trouver !

 

Une seule attitude peut nous permettre de comprendre les véritables raisons de réformes proposées : adopter une méthode d’analyse ne suivant pas les approches officielles.

 

 

 

Pierre FUERXER

Membre de l’AIRAMA

 

 

Télécharger l’article en PDF

 

 

Le financement de l’économie

Une nécessité économique

Pour prendre en compte les contraintes financières, le prédicteur économique OMEGA original doit être complété par un modèle financier.

En effet, de façon à clarifier l’analyse  du système économique, ce modèle avait été construit sur des « données réelles » supposées indépendantes des fluctuations monétaires. À ce stade, il était évidemment hors de question de tenter de décrire de façon détaillée tous les mécanismes financiers intervenant dans une économie nationale en interaction avec le reste du monde.

Figure 1 : Structure de modèle complet.

Le modèle initial a donc été complété en maintenant autant que possible un choix fondamental : séparer le plus possible les aspects économiques et financiers. Le prédicteur Oméga est lié par seulement deux entrées à un modèle financier : l’incitation à investir et l’incitation à consommer.

Le modèle décrit simplement les réponses temporelles du système économique à ces incitations. Elles ont montré que toute mesure autoritaire conduit à une modification transitoire de l’investissement et de la consommation.

Le modèle OMEGA, ainsi complété, a clairement démontré que seule l’augmentation de la part de l’investissement dans le revenu national permet d’augmenter la production et de conduire à une croissance durable. Comment l’état peut-il intervenir dans ce partage des ressources entre consommation et investissement ? Nous devrons distinguer deux cas bien différents.

Des lois économiques incontournables

Pour préciser le propos, considérons un agriculteur de l’âge de pierre tirant ses revenus de la culture du blé. Il vit dans une société ignorant la notion de monnaie et des prestations sociales. Il apporte sa contribution à la vie de son village. S’il se rend compte que son groupe a besoin de davantage de blé, il sait qu’il doit défricher davantage de terrain puis le mettre en culture. Il s’investit dans cette tâche avant de tirer quelque profit de son travail. Il sait parfaitement qu’il va devoir travailler plus et qu’il devra conserver plus de semences. Sa production sera alors transitoirement réduite.

Aujourd’hui, la présence de la monnaie rend les choses moins visibles, mais ces lois économiques restent incontournables. Le modèle Oméga décrit une relation statistique entre investissement et production.

Considérons un investissement exceptionnel intervenant au cours d’une période donnée. Nous supposons que les dépenses correspondent à la courbe gaussienne en pointillés bleus dans la figure 2. La production résultant de cet investissement correspond à la courbe rouge. Elles conduisent au versement de salaires, donc à augmentent les revenus. La demande totale est donc la courbe de droite en bleu, somme des deux précédentes.

Figure 2 : Effet d’un investissement exceptionnel au cours du temps en années.

  • Courbe pointillée bleue : Investissement exceptionnel,
  • Courbe rouge : Production,
  • Courbe bleue : demande totale.

Le modèle Oméga rend compte de ce mécanisme fondamental.

Figure 3 : Effet d’un investissement au cours du temps en années.

  • Courbe en pointillé bleu : dépenses d’investissement,
  • Courbe rouge : Production induite pas l’investissement.

En supposant la production des biens de consommation et d’investissement effectuée par des entreprises différentes, les revenus des premiers subissent une réduction temporaire (figure 4).

Figure 4 : Revenu des industries produisant des biens de consommation.

Le revenu de ceux-ci subira donc une réduction temporaire (Figure 5).

Figure 5 : Réduction transitoire des revenus au cours du temps (en années).

  • Courbe rouge : Investissement total,
  • Courbe pointillée bleue : production nouvelle,
  • Courbe en tirets verts : Bilan temporel.     

Ceci n’est pas différent de ce qui se passait dans le village de notre agriculteur à l’âge de pierre. Cependant, l’introduction de la monnaie, nécessaire aux échanges dans une société moderne va tout changer.

Cette monnaie, crée par une autorité, la nation puis des entités supranationales, et acceptée comme moyen de valorisation des produits et services va apporter beaucoup de souplesse, mais aussi permettre de nombreuses manipulations. Elle va, en particulier effacer la réduction temporaire du revenu perçu par notre agriculteur, mais cela ne se fait pas sans contrepartie.

Pour modifier la part des investissements dans le revenu national, l’état dispose de très nombreux moyens : des mesures fiscales, des subventions… Tous ces moyens d’action conduisent à des transferts de richesse entre les acteurs économiques, tant investisseurs que consommateurs. Les conséquences de ses décisions dépendent fortement du monde financier.

Selon le groupe homogène concerné, nation solidaire, ensembles régionaux et bientôt au monde entier, l’usage de la monnaie va être différent. Dans tous les cas, elle sera un élément fondamental de la politique économique. Les états perdront progressivement leur rôle et dépendront de leur environnement.

Les modes d’action de l’état souverain

Un tel état dispose de sa propre monnaie. Il régule ses échanges avec les autres états grâce à des taux de changes ajustés régulièrement. Ceci lui permet d’équilibrer ses échanges extérieurs. Il n’a donc pas de  dettes extérieures.

Toutes les actions de cet état conduisent à arbitrer entre les différents groupes de pression et à promouvoir une politique économique cohérente. Toute son action consiste à ajuster les deux paramètres d’entré du modèle Omega : l’incitation à investir et l’incitation à consommer.

De plus, cet état dispose du droit de modifier la quantité de monnaie en circulation, ce qui lui permet d’agir sur l’évolution des prix. À cette fin, il peut créer de la monnaie « ex-nihilo » et utiliser librement ce droit pour ajuster son volume aux besoins de l’économie, ou financer des dépenses imprévues. Toutefois, il ne doit,  en aucun cas, engager des dépenses injustifiées, ce qui provoquerait l’hyperinflation tant redoutée des épargnants.

Lors d’une période d’investissement exceptionnelle, un tel état peut maintenir le revenu nominal des citoyens puis restituer leurs revenus à ceux qui ont été lésés lorsque la croissance de la production le rend possible.

Les modes d’action d’un état ne contrôlant pas sa monnaie

Il s’agit des états ayant renoncé à une monnaie nationale, donc des états appartenant à la Zone Euro. Ils n’ont pratiquement plus aucune possibilité d’intervention dans le domaine économique. Cette catégorie comprend également ceux qui, comme la France depuis 1974,  ne disposent plus du droit de battre monnaie, c’est-à-dire de créer « ex-nihilo » de la monnaie.

Contrairement aux états précédents, ceux-ci sont progressivement endettés. Il faut donc chercher l’origine de ces dettes et estimer leurs conséquences à long terme.

L’origine de la dette

Comme nous allons le démontrer, cette prérogative du prince est en effet indissociable du pouvoir économique réel.

Figure 6 : Évolution de la dette depuis 2014.

  • En rouge : Valeurs du PIB annuel en trimestres glissants.
  • En bleu : Calcul approché de la dette,
  • Tirets verts : Prévision depuis 1974,
  • En  vert : Recalage en 2004.

 

Depuis que l’état a renoncé à recevoir des avances non remboursables de la Banque de France (alors désignées par le sigle DTS : Droits de Tirages Spéciaux), il n’a pu ajuster le volume de la masse monétaire sans faire des emprunts auprès des banques privées qui ont conservé le droit de créer « ex-nihilo » de la monnaie.

Au lieu d’utiliser à cette fin « la planche à billets », l’ajustement de la masse monétaire au niveau de l’activité économique a été fait par des emprunts dont l’accumulation a conduit à la dette actuelle. De 1974 à 2010, la dette se calcule simplement en ajoutant, trimestre après trimestre, à la dette antérieure. Elle se calcule sur la base du financement nécessaire de l’augmentation du PIB, et majorée des intérêts dus sur  les sommes déjà empruntées (Il serait facile d’expliquer par les événements postérieures à 2008 l’évolution les différences observée ces dernières années).

Il est permis de se demander pourquoi nos responsables politiques, en renonçant à battre monnaie, ont créé une dette inutile, injuste et de toutes façon impossible à rembourser ?

 

Le mécanisme sous-jacent

 La remarquable corrélation entre la croissance du PIB et celle de la dette est surprenante. L’ajustement de la monnaie aux besoins de l’économie n’aurait-elle pas dû se faire autrement ? Par la seule  croissance de la masse monétaire ? 

En réalité, nous devons nous souvenir que le PIB est un flux de biens et services. La masse monétaire correspond à ce flux, mais à un stock de dépôts à court terme. Si la vitesse de rotation de la monnaie est V, exprimée en mois, trimestres ou années, nous pouvons écrire :

PIB = M x V

Pour de nombreuses raisons économiques et psychologiques, il est impératif que les prix soient stables ou en légère croissance. Que l’augmentation du PIB soit réelle  ou seulement apparente, il faut que le flux monétaire augmente dans la même proportion que celui de l’offre. Ceci ne peut être fait qu’en ajoutant un flux de demande égal à l’augmentation de celui de l’offre.

Le flux de demande correspondant entre naturellement dans la sphère financière, et ajuste la masse monétaire aux besoins de l’économie, quelle que soit sa vitesse de rotation. Il faut donc, année après année, injecter un flux monétaire égal à l’augmentation du PIB. L’état réalise cette injection monétaire de la manière la plus simple du monde, en distribuant plus d’argent qu’il n’en reçoit. Si l’état ne peut plus créer de  monnaie, les banques pourraient créer elles-mêmes la monnaie nécessaire, « ex-nihilo« , mais dans ce cas elles ne seraient pas rémunérées pour le faire et l’état n’aurait plus de dette…

Le pouvoir a changé de mains ! Sans droit de battre monnaie, un état est réduit au statut de simple citoyen. Il ne dispose  plus que d’une apparence de pouvoir régalien !

Conclusion :          

            Il n’y a pas de politique économique possible sans souveraineté. Sans souveraineté monétaire, un état doit se soumettre au bon vouloir de ses créanciers. Un état ayant retrouvé son autorité, associé à un système bancaire au servi des citoyens et des entreprises constitueraient un ensemble œuvrant efficacement au bien commun.

            Sans cette restauration de l’état, la soumission diffuse de la nation à des intérêts étrangers va progressivement toucher tous les domaines. Le libre-échange permet ma mise en concurrence des entreprises et des citoyens du monde entier.

            Nous voyons tous les jours les effets du laisser-fairisme dénoncé en son temps par Maurice Allais et bien d’autres observateurs impartiaux du monde moderne.

 

Pierre FUERXER

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

 

L’emploi Industriel qui montre que le chômage résulte d’un choix

La perte des emplois industriels

Introduction :

Maurice Allais a exposé dans un livre publié en 2007 avec le titre « La mondialisation, la destruction des emplois et la croissance ».  Plus de dix ans plus tard, « l’évidence empirique » sur laquelle il basait son argumentation est de plus en plus claire.

Figure 1 : courbes présentées dans la presse par Maurice Allais

 

Une précédente mise à jour :

En janvier 2017, une mise à jour faite à partir des dernières statistiques de l’INSEE confirmait les prévisions de Maurice Allais.

Figure 2 : Emploi industriel : Projection faite en janvier 2017.

Cette projection conduisait à un emploi industriel nul en 2045. Il est évident qu’une telle extrapolation ne peut être retenue. Il est bien certain que l’évolution actuelle ne pourra se poursuivre indéfiniment. Il reste toutefois à observer jusqu’à quel point cette tendance pourra se poursuivre et à anticiper les mesures qui permettront de faire face au choc qui accompagnera la fin de cette période de désindustrialisation.

 

Évolution de la population française :

Même si le vieillissement de la population est un fait indiscutable, la population française ne cesse de croître.

Figure 3 : Population totale selon l’INSEE

La répartition en tranches d’âge permet d’observer son vieillissement. Compte tenu de l’accroissement constant du temps partiel, les nombres d’actifs et de chômeurs ne sont plus significatifs. Ainsi, le volume de la population active n’est plus publié. Nous allons donc considérer l’emploi total et sa répartition sur la base des équivalents temps plein.

Figure 4 : Emploi total (équivalent temps plein)

 

L’évolution de l’emploi industriel correspond strictement à la tendance prédite par Maurice Allais il y a près de dix ans.

Figure 5 : Évolution de l’emploi industriel

Le taux d’emploi industriels correspond alors à la figure suivante :

Figure 6 : taux d’emploi industriel dans l’emploi total

Ce taux, qui était de plus de 35 % en 1948 est maintenant de l’ordre de 10%. Il subit à une réduction légèrement plus forte par rapport à l’ensemble de la population, en raison de son vieillissement qui réduit la part des  actifs. Sur cette courbe, la cassure de 1974 apparaît nettement.

Dans ces conditions, il est facile de constater qu’en tenant compte du vieillissement de la population, la décroissance du niveau de l’emploi industriel réel est conforme aux prévisions de Maurice Allais, et strictement celui constaté en janvier 2017. Sur cette courbe, le ralentissement apparent de la désindustrialisation n’est dû qu’au vieillissement de la population. En effet celui-ci réduit la part de la population active dans la population totale.

Figure 7 : Taux d’emploi industriel par rapport à la population totale

Il reste à expliquer les vraies raisons de cette réduction de l’emploi industriel.  En effet, celle-ci ne peut être attribuée aux seuls progrès techniques et au développement des robots.

 

PIB ou valeur ajoutée ?

Pendant longtemps, le PIB (Produit Intérieur Brut),  malgré ses nombreux défauts, a été la mesure de l’activité économique.

Aujourd’hui, l’INSEE publie des mesures détaillées de la valeur ajoutée. Des données détaillées relatives aux diverses activités économique sont maintenant disponibles.

Nous les avons regroupées en trois domaines différents (Figure 8).

Figure 8 : Répartition de la valeur ajoutée

  • En bleu : Activité commerciales
  • En vert : Activités de service,
  • En rouge : Activité industrielles.

Le niveau des activités agricoles n’a pas été tracé compte tenu de sa très faible valeur.

Les pourcentages des valeurs ajoutées  industrielles et agricoles correspondent au graphique suivant (figure 9).

Figure 9 : Industrie et agriculture

  • Courbe bleue : Industrie,
  • Courbe rouge : Agriculture.

Elles sont très petites derrière les activités de service au sens global, en incluant les services commerciaux et les autres services, notamment aux entreprises (figure 10).

 

Figure 10 : Part des activités de service

Le transitoire présent sur les courbes correspond à mai 1968, période pendant laquelle l’activité industrielle a été fortement perturbée.

La répartition de la valeur ajoutée telle qu’elle apparaît dans les statistiques de l’INSEE  est donc bien plus instructive que celle du PIB. La somme des revenus pouvant être supérieure à la valeur ajoutée totale qui est la production réelle.

 

Le chômage importé :

En 2012, nous avions montré que les seules importations chinoises correspondaient à la perte de 2,7 millions d’emplois. Si nous ajoutons ces emplois à la valeur constatée en 2012, les courbes des figures 5 et 7 sont modifiées de la façon suivante (figures 11 et 12).

Figure 11 : Part des emplois industriels corrigé pour 2012

Figure 12 : Taux d’emploi industriel corrigé pour 2012

Ces courbes démontrent que  le chômage importé résultant des seules importations chinoises suffit à compenser la réduction de l’emploi industriel observée depuis 1974. Il est certain que si ce calcul avait été fait sur l’ensemble des importations, l’emploi industriel corrigé de l’effet des importations aurait poursuivi sa croissance au-delà de 1974.

La réduction de l’emploi industriel est donc clairement la conséquence d’une politique qui a, sciemment ou non, créé un chômage de masse.

 

Conclusion :

Cette analyse montre que le chômage de masse n’est pas une fatalité. Il résulte de d’une politique délibérée, le libéralisme, qui conduit naturellement à la mise en concurrence des travailleurs et des régimes sociaux du monde entier.

À la suite de mai 1968, la compétitivité de l’économie française n’a pu être rétablie que grâce à deux dévaluations du franc et une réévaluation du Mark. Toutefois, comme le modèle OMEGA l’a très clairement expliqué, ces événements ont conduit à une réduction de la croissance six ans plus tard.

En 1973-74, l’abandon  de notre souveraineté monétaire par le président Pompidou et Valery Giscard d’Estaing a eu des conséquences catastrophiques à long terme. Ne pouvant plus ajuster la compétitivité nationale en dévaluant le franc, nos gouvernements ont mené une politique mondialiste irresponsable. Le maintien du pouvoir d’achat des salariés et des revenus des capitaux s’est fait grâce à des expédients : exportations d’armes, importations en provenance des pays à faibles coûts salariaux, vente d’entreprises… Le recours aux banques privées pour ajuster la monnaie a introduit une dette publique totalement injustifiée, comme Maurice Allais et de nombreux économistes l’ont démontré. Globalement, cette politique a conduit inéluctablement à une augmentation du chômage.

L’adoption de l’EURO (€) a été présentée comme la solution finale aux problèmes des états européens. Force est de constater qu’il n’en est rien. Le mondialisme continue à détruire méthodiquement l’économie française et d’autres états européens.

On nous assure que la réduction de l’emploi industriel est un phénomène inévitable, une conséquence des progrès de la technologie, et en particulier du développement des robots industriels. En réalité, des emplois sont créés dans d’autres pays. Tout se passe comme si nous avions décidé de délocaliser notre industrie en transférant nos capitaux à l’étranger en vue d’y réaliser, à moindre coût, les produits demandés par notre marché intérieur.

Le déficit de notre balance commerciale et la croissance du chômage sont alors inévitables. N’est-il pas temps d’abandonner une politique qui, selon l’expression de Maurice Allais, a fait la « démonstration empirique » de sa nocivité ?

 

Pierre Fuerxer,

Membre de l’AIRAMA.

 

Télécharger en PDF

 

 

Efficacité économique et justice sociale selon Maurice Allais

Maurice Allais occupe une place singulière au sein de l’école des économistes libéraux par son constant souci d’analyser les effets de celle-ci sur la répartition des revenus et des richesses. Il démontre que seules la liberté d’entreprendre et la liberté d’accès aux marchés peuvent réaliser ou approcher l’efficacité économique optimale dans l’allocation des ressources. Il souligne la nécessité absolue de préserver la justice sociale, en particulier par une fiscalité refondée.

in « La Jaune et la Rouge » Magazine N°687 Septembre 2013 – Fiscalité : les nouvelles formules

Considérant qu’un État impartial constituait le garant en dernier ressort du bien commun des sociétés et de leur pérennité, les réflexions de Maurice Allais étaient guidées par le souci de tarir les revenus « indus » qui ne provenaient pas de réels services économiques apportés à la collectivité, en éliminant fiscalement les situations de rentes.

Il propose tout particulièrement de rétrocéder à l’État la rente annuelle de la création de monnaie ex nihilo engendrée par le système du crédit pratiqué par le secteur bancaire et financier actuel.

REPÈRES
Maurice Allais (31), disparu en 2010, est le seul économiste français titulaire du prix Nobel de sciences économiques. Il lui a été décerné en 1988 pour « ses contributions à la théorie des marchés et à l’utilisation efficace des ressources ». Cet esprit encyclopédique et rigoureux est également reconnu pour avoir offert une refonte cohérente des principaux pans de la théorie économique, de la théorie de l’équilibre, des marchés et de l’intérêt, à la théorie de la monnaie et des anticipations.

Réformer le système bancaire et financier

Maurice Allais propose, en préalable à toute refonte de la fiscalité, la réforme du système bancaire et financier. Cette réforme doit s’appuyer sur deux principes.

La création monétaire doit relever de l’État et de l’État seul. Toute création monétaire autre que la monnaie de base par la banque centrale indépendante des gouvernements doit être rendue impossible, de manière que disparaissent les « faux droits » résultant actuellement de la création monétaire bancaire. Tout financement d’investissement à un terme donné doit être assuré par des emprunts à des termes plus longs, ou tout au moins de même terme.

Banques de dépôts, de prêt et d’affaires

Les principes de la réforme du système du crédit que propose Allais peuvent donc se résumer comme il l’écrit lui-même :

« Cette double condition implique une modification profonde des structures bancaires et financières reposant sur la dissociation totale des activités bancaires telles qu’elles se constatent aujourd’hui, et leur attribution selon trois catégories d’établissements distincts et indépendants :

La création monétaire doit relever de l’État et de l’État seul
  • des banques de dépôts assurant seulement, à l’exclusion de toute opération de prêt, les encaissements et les paiements, et la garde des dépôts de leurs clients, les frais correspondants étant facturés à ces derniers, et les comptes des clients ne pouvant comporter aucun découvert ;

  • des banques de prêt empruntant à des termes donnés et prêtant les fonds empruntés à des termes plus courts, le montant global des prêts ne pouvant excéder le montant global des fonds empruntés ;

  • des banques d’affaires empruntant directement auprès du public, ou aux banques de prêt et investissant les fonds empruntés dans les entreprises.

 
« Dans son principe, une telle réforme rendrait impossible la création monétaire et de pouvoir d’achat ex nihilo par le système bancaire, ainsi que l’emprunt à court terme pour financer des prêts de terme plus long.

Elle ne permettrait que des prêts de maturité plus courte que celle correspondant aux fonds empruntés. Les banques de prêt et les banques d’affaires serviraient d’intermédiaires entre les épargnants et les emprunteurs. Elles seraient soumises à une obligation impérative : emprunter à long terme pour prêter à plus court terme, à l’inverse de ce qui se passe aujourd’hui. »

Une condition de survie

« Une telle organisation du système bancaire et financier permettrait la réalisation simultanée de six conditions tout à fait fondamentales :

  • l’impossibilité de toute création monétaire en dehors de celle de la monnaie de base par les autorités monétaires indépendantes des gouvernements ;

  • la suppression de tout déséquilibre résultant du financement d’investissements à long terme à partir d’emprunts à court ou à moyen terme ;

  • l’expansion de la masse monétaire globale, constituée uniquement par la monnaie de base, au taux souhaité par les autorités monétaires indépendantes des gouvernements;

  • une réduction majeure, sinon totale, de l’amplitude des fluctuations conjoncturelles ;

  • l’attribution à l’État des gains provenant de la création monétaire, et l’allégement en conséquence des impôts actuels ;

  • un contrôle aisé par l’opinion publique et par le Parlement de la création monétaire et de ses implications.

 
Cette réforme apparaît comme une condition nécessaire de survie d’une économie décentralisée et de son efficacité. »

Dès lors, la fiscalité doit être refondée en considérant que les impôts payés par les ménages et les entreprises sont « la rémunération des services de toutes sortes que leur rend l’État et qu’il est seul à même de leur rendre ».

Les sept principes de la fiscalité

  • Principe individualiste : l’impôt ne doit pas rechercher l’égalité des conditions, mais celle des chances.
  • Principe de non-discrimination : l’impôt doit être établi suivant des règles qui soient les mêmes pour tous.
  • Principe d’impersonnalité : l’impôt ne doit pas impliquer des recherches inquisitoriales sur les personnes.
  • Principe de neutralité et d’efficacité économiques : l’impôt ne doit pas pénaliser les choix les plus efficaces pour l’économie. Les entreprises en perte devraient être pénalisées, et non celles qui font des bénéfices.
  • Principe de légitimité : l’impôt doit frapper autant que possible les revenus «non gagnés» qui ne correspondent pas à un service effectivement rendu tels, par exemple, ceux provenant de l’appropriation des plus-values foncières résultant de la croissance démographique.
  • Principe d’exclusion d’une double imposition : un revenu ou un bien ne saurait être taxé plusieurs fois.
  • Principe de non-arbitraire et de transparence : le système fiscal doit répondre à des principes simples et peu coûteux d’application.

Une fiscalité tripolaire

Allais propose la suppression totale des impôts actuels sur les revenus des personnes physiques, sur les entreprises, sur les successions et donations, comme sur le patrimoine et les plus-values. On les remplacerait par une fiscalité tripolaire répondant aux « sept principes » (voir encadré ci-dessus).

Peu vulnérable à la fraude, elle se prêterait à un contrôle facile du Parlement.

Il propose donc une taxe annuelle de l’ordre de 2% sur les seuls biens physiques, à l’exclusion des créances, actions et obligations notamment, à l’exclusion de toute double imposition et de toute exemption.

L’impôt doit être établi suivant des règles qui soient les mêmes pour tous

Il propose aussi l’attribution à l’État, et à l’État seul, des profits provenant actuellement de l’augmentation de la masse monétaire par la création des moyens de paiement issus du mécanisme actuel du crédit, selon les principes de la réforme proposée (de l’ordre de 4% à 5% du revenu national en régime de croissance de 4 % et d’inflation de 2 %).

Allais propose enfin une taxe générale sur les biens de consommation de taux uniforme pour assurer les dépenses publiques non couvertes par les deux postes précédents. Il précise que, « contrairement à ce que l’on pourrait penser, les charges correspondant à l’impôt proposé sur le capital ne différeraient que d’un quart environ de celles qui le grèvent déjà en réalité dans le système actuel ».

Des ordres de grandeur réalistes

Allais chiffre avec réalisme les ordres de grandeur de ses réformes, et prend bien soin de présenter le catalogue des principales objections qui leur ont été opposées pour les réfuter une à une. Il démontre comment cette double réforme constituerait un puissant stimulant au retour de la croissance économique en mobilisant les initiatives économiquement les plus efficaces, ouvrant ainsi la voie à une nouvelle ère de prospérité et de justice.

Par une double réforme du crédit et de la fiscalité répondant aux principes clairement énoncés ici, la France offrirait au monde un exemple libérateur d’une puissance irrésistible face aux oppressions qui semblent vouloir aujourd’hui effrontément s’affranchir de tout contrôle des peuples, dans une dangereuse hubrys.