Étiquette : Maurice Allais

Un rêve de physicien…

Le rêve d’un physicien.

 

Préambule :

               Retraité depuis déjà longtemps, un polytechnicien revient sur sa carrière d’ingénieur. Les progrès en à peine plus d’un siècle n’ont-ils pas été considérables ? Faut-il s’en émerveiller ou s’en étonner ? Ceci résulte-t-il de progrès considérables des connaissances scientifiques ou de la technologie ? N’avait-il pas admis, au moins implicitement, au cours de sa carrière d’ingénieur que ceux qui savent réalisent, et ceux qui ignorent enseignent ? En réalité, comment technologie et progrès théoriques s’épaulent-ils ?

               Pour comprendre l’état actuel des connaissances, il se demande pourquoi des vérités scientifiques, aujourd’hui incontestées, se sont imposées. Les choix conceptuels qui ont été faits au 20° siècle ont-ils été judicieux ? D’autres approches n’auraient-elles pas été préférables ?

               Il se met alors successivement dans la peau d’un élève des promotions 2005, 1960 puis 2015 et  découvre  que les mathématiques et la physique ont toujours eu des relations conflictuelles. La rigueur des premiers et l’intuition des seconds sont-elles compatibles ? Les physiciens s’opposent-ils toujours aux idées nouvelles? La physique du 21° siècle sera-t-elle celle dont il a toujours rêvé ?

               Enfin, il décrit la physique dont il rêve, et qu’il espère voir s’imposer en 2070, trois fois 55 ans après la rupture de 1905 qui a conduit à la physique relativiste et quantique que nous connaissons.

La physique en 1905 :

Que lui aurait-on enseigné à l’école Polytechnique en 1905 ? Henri Poincaré, son jeune professeur  d’astronomie, lui aurait sans doute présenté le problème des trois corps, mais vraisemblablement pas les expériences de Michelson, ni les ides idées de Lorentz sur la contraction des corps en mouvement, qui étaient encore très contestées.

Les modes de pensée des physiciens et des mathématiciens étaient et restent très différents. Les mathématiciens raisonnaient avec rigueur sur la base d’axiomes parfaitement explicités. Les physiciens essayaient de construire des théories susceptibles d’expliquer, au moins qualitativement, les phénomènes qu’ils observent.

En 1905, ce jeune élève (on ne disait pas étudiant, terme réservé à l’université), s’endort pendant un cours dans le grand amphi (aujourd’hui devenu l’amphi Poincaré), alors que son professeur explique que les plus lourds que l’air ne peuvent pas voler. Malgré les débuts de l’aviation, son argumentation de son professeur avait l’apparence d’une démonstration. Depuis, nous avons appris que, grâce au développement de grandes souffleries, la démonstration de son professeur était mathématiquement exacte, mais que ses hypothèses correspondaient à un cas d’école « idéalisé » qui ne se rencontre qu’exceptionnellement dans le monde réel, et qu’heureusement les aviateurs savent éviter. En mathématicien, ce professeur avait fait une démonstration rigoureuse, mais sur la base d’hypothèses trop restrictives, réduisant la portée de ses conclusions. Les fous volants ont prouvé que sa démonstration n’était pas pertinente.

Au même moment, les physiciens étaient préoccupés par l’échec des expériences de Michelson. En 1881, celui-ci avait tenté de mesurer la « vitesse absolue » de la terre avec un interféromètre de seulement 1,20 m de longueur. Après ce premier échec, d’autres expériences avaient conduit à des résultats jugés non significatifs. Pour expliquer ces résultats, Lorentz avait imaginé que les corps en mouvement se contractent dans la direction de leur vitesse. Compte tenu de cette hypothèse,  la vitesse de la lumière devenait apparemment isotrope dans un interféromètre mobile. Il s’agissait là d’une hypothèse « ad hoc », justifiée par aucune théorie physique. Sans entrer dans la genèse de la théorie de la relativité, expliquée de façon remarquable par Jules Leveugle dans son livre publié en 2004 (1), Lorentz agissait comme bien d’autres physiciens avant lui. Il traduisait en loi physique le résultat d’une expérience, ici l’échec de la mesure la vitesse absolue de la terre.

Poincaré, après avoir démontré que l’hypothèse de Lorentz était mathématiquement recevable, établit les formules de changement de repère qui en résultaient. Il démontra ensuite que ces formules ont des propriétés remarquables et constituent, en langage mathématique, « un corps », notion encore largement ignorée des physiciens.  Il ajouta donc, aux grands principes de la physique, le principe de relativité, selon lequel les lois de la physique doivent être les mêmes pour tous les observateurs.

À cette époque, Planck était responsable du choix des articles de physique théorique au sein de la revue allemande « Annalen der Physik ». Comme l’a démontré Jules Leveugle à partir de documents originaux, celui-ci privilégiait naturellement les articles favorables à sa théorie des quanta, et prit parti pour la théorie de la relativité.

La physique vers 1960 :

               Une cinquantaine d’années plus tard, jeune polytechnicien, je découvre une physique totalement différente. Les polémiques nées autour des théories quantiques et relativistes sont totalement oubliées. À l’exception de Monsieur Tardi, lointain successeur de Poincaré au poste de professeur d’astrophysique, les physiciens présentent leur discipline d’une façon dogmatique. Le doute n’a plus sa place. La théorie de la relativité générale est une évidence. Les grands instruments, accélérateurs et cyclotrons, ont permis d’observer de nombreuses particules stables ou instables. Les plus grands espoirs sont mis dans « le modèle standard ». En un mot, nous approchions de la fin de l’histoire !

               Plus personne n’osait s’interroger sur les origines des certitudes scientifiques devenues de véritables dogmes. Encore moins s’étonner que les équations de Maxwell introduisent un « courant de déplacement fictif » circulant dans le vide. Peut-on parler d’onde et de courant sans qu’il existe, dans un milieu de propagation,  deux formes d’énergie ? Par exemple, en ondes mécaniques, l’énergie cinétique et une énergie potentielle ? Comment peut-on occulter ces réalités ?

               Plus personne ne s’étonnait qu’un photon, initialement supposé ponctuel par Einstein, et devenu plus tard beaucoup plus mystérieux, soit susceptible de  se matérialiser en un lieu précis, par exemple dans une diode semi-conductrice ? Cela ne rendait-il pas suspecte cette particule ?

               Heureusement, de nombreux ingénieurs, maîtrisant parfaitement les concepts et les techniques anciennes, ont pu participer à l’essor extraordinaire des techniques que nous avons connu : électronique, télécommunications, détection, géolocalisation, informatique… Tous domaines dans lesquels rien n’aurait été possible si la technologie n’avait autant progressé.

               La courbure gravitationnelle des rayons lumineux ayant été observée en 1915, lors d’une éclipse de Soleil, il eut été raisonnable d’abandonner la théorie de la relativité. En effet, cette expérience démontrait que la vitesse de la lumière n’est pas une constante universelle et que sa variation gravitationnelle, bien que faible, pouvait être mesurée.

               Au lieu de reconnaître que ce résultat reléguait la théorie de la relativité au rang d’une approximation locale, une nouvelle théorie extrêmement complexe, difficile à utiliser, et que seuls quelques spécialistes disent maîtriser, était présentée comme l’aboutissement d’une longue évolution  de la physique théorique vers sa perfection.

               Si la lumière ne se propageait pas strictement en ligne droite, ne suffisait-il pas d’en tenir compte ? Supposons que pour faire des mesures précises de distance, vous ne disposiez que d’un décamètre. Vous chercheriez à déterminer avec la plus grande précision possible les effets éléments parasites : tenson du décamètre, effet de la flèche du ruban lorsqu’il ne repose pas sur le sol… Vous n’auriez pas, comme les relativistes, pris votre décamètre  comme référence et modifié en conséquence la géométrie devenue non euclidienne !

               La théorie de la relativité était enseignée à tous les étudiants, bien que de nombreux physiciens aient longtemps douté de sa pertinence. Au long du 20° siècle, des physiciens illustres avaient cherché à en tester la validité de cette théorie. De nombreuses expériences avaient été faites pour valider (ou non) la théorie de la relativité. En 1925-1926 Miller avait fait des mesures avec un immense interféromètre extrêmement rustique. Maurice Allais a  analysé ses résultats, ainsi que d’autres expériences dans son livre sur « L’anisotropie de l’espace » (2). Il effectua personnellement des mesures avec des pendules « paraconiques », et, à la demande de l’IGN (Institut Géographique National), des mesures d’anomalies signalées sur les visées optiques. En 1964, William Bertozzi observa la vitesse d’un électron et nota que celle-ci restait toujours inférieure à celle de la lumière. Il en conclut à la validité de la relativité restreinte, mais ses résultats restaient assez qualitatifs. (Voir L’expérience de William Bertozzi (3) ).

               Toutes ces expériences, quelles qu’en aient été les conclusions, ont été réalisées avec les technologies de leur temps, ce qui les rend aujourd’hui éminemment contestables. D’autres expériences, impossibles en 1960, ne devraient-elles pas être réalisées ? Ne pourraient-elles pas conduire les étudiants à effectuer de remarquables Travaux de thèse ?

               Parallèlement, l’atome avait pris une immense place dans la physique. Un gros effort avait été fait dans de le développement des bombes nucléaires, puis des centrales nucléaires qui devaient rendre l’énergie à la fois disponible et bon marché. Physique nucléaire et mécanique quantique avaient pris naturellement une place essentielle dans l’enseignement de la physique.

               Une autre invention, celle du pompage optique avait conduit au développement du LASER qui a révolutionnera l’optique, l’industrie des machines outil, et même les produits audio-visuels destinés au grand public. Par des considérations purement théorique, Alfred Kastler avait prédit qu’il devait être possible de rendre plus intense l’émission des raies spectrales des atomes en les soumettant à un rayonnement lumineux de longueur d’onde plus courte. Dans les années 50, son équipe avait démontré l’exactitude de son intuition. Très rapidement, de nombreux chercheurs avaient réalisé des LASER. Aujourd’hui, le grand public ne s’étonne pas d’utiliser des quantités de sources LASER dans de très nombreux équipements.

La physique en 2015 :

               Après une carrière au cours de laquelle il avait participé avec passion aux innovations rendues possible par les progrès immenses de la technologie électronique, ce même polytechnicien s’interroge sur l’évolution de la physique au 21° siècle.

Le 14 septembre 2015, aux États Unis, les physiciens ont détecté pour la première fois  des ondes gravitationnelles. Les  interféromètres de Livingston  et de Hanford obtiennent un premier signal. Pour eux, cette détection est un événement très important, car elle confirme l’existence des ondes gravitationnelles indispensables à la cohérence globale de la physique.

               En effet, Poincaré avait établi en 1900 la masse de l’énergie. Sa démonstration, extrêmement simple, faisait appel à la seule mécanique classique et s’appliquait à toutes les formes d’énergie, comme cela est expliqué clairement dans le livre de Jules Leveugle (1). Ainsi, toute forme d’énergie a donc nécessairement une masse. Une onde électromagnétique, se déplaçant à la vitesse de la lumière, ne peut donc qu’être associée à une onde de gravitation de même vitesse.

               Sur le campus de Saclay, la découverte attendue des ondes gravitationnelles est présentée comme une confirmation éclatante de la théorie de la relativité. En réalité, plus d’ un siècle plus tôt, une analyse objective des écrits de Poincaré aurait permis de comprendre, par la seule réflexion, que ces ondes de gravitation étaient une conséquence naturelle des équations de Maxwell et de toutes les lois de la physique pré-relativiste.

               Tout au cours du 20° siècle, et Indépendamment des recherches théoriques des physiciens, le développement des systèmes électroniques, soutenu par la demande du marché, a conduit à des progrès considérables de la technologie, et par ricochet de la physique.  Enfin, les travaux théoriques de Fourier et Laplace, effectués il y a presque deux cent ans,  ont été enfin largement utilisés. Sans les systèmes de télécommunication, les RADAR, les gyromètres LASER, bien des phénomènes n’auraient pas été étudiés et compris : la modulation, les bruits et les interférences…

               Les gyromètres LASER ont mis en évidence l’effet de couplages parasites dans les systèmes optiques. Nous savons que ces gyromètres sont aveugles lorsque leur vitesse de rotation est inférieure à un seuil donné. Aurions-nous réalisé ces gyromètres si, en 1925, Michelson et Gale n’avaient pas observé la rotation de la Terre ? Quelle physique aurions-nous imaginé ?

En 2018, le prix Nobel de physique a été attribué au français Gérard Mourou. Ce prix a récompensé des travaux sur la génération d’impulsions LASER extrêmement courtes, utilisées notamment dans des applications médicales.  Ces résultats correspondent à des techniques de traitement de signal utilisées en RADAR et en télécommunications sous les noms de compressions d’impulsion et d’étalement de spectre. Ces techniques avaient été utilisées bien avant par les animaux, chauves-souris ou mammifères marins pour détecter et localiser leurs proies. Ce Prix Nobel de physique 2018, récompense ainsi une application de la physique classique et de travaux théoriques sur l’analyse spectrale de près de deux siècles.

 La physique quantique aurait pu revendiquer un rôle dans ces avancées, mais elle ne décrit que globalement l’émission de lumière par les LASER, sans expliquer le processus physique mis en œuvre. En effet, la théorie quantique ne décrit pas les transitions entre niveaux atomiques, mais seulement leurs résultats : l’émission d’un signal optique. Ainsi, elle n’explique pas les mécanismes physiques, et en particulier l’émission stimulée de lumière, à l’origine du rayonnement LASER.

La course aux grands instruments scientifiques s’est poursuivie. Des années 50 à nos jours, le CERN n’a cessé de construire des instruments de plus en plus puissants (accélérateurs de particules, synchrotrons, cyclotrons). Des laboratoires comme le projet de confinement LASER du « Lawrence Livermore National Laboratory », situé en Californie, ou le projet de Tokamak ITER, construit en France, font rêver à des systèmes capables de produire une énergie abondante et bon marché, un rêve déjà proposé par les centrales nucléaires.

L’analyse de ces grands programmes internationaux dépasse très largement le cadre de cette réflexion sur la physique de 2015. Aujourd’hui, la faisabilité de ces grands projets n’est toujours pas démontrée, et de nombreuses voix  s’élèvent pour contester leur capacité à atteindre les objectifs industriels annoncés. Comment ces projets pourraient-ils tenir ces promesses alors que la mise en service des centrales nucléaires, simples machines à vapeur à chauffage nucléaire, est contesté ? Comment ces monstres pourraient-ils fournir l’énergie abondante dont nos héritiers auront besoin ?

Pour avoir visité différents laboratoires travaillant sur le confinement LASER et des Tokamak, assisté à des congrès consacrés à l’étude des plasmas, ce physicien s’interroge. Que penseront les générations futures des grands instruments scientifiques conçus à la fin du 20° siècle, cyclotrons, Tokamak, lasers de puissance ou grands interféromètres, qui ont mobilisé tant de chercheurs et de moyens financiers ?

Une nécessaire mise en cause des dogmes :

               La physique peut-elle poursuivre longtemps dans  la voie actuelle ? Ne doit-elle pas s’interroger sur l’adéquation de l’orientation prise en 1905 ? Ne doit-elle pas mettre en cause les options prises, il y a plus d’un siècle, sur la base d’expériences alors inexpliquées ? Les choix faits ont-ils réellement été imposés par les résultats expérimentaux ? Les principes fondateurs de la physique actuelle justifiaient-ils réellement une telle révolution conceptuelle et la mise en cause de toute notre culture mathématique ? Depuis, ont-ils été invalidés par de nouvelles expériences ?

  • Considérons en premier, l’expérience de Michelson : apparemment simple, ce dispositif expérimental reste extrêmement difficile à étudier. Les optiques fonctionnent en champ proche, et depuis que les ordinateurs permettent d’effectuer des calculs de rayonnement sur les antennes actives des RADARS, et de choisir les meilleures apodisations, nous savons que les calculs élémentaires de déphasage faits alors par Michelson étaient loin d’être rigoureux. Des couplages négligés pourraient-ils rendre inopérants ces instruments ? En raison de couplages analogues, les gyromètres LASER n’ont-ils pas une plage de vitesse aveugle éliminable par une faible rotation mécanique périodique ?
  • Les quanta : En 1905, Einstein avait pensé pouvoir justifier l’hypothèse des quanta, chère à Planck, en observant l’arrivée aléatoire d’électrons dans un photomultiplicateur. En fait, cette expérience ne démontrait que la nature du courant électrique : un flux d’électrons. Elle n’apportait rien sur la connaissance du rayonnement lumineux.
  • La masse de l’électron : En 1964, l’expérience de William Bertozzi  a été considérée comme une preuve de la théorie de la relativité. À la sortie d’un accélérateur linéaire, la vitesse d’un électron ne pouvait dépasser la vitesse de la lumière. Effectivement, cette expérience prouvait bien qu’un électron ne peut dépasser la vitesse de la lumière, mais ne validait pas parfaitement la formule relativiste.
  • Les expériences d’intrication de photons sont totalement fantaisistes et peuvent seulement faire croire que la physique est un domaine mystérieux. Il est absurde d’imaginer l’existence d’un lien instantané entre photons, alors qu’une approche électromagnétique simple, et la modélisation statistique du détecteur, conduisent au bon résultat.
  • En astronomie, mesurer la distance des galaxies par le décalage vers le rouge (Red shift) est naturel. En revanche, affirmer qu’il s’agit d’un décalage Doppler ne serait démontré que si ces rayonnements étaient des fréquences pures, ce qui n’est pas le cas.
  • Enfin, mettre au programme de terminale les expériences d’interférences sur électrons uniques est totalement irresponsable, surtout en ne donnant pas l’explication classique de ce phénomène finalement assez simple. N’est-il pas naturel que le mouvement de l’électron induise des courants dans le masque et que ceux-ci influent sur sa trajectoire ? Pour un spécialiste de la discrétion RADAR, la présentation faite aux élèves de terminale de cette expérience est tout simplement risible. Quelle image de la physique et des physiciens, les plus intelligents d’entre eux auront-ils ? En déduiront-ils que la physique n’est, comme au temps des bouteilles de Leyde, qu’une science mystérieuse permettant de réaliser des expériences paradoxales pour briller dans les salons ?

Au lycée, la physique doit donner aux élèves les bases  nécessaires pour être sereins dans  le monde technique dans lequel ils vivront, et éprouver l’envie de le comprendre. Dans l’enseignement  supérieur, pour ne pas écarter les esprits les plus brillants, tout dogmatisme devrait être évité, les axiomes clairement explicités et justifiés, et surtout les domaines d’application des théories précisés.

Que devrait être la physique en 2070 ? :

Un peu  désappointé par ce constat, ce physicien se met à rêver et laisse libre cours à son imagination. Pour sortir des sentiers battus, le mieux n’est-il pas de prendre à contre-pied les choix actuels ? Acceptez de m’accompagner dans cette démarche et d’envisager à quelle physique pourrait conduire une mise en cause radicale des choix actuels.

Quelles seraient les bases de cette nouvelle physique ?

Parler d’ondes n’ayant pas de sens en l’absence d’un milieu de propagation, je vous propose  d’admettre l’existence de l’Éther. Le courant de déplacement introduit par Maxwell dans ses célèbres équations est donc réel. Contrairement à l’hypothèse de la relativité restreinte, le milieu de propagation de ces ondes ne devrait  pas être un solide mais une sorte de fluide. Nous admettrons que l’Éther, ce milieu de propagation des ondes, est non-linéaire. La variation gravitationnelle de la vitesse de la lumière résulterait alors de la non-linéarité de ce milieu, dont les propriétés seront représentées par la célèbre courbe en « S », apte à décrire, dit-on, la plupart des phénomènes physiques.   

Les ondes électromagnétiques correspondraient aux vibrations selon les deux directions de transverses par rapport à la direction de propagation. Les ondes gravitationnelles seraient, comme les ondes acoustiques, des ondes longitudinales. L’Éther pourrait ainsi vibrer selon les trois directions possibles, la vitesse de propagation de ces trois modes ondes étant « c », la vitesse de la lumière.

Comme en mécanique, et sans rien changer aux lois de l’électricité, l’énergie des champs électriques et magnétiques résulterait de la position et de la vitesse des charges électriques et de l’observateur par rapport au repère retenu ou par rapport à l’Éther, fluide siège de la propagation des ondes. Compte tenu de la non-linéarité de ce milieu, l’énergie des particules serait contenue dans les champs qui les entourent, plutôt que dans leurs seuls noyaux.

Toutes les particules seront alors des solutions d’une équation différentielle non linéaire. Certaines de ces solutions seront stables, d’autres instables et les particules correspondantes absentes de notre environnement. Comme des bulles se déplaçant dans l’eau de mer, ces particules se déplaceraient librement dans l’Éther… Cette nouvelle physique expliquerait enfin la dualité onde particule imaginée en 1923 par De Broglie. En optant résolument pour une physique réellement ondulatoire, elle unifierait les notions d’ondes et de particules, cette dualité perdant tout son sens.

Enfin, cette physique s’abstiendra de parler du Big-Bang autrement que comme un mythe de la création du monde qui, contrairement aux textes religieux, n’a ni signification philosophique ni valeur scientifique. Aucune expérience n’ayant prouvé que la dérive vers le rouge du rayonnement des galaxies lointaines résulte d’un effet Doppler, celle-ci sera attribuée à la non-linéarité du milieu traversé. Les raisons de ce décalage seront identifiées : la présence de particules neutres ou chargées dans le vide intersidéral, ou, tout simplement, la non-linéarité de l’Éther.

La chasse à la magie et aux phénomènes paradoxaux :

               Les phénomènes physiques ne sont paradoxaux que lorsqu’ils sont mal compris. Faute d’une analyse logique d’une expérience, l’humanité a toujours été tentée d’imaginer une explication magique ou simplement de construire un ensemble règle formelle, souvent incohérentes entre elles, rendant compte, au moins qualitativement, des observations. Bien évidemment, sans s’interdire d’utiliser ces formules magiques, cette nouvelle physique refusera de les considérer comme des lois mystérieuses de la nature et cherchera aux faits des explications réellement scientifiques.

               Les différentes expressions des relations d’incertitudes seront unifiées en une seule, construite sur la notion de bruits d’observation, et s’appliquant de façon universelle. Prenons un exemple dans le domaine RADAR. La localisation d’une cible nécessite la mesure d’angles et de temps d’arrivée d’une impulsion. Le Radariste estime les probabilités de détection et de fausse alarme, et pour chaque événement observé les dimensions du volume de l’espace-temps correspondantes. Il admet que ses mesures sont imprécises mais ne nie pas que chaque cible ait une position réelle, même s’il ne peut la connaître exactement. Cette analyse, présentée sur un exemple lié au RADAR, sera évidemment faite d’une façon analogue pour toutes les mesures, mêmes au niveau des particules élémentaires.

               Le photon ne sera plus une particule mystérieuse, mais redeviendra, conformément  au concept d’Henri Poincaré, un quantum d’action (4).  Depuis que nous disposons de sources LASER, nous savons qu’en lumière monochromatique, les images présentent des défauts caractéristiques. Nous savons également que les senseurs ne détectent pas toujours les signaux, mais qu’en revanche, ils présentent toujours un taux de fausses détections non nul. Ceci s’expliquera simplement, comme en RADAR, en considérant le détecteur comme un dispositif à seuil en présence d’un signal mélangé avec un bruit aléatoire, variable spatialement et temporellement.

               Bien évidemment, les tentatives de développement de géométries non-euclidiennes en vue de leur utilisation en physique seront abandonnées.

La fin des grands instruments scientifiques :

               Ces grands instruments n’ont pu être développés que grâce à des coopérations mondiales, associant un grand nombre de pays, par exemple 500 chercheurs appartenant à 50 nations, et avec le soutien actif de ce que nous appelons « la communauté scientifique ». Y participer peut en effet apporter aux jeunes chercheurs une expérience de laboratoire, mais en aucun cas leur permettre de remettre en cause les concepts dogmatiques de leurs aînés. Ces grands programmes de recherche ne peuvent donc avoir pour objet de mettre en évidence les inévitables lacunes de la physique issue de la révolution conceptuelle de 1905, et contribuent à stériliser l’ensemble de la recherche.

               Désappointés par les résultats décevants de grands instruments développés à la fin du 20° siècle, en égard aux efforts financiers et à l’investissement humain fait par les innombrables chercheurs ayant contribué à leur réalisation, les états arrêteront de soutenir leur développement. Ces instruments seront devenus des ruines. Dans quelques millénaires, nos lointains descendants se demanderont sans doute quel avait bien pu être la raison de leur construction et quel rôle, politique ou religieux, ils avaient au 20° siècle.

               En revanche, les télescopes et radiotélescopes devraient continuer à être développés. Ils sont en effet les seuls qui puissent nous permettre d’explorer l’univers, et d’étudier les lois de la physique dans des conditions (température, pression, champ de gravité…) qu’il restera toujours impossible de réaliser sur Terre. Toutefois, ces grands télescopes ne survivront, et ne pourront contribuer aux progrès de la physique, que s’ils collectent des données brutes, claires, et bien documentées. En effet, il ne sera pas possible de construire une nouvelle physique sur la base de données ayant subi des prétraitements justifiés par les théories scientifiques reconnues et des hypothèses non validées.

De l’exploration spatiale à la compréhension de l’univers :  

               L’homme a rêvé de marcher sur la Lune et sur Mars. Une fois ces rêves abandonnés, et quelles qu’en aient été les raisons, l’espace reprendra une place temporairement occultée par ces épopées : celle de nourrir les rêves de l’humanité. Alors que nous nous croyions le centre du monde, les astronomes ont déjà observé une quantité de galaxies, et détecté la présence de plus de 30.000 exo-planètes dont certaines pourraient ressembler à la nôtre…

Les poètes, fascinés par  l’immense univers auquel nous appartenons, pourront s’émerveiller. Pour les physiciens, après l’abandon des grands instruments scientifiques, l’univers deviendra l’immense laboratoire dans lequel ils pourront observer en direct des expériences irréalisables sur Terre. Les mathématiciens, retrouveront enfin l’espace euclidien infini dans lequel ils raisonnent, et dont ils ne peuvent se passer.

La mort de la physique ?

               La physique, telle que nous la connaissions depuis le 17° siècle, avait toujours essayé de rendre compte d’observations faites à l’aide de dispositifs expérimentaux simples. Son but était de découvrir les lois permettant de décrire avec précision leurs expériences et finalement de faire progresser la science. Ensuite, eux-mêmes ou des inventeurs talentueux, concevaient des machines tirant profit des connaissances théoriques acquises. La science physique remplaçait par un ensemble de théories et des modèles mathématiques, la connaissance parfois empirique des experts.

               An début du 20° siècle, les physiciens n’avaient toujours pas expliqué l’échec de l’expérience faite par Michelson en 1881 pour mesurer la vitesse absolue de la Terre. Ils avaient tenté, en vain, d’améliorer les performances de leurs interféromètres. Ils devaient alors faire un choix : admettre que leurs équipements étaient inaptes à faire cette mesure, ou, considérer que cette mesure était théoriquement impossible. Après une longue controverse, cette deuxième option s’imposa.

               Aujourd’hui encore, la physique est enfermée par cette victoire des « relativistes » qui refusent absolument toute mise en cause de leur choix fondateurs qu’ils appellent « Le principe de relativité ». Selon celui-ci, il serait théoriquement impossible de mesurer une vitesse absolue. Ils généraliseront ensuite ce principe en l’étendant aux accélérations. Selon ce nouveau principe de relativité, il serait impossible de mesurer une vitesse absolue, mais également une accélération absolue. Aujourd’hui encore, l’académie des sciences considère que toute loi physique doit être « généralement covariante », c’est-à-dire confirmer l’impossibilité de mesurer la vitesse ou l’accélération absolue d’un corps, mais ceci est-il réellement un choix judicieux ?

               Tout au long du 20° siècle, la physique a construit un ensemble dogmatique fondé sur la relativité et la mécanique quantique. Ce choix fait par des disciples zélés a été maintenu malgré les nombreux défauts de ces théories, en particulier la complexité mathématique de la relativité générale et l’incapacité de la mécanique quantique à décrire les phases transitoires (en particulier celles correspondant aux émissions lumineuses intervenant lorsque les électrons d’un atome changent de niveau  d’énergie).

               Cette attitude était-elle responsable, alors même que de nombreux phénomènes n’étaient, et ne sont toujours pas, expliqués ? Pouvait-on prétendre que tout avait été découvert ? La physique était-elle vraiment morte ?

Une renaissance possible ?

               Est-il possible que le rêve de ce physicien se réalise ? La physique peut-elle renaître ? Un retour aux sources peut-il lui redonner le dynamisme et la cohérence qu’elle a perdue ?

               En 1904, Henri Poincaré avait été le premier physicien à ajouter aux principes habituels de la physique « le principe de relativité », c’est-à-dire l’universalité des lois de la physique (3). Prenons un exemple simple. Considérons une horloge mécanique à balancier. Elle est sensible aux variations des forces de gravitation, mais son mouvement obéit aux mêmes lois de la physique quelle que soit sa place et l’altitude du lieu qu’elle occupe sur la Terre.

               Ce principe de relativité est bien différent de celui implicitement adopté par les relativistes. Si nous l’adoptions, les lois de la physique peuvent faire intervenir de nouveaux paramètres.  Au lieu de chercher à identifier des gravitons ou d’imaginer l’existence d’une matière noire, l’Éther ne permettait-il pas de comprendre l’univers, et la formation des galaxies, en particulier des nébuleuses spirales ? Ne sont-elles pas analogues aux cyclones qui se développent sur nos océans ? Devrait-on, comme en météorologie, faire intervenir un potentiel gravitationnel et la vitesse  locale de l’Éther ?

               Cette renaissance de la physique ne pourra avoir lieu que si une réflexion ouverte et une analyse critique des acquis du 20° siècle est entreprise. Il faudra lutter à la fois contre les défenseurs des vieilles idées du début du 20° siècle qui, tout en veillant au respect des dogmes, laissent de nombreux mystificateurs propager les théories les plus absurdes dans les grands médias.

               Un prochain document précisera comment l’enchaînement de faits apparemment sans importance a conduit à la situation actuelle, qui devrait conduire à la mort de la recherche fondamentale en physique. De nombreux acteurs universitaires, médiatiques, industriels,  de promoteurs de projets scientifiques internationaux, ont contribué inconsciemment à stériliser la physique et à en détourner les étudiants.

 

Pierre FUERXER

Membre de l’AIRAMA

 

Télécharger en PDF

 

 

 

 

[1] La Relativité, Poincaré et Einstein, Planck, Hilbert, par Jules Leveugle, L’Harmattan 2004.

[2] L’anisotropie de l’espace, Maurice Allais, Ed Clément Juglar, 1997.

[3] L’expérience de William bertozzi , ICI en PDF

[4] La physique du 21° siècle sera-t-elle ondulatoire, Pierre Fuerxer, URSI, JS 2011.

 

L’œuvre méconnue de Maurice Allais, prix Nobel d’Économie. Philippe Bourcier de Carbon AIRAMA

L’AIRAMA (Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie), fondée dès 2004, à pour objet statutaire de promouvoir la pensée, l’œuvre et les solutions, de Maurice Allais (31 mai 1911- 9 octobre 2010), qu’il n’a cessé de proclamer en particulier dans ses « Combats pour l’Europe ». http://combats-maurice-allais.info/lassociation-airama/

Conférence du 15 mai 2018 de Philippe Bourcier de Carbon

À l’occasion de cette remise aujourd’hui du Prix Maurice ALLAIS de l’AIRAMA à notre camarade Guy BERTHAULT, je suis heureux d’être convié ici à prononcer quelques mots devant vous pour évoquer sa mémoire.

Lorsqu’en 2004, voici 14 ans, je m’étais résolu avec notre camarade Jean-Pierre BOUYSSONNIE ancien Président de Thomson et de l’AX, à fonder l’Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie, Maurice Allais était déjà depuis 5 années exclu des médias en France, alors qu’il avait été, à 77 ans en 1988, le seul Français à avoir jamais été distingué en Économie par l’Académie Nobel depuis 1969, date de l’institution de son Prix de Science Économique. Guy BERTHAULT fut alors parmi les tout premiers à se joindre à notre initiative.

Parmi nos objectifs, en tentant ainsi autour de Maurice Allais de mobiliser des personnalités du monde des intellectuels, de l’entreprise et de l’économie, créer l’AIRAMA nous paraissait alors de nature, sinon à mettre un terme, du moins à fissurer l’extravagant ostracisme médiatique, sournois autant que féroce, dont, force était bien de le constater, il était devenu victime en France. Il le restera pourtant jusqu’à sa disparition en 2010 à quelques mois de son centenaire, recevant néanmoins en sa qualité de Grand-Croix de la Légion d’Honneur, lors de ses obsèques dans la cour de l’hôtel des invalides, en clin d’œil de la république, l’hommage national de la ministre alors chargée de la Recherche.

Pourquoi un traitement médiatique si singulier et si soudain à son encontre en France ?

On est réduit à des conjectures, mais il nous reste des points de repères.

Alors en effet qu’au cours de ses recherches ses publications étaient réputées tant par leur rigueur que par leur caractère ardu, vers la fin de sa carrière professorale à l’École des Mines, il avait déjà en 1977 fait paraître à l’intention d’un public beaucoup plus large, éclairé mais non spécialisé, son livre sur « L’impôt sur le capital et la réforme monétaire », ce qui lui avait valu deux refus de sa candidature à l’Institut des Sciences Morales et Politiques, alors qu’elle était pourtant fortement appuyée par Raymond Aron.

Il n’y fut reçu, cette fois avec empressement, qu’en 1990, deux ans après avoir reçu en 1988 son Prix d’Économie décerné par l’Académie suédoise en mémoire d’Alfred Nobel.

Mais surtout, ce sont les deux livres qu’il a tenu à publier pour un large public en 1999 qui, ainsi qu’il le voyait lui-même, auraient entraîné, en dépit de sa reconnaissance internationale, son exclusion stricte des médias en France :

Le premier qu’il a intitulé « La mondialisation, la destruction des emplois et de la croissance : l’évidence empirique » et qu’il aura voulu dédier « aux innombrables victimes dans le monde entier de l’idéologie libre-échangiste mondialiste, idéologie aussi funeste qu’erronée… » par lequel il exposait la malfaisance des politiques économiques mondialistes préconisées depuis 1974 par la Commission de Bruxelles et par le GATT devenu OMC.

Et plus encore peut-être son second livre « La crise mondiale aujourd’hui. Pour de profondes réformes des institutions financières et monétaires » par lequel il énonçait et démontrait, pour un large public, les seuls principes des réformes capables d’empêcher la récurrence des crises et catastrophes monétaires qui bouleversent les sociétés actuelles : Il explique :

  1. « La création monétaire doit relever de l’État et de l’État seul. Toute création monétaire autre que la monnaie de base par la Banque Centrale doit être rendue impossible, de manière à ce que disparaissent les « faux droits » résultant actuellement de la création monétaire bancaire privée.
  2. Tout financement d’investissement à un terme donné doit être assuré par des emprunts à des termes plus longs, ou tout au moins de même terme. »

« Cette double condition, écrit-il, implique une modification profonde des structures bancaires et financières reposant sur la dissociation totale des activités bancaires telles qu’elles se constatent aujourd’hui, et leur attribution selon trois catégories d’établissements distincts et indépendants :

  1. des banques de dépôt assurant seulement, à l’exclusion de toute opération de prêt, les encaissements et les paiements, et la garde des dépôts de leurs clients, les frais correspondants étant facturés à ces derniers, et les comptes des clients ne pouvant comporter aucun découvert ;
  2. des banques de prêt empruntant à des termes donnés et prêtant les fonds empruntés à des termes plus courts, le montant global des prêts ne pouvant excéder le montant global des fonds empruntés ;
  3. des banques d’affaires empruntant directement auprès du public, ou aux banques de prêt, et investissant les fonds empruntés dans les entreprises. »

Dans son principe, une telle réforme rendrait impossible la création monétaire et de pouvoir d’achat ex nihilo par le système bancaire, ainsi que l’emprunt à court terme pour financer des prêts de terme plus long. Elle ne permettrait que des prêts de maturité plus courte que celle correspondant aux fonds empruntés.

« Les banques de prêt et les banques d’affaire serviraient d’intermédiaires entre les épargnants et les emprunteurs. Elles seraient soumises à une obligation impérative : emprunter à long terme pour prêter à plus court terme, à l’inverse de ce qui se passe aujourd’hui. »

En cela Allais s’inspirait en partie d’Irving Fisher, l’animateur du Plan de Chicago de 1933, et du Plan 100% monnaie de 1935, qui entendait compléter la réforme bancaire de 1932 du Glass-Steagall Act, déjà si difficilement imposée par l’opinion publique aux États-Unis à la suite de la grande crise de 1929, laquelle réforme légale exigeait déjà des établissements bancaires qu’ils optent exclusivement pour des fonctions, soit de banques d’affaires, soit de banques commerciales. Du reste il faut bien noter que le Glass-Steagall Act, quoique bien largement amodié, resta en vigueur 67 ans durant jusqu’en 1999, évitant ainsi aux USA le retour des crises bancaires violentes au long de cette période.

Qui ne comprendrait que Maurice Allais, Prix Nobel d’économie, par ses démonstrations et surtout par ses propositions de réforme du secteur financier et bancaire, ne mettait directement ainsi en cause publiquement des intérêts privés colossaux.

Bien qu’ostracisé de manière obscène par les médias en France, Maurice Allais aura néanmoins formé de nombreux disciples au cours des décennies de sa longue carrière de professeur, et sa pensée rigoureuse, originale et puissante aura su marquer de nombreux esprits, en France, comme à l’étranger, dans le monde francophone en particulier.

Et qui l’eût cru, c’est au pays des banques, la Suisse, que les graines qu’il aura semé avec audace et obstination, lèvent aujourd’hui : en effet, pour la première fois depuis la réforme de 1891 obtenue par référendum d’initiative populaire, une votation constitutionnelle, soigneusement préparée et organisée depuis plus de deux ans, en particulier sous les avis d’anciens banquiers et professionnels de la finance, dont plusieurs anciens disciples d’Allais, l’initiative dite « Monnaie pleine » ou « Vollgeld » va le 10 juin prochain être soumise aux suffrages des électeurs de la Confédération Helvétique, réservant l’émission du Franc Suisse à la seule banque centrale créée en 1891, la BNS ou Banque Nationale Suisse, et interdisant aux banques commerciales privées de continuer leur émission monétaire ex nihilo par les pratiques actuelles du crédit.

Le site de cette initiative expose avec pédagogie tous les aspects de la réforme constitutionnelle proposée sur le lien internet suivant http://www.initiative-monnaie-pleine.ch/

Nos voisins suisses nous donnent ainsi un bel exemple de démocratie vivante et réelle, les médias de la confédération y organisant depuis quelques mois de nombreux débats sur ces questions. De fait la Suisse est devenue aujourd’hui pour nous Français un miroir particulièrement cruel, car il faut bien constater que nous n’en percevons toujours aucun écho dans nos médias français.

Je crois que Maurice Allais aurait été particulièrement satisfait de savoir que huit ans après sa disparition, son enseignement obstiné aurait enfin la perspective de s’incarner dans une loi constitutionnelle, et que de toute manière la quintessence de ses recommandations en matière financière et monétaire aura au moins été entendue par une partie importante de l’électorat suisse jusqu’alors maintenu soigneusement dans l’ignorance et l’incompréhension de la nature et des mécanismes des pratiques financières prédatrices actuelles.

Plutôt que de vous exposer ici les grandes lignes de l’œuvre économique si prodigieusement féconde et foisonnante de cet esprit exceptionnel, mort à 99 ans à sa table de travail, en ayant marqué en six décennies de publications sans doute tous les grands secteurs la Science économique, je tenais à saisir cette occasion d’évoquer devant vous d’abord l’âme de son combat intellectuel, celui qui lui aura coûté le plus cher. Par son combat intellectuel indomptable extraordinaire en effet, qui lui aura valu d’être relégué en France au Goulag médiatique, il est permis de considérer qu’en quelque sorte Maurice Allais est désormais devenu le Soljenitsyne français du capitalisme financier et de l’ultra-libéralisme mondialiste actuel.

L’aspect protéiforme de son œuvre le rend par ailleurs inclassable parmi les économistes : on pourra le qualifier de libéral en ce sens qu’il aura démontré que la liberté individuelle d’entreprendre, la propriété privée et le principe de concurrence constituent des conditions indispensables à l’efficacité des marchés économiques, à celle de l’allocation des ressources, comme à celle des processus de production des richesses. Mais on pourra aussi le classer de dirigiste par le souci qu’il place dans la pérennité des sociétés, exigeant l’existence d’un arbitre indépendant des forces économiques, régissant les règles des marchés pour maintenir leur efficience économique. Il reconnaît ainsi que le principe d’appropriation privée ne saurait être universel et doit être limité, et qu’il existe des biens collectifs par nature. On pourra même le qualifier de socialiste par son souci de limiter les inégalités sociales résultant des processus de production économiquement efficaces, en assurant des mécanismes de péréquation de la distribution des fruits de la croissance économique. Selon lui toute rente, et tout droit économique non gagné, en particulier la rente monétaire, doit être confisqué par la collectivité au bénéfice de cette péréquation. Certains ont résumé leur embarras en le qualifiant de l’oxymore « libéral socialiste ».

Je voudrais terminer en soulignant le caractère probablement le plus original de cet économiste : Dès sa jeunesse il aura été passionné par la Physique, discipline dans lequel il a toujours excellé. Il a déclaré qu’à sa sortie de l’école Polytechnique, alors qu’il pensait se destiner à la Physique, c’est lors du voyage d’étude qu’il entreprit aux États-Unis en 1933, devant le spectacle incompréhensible de ces villages de toiles abritant des familles de chômeurs et de mendiants en haillons, dressés dans les grands parcs publics des grandes villes américaines de ce continent de l’abondance, qu’il décida alors de choisir le champ des études économiques afin d’y trouver les réponses à cette énigme et de résoudre ce paradoxe. Et dès lors il s’attela d’abord à la lecture des œuvres de Walras, de Fisher et de Pareto, envers lesquels il a toujours rappelé sa filiation intellectuelle, pour finir par élaborer en 1943 son premier ouvrage de 1.200 pages « À la recherche d’une discipline économique », devenue « Traité d’économie pure ». Une refondation rigoureuse et originale, à partir de l’expérience ou de constats empiriques, de tous les grands principes de la littérature économique. C’est ce tour de force initial que l’Académie Nobel aura sans doute voulu particulièrement distinguer dans son œuvre foisonnante, quarante-cinq ans plus tard, en 1988.

Ainsi dans toute son immense œuvre économique, Maurice Allais entendait-il assurer toujours la prééminence du fait et de ses aspects constatés sur la conceptualisation, sur la formulation du principe ou sur l’élaboration de la théorie explicative. Il ne craignait pas de devoir remettre en cause, théorie, principes ou concept, dès lors que ceux-ci se révélaient incompatibles aux constats factuels.

L’économie étant historiquement un domaine intellectuel où, sous une apparence de science et de rigueur, concepts, principes et théories sont d’autant plus largement promus qu’ils justifient rationnellement des intérêts concrets socialement et politiquement puissants, cette démarche factuelle de physicien appliquée par Maurice Allais à l’économie, n’aura pas manqué de lui valoir souvent l’incompréhension, sinon l’irritation de ses collègues économistes, et plus souvent encore, l’hostilité des puissants.

Et c’est cette démarche même de Maurice Allais préservant à tout moment la prééminence du fait expérimental sur la théorie, que notre hôte Guy BERTHAULT aura scrupuleusement suivie dans ses travaux qui renouvellent désormais les principes de la sédimentologie, et pour lesquels il reçoit aujourd’hui le Prix Maurice Allais de l’AIRAMA.

Soyez remerciés pour votre attention.

Philippe BOURCIER de CARBON

Président d’honneur, fondateur de l’AIRAMA

Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie.

 

 

Source : https://lilianeheldkhawam.com/2019/10/09/loeuvre-meconnue-de-maurice-allais-prix-nobel-deconomie-philippe-bourcier-de-carbon/

 

 

Télécharger la Conférence de Philippe Bourcier de Carbon en PDF

 

 

 

Une faillite inévitable ?

Les conséquences d’un choix politique fait en 1974.

Une réduction continue de l’emploi industriel :

Un document précédent (Le chômage importé [1]) montrait que le niveau élevé du chômage en France est clairement lié aux importations en provenance des pays à faible coût de main d’œuvre.     

Je présentais dans ce document le graphique suivant qui représente la réduction constante de la part de l’emploi industriel dans la population nationale depuis 1974 :

Figure 1 : Pourcentage des emplois industriels dans la population totale :

     Courbe rouge : Taux d’emploi observés,

Droite pointillée bleue : tendance à long terme.

 

            Cette cassure intervient en France six ans après 1968 et l’arrêt temporaire des investissements industriels que ces événements avaient provoqués. J’ai montré que le modèle Oméga original, publié en 1990 [2], décrit parfaitement l’évolution du PIB (en valeur corrigée des fluctuations monétaires) lorsque la fuite des capitaux est prise en compte. Peut-il expliquer également d’autres phénomènes mis en évidence par Maurice Allais, décrire les mécanismes sous-jacents, justifier ses « évidences empiriques » ? Ce modèle mérite-t-il pleinement d’être appelé Modèle Oméga-Allais ?

Les causes connues des difficultés actuelles :

            Depuis 1974, la France a renoncé au droit de battre monnaie, c’est-à-dire de créer « ex-nihilo » sa propre monnaie. Ce renoncement correspondait en fait à l’abandon, à terme, par l’état de toute souveraineté économique réelle. Cette décision a eu de nombreuses conséquences :

  • Ne pouvant plus être faite par l’État, la création monétaire nécessaire au fonctionnement de l’économie a été laissée aux banques privées,
  • Aujourd’hui, ces banques réalisent à leur profit l’ajustement de la masse monétaire, et, contrairement à l’état, prélèvent abusivement des intérêts sur ces sommes créées « ex nihilo ». De ce fait, en lieu et place de l’état, elles collectent un « impôt bancaire » sur la masse monétaire ainsi crée, ce dont de nombreux citoyens n’ont pas conscience.
  • Il en résulte une « dette publique » qui a été analysée dans de nombreux documents comme le rapport Pucci-Pinel de 2010, cité par André Jacques Holbecq dans son livre récemment réédité (La dette publique, une affaire rentable), et que bien sûr les articles de Maurice Allais, prix Nobel d’Économie. Cette dette publique, agitée comme un épouvantail, résulte presque exclusivement de la privatisation de la « planche à billets » au profit des banques. Cette véritable haute trahison, qui n’aurait jamais dû avoir lieu, pourrait être légitimement récusée.
  • Dans le passé, une création monétaire excessive par les états conduisait parfois à l’hyperinflation, à une hausse excessive des prix et finalement imposait une forte dévaluation de la monnaie. Cependant, utilisée avec prudence, cette inflation équivalant à un impôt prélevé sur tous les avoirs, et permettait d’équilibrer mécaniquement les comptes de la nation.
  • Ne disposant plus de ce mécanisme régulateur, l’état ne peut plus imposer à l’économie nationale des investissements ou des dépenses sociales sans emprunter les sommes nécessaires aux banques, et prévoir de les rembourser. Il perd ainsi la quasi-totalité de son pouvoir économique.
  • Enfin, la politique économique ayant été laissée aux banques, celles-ci ont naturellement cherché à protéger les dépôts bancaires, même si cela contribuait indirectement à la hausse du chômage dans notre pays.

L’État, ayant perdu son pouvoir économique, n’a pu lutter efficacement contre la montée du chômage que nous observons depuis 1974, malgré l’adoption de nombreux expédients qui permettent seulement d’en minimiser le niveau apparent et d’en limiter les inévitables conséquences sociales.

Une réduction de l’emploi d’une linéarité surprenante :

            Depuis 1974, l’emploi industriel a été réduit linéairement, année après année. Cette décroissance linéaire résulte-t-elle de circonstances fortuites ou d’une loi macro-économique sous-jacente ? En emplois équivalents temps plein, celui-ci suit la répartition des valeurs ajoutées entre les branches de l’économie représentée sur la figure 2.

 

Figure 2 : Répartition de la valeur ajoutée.

En bleu : Activité commerciales

En vert : Activités de service,

En rouge : Activité industrielles.

 

En effet, ces valeurs ajoutées sont très directement liées à l’emploi. La part de valeur ajoutée des activités commerciales est sensiblement proportionnelle au PIB, tout en étant fortement impactée par ses fluctuations économiques à court terme. Celle des activités de services suit la même tendance tout en étant plus stable à court terme. Enfin, la valeur ajoutée des activités industrielles diminue régulièrement, les emplois associés migrant vers les pays à faible coût de main-d’œuvre.

Ces données sont parfaitement cohérentes avec la décroissance linéaire de l’emploi industriel présentée sur la figure 1.

La délocalisation des emplois industriels :

            La délocalisation des emplois industriels a eu pour conséquence immédiate une hausse du chômage, mais également deux conséquences indirectes dont les effets se cumulent :

  • Une réduction du niveau de l’investissement industriel en France par rapport à la valeur qu’il aurait dû avoir pour maintenir la production,
  • Un déficit commercial résultant des importations devenues indispensables pour remplacer la production nationale absente.

Il faut enfin ajouter à celles-ci les effets indirects de la fuite des capitaux qui réduit mécaniquement la demande intérieure. Dans un premier temps, cette politique d’achat à l’étranger semble n’avoir que des avantages. Les coûts d’achat plus faibles à l’étranger semblent conduire à une augmentation du pouvoir d’achat des consommateurs et permettre de meilleures marges commerciales. Ensuite, l’économie nationale souffre : la production industrielle diminuant, la demande induite par la réalisation des investissements locaux ayant disparu, le  chômage augmente ainsi que les charges sociales qui lui sont liées, la recette des impôts diminue…

À long terme, la fuite des capitaux et le déficit de la balance commerciale ne peuvent conduire une économie qu’à la ruine.

Peut-on modéliser ce processus engagé en 1974 ?

            Le modèle Omega s’était donné pour objectif de démontrer que les fluctuations cycliques observées par les plus grands économistes de la fin du 19° siècle et du début du 20° siècle (le cycle Juglar, puis ceux Kitchin et Kondratieff) résultent du comportement naturel des acteurs économiques et apparaissent spontanément dans une économie fermée, inévitablement soumise à des perturbations multiples modélisables par un bruit blanc gaussien. Il a parfaitement atteint cet objectif.

Il restait à introduire les effets de la politique économique, responsabilité traditionnelle de l’État. Dans un premier temps, les effets de cette politique économique ont été modélisés en introduisant des incitations à investir et à consommer, représentant globalement les effets, souvent contradictoires, des politiques économiques menées. Bien que la France ait renoncé au droit de créer elle-même sa propre monnaie dès 1974, elle disposait encore d’une souveraineté économique résiduelle. Celle-ci lui permettait, en particulier, d’assurer l’équilibre de ses échanges extérieurs et de prendre en compte, sans remette en cause ses acquis, la mondialisation progressive de l’économie.

La création de l’EURO (€) et la libération des transferts de capitaux ont radicalement modifié les choses. La gestion de la nouvelle monnaie n’a plus à tenir compte des besoins des différentes nations.  La BCE, nouvelle autorité supranationale, s’est donné pour seul objectif de réguler le taux d’inflation, c’est-à-dire protéger les intérêts des détenteurs de capitaux. L’État perdait ainsi le dernier levier qui lui aurait permis de mener une politique économique et sociale propre.

Notre nation, la France, lorsqu’elle a choisi d’entrer dans l’EURO a perdu tout pouvoir économique réel, mais ceci ne nous empêche pas de faire des prévisions économiques à long terme !

Ainsi, comme cela a été montré, la prise en compte de la fuite des capitaux a permis de corriger les prévisions de PIB. Il reste cependant nécessaire de chiffrer l’effet du déficit du commerce extérieur qui n’est plus ajustable, comme par le passé, par une dévaluation de notre monnaie.

Une hypothèse de référence : une économie initialement stable :

            L’analyse d’un système complexe nécessite de séparer, autant que possible, les différents mécanismes contribuant à son évolution. De façon à mieux comprendre le rôle de la fuite des capitaux et des importations en provenance des pays à bas coût de main d’œuvre, nous allons considérer une économie nationale initialement stable, c’est-à-dire dont la consommation est constante, les prix internes fixes, les échanges internationaux équilibrés et le volume de la population constant.

Ce modèle stable est assez proche de l’économie française des cinquante dernières années, une fois son taux de croissance moyen compensé (le modèle Ω montre en effet qu’une faible modification du taux d’investissement peut conduire à une variation linéaire, croissante ou décroissante, d’une économie. Les résultats que nous obtiendrons sur cette économie globalement stable seront donc directement transposables à une économie réelle en croissance lente et régulière).  

            Nous introduirons ensuite dans cette économie un écart de compétitivité avec le reste du monde de façon à étudier les effets à long terme d’un déséquilibre extérieur. La population française ne représentant que 1% de la population mondiale, nous supposerons le monde extérieur stable et insensible à l’évolution de notre propre économie.

Enfin, nous considérerons que les pouvoirs publics et les organisations syndicales veillent au maintien du pouvoir d’achat des salariés. Nous supposerons donc que la politique économique menée se donne pour objectif de maintenir le pouvoir d’achat de la population (faute de pouvoir l’élever). Selon cette hypothèse, seul apparaît l’effet du remplacement d’une production nationale par l’importation de produits étrangers meilleurs marchés.

Dans ces conditions, nous admettons dans ce modèle qu’il n’y a pas de fluctuation des activités commerciales et que le volume des activités de service reste stable. Seule la production  industrielle décroît linéairement au cours du temps. Une fois corrigées du taux de croissance à long terme, les données statistiques publiées par l’INSEE (figure 2), sont quasiment identiques à celles de ce modèle simplifié. Nous avons donc décidé de ne prendre un compte, ni une légère croissance de la population et du PIB, ni leurs variations à court terme, dans le but de ne pas compliquer inutilement les calculs, et brouiller les conclusions de cette étude.

Une modélisation plus fine de l’économie :

            Le modèle OMEGA avait été conçu de façon à décrire le plus clairement possible le fonctionnement d’une économie en faisait des hypothèses fortes :

  • La stabilité monétaire : Une monnaie stable était supposée et disponible en fonction des besoins des entreprises mais aussi des consommateurs. La consommation s’adaptait dynamiquement à la production selon une loi décrivant le comportement temporel des consommateurs et assurant, à long terme, l’égalité moyenne entre production et consommation.
  • L’absence de déséquilibre extérieur : apparemment isolé, le modèle initial ne considérait pas réellement une économie fermée, mais plutôt une économie dont les échanges extérieurs, balance commerciale et investissements, étaient en moyenne équilibrés.
  • Pour prendre en compte des échanges internationaux importants, il a suffi d’introduire dans le modèle les déséquilibres extérieurs pour établir des prévisions valides, l’influence de l’évolution de l’économie mondiale restant une donnée exogène.
  • Le modèle Oméga étant linéaire, l’évaluation d’une situation économique réelle s’obtient très simplement en ajoutant aux modes propres de cette économie, les perturbations extérieures, en particulier les écarts entre sa compétitivité et celle du reste du monde. 

La séparation des variables :

            La linéarité du modèle nous a permis de considérer une économie stable puis d’introduire le déséquilibre des échanges extérieurs. Ceci conduit à une modélisation particulièrement simple :

  • Tous les paramètres économiques entrant dans le modèle économique sont constants : le PIB, les prix, la population…
  • Les seuls éléments variables sont la baisse des investissements industriels et le déficit de la balance commerciale.

Pour déterminer l’évolution du système économique, nous avons pris en compte la baisse de l’emploi industriel, estimé le niveau des désinvestissements nationaux résultant de cette baisse, puis estimé le déficit de la balance commerciale qui devait en résulter, en supposant constants les services et les activités commerciales qui contribuent à la création de valeur ajoutée et donc au PIB. Nous calculons alors, à quelles conditions ce PIB et les prix peuvent être globalement maintenus.

Le choix de données macro-économiques :

            De façon à éviter de prendre en compte la complexité de notre société, nous nous bornons à quelques données économiques essentielles représentant de façon schématique l’économie française :  

La part des activités délocalisables :

            Les courbes de l’INSEE montrent que, même à pouvoir d’achat global constant, les activités industrielles (et agricoles) ont été les plus délocalisées. La baisse de l’emploi industriel, source du chômage importé, serait donc la conséquence principale de la mondialisation. L’emploi industriel, chiffrée initialement à 35% de l’emploi total en 1974, correspondait alors à 35% du PIB. Depuis, sa contribution au PIB baisserait de 0,5% par an, pour devenir nulle vers 2045, ce qui est évidemment une extrapolation abusive.

La constance des activités de service :

            En cohérence avec l’hypothèse précédente, la part des activités de service, liées au fonctionnement de la société, seraient quasiment conservée. Ceci est une hypothèse naturelle, dans la mesure où la plupart des services sont liés, directement ou indirectement, aux entreprises et aux consommateurs.

La consommation :

            Celle-ci dépend du pouvoir d’achat, directement influencé par la politique économique et la conjoncture mondiale. Analysée en permanence par les économistes et les responsables politiques, ses variations reflètent davantage l’influence de la conjoncture mondiale que celle de la politique nationale. Nous ne prendrons pas en compte ses variations aléatoires jugées non significatives et ne mettent pas en cause l’hypothèse retenue dans le modèle : la stabilité du PIB. Nous admettrons enfin que la politique économique suivie par la nation parvient à stabiliser la consommation.

La réduction de l’investissement industriel :

            L’effet d’une réduction de 0,5% par an de l’investissement  industriel correspond à un désinvestissement régulier. Dans le modèle Oméga, un coefficient de capital moyen β lie l’investissement à la production. Sa valeur pour l’ensemble de l’économie avait été fixée à 2. Une  fonction de production Fy transformait alors un flux d’investissement en flux de production.

            La valeur du paramètre β retenue dans le modèle était une valeur moyenne. Il est raisonnable de retenir pour ce paramètre une valeur plus élevée dans l’industrie, qu’il serait facile de modifier au cours du temps.  Faute d’une valeur statistique publiée par l’INSEE, nous pouvons retenir pour ce paramètre β les valeurs suivantes :

  • Pour le commerce et les services qui représentaient 2/3 du PIB : β=1,
  • Pour l’industrie qui représentait 1/3 du PIB: β=4.

Dans ces conditions, la réduction annuelle de la production industrielle de 0,5% par an « économiserait » annuellement en investissements 2% du PIB ! Ne pas entretenir la capacité de production permet, comme chacun le sait, de faire apparaître à court terme des bénéfices fictifs. Cette somme peut alors être affectée librement, par exemple à la délocalisation de capitaux.

Le déficit de la balance commerciale :

            Celui-ci doit être calculé en valeur réelle pour l’économie française, puis ajusté en fonction de l’écart de compétitivité entre les produits nationaux et les produits importés.

            Une réduction annuelle de la production nationale de 0,5% conduit au bout de « n » années, à une dette équivalente, « n » fois 0,5% du PIB. En l’absence d’intérêts, le cumul de ces dettes croit quadratiquement, d’année en année. Sa valeur est alors au bout de « n » années : n2/2. Il reste alors à introduire le rapport λ entres les prix extérieurs et les prix correspondant à une production nationale. Les prix extérieurs étant plus faibles, la dette extérieure résultant des importations sera réduite dans ce rapport λ. La somme « économisée » chaque année en raison de la désindustrialisation pourra être partagée entre les différents acteurs économiques, ce dont nous devrons tenir compte dans le bilan économique global. Chaque année, nous évaluerons cette somme à (1-λ).n.0,5% du PIB. Dans les simulations nous prendrons pour λ la valeur 0,2. Cette valeur, applicable aux seuls prix industriels, est raisonnable compte tenu des déséquilibres mondiaux.

Des résultats trompeurs :

            À partir de cette description macro-économique de l’économie française, nous pouvons déterminer par simulation les conséquences des déséquilibres persistant depuis 1974. Nous allons calculer les sommes économisées en réduisant, année après année, les investissements industriels puis estimer le coût des produits importés correspondants. Ensuite, nous comparerons entre elles les dépenses rendues nécessaires par la désindustrialisation.

 

Les figures présentent systématiquement à deux valeurs :

  • En pointillés bleus : Celles obtenues en l’absence d’intérêts réel,
  • En rouge : Celles obtenues avec un taux d’intérêt réel élevé de 2%, soit une multiplication par 4 du capital en 70 ans.
  • L’échelle utilisée en ordonnées est leur valeur exprimée en PIB, supposé constant.

 

Part des emplois industriels :

            Conformément aux observations faites depuis 1974, nous modélisons la réduction constante de l’emploi industriel par la droite de la figure 3 ci-dessous, conduisant inévitablement à une catastrophe :

Figure 3 : Taux d’emploi industriel.

Économie résultant de la réduction annuelle des investissements :

            Il s’agit des sommes non investies et des intérêts qu’elles peuvent apporter à l’industriel devenu importateur. Celles-ci correspondent aux éléments suivants :

  • 2 % du PIB résultant du désinvestissement,
  • La réduction des prix de revient, soit (1-λ) fois la réduction de la production nationale remplacée par des produits importés. Celle-ci est équivalente à un revenu à partager entre les différents intervenants, importateurs, distributeurs et consommateurs.

Figure 4 : « Économie cumulées » résultant de la réduction des investissements industriels.

Dix premières années.

Les courbes vertes et cyan sont les contributions de la réduction du capital investi.

Les autres correspondent à λ = 0,2, valeur très favorable.

 

            Conformément aux hypothèses retenues, la seule réduction de l’investissement conduit à ne pas avoir dépensé 20% du PIB au bout de 10 ans.

 

Figure 5 : « Économie cumulées » résultant de la réduction des investissements industriels.

Tendance à long terme.

Il suffirait de travailler de moins en moins pour faire des économies colossales !

Le déficit cumulé de la balance commerciale :

Cette somme correspond au cumul des déficits successifs de la balance commerciale résultant des délocalisations, toujours dans l’hypothèse d’un PIB constant, le rapport λ entre les prix des produits importés et les produits locaux étant toujours 0,2. Ce déficit augmente rapidement :

Figure 6 : Déficit extérieur cumulé en PIB.

Courbe bleue : Sans intérêts,

Courbe rouge : avec un intérêt de 2%.

 

             Ce calcul simple ne prend pas en compte une autre dette, nous l’appellerons la dette sociale. Nous reviendrons ultérieurement sur cette dette qui devient rapidement colossale.

Une évolution catastrophique :

            Confronté à la réalité, le rêve de prospérité auquel les graphiques précédents font croire devient un véritable cauchemar. Le monde réel oblige à corriger les graves omissions qui peuvent faire croire à la bonne santé de notre économie.

Le spectre de la déflation :

            Depuis la crise de 1929 qui a conduit Maurice Allais à s’intéresser à l’économie, puis à devenir le premier Prix Nobel français d’économie, les milieux financiers redoutent la déflation. Comme en 1929, la baisse des revenus et des prix conduirait à une déstabilisation de l’économie et à une grave crise qui peut être catastrophique.

            La réduction de l’investissement industriel et l’introduction de produits provenant de pays à faible coût de main d’œuvre, devrait conduire à une réduction du PIB, de la demande et donc à une baisse des prix. 

Celle-ci serait évitable en injectant de la monnaie, ce qui aurait au moins pour effet d’éviter la baisse des prix nominaux. Aujourd’hui, cette nécessaire injection de monnaie, inévitablement inflationniste, ne peut plus être faite, qu’à contre-emploi, par la BCE, dont la mission est de stabiliser les prix… Pour cette raison, la baisse des prix nominaux ne peut être évitée que par une hausse des taxes encore possible au niveau national…

Une dévaluation de notre monnaie aurait permis de rétablir facilement les grands équilibres, et en particulier celui de la balance commerciale. Notre pays (ou les entreprises à sa place) ne pouvant plus créer « ex nihilo » la monnaie nécessaire au maintien de la demande, devrait l’emprunter aux banques, et en conséquence s’engager à la rembourser, ce qu’il serait évidemment incapable de faire.

Une dette oubliée : La dette sociale :

            À long terme, toutes choses égales par ailleurs, les économies cumulées résultant d’un achat à l’étranger deviendraient considérables, si cette dette ne venait pas transformer ce rêve en cauchemar.

Nos calculs ont en effet supposé le système économique globalement stable, notamment la population et le PIB par habitant. Ceci suppose pratiquement que le chômage résultant de la croissance des importations soit indemnisé directement ou indirectement à près de100 %.

 

En effet, supposons qu’un industriel français vende un produit à un prix P. Si nous décidons d’acheter un produit étranger au prix λ.P, nettement plus faible, nous faisons apparemment une économie de (1-λ)P. En réalité, le PIB sera réduit du prix P du produit qui n’est plus acheté, et augmenté du prix du produit importé financé par une dette extérieure. Cependant, les produits importés ne pourront trouver de clients que si le pouvoir d’achat des citoyens est préservé.

Le remplacement du produit national par un produit importé conduit donc à :

  • Une réduction du PIB du prix P,
  • Un achat à l’étranger de prix λP,
  • Une indemnité à répartir entre les travailleurs lésés attribuée de façon à maintenir la demande au niveau qu’elle aurait eu en l’absence d’importation chiffrée à (1-λ)P.

 

En fait, le PIB et la demande ne seront maintenus à leur niveau précédent que si une hausse globale des bénéfices de (1-λ)P est transformée en soutien de la demande. Cette hausse des bénéfices est l’une des deux composants des « économies apparentes » précédemment calculées (figure4). Cette seconde composante des économies apparente, serait alors totalement consacrée au financement des aides aux chômeurs.

 

Dans cette hypothèse, tout se passe comme si les importateurs achetaient à l’étranger en créant une dette extérieure et revendaient au prix d’une production nationale. Si leur bénéfice sur la revente finançait la dette sociale ainsi définie, chacun conserverait ses revenus. La paix sociale serait ainsi préservée. En réalité, le partage de ce bénéfice conduit à une augmentation des inégalités de revenu.

 

Des transferts entre partenaires économiques :

            Nous avons supposé que l’économie était gérée de façon à maintenir la valeur du PIB par habitant. L’achat à l’étranger réduit les salaires directs et indirects qui auraient été versés. Pour que le revenu moyen des travailleurs soit maintenu, il faut que cette perte soit compensée, par exemple par des prestations sociales : Chômage, départ anticipé en retraite…

            Le remplacement de productions industrielles nationales par des importations est alors très rentable pour les importateurs qui bénéficient d’une réduction de leurs dépenses (coût direct des produits et charges sociales associées), mais profitent en plus de marges supérieures sur les produits. Dans la modélisation retenue, construite sur le maintien du PIB, nous avons montré que pour que le maintien des prix et du PIB soit réel, il faut que malgré des inégalités inévitables, cette indemnisation soit totale et concerne autant des entreprises que les citoyens touchés par les délocalisations.

            Les importations de produits en provenance des pays à faible coût de main-d’œuvre déstabilisent l’économie, tant les entreprises que les consommateurs. Ceci incite les entreprises à innover et à devenir plus compétitives. Mais ces importations offrent surtout aux entreprises l’opportunité de s’approprier une partie croissante de la richesse nationale.  Dans un pays disposant de sa propre monnaie, et d’une réelle souveraineté monétaire, cette accumulation capitalistique n’est pas une fin en soi. L’accumulation d’un capital dormant, ne rapportant rien, présente un intérêt limité…

            La liberté de transfert des capitaux associé à la création de l’EURO modifie radicalement ces données économiques et institue une concurrence  féroce au sein de l’Union Européenne.

Conséquences sur l’économie nationale :

            Pour faire le bilan des effets des importations en provenance des pays à faible coût de main-d’œuvre sur l’économie française, nous devons évaluer les effets directs des désinvestissements, puis le coût réel des importations nécessaires au maintien du PIB moyen des citoyens.

Cumul des désinvestissements réels :

            Compte tenu de la nécessaire indemnisation du chômage, nous devons admettre que la part réelle des « économies cumulées » pouvant être consacrée au remboursement de la dette est celle résultant du seul désinvestissement industriel, soit annuellement 2% du PIB.

            Le cumul de ceux-ci est représenté figure 7. Il atteint rapidement un niveau élevé par rapport à  l’investissement industriel et en 2045, la totalité de celui-ci : 4/3 du PIB (figure 8).

 

Figure 7 : désinvestissements.

Évaluation sur 1974 à 2020.

 

Figure 8 : Désinvestissements.

Extrapolation jusqu’à l’arrêt de l’industrie en 2045.

 

            Depuis la libération des transferts de capitaux, ces sommes peuvent s’investir ailleurs, par exemple dans les pays de la zone EURO dont la main d’œuvre est meilleur marché. De nombreuses mesures, comme la directive relative aux travailleurs détachés, permettent la mise en concurrence directe des travailleurs et des régimes de protection sociale. Ces revenus n’ont donc aucune raison d’être affectés au remboursement de la dette résultant du déficit de la balance commerciale.

Cumul des déficits commerciaux :

            Ceux-ci correspondent à la somme des déficits observés années après années. Ils sont calculés en supposant que les prix des approvisionnements au cours de la période considérée restent inférieurs aux prix des productions nationales dans le rapport λ. Bien évidemment, en raison du développement économique de nos fournisseurs, ce rapport devrait être progressivement réduit.

Figure 9 : déficit cumulé de la balance commerciale.

Solde des échanges avec le reste du monde :

            La figure 10 présente la différence entre ces deux sommes, c’est-à-dire le bilan de la nation.

 

Figure 10 : Solde des échanges.

La courbe rouge correspond à un taux d’intérêt à long terme élevé : 2%,

La courbe pointillée bleue à l’absence d’intérêt, le capital,

La courbe noire à un taux d’intérêt de 1% par an, (soit un capital multiplié par deux en 70 ans).

Des résultats saisissants :

            Bien que la simulation présentée ici ne décrive pas complétement l’évolution de l’économie française, elle permet de comprendre les conséquences de la désindustrialisation observée depuis 1974. Nous ferons nos analyses sur la base du taux d’intérêt réel moyen (c’est-à-dire corrigé de la hausse des prix), de1% par an.

  • Comme prévu par la simulation, le désinvestissement produit dans un premier temps un effet positif. Ne pas entretenir l’outil productif donne l’impression de la prospérité, mais celle-ci est trompeuse. Les investisseurs ont accumulent un capital non investi important. Il est donc naturel que la Banque de France ait pu observer une forte fuite des capitaux, représentée sur la figure 11, dès la libération des transferts de capitaux. La simulation montre qu’à cette période, la réduction des investissements industriels avait largement permis aux entreprises françaises de financer la délocalisation partielle de leurs activités.

Figure 11 : Fuite des capitaux (source BDF).

 

  • La tendance s’inverse après une période d’une vingtaine d’années (vers 1990), la croissance des importations devenant prépondérante. Le cumul des « économies » correspondant aux investissements non réalisés commence à baisser.
  • Aujourd’hui, en 2019, un déficit apparaît, somme de la valeur calculée par simulation et du désinvestissement effectué lors de l’adoption de l’EURO. Nous sommes donc déjà fortement engagés dans une implosion économique.
  • Selon la simulation, le déficit se creuserait jusqu’à ce que le capital industriel soit totalement détruit et que l’activité industrielle devienne nulle. La dette serait alors de l’ordre du PIB, ou bien supérieure si les prix des produits importés augmentaient.

Ces résultats sont d’autant plus inquiétants que la simulation est plutôt optimiste et peu sensible aux variations paramètres économiques retenus:

  • La simulation montre que l’évolution de la dette est peu sensible au taux d’intérêt réel, pourvu qu’il reste modéré. Toutefois, ce taux d’intérêt ne manquera pas d’augmenter au cours du temps, avec le niveau de la dette.
  • En revanche, les prix des produits importés, donc du paramètre λ, ne manqueront pas d’augmenter, ce qui sera très pénalisant pour notre économie.
  • En 2020, le pays est entré dans une décroissance inévitable du pouvoir d’achat qui s’accélérera d’année en année si des mesures rigoureuses ne sont pas prises.
  • Au plus tard en 2045, si la tendance actuelle se maintenait, l’activité industrielle (et agricole) serait nulle, ce qui entraînerait par ricochet l’annulation totale du PIB.
  • La dette réelle (hors dette publique) serait égale ou supérieure au PIB, mais bien avant, aucun investisseur n’aurait accepté de la financer…

Il est donc certain qu’il faut que des réformes profondes aient lieu très rapidement, avant que le processus de destruction engagé ne devienne irréversible.

Conclusion :

Cette analyse démontre clairement que le maintien dans les années futures du pouvoir d’achat des français est impossible. Il reste à déterminer jusqu’à quel niveau il descendra si des mesures réellement efficaces, nécessitant l’effort de tous, ne sont pas prises à temps.

Nous avons tous observé les conséquences de la mondialisation financières : Les barrières qui protégeaient les nations sont progressivement abaissées. Les privatisations concèdent à des grands groupes la gestion des services publics. La presse, libérée de la censure étatique, est soumise à celle des intérêts de ses actionnaires. Les protections sociales des états sont mises en compétition. Les multinationales peuvent attaquer les états si elles estiment leurs intérêts menacés…

Louis XIV, savait bien qu’à terme, son pouvoir et celui le Surintendant Fouquet n’étaient pas compatibles. On ne confie pas au renard la clef du poulailler. Pourquoi alors, avons-nous confié la garde du trésor public aux banques privées ?

Les dictatures du « politiquement correct » et du « scientifiquement correct » sont en train de stériliser tous les domaines de la pensée. Ainsi, les sciences ont adopté une approche dogmatique. Il devient impossible de contester une mystérieuse « communauté scientifique » et ses censeurs anonymes dénoncés vigoureusement par Maurice Allais. Sans la diversité des théories, la science n’aurait jamais progressé. La vérité scientifique ne peut résulter que d’un travail sérieux et contradictoire, pas d’un vote ! Comme le disait Claude Allègre en 2010 à propos des travaux du GIEC : « La simple idée d’une « vérité scientifique » établie par une commission de l’ONU, c’est un crime contre l’intelligence« . L’économie est une science et l’unanimité de ses experts plutôt suspecte ! Au lieu d’établir une vérité officielle, nous devons revenir aux faits et donner à la confrontation des idées la place qu’elle mérite!

La science économique parviendra-t-elle à reprendre sa liberté d’expression, à analyser objectivement les causes des désordres actuels, et enfin à proposer une politique économique nouvelle permettant de résoudre les vrais problèmes de la nation ?

Après tant d’années pendant lesquelles les problèmes économiques n’ont été traités que par des expédients, les français sont-ils prêts à entendre le langage de la vérité ? Trouveront-ils des responsables capables de mettre en œuvre une politique économique nouvelle, alliant progrès économiques et justice sociale, capable de redresser l’économie française ?

 

Pierre FUERXER,

Membre de l’AIRAMA.

 

 

 

 

 

 


[1] Le 11 octobre 2016 : http://combats-maurice-allais.info/le-chomage-importe/

[2] Republié le 6 septembre 2019 : http://combats-maurice-allais.info/les-fluctuations-cycliques-des-economies-capitalistes/ en PDF : http://combats-maurice-allais.info/wp-content/uploads/2019/09/Article_original_du_modele_OMEGA.pdf

 

 

 

Le coût de l’immigration

L’évidence empirique :

Les grandes découvertes scientifiques résultent souvent de l’observation par des esprits curieux de faits qu’ils n’avaient aucunement prévu d’étudier.

Ainsi, la vocation de Maurice Allais pour l’économie est née d’un voyage aux États-Unis au cours duquel il a mesuré l’ampleur des dégâts occasionnés par la crise économique de 1929. Beaucoup plus récemment, européen convaincu, il a observé les conséquences de la mondialisation, c’est-à-dire la destruction des emplois et de croissance européenne. Il affirme alors, en 2007, dans son livre consacré à la mondialisation la primauté des faits sur les théories avec un sous-titre percutant : l’évidence empirique.

Une tragédie de notre histoire nationale, l’arrivée soudaine des rapatriés d’Algérie, nous donne l’occasion d’évaluer sur un cas d’école l’effet d’une vague d’immigrants sur une économie dont l’évolution était encore très peu dépendante des échanges extérieurs. Nous disposions en effet d’une monnaie souveraine, et cherchions à maintenir l’équilibre de la balance commerciale. Puisse cette épreuve que notre pays aurait aimé ne pas vivre, contribuer au progrès de la science économique…

L’utilisation de statistiques officielles :

            Depuis bien longtemps, l’INSEE publie de nombreuses statistiques. Pour ne pas tomber dans le travers des modèles complexes, nous pouvons n’utiliser que deux séries statistiques annuelles :

  • La population française depuis 1944,
  • Le PIB en prix chaînés depuis 1949.

 

Figure 1 : Variation de la population métropolitaine.

Courbe rouge : Variation par rapport à 1950.

Droite pointillée bleue : tendance à long terme,

Droite en tirets verts : droite décalée de 4%.

 

 

Figure 2 : Variation du PIB.

Courbe rouge : Valeurs relatives par rapport au PIB de 1950.

Droite pointillée bleue : tendance à long terme dans les années 50,

Droite en tirets verts : même tendance décalée de -10%.

 

L’arrivée des rapatriés correspond à la discontinuité observée en 1962.

Un résultat réellement surprenant ?

Nous pouvons alors calculer l’effet de l’arrivée des rapatriés sur le PIB par habitant français.

 

Figure 3 : Évolution du PIB par habitant depuis 1950.

La progression très rapide du PIB par habitant au début des années 50 s’arrête dès 1958 pour des raisons qui restent à expliciter (événements d’Algérie, rappel sous les drapeaux ou mobilisation des jeunes français, tensions avec les USA et l’OTAN).

Au début des années 60, la réduction du PIB par habitant est essentiellement due à l’afflux des rapatriés. La baisse de ce PIB par rapport à la tendance observée dans les années 50 atteint 10%. Le PIB par habitant baisse même de 5% sur 5 ans et n’augmente à nouveau qu’après 1968, toutefois plus lentement que pendant l’immédiat après-guerre. L’analyse complète de ces phénomènes sort du cadre strict de cette étude et sera abordée dans un prochain document.

Une évaluation empirique du coût de l’immigration :

            Sans entrer dans les différents types d’immigration (immigration de travail, de peuplement, regroupement familial…), les principaux effets de l’immigration apparaissent clairement :

  • L’arrivée d’immigrants ne modifie pas immédiatement le niveau du PIB. Le PIB doit alors être partagé entre les citoyens et les nouveaux arrivants.
  • L’arrivée des immigrants nécessite des investissements supplémentaires qui réduisent la part de la consommation de tous les ménages (construction de logement, infrastructures…).
  • Elle conduit donc, au moins temporairement, à un appauvrissement de la population locale dont la valeur est supérieure à la contribution directe de l’immigration au taux d’accroissement de la population (à long terme 3 à 4 fois ce taux d’immigration). L’arrivée de nouveaux travailleurs ne peut être valorisée qu’à long terme.

Pour autant, il ne faudrait pas en conclure que l’immigration est nuisible en elle-même. L’arrivée d’immigrants en Amérique du Nord a indiscutablement contribué à l’essor de l’économie du nouveau monde, même si cela s’est fait au détriment des premiers habitants, les Indiens.

Une immigration temporaire peut permettre de faire face à un manque temporaire de main d’œuvre ou à un déséquilibre de la pyramide des âges. Toutefois, celle-ci est évidemment contre-indiquée dans un pays qui, comme la France, souffre d’un important chômage de masse.

Ne vaudrait-il pas mieux rechercher les causes de ce chômage et appliquer les mesures susceptibles de le réduire à son niveau irréductible indispensable à l’adaptation des entreprises à la demande et à l’évolution des marchés ?

Pourquoi certains pays recourent-ils l’immigration ?

               Bien évidemment, les dirigeants avancent des motifs humanitaires. Qui peut dire qu’il n’est pas nécessaire de secourir les migrants fuyant la guerre ou les catastrophes économiques ? Est-on certains qu’il n’existe pas d’autres solutions qui leur éviterait un déracinement familial et culturel ?

            Dans les années 60, lorsque les entreprises ne trouvaient pas la main d’œuvre dont elles avaient besoin, elles savaient faire appel à des travailleurs étrangers, mais ceux-ci ne cotisaient pas pour la retraite et savaient qu’ils devraient économiser et sans doute repartir un jour pour leur pays d’origine.

            L’immigration de peuplement, surtout depuis le regroupement familial, est bien différente. Elle est économiquement négative pour les citoyens, surtout si, comme en France, un chômage de masse pèse sur les revenus de tous les contribuables.

Pour l’employeur, il est transitoirement préférable d’embaucher un immigré, moins exigeant qu’un concitoyen. Il est naturel qu’il fasse ce choix, qui lui est quasiment imposé par une concurrence exacerbée par la mondialisation. Cet employeur peut même délocaliser sa production, a ainsi éviter de payer les salaires nationaux et les charges sociales associées. Il contribuera ainsi directement au déséquilibre des comptes sociaux, au déficit de la balance commerciale et à la désindustrialisation de la nation.

Pour la nation, le coût d’un chômeur s’ajoute au salaire de l’immigré qui le remplace. Il coûte alors plus cher, mais la charge supplémentaire est payée par la communauté, notamment les indemnités de chômage et les charges sociales associées.

Le recours à une immigration temporaire ou à une immigration de peuplement a des conséquences à long terme qu’il convient de prendre en compte. Malheureusement, comme dans tous les domaines de l’économie, les conséquences à long terme sont opposées aux résultats immédiats des décisions prises en urgence, sous la pression des faits.

N’oublions pas que l’intérêt national n’est pas la somme des intérêts particuliers ! Pourquoi la puissance publique ne choisit-elle pas de défendre l’intérêt à long terme de la nation ?

 

Pierre Fuerxer

Membre de l’AIRAMA.

La physique après la découverte des ondes gravitationnelles

L’occasion d’un renouveau inespéré.

Une victoire des concepts du 20° siècle ?

            Nous savons tous que la physique a fait des progrès considérables au cours du 20° siècle. Elle a permis un développement extraordinaire de la technologie et des systèmes. Au début du 21° siècle, la théorie de la relativité et la mécanique quantique semblent définitivement validées, même si certains physiciens reconnaissent l’existence de problèmes de compatibilité entre ces deux théories.

            Devrions-nous dire, comme Lord Kelvin en 1900, « Il n’y a plus rien à découvrir en physique aujourd’hui, tout ce qui reste à faire est d’améliorer la précision des mesures » ? Il n’est pas surprenant que ce remarquable physicien ait pensé cela. Ne savons-nous pas qu’au cours du temps toutes les théories s’affinent et deviennent de plus en plus sûres d’elles-mêmes et dogmatiques ?

            Au cours du 20° siècle, les deux théories de la relativité et la théorie quantique n’ont pas échappé à ce travers. Après avoir été initialement très contestées, elles ont caché derrière un dogmatisme de plus en plus rigoureux leurs inévitables failles. Elles sont tellement incontestables qu’aujourd’hui l’Académie des Sciences refuserait d’examiner une nouvelle théorie si elle n’était pas « généralement covariante », c’est-à-dire compatible avec la théorie de la relativité générale !

            Présentée comme « la victoire finale » des concepts de la physique du 20° siècle, la découverte expérimentale des ondes gravitationnelles en serait-elle la preuve définitive ?  Au contraire, comme au début du 20° siècle, cette validation expérimentale ne devrait-elle pas nous conduire à mener de nouveaux travaux, et à approfondir les concepts ayant présidé à leur élaboration ?

Les ondes gravitationnelles : Une nécessité théorique ?

            L’électromagnétisme introduit deux notions essentielles : le champ électrique et le champ magnétique. Ces deux champs sont associés dans les équations de Maxwell qui permettent de les décrire localement sur la base de sommes d’ondes se propageant à une vitesse « c », dite vitesse de la lumière, érigée au rang de constante universelle. Les vibrations longitudinales, qui semblaient impossibles à générer et à observer, étaient niées ou simplement ignorées par les physiciens.

Nous savions que les ondes optiques sont déviées par les champs de gravitation. Ce phénomène a été vérifié expérimentalement depuis plus d’un siècle. Malgré cela, la relativité générale ne pouvait renoncer à son principal postulat : les lois de la physique sont les mêmes en tout point de l’espace. En fait, elles n’ont cette invariance que grâce à un artifice : la modification locale des unités de mesure qui impose l’abandon de la géométrie euclidienne, base de tous nos raisonnements.

Ce choix, très pénalisant, a conduit à des calculs d’une extrême complexité. Ceci limite fortement l’intérêt pratique de cette théorie, dès lors que les problèmes à étudier sont complexes. N’est-il pas temps de d’oublier ce postulat et de construire une nouvelle physique, réellement ondulatoire, associant champs électriques, magnétiques et gravitationnels ?

La détection des ondes gravitationnelles :

            La détection de ces ondes à l’aide de très grands interféromètres nous apporte des éléments essentiels à la construction d’une nouvelle physique ondulatoire. De nombreux documents publiés sur INTERNET présentent les signaux émis par la collision de trous noirs. Les mesures faites par ces interféromètres correspondent parfaitement aux modélisations faites par les astrophysiciens.

            Leurs résultats confirment donc clairement l’existence de ces ondes, mais surtout les intuitions des physiciens. En effet, les signaux observés par les deux détecteurs LIGO pendant la centaine de millisecondes que durent ces collisions confirment des points essentiels :

  • Il existe un décalage temporel entre les signaux détectés par les deux interféromètres,
  • Ces temps d’arrivée correspondent à un même événement observé optiquement par ailleurs,
  • Enfin, les différences entre les mesures sont cohérentes avec la direction d’arrivée.

Les ondes gravitationnelles sont donc des ondes se propageant à la même vitesse que la lumière. Alors que les ondes électromagnétiques sont des ondes transverses, les ondes gravitationnelles ne peuvent qu’être que des ondes longitudinales. L’ensemble de ces ondes correspond alors aux trois directions de vibration possibles de l’Éther, leur milieu de propagation commun (deux vibrations transverses orthogonales et une longitudinale).

L’indispensable mise en cause de nos modes de pensée :

La confirmation expérimentale de l’existence des ondes gravitationnelles nécessite de notre part une réflexion sur la cohérence de nos concepts de la physique. Devons-nous traiter différemment ces ondes et les ondes électromagnétiques ? Sont-elles analogues ou de nature différente ?

À mon avis, influencés par les thèses relativistes, les physiciens ont fait une grave confusion que je vais essayer de vous faire comprendre à partir d’un exemple volontairement caricatural.

Considérons un physicien décidant de vérifier l’universalité de la loi de Mariotte. Il réalise un dispositif constitué d’un volume variable et d’un manomètre. Il commence par l’installer à Paris. Il suit alors un protocole expérimental rigoureux. Pour cela, il commence par étalonner son manomètre en faisant le vide, puis en laissant la pression atmosphérique entrer dans le dispositif. Après avoir refermé son dispositif, il peut vérifier la loi de Mariotte en faisant varier le volume d’air emprisonné et en mesurant la pression (bien évidemment, je suppose la température stabilisée entre les mesures successives de pression).

Supposons que, pour confirmer l’universalité de la loi ainsi vérifiée, il se déplace au Pic du Midi et refasse l’expérience, en respectant le même protocole expérimental. Il constate que la loi de Mariotte est bien conservée. Cette loi est donc bien une loi universelle, mais ceci n’implique pas que la pression atmosphérique soit la même à Paris et au Pic du Midi.

Cet exemple caricatural correspond à une erreur bien difficile à éviter. Ainsi, les expériences interférométriques, ou les « expériences de pensée » proposées comme preuves de la théorie de la relativité, présentent de nombreuses lacunes conceptuelles. Les dimensions d’un interféromètre de Michelson sont-elles indépendantes de sa vitesse de déplacement ? La contraction relativiste des corps est-elle réelle ou apparente, les lois de Descartes sont-elles valides dans un repère mobile ?…

Un autre exemple particulièrement intéressant correspond à l’utilisation du principe d’équivalence pour calculer la déviation gravitationnelle de la lumière. Dans son article initial, Einstein n’avait obtenu que la moitié de la déviation qui sera observée expérimentalement. Il aurait trouvé la valeur exacte s’il avait compris que son repère mobile était implicitement construit sur des mesures optiques de distances, et donc qu’il était déformé par l’accélération [1].

Comme dans l’exemple caricatural de la loi de Mariotte, l’observateur a étalonné son repère en supposant la propagation de la lumière isotrope. Admettons l’existence d’un repère euclidien sous-jacent, et dans ce repère, une onde se propageant dans une direction orthogonale à un champ de gravitation uniforme. En raison du ralentissement gravitationnel de la vitesse de la lumière, la distance entre les fronts d’ondes est d’autant plus faible que le champ de gravitation est élevé. Inversement, dans un repère lié à l’observateur, et construit sur la base de mesures optiques, ces distances sont inchangées. Dans le cas particulier d’un champ de gravitation uniforme, ces deux repères sont superposables par modification de l’unité de temps. Le principe d’équivalence peut être adopté. Dans tous les autres cas, et en particulier lors du calcul de la courbure des rayons optique dans un champ non uniforme, cette approximation ne peut être faite.

Il faut donc être particulièrement circonspect dans l’utilisation des concepts relativistes. L’universalité d’une loi de la physique dans un petit domaine ne peut être étendue à l’espace complet sans d’infinies précautions. Même si déterminer des propriétés physiques locales est utile, seule la référence à un espace-temps euclidien sous-jacent permet de raisonner juste.

Enfin, les étudiants et les chercheurs doivent se sentir libre de rêver à une nouvelle physique. Ils ne doivent pas se sentir obligés de respecter des dogmes abstraits sans en comprendre les raisons profondes. Ceci ne peut que les faire fuir ou étouffer leur créativité. Les étudiants doivent apprendre une physique plus humaine, faillible et révisable, tributaire d’accidents de l’histoire. En un mot, ils ne doivent pas penser naître trop tard dans un monde trop vieux.

La relecture nécessaire des nombreux opposants :

            Malgré le discours officiel des théoriciens, de nombreux chercheurs, rebutés par le dogmatisme des physiciens relativistes et quantiques, ont cherché à les mettre leurs théories en défaut. Ils ont souvent réalisé, avec des moyens très limités, des expériences dont les résultats auraient mérité d’être pris en compte et qui auraient dû être refaites avec de plus gros moyens. Je vous incite à étudier celles faites ou  décrites par Maurice Allais [2], par Hector Múnera [3] et bien d’autres chercheurs dans le monde, et à en imaginer d’autres réalisables dans vos laboratoires.

Pourquoi imaginer une nouvelle physique ?

            J’avais montré, dans une présentation faite à l’URSI en 2011 [4], que de nombreux résultats, devenus des vérités incontestables, n’étaient en réalité que les conséquences d’idées a-priori ou des interprétations d’expériences, mais en aucune manière des preuves scientifiquement établies.

J’avais mis en cause la capacité de VIRGO à détecter des ondes gravitationnelles. Je dois reconnaître que les améliorations de ses performances intervenues depuis, et la réalisation des interféromètres LIGO aux USA, ont permis de détecter ces ondes gravitationnelles. Cependant, je continue à penser que ces instruments n’auraient pas dû être appelés « interféromètres de Michelson », ce qu’ils ne sont pas. La description rigoureuse des dispositifs expérimentaux, des bases conceptuelles sur lesquels ils sont construits, serait absolument nécessaires à la compréhension de leurs résultats.

Par ailleurs, j’avais montré qu’il est très rare qu’un résultat expérimental impose l’adoption d’une théorie. Pour cela, j’avais retenu deux exemples. Le rayonnement du corps noir et l’accélération du BIG-BANG. Poincaré avait démontré que le rayonnement de corps noir n’était pas explicable sans faire intervenir une non-linéarité [5]. Cependant, ce résultat théorique n’imposait pas le choix de l’hypothèse de Planck. De même, les expériences dites « d’intrication de photons » n’imposent pas l’existence de celui-ci comme « particule » mais seulement comme quantum d’action.

Ces exemples montrent qu’un manque de rigueur mathématique fait prendre à un chercheur des risques d’erreur considérables. N’est-il pas naturel que, persuadé d’avoir fait une grande découverte et brûlant d’impatience, il néglige de faire un examen critique des faits et d’envisager toutes les explications possibles ?

Ne devrions-nous pas chercher, en permanence, à découvrir si des explications nouvelles, ou d’anciennes rejetées pour des raisons oubliées, ne rendraient pas compte aussi bien ou même mieux des résultats expérimentaux que les théories les plus reconnues ?

Le choix d’une physique ondulatoire :

            Les motivations des physiciens sont loin d’être celles des entrepreneurs et des hommes politiques. Même s’il leur arrive de chercher à concrétiser par des développements industriels les résultats de leurs travaux, ils sont avant tout motivés par l’envie de comprendre. N’est-il pas valorisant de comprendre ce qui est mystérieux et de faire ce qui est impossible ?

            La découverte des ondes gravitationnelles n’est-elle pas une occasion exceptionnelle de repenser la physique moderne ? Que pourrait être cette nouvelle physique ondulatoire ? Compte tenu de mon expérience professionnelle, je vous propose le rêve d’un radioélectricien attaché aux représentations non-quantiques des rayonnements. Mes grands choix seraient les suivants :

  • En premier, je donnerais la priorité aux aspects ondulatoires, en reconnaissant l’existence d’un milieu de propagation que j’appellerais, un peu par provocation, l’Éther. Ceci permettrait de donner une signification réelle au courant de déplacement, réputé fictif, apparaissant dans les équations de Maxwell et à la densité locale d’énergie associée aux champs.
  • Ensuite, je donnerais aux potentiels électriques et gravitationnels des statuts comparables, les potentiels électriques et magnétiques étant liés à des ondes transverses d’une part, et le potentiel gravitationnel à des ondes longitudinales.
  • Enfin, après avoir réintroduit l’Éther, devenu le milieu de propagation de toutes les ondes, je proposerais le choix d’un repère euclidien sous-jacent. Sauf preuve du contraire, toutes les ondes se propageraient dans ce milieu à la même vitesse qui dépendrait d’un potentiel à l’origine de la courbure gravitationnelle des rayons lumineux.

Ce choix est analogue à celui adopté en acoustique aérienne ou sous-marine. Tous les phénomènes physiques seraient décrits dans cet espace-temps  » réel », observé à l’aide des ondes électromagnétiques. Les grandeurs physiques dans ce repère sous-jacent seraient obtenues par dé-convolution, puis validées en utilisant les lois de propagation  des ondes et en calculant les durées et distances apparentes observables à l’aide d’horloges et de mesures optiques. Ceci ne serait en réalité que le choix d’utiliser des techniques couramment utilisées en recherche pétrolière dans un milieu extrêmement complexe.

Les particules seraient des solutions de ces nouvelles équations de propagation non linéaires associant les ondes inévitablement associées. Un simple électron a en effet une charge électrique, un champ magnétique et une masse correspondant à son énergie. Même si cette tâche dépasse largement nos capacités de calcul actuelles, toutes les particules stables ou instables pourraient alors, au moins en théorie, être décrites à partir de ces seules équations …

Des énigmes scientifiques réputées insolubles seront alors résolues. Pourquoi le mystère étudié par Maurice Allais que constitue depuis déjà longtemps la loi de Titius-Bode [6] ne serait-il pas élucidé grâce à une représentation ondulatoire des champs de gravitation ?

Refuser la science médiatique :

Notre société médiatique est à la recherche du sensationnel et de l’insolite. La physique du 20° siècle ne pouvait qu’être de son temps. Il était donc inévitable que des « vulgarisateurs » aient popularisé, sans les expliquer, des théories parfois extravagantes, notamment en cosmologie, et qu’ils aient trouvé un public, même dans des milieux scientifiques.

Il est plus grave de constater que des expériences soient présentées comme des preuves irréfutables des nouvelles théories, alors que les faits pouvaient être aussi bien expliqués par les anciennes théories. J’ai constaté avec effroi que le programme de physique, en classe de terminale, présente à l’appui du discours officiel une célèbre expérience d’interférences sur électrons uniques réalisée pour la première fois en 1961. Il laisse les étudiants imaginer, sans doute involontairement, qu’il s’agit de propriétés mystérieuses de la matière.

Cette expérience de diffraction est censée illustrer la dualité onde particule, une propriété quasiment « magique » des électrons qui pourraient interférer avec eux-mêmes !  En affirmant que les particules sont des solutions particulières d’une équation des ondes, la physique du 21° siècle expliquera simplement ces effets qui ne sont absolument plus paradoxaux.

L’énergie de l’électron sera celle de ses champs (essentiellement son champ électrique), extérieur à la particule proprement dite. Celle-ci, analogue au cœur d’un cyclone, et ne contiendrait pratiquement pas d’énergie. Si l’électron traverse le masque, une partie de son énergie électromagnétique est réfléchie et une autre reste attachée à lui. Quelle soit la trajectoire de la particule « électron », qu’elle soit réfléchie par le masque, absorbée ou transmise par l’une des fentes, son champ ne peut que passer simultanément par les deux fentes et sa trajectoire modifiée.

L’énergie et sa quantité de mouvement de l’électron sont alors réparties entre les deux faces du masque, que la particule traverse ou non le masque.  Cette explication n’est-elle pas plus satisfaisante que l’introduction d’une longueur d’onde sans signification physique ?

Attirer à nouveau les esprits les plus brillants :

Nous savons que les étudiants sont de moins en moins nombreux à choisir d’entreprendre des études scientifiques. Ceci est certainement partiellement dû à la mondialisation des entreprises et au développement du commerce international qui offre de nombreux débouchés dans les services. Dans ce contexte, le « management », en offrant de brillantes perspectives de carrières ne peut qu’attirer les plus dynamiques des étudiants.

Dans le domaine de la recherche scientifique, cette même mondialisation réduit la place des chercheurs dans leur propre université. Petites mains travaillant dans un gigantesque projet international, ils sont souvent réduits à un rôle subalterne et n’ont aucun contrôle du projet. Que pouvez-vous décider quand vous appartenez à une équipe de 500 chercheurs appartenant à 50 pays ?

Dans l’industrie, les ingénieurs ne s’intéressent pas aux grandes théories. Un spécialiste des gyroscopes LASER m’avait présenté ses équipements et leur principe. En réponse à une question, il m’avait répondu qu’il existait une théorie relativiste de ces gyromètres, mais qu’il ne l’utilisait pas. Quel est l’intérêt d’une théorie si elle n’a pas d’applications pratiques ? Les grands progrès techniques n’ont-ils pas été très souvent dus à des passionnés qui ont eu des idées simples ?

L’observation expérimentale des ondes gravitationnelles ne doit-elle pas être l’occasion d’une révision profonde de la physique moderne ? Pouvoir représenter de façon ondulatoire toute la matière et construire, à partir d’observations optiques, un espace euclidien sous-jacent doit révolutionner la physique en lui apportant la rigueur scientifique qui lui fait souvent défaut ?

Le remplacement de dogmes et de formalismes abstraits qui ont envahis la physique par des lois universelles valides dans un espace euclidien sous-jacent devrait permettre un renouveau de la physique et attirer de nombreux étudiants.

Enfin, le rejet du cloisonnement excessif des disciplines, conséquence inévitable du mode de fonctionnement de ce que nous appelons « la communauté scientifique », stérilise la recherche. Les chercheurs hyper spécialisés, utilisant des vocabulaires différents selon les disciplines, ne bénéficient plus des retombées entre domaines apparemment différents, alors même qu’ils utilisant en réalité des outils mathématiques identiques ou quasi-identiques.

 

 

Pierre Fuerxer,

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

[1] la relativité, Poincaré, Planck, Hilbert, par Jules Leveugle, L’Harmattan, 2004,

[2] L’anisotropie de l’espace, par Maurice Allais, Clément Juglar, Mars 1997,

[3] Should the laws of gravitation be reconsidered ?, Héctor A.Munera, Aperion, Montreal,

[4] et [5] URSI France, Journées Scientifiques 2011.

[6] Des très remarquables régularités dans les distributions des planètes et des satellites des planètes,

            par Maurice Allais, Clément Juglar, 2005.

 

 

L’emploi Industriel qui montre que le chômage résulte d’un choix

La perte des emplois industriels

Introduction :

Maurice Allais a exposé dans un livre publié en 2007 avec le titre « La mondialisation, la destruction des emplois et la croissance ».  Plus de dix ans plus tard, « l’évidence empirique » sur laquelle il basait son argumentation est de plus en plus claire.

Figure 1 : courbes présentées dans la presse par Maurice Allais

 

Une précédente mise à jour :

En janvier 2017, une mise à jour faite à partir des dernières statistiques de l’INSEE confirmait les prévisions de Maurice Allais.

Figure 2 : Emploi industriel : Projection faite en janvier 2017.

Cette projection conduisait à un emploi industriel nul en 2045. Il est évident qu’une telle extrapolation ne peut être retenue. Il est bien certain que l’évolution actuelle ne pourra se poursuivre indéfiniment. Il reste toutefois à observer jusqu’à quel point cette tendance pourra se poursuivre et à anticiper les mesures qui permettront de faire face au choc qui accompagnera la fin de cette période de désindustrialisation.

 

Évolution de la population française :

Même si le vieillissement de la population est un fait indiscutable, la population française ne cesse de croître.

Figure 3 : Population totale selon l’INSEE

La répartition en tranches d’âge permet d’observer son vieillissement. Compte tenu de l’accroissement constant du temps partiel, les nombres d’actifs et de chômeurs ne sont plus significatifs. Ainsi, le volume de la population active n’est plus publié. Nous allons donc considérer l’emploi total et sa répartition sur la base des équivalents temps plein.

Figure 4 : Emploi total (équivalent temps plein)

 

L’évolution de l’emploi industriel correspond strictement à la tendance prédite par Maurice Allais il y a près de dix ans.

Figure 5 : Évolution de l’emploi industriel

Le taux d’emploi industriels correspond alors à la figure suivante :

Figure 6 : taux d’emploi industriel dans l’emploi total

Ce taux, qui était de plus de 35 % en 1948 est maintenant de l’ordre de 10%. Il subit à une réduction légèrement plus forte par rapport à l’ensemble de la population, en raison de son vieillissement qui réduit la part des  actifs. Sur cette courbe, la cassure de 1974 apparaît nettement.

Dans ces conditions, il est facile de constater qu’en tenant compte du vieillissement de la population, la décroissance du niveau de l’emploi industriel réel est conforme aux prévisions de Maurice Allais, et strictement celui constaté en janvier 2017. Sur cette courbe, le ralentissement apparent de la désindustrialisation n’est dû qu’au vieillissement de la population. En effet celui-ci réduit la part de la population active dans la population totale.

Figure 7 : Taux d’emploi industriel par rapport à la population totale

Il reste à expliquer les vraies raisons de cette réduction de l’emploi industriel.  En effet, celle-ci ne peut être attribuée aux seuls progrès techniques et au développement des robots.

 

PIB ou valeur ajoutée ?

Pendant longtemps, le PIB (Produit Intérieur Brut),  malgré ses nombreux défauts, a été la mesure de l’activité économique.

Aujourd’hui, l’INSEE publie des mesures détaillées de la valeur ajoutée. Des données détaillées relatives aux diverses activités économique sont maintenant disponibles.

Nous les avons regroupées en trois domaines différents (Figure 8).

Figure 8 : Répartition de la valeur ajoutée

  • En bleu : Activité commerciales
  • En vert : Activités de service,
  • En rouge : Activité industrielles.

Le niveau des activités agricoles n’a pas été tracé compte tenu de sa très faible valeur.

Les pourcentages des valeurs ajoutées  industrielles et agricoles correspondent au graphique suivant (figure 9).

Figure 9 : Industrie et agriculture

  • Courbe bleue : Industrie,
  • Courbe rouge : Agriculture.

Elles sont très petites derrière les activités de service au sens global, en incluant les services commerciaux et les autres services, notamment aux entreprises (figure 10).

 

Figure 10 : Part des activités de service

Le transitoire présent sur les courbes correspond à mai 1968, période pendant laquelle l’activité industrielle a été fortement perturbée.

La répartition de la valeur ajoutée telle qu’elle apparaît dans les statistiques de l’INSEE  est donc bien plus instructive que celle du PIB. La somme des revenus pouvant être supérieure à la valeur ajoutée totale qui est la production réelle.

 

Le chômage importé :

En 2012, nous avions montré que les seules importations chinoises correspondaient à la perte de 2,7 millions d’emplois. Si nous ajoutons ces emplois à la valeur constatée en 2012, les courbes des figures 5 et 7 sont modifiées de la façon suivante (figures 11 et 12).

Figure 11 : Part des emplois industriels corrigé pour 2012

Figure 12 : Taux d’emploi industriel corrigé pour 2012

Ces courbes démontrent que  le chômage importé résultant des seules importations chinoises suffit à compenser la réduction de l’emploi industriel observée depuis 1974. Il est certain que si ce calcul avait été fait sur l’ensemble des importations, l’emploi industriel corrigé de l’effet des importations aurait poursuivi sa croissance au-delà de 1974.

La réduction de l’emploi industriel est donc clairement la conséquence d’une politique qui a, sciemment ou non, créé un chômage de masse.

 

Conclusion :

Cette analyse montre que le chômage de masse n’est pas une fatalité. Il résulte de d’une politique délibérée, le libéralisme, qui conduit naturellement à la mise en concurrence des travailleurs et des régimes sociaux du monde entier.

À la suite de mai 1968, la compétitivité de l’économie française n’a pu être rétablie que grâce à deux dévaluations du franc et une réévaluation du Mark. Toutefois, comme le modèle OMEGA l’a très clairement expliqué, ces événements ont conduit à une réduction de la croissance six ans plus tard.

En 1973-74, l’abandon  de notre souveraineté monétaire par le président Pompidou et Valery Giscard d’Estaing a eu des conséquences catastrophiques à long terme. Ne pouvant plus ajuster la compétitivité nationale en dévaluant le franc, nos gouvernements ont mené une politique mondialiste irresponsable. Le maintien du pouvoir d’achat des salariés et des revenus des capitaux s’est fait grâce à des expédients : exportations d’armes, importations en provenance des pays à faibles coûts salariaux, vente d’entreprises… Le recours aux banques privées pour ajuster la monnaie a introduit une dette publique totalement injustifiée, comme Maurice Allais et de nombreux économistes l’ont démontré. Globalement, cette politique a conduit inéluctablement à une augmentation du chômage.

L’adoption de l’EURO (€) a été présentée comme la solution finale aux problèmes des états européens. Force est de constater qu’il n’en est rien. Le mondialisme continue à détruire méthodiquement l’économie française et d’autres états européens.

On nous assure que la réduction de l’emploi industriel est un phénomène inévitable, une conséquence des progrès de la technologie, et en particulier du développement des robots industriels. En réalité, des emplois sont créés dans d’autres pays. Tout se passe comme si nous avions décidé de délocaliser notre industrie en transférant nos capitaux à l’étranger en vue d’y réaliser, à moindre coût, les produits demandés par notre marché intérieur.

Le déficit de notre balance commerciale et la croissance du chômage sont alors inévitables. N’est-il pas temps d’abandonner une politique qui, selon l’expression de Maurice Allais, a fait la « démonstration empirique » de sa nocivité ?

 

Pierre Fuerxer,

Membre de l’AIRAMA.

 

Télécharger en PDF

 

 

Efficacité économique et justice sociale selon Maurice Allais

Maurice Allais occupe une place singulière au sein de l’école des économistes libéraux par son constant souci d’analyser les effets de celle-ci sur la répartition des revenus et des richesses. Il démontre que seules la liberté d’entreprendre et la liberté d’accès aux marchés peuvent réaliser ou approcher l’efficacité économique optimale dans l’allocation des ressources. Il souligne la nécessité absolue de préserver la justice sociale, en particulier par une fiscalité refondée.

in « La Jaune et la Rouge » Magazine N°687 Septembre 2013 – Fiscalité : les nouvelles formules

Considérant qu’un État impartial constituait le garant en dernier ressort du bien commun des sociétés et de leur pérennité, les réflexions de Maurice Allais étaient guidées par le souci de tarir les revenus « indus » qui ne provenaient pas de réels services économiques apportés à la collectivité, en éliminant fiscalement les situations de rentes.

Il propose tout particulièrement de rétrocéder à l’État la rente annuelle de la création de monnaie ex nihilo engendrée par le système du crédit pratiqué par le secteur bancaire et financier actuel.

REPÈRES
Maurice Allais (31), disparu en 2010, est le seul économiste français titulaire du prix Nobel de sciences économiques. Il lui a été décerné en 1988 pour « ses contributions à la théorie des marchés et à l’utilisation efficace des ressources ». Cet esprit encyclopédique et rigoureux est également reconnu pour avoir offert une refonte cohérente des principaux pans de la théorie économique, de la théorie de l’équilibre, des marchés et de l’intérêt, à la théorie de la monnaie et des anticipations.

Réformer le système bancaire et financier

Maurice Allais propose, en préalable à toute refonte de la fiscalité, la réforme du système bancaire et financier. Cette réforme doit s’appuyer sur deux principes.

La création monétaire doit relever de l’État et de l’État seul. Toute création monétaire autre que la monnaie de base par la banque centrale indépendante des gouvernements doit être rendue impossible, de manière que disparaissent les « faux droits » résultant actuellement de la création monétaire bancaire. Tout financement d’investissement à un terme donné doit être assuré par des emprunts à des termes plus longs, ou tout au moins de même terme.

Banques de dépôts, de prêt et d’affaires

Les principes de la réforme du système du crédit que propose Allais peuvent donc se résumer comme il l’écrit lui-même :

« Cette double condition implique une modification profonde des structures bancaires et financières reposant sur la dissociation totale des activités bancaires telles qu’elles se constatent aujourd’hui, et leur attribution selon trois catégories d’établissements distincts et indépendants :

La création monétaire doit relever de l’État et de l’État seul
  • des banques de dépôts assurant seulement, à l’exclusion de toute opération de prêt, les encaissements et les paiements, et la garde des dépôts de leurs clients, les frais correspondants étant facturés à ces derniers, et les comptes des clients ne pouvant comporter aucun découvert ;

  • des banques de prêt empruntant à des termes donnés et prêtant les fonds empruntés à des termes plus courts, le montant global des prêts ne pouvant excéder le montant global des fonds empruntés ;

  • des banques d’affaires empruntant directement auprès du public, ou aux banques de prêt et investissant les fonds empruntés dans les entreprises.

 
« Dans son principe, une telle réforme rendrait impossible la création monétaire et de pouvoir d’achat ex nihilo par le système bancaire, ainsi que l’emprunt à court terme pour financer des prêts de terme plus long.

Elle ne permettrait que des prêts de maturité plus courte que celle correspondant aux fonds empruntés. Les banques de prêt et les banques d’affaires serviraient d’intermédiaires entre les épargnants et les emprunteurs. Elles seraient soumises à une obligation impérative : emprunter à long terme pour prêter à plus court terme, à l’inverse de ce qui se passe aujourd’hui. »

Une condition de survie

« Une telle organisation du système bancaire et financier permettrait la réalisation simultanée de six conditions tout à fait fondamentales :

  • l’impossibilité de toute création monétaire en dehors de celle de la monnaie de base par les autorités monétaires indépendantes des gouvernements ;

  • la suppression de tout déséquilibre résultant du financement d’investissements à long terme à partir d’emprunts à court ou à moyen terme ;

  • l’expansion de la masse monétaire globale, constituée uniquement par la monnaie de base, au taux souhaité par les autorités monétaires indépendantes des gouvernements;

  • une réduction majeure, sinon totale, de l’amplitude des fluctuations conjoncturelles ;

  • l’attribution à l’État des gains provenant de la création monétaire, et l’allégement en conséquence des impôts actuels ;

  • un contrôle aisé par l’opinion publique et par le Parlement de la création monétaire et de ses implications.

 
Cette réforme apparaît comme une condition nécessaire de survie d’une économie décentralisée et de son efficacité. »

Dès lors, la fiscalité doit être refondée en considérant que les impôts payés par les ménages et les entreprises sont « la rémunération des services de toutes sortes que leur rend l’État et qu’il est seul à même de leur rendre ».

Les sept principes de la fiscalité

  • Principe individualiste : l’impôt ne doit pas rechercher l’égalité des conditions, mais celle des chances.
  • Principe de non-discrimination : l’impôt doit être établi suivant des règles qui soient les mêmes pour tous.
  • Principe d’impersonnalité : l’impôt ne doit pas impliquer des recherches inquisitoriales sur les personnes.
  • Principe de neutralité et d’efficacité économiques : l’impôt ne doit pas pénaliser les choix les plus efficaces pour l’économie. Les entreprises en perte devraient être pénalisées, et non celles qui font des bénéfices.
  • Principe de légitimité : l’impôt doit frapper autant que possible les revenus «non gagnés» qui ne correspondent pas à un service effectivement rendu tels, par exemple, ceux provenant de l’appropriation des plus-values foncières résultant de la croissance démographique.
  • Principe d’exclusion d’une double imposition : un revenu ou un bien ne saurait être taxé plusieurs fois.
  • Principe de non-arbitraire et de transparence : le système fiscal doit répondre à des principes simples et peu coûteux d’application.

Une fiscalité tripolaire

Allais propose la suppression totale des impôts actuels sur les revenus des personnes physiques, sur les entreprises, sur les successions et donations, comme sur le patrimoine et les plus-values. On les remplacerait par une fiscalité tripolaire répondant aux « sept principes » (voir encadré ci-dessus).

Peu vulnérable à la fraude, elle se prêterait à un contrôle facile du Parlement.

Il propose donc une taxe annuelle de l’ordre de 2% sur les seuls biens physiques, à l’exclusion des créances, actions et obligations notamment, à l’exclusion de toute double imposition et de toute exemption.

L’impôt doit être établi suivant des règles qui soient les mêmes pour tous

Il propose aussi l’attribution à l’État, et à l’État seul, des profits provenant actuellement de l’augmentation de la masse monétaire par la création des moyens de paiement issus du mécanisme actuel du crédit, selon les principes de la réforme proposée (de l’ordre de 4% à 5% du revenu national en régime de croissance de 4 % et d’inflation de 2 %).

Allais propose enfin une taxe générale sur les biens de consommation de taux uniforme pour assurer les dépenses publiques non couvertes par les deux postes précédents. Il précise que, « contrairement à ce que l’on pourrait penser, les charges correspondant à l’impôt proposé sur le capital ne différeraient que d’un quart environ de celles qui le grèvent déjà en réalité dans le système actuel ».

Des ordres de grandeur réalistes

Allais chiffre avec réalisme les ordres de grandeur de ses réformes, et prend bien soin de présenter le catalogue des principales objections qui leur ont été opposées pour les réfuter une à une. Il démontre comment cette double réforme constituerait un puissant stimulant au retour de la croissance économique en mobilisant les initiatives économiquement les plus efficaces, ouvrant ainsi la voie à une nouvelle ère de prospérité et de justice.

Par une double réforme du crédit et de la fiscalité répondant aux principes clairement énoncés ici, la France offrirait au monde un exemple libérateur d’une puissance irrésistible face aux oppressions qui semblent vouloir aujourd’hui effrontément s’affranchir de tout contrôle des peuples, dans une dangereuse hubrys.

 

 

Hors du protectionnisme intelligent de Maurice Allais, pas de salut !

Lettre ouverte aux Français  

AIRAMA[1], 12 rue de Poitiers, 75007 Paris

 

Paris, ce 1er mai 2017

Présidentielles 2017

Objet : Hors du protectionnisme intelligent de Maurice Allais, pas de salut !

 

Chers concitoyennes et concitoyens,

 

L’AIRAMA, l’Alliance Internationale, pour la Reconnaissance des Apports de Maurice Allais en économie et en physique, association canal historique des défenseurs de ses combats, créée du vivant de notre prestigieux prix Nobel d’économie, renouvelle l’alerte qu’elle avait lancée en vain aux Présidentielles 2012. Le fait qu’elle n’ait pas été entendue nous a hélas valu plus d’un million de nouveaux chômeurs depuis[2].

Elle rappelle qu’en dehors de l’application résolue de la politique de protectionnisme intelligent prônée par Maurice Allais, il ne saurait y avoir de salut économique pour la France.

L’impératif d’appliquer immédiatement cette politique économique de protectionnisme compétitif en France n’est plus un sujet de débat, c’est une vérité scientifique démontrée par Maurice Allais,  empiriquement validée depuis 1974, et criminellement niée depuis 1999 par les gouvernements successifs.

Dès 1999, dans son livre lanceur d’alerte « Mondialisme : la destruction de la croissance et de l’emploi. L’évidence empirique », notre grand prix Nobel d’économie avait indiqué la voie à suivre. Depuis,  l’AIRAMA a évalué 4,8 millions le niveau du chômage importé[3] !

 « À quoi sert la science, si elle ne permet pas de changer la condition des hommes ? », avait coutume de dire Maurice Allais depuis la crise de 1929.

 C’est pourquoi, la science exigeant de se mettre au service des hommes ; l’AIRAMA ayant annoncé en conséquence que l’économie devait rentrer en politique[4] ; faute de voir la politique respecter la vérité scientifique dûment établie ; le bon sens exigeant enfin entre deux maux de choisir le moindre ; pour toutes ces raisons impératives, l’ AIRAMA se voit dans l’obligation de devoir prendre position aux Présidentielles 2017 pour tenter d’éviter le pire à la France.

En conséquence, à la veille d’une échéance électorale décisive pour l’avenir économique  de la France en cours de décrochage économique et industriel définitif,  l’AIRAMA appelle tous les Français qui veulent voir leur pays sauvé du désastre, à faire barrage au candidat Emmanuel Macron, héritier politique du Président Hollande qui, en dépit des avertissements, a poursuivi la politique ultra-libérale anti-protectionniste qui lui était dictée de l’étranger, contre les intérêts vitaux de la France. 

Scientifiquement et empiriquement, hors du protectionnisme compétitif de Maurice Allais, il ne saurait y avoir de salut économique et industriel pour la France !

Avertis comme jamais, les Français qui n’auraient pas fait leur devoir, vis-à -vis de l’avenir de leur pays et de la jeunesse, en faisant barrage au candidat de l’ultra-libéralisme, s’avançant masqué, qu’est le candidat Emmanuel Macron, continuateur du désastre du Président Hollande, ne pourraient  plus jamais se lamenter et dire : « je ne savais pas ». 

À A l’école de Maurice Allais, tous les Français qui veulent sauver la France du naufrage économique et industriel doivent donc résolument faire barrage au candidat de la « destruction de la croissance et de l’emploi », et voter pour le seul candidat du protectionnisme compétitif auquel notre prestigieux prix Nobel d’économie, Maurice Allais, n’a cessé d’en appeler depuis 1999 pour nous sauver du naufrage. 

 

Arnaud-A. Upinsky

Président de l’AIRAMA

 

 

 

 

[1] Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie.

[2] Cf. Lettre ouverte AIRAMA aux Présidentielles 2012 sur le site « Les combats de Maurice Allais » : http://combats-maurice-allais.info/lettre-ouverte-aux-candidats-a-la-presidence-de-la-republique-2012/

[3] Cf. Site « Les combats de Maurice Allais », Indicateur Oméga-Allais.

[4] Cf.  Sur le site  « Les combats de Maurice Allais » , Conférence de presse du 9 avril 2013 à la Maison de l’Amérique latine « LA SCIENCE ÉCONOMIQUE RENTRE EN POLITIQUE !  » http://combats-maurice-allais.info/conference-de-presse-indicateur-omega-allais/

Les politiques monétaires non-conventionnelles et l’héritage scientifique de Maurice Allais

Bertrand Munier

Professeur Émérite à l’Université de Paris I
Président du Conseil Scientifique de la Fondation Maurice Allais

 

Présentation lors de l’Atelier Maurice Allais du 17 juin 2016

 

 

 

 

Allais : psychologie en monnaie

Maurice Allais et la Science économiqueCet article (d’avril-mai 2009) a été publié en pages 113-126 sous le chapitre 6 du livre collectif « Maurice ALLAIS et la science économique » aux édition Clement Juglar en 2010.

* * *

Psychologie et Monnaie : de la critique de l’Utilité espérée à l’approche « héréditaire, relativiste et logistique » de Maurice Allais qui a révolutionné la Théorie de la Dynamique monétaire in Maurice Allais et la Science économique, sous la direction de Arnaud Diemer, Jérôme Lallement, et Bertrand Munier (pp.113-126), Clément Juglar, Paris, mai 2010.

 

 


 

 

Psychologie et Monnaie (1) : de la Critique de
l’ “Utilité Espérée” à l’approche
“Héréditaire, Relativiste et Logistique” de Maurice Allais (2),
qui a révolutionné la Théorie de la Dynamique Monétaire.

 

 

Par Philippe Bourcier de Carbon

 

Toutes les sciences ont progressé lorsque, au lieu de se quereller sur les premiers principes, on a commencé à s’attacher aux résultats. L’expérience montre que les opinions des gens “compétents” sont souvent tout à fait incompatibles avec les réalités, et que l’histoire des sciences est l’histoire des erreurs des gens “compétents”. Pour ce qui est de la “vérité” d’une théorie, nul autre critère ne peut être invoqué que sa concordance avec les faits. Entre deux théories, nous choisirons celle qui demeure au plus près de la réalité.

Vilfredo Pareto

 

 

As regards the criticism raised an in the last analysis, it would seem that the better the results of a theory, the more doubtful they should be considered. “Too good to be true”, such is the principle to which finally the scientific philosophy of the critics of the hereditary and relativistic theory seems to boil down. If science were based on this criterion, the best theories of physics, such as Newton’s theory of gravitation or Planck’s theory of quanta, would have to be rejected. But, as it would seem, the results of the commonly accepted theories are “too bad to be untrue”.

Maurice Allais, 1986 {15b} p.37.

 

 

Факти упрямая Вешь !

Vladimir Illyitch Oulianov-Lénine, 1905 in Что делать ?

 

 

 

INTRODUCTION : De la Valeur à l’Utilité et à la critique de l’Utilité Espérée

 

La quête de rationalité recelée par les comportements humains, la recherche de normes de conduite devant l’appréciation de l’incertain, de l’aléatoire, ou du différé, comme la passion de rendre compte des comportements collectifs n’ont pu manquer de placer dès l’origine l’introspection et la psychologie positive au cœur des réflexions fondatrices de la Science Économique.

Science des échanges et des lois de de la coopération organisée entre les hommes, l’Économie soulève d’abord en effet, implicitement ou explicitement, la question du processus de la formation ou de la perception de la « Valeur » au sein d’un groupe humain, notion centrale, seule à même de saisir la finalité des comportements.

 

Depuis la publication du célèbre essai de Pierre Nicole La Logique ou l’Art de Penser, les mathématiciens et philosophes du XVIIème (Pascal, Fermat, Huyghens, Jacob Bernoulli…) avaient fait émerger peu à peu à partir de la notion de fréquence, le concept de Probabilité, puis celui d’Espérance mathématique et de « Valeur » d’un jeu de hasard. On sait comment, de Jacob Bernouilli à Karl Friedrich Gauss et Pierre Simon Laplace, du XVIIIème au XIXème siècle, cette démarche débouchera sur la découverte fondamentale de la Loi Normale des écarts ou Loi des grands nombres qui bouleversera définitivement le champ des Sciences.

 

Les travaux des philosophes utilitaristes anglais et écossais du XVIIIème siècle (Hume, Bentham…), avaient ouvert la voie à l’émergence de la notion d’Utilité économique, approche rationnelle et opérationnelle de la notion de Valeur économique, qui fut largement explorée au XIXème siècle par les marginalistes anglo-saxons et autrichiens (Stanley Jevons, Francis Edgeworth, Böhm-Bawerk, Von Wieser…), et fut surtout généralisée et systématisée par le Professeur de Lausanne, Vilfredo Pareto.

 

Or, dans le prolongement des réflexions sur la notion de conduite rationnelle face à l’incertain, à la suite des réflexions des « Lumières » et des mathématiciens du XVIIIème siècle (d’Alembert, Montmort, Nicolas et Daniel Bernoulli…), Daniel Bernoulli avait dû introduire, dès 1763, la notion d’Espérance morale (adoptée et généralisée au XIXème siècle par Pierre Simon Laplace) pour lever le Paradoxe de Saint Petersbourg, en proposant une règle de décision rationnelle pour le cas d’un jeu de pile ou face à l’Espérance mathématique théoriquement infinie, par la prise en compte de la fortune totale du joueur.

 

La rationalisation de la décision économique face au risque et à l’incertain procédait ainsi de la rencontre, devenue naturelle et inévitable, entre ces notions d’Utilité et d’Espérance morale : les travaux de John Von Neumann, l’inventeur de la Recherche Opérationnelle appliquée aux opérations navales du second conflit mondial, associé à Oskar Morgenstern, avaient en effet, dès avant les années 1950, étendu la théorie des jeux à l’Économie. Et, dans la ligne de ces réflexions, ce sera spécifiquement l’objet des essais de l’École américaine du début des années 50, avec M. Friedman, P. Samuelson, L. Savage, J. Marschak, que de tenter de fonder et de théoriser la notion d’Utilité Espérée.

 

 

LA RÉFUTATION PAR LA PSYCHOLOGIE EXPÉRIMENTALE : l’« Allais’ Paradox » (1952)

 

En France, le jeune Maurice Allais, ancien élève de l’École Polytechnique venait tout juste de publier son magistral « Économie et Intérêt » {3}, où il se montrait le disciple résolu de Vilfredo Pareto. Issu du corps de Ingénieurs de Mines, il avait déjà publié en 1943 un ouvrage de plus de 1.500 pages « À la Recherche d’une Discipline Économique », lequel, d’emblée, l’avait propulsé parmi les plus grands noms de l’économie de l’époque, et lui vaudra, 45 ans plus tard, à l’âge de 77 ans, d’être, enfin, le premier Français distingué par le Prix Nobel d’Économie. C’est alors que notre jeune économiste devait intervenir de manière décisive dans le débat sur l’Utilité Espérée ouvert par l’École américaine, en organisant à Paris en 1952 un colloque du CNRS sur le Risque, et en obtenant les participations de Paul Samuelson, de Milton Friedman, de Jacob Marschak, de Léonard Savage, de Bruno de Finetti, entr’autres.

 

Dédaignant en effet les délices et subtilités des appareils mathématiques, Maurice Allais porta alors d’emblée la réflexion au cœur de l’axiomatique, explicite ou implicite, qui fondait la théorie de l’Utilité Espérée proposée par l’École américaine, pour la réfuter victorieusement en mettant en évidence, à l’épreuve de l’expérience, son caractère artificiel et arbitraire, voire même, dans certaines configurations, entièrement contraire à la psychologie humaine effective {4} et {5}.

 

De fait, cherchant toujours, dans sa volonté de pragmatisme, à faire prévaloir les faits d’expérience face aux théoriciens anglo-saxons, Maurice Allais conçoit, à l’occasion de ce colloque ainsi devenu historique, des batteries de loteries simples ou conditionnelles, aux espérances mathématiquement équivalentes, auxquelles il soumet ses collègues présents au Congrès. Ce sont ces loteries, restées célèbres depuis lors, qui ont révélé expérimentalement des comportements psychologiques échappant systématiquement à l’axiomatique néo-Bernoullienne poposée par l’École Anglo-saxonne.

 

À peine la théorie de l’Utilité Espérée venait elle d’être considérée comme fermement établie par l’Establishment de la Science économique, que le désormais fameux « Allais’ Paradox » la ruinait en effet, en faisant apparaître que, contrairement à cette théorie, les comportements réels s’avéraient systématiquement déviés par un facteur psychologique proche de la préférence pour la sécurité au voisinage de la certitude {6}.

 

Cet effet, connu et enseigné depuis 50 ans outre-Atlantique, bien que toujours largement ignoré en France, hormis des initiés, a bouleversé depuis lors la théorie de la décision face au risque, et Maurice Allais en a déduit une généralisation au cas du Risque des conditions de l’Équilibre général, ainsi qu’une reformulation de son approche de l’efficacité économique maximale.

 

À 41 ans Maurice Allais venait ainsi, dès 1952, « de poser les bases d’un nouveau domaine de recherche » en introduisant les facteurs psychologiques dans l’analyse des décisions en incertitudes, et tout spécialement sous la forme de vérifications expérimentales, tant, malgré tout, force finit toujours par rester au vieil adage : Contra factum non valet argumentum !… {1}.

 

Mais notre économiste n’allait pas tarder à effectuer une nouvelle percée majeure dans le domaine de la psychologie collective expérimentale des sociétés, à l’intime des processus réels de l’économie.

 

 

LA PSYCHOLOGIE AU CŒUR DES PHÉNOMÈNES MONÉTAIRES :
La reformulation Héréditaire, Relativiste et Logistique (HRL) de la théorie quantitative {9} à {10bis}.

 

Depuis 1952 la méditation sur les lois psychologiques sous-jacentes aux notions de Valeur et d’Utilité économiques ne devait plus quitter les réflexions de notre économiste, singulièrement à propos des thèmes concernant la théorie du Capital, la théorie de l’Intérêt, et bien sûr, la théorie de la Dynamique monétaire.

 

On sait que, pour ce qui est de la monnaie, les diverses écoles économiques se sont distinguées à partir de leurs interprétations divergentes de l’équation comptable de base de la théorie quantitative de la monnaie :

MV = PQ = D

 

Cette équation en effet n’exprime qu’une simple identité comptable, à savoir qu’au cours d’une période de temps donnée, la masse M des signes monétaires immédiatement mobilisables (et mobilisés) pour réaliser une transaction, multiplié par la vitesse moyenne V de circulation de l’unité monétaire (qui est aussi l’inverse de la durée moyenne T, entre la recette et la dépense, de rétention d’une unité monétaire) n’est autre que l’ensemble des transactions Q réalisées au cours de la période, valorisées aux prix P obtenus correspondants, volume financier QP qui représente également la Dépense globale D réalisée au cours de la période.

 

Les série statistiques économiques et monétaires disponibles fournissent des évaluations régulières de la masse monétaire en circulation M(t), ainsi que des taux de croissance annuels, trimestriels ou mensuels p(t) et q(t) de l’indice des prix et de la production : p = dP/Pdt et q = dQ/Qdt.

 

Les données statistiques disponibles présentent aussi ordinairement les séries historiques des revenus nationaux R(t) dont le taux d’expansion dR/Rdt peut être assimilé à celui de la dépense globale D(t) :

dR/Rdt = dD/Ddt

 

Les annuaires statistiques fournissent donc les taux de croissance du Revenu national R(t), tels que :

dR/Rdt = x(t) = dD/Ddt = p(t) + q(t)

 

Au cours des hyperinflations historiques, la production reste quasiment constante (q ~ 0), tandis que les prix s’envolent, et par conséquent, au cours de ces périodes le taux de croissance de la dépense globale D(t) est pratiquement équivalent à celui des prix : x(t) ~ p(t).

 

Par ailleurs, dans la pratique, les comportements psychologiques des agents économiques face à la monnaie les conduisent à désirer détenir à l’instant t un certain volume d’Encaisses monétaires, ou Encaisses désirées, en vue de réaliser leurs transactions, c’est à dire à formuler une Demande de Monnaie MD(t) peu différente de la monnaie effectivement disponible, M(t) :      MD(t) ~ M(t)

 

Dès 1953, Maurice Allais s’emploie à construire un modèle explicatif de cette demande de monnaie MD(t), qui puisse être corroboré par la confrontation avec les séries statistiques disponibles {7} et {8}.

 

Pour cela il est d’emblée amené à chercher à expliquer l’Encaisse Désirée Relative de monnaie, ou proportion ΦD(t) de la Dépense globale D(t) que les agents désirent détenir sous forme de monnaie :

MD  =  D   (ΦD>0)

 

Maurice Allais commence en effet par constater que cette variable ΦD qui constitue aussi l’inverse de la vitesse désirée de circulation VD de l’unité monétaire, ou encore la durée moyenne désirée TD de rétention de l’unité monétaire entre recettes et dépenses, n’est autre que la variable d’ajustement qui traduit la psychologie collective devant le signe monétaire du groupe confronté à la réalité de la dépense globale D(t) du moment.

C’est donc cette psychologie collective qu’il s’agit de déchiffrer.

 

Pour ce faire, il constate ensuite que seule la dépense globale D(t) du moment constitue la contrainte objective, l’invariant psychologique sur lequel seront ancrées les appréciations collectives de la situation face à la monnaie, et que ces appréciations psychologiques ne pourront ainsi manquer d’être directement tributaires du taux d’expansion x de cette dépense globale : 

x = dD/Ddt

 

Mais l’intuition première qui ne cessera depuis les années 50 de guider Maurice Allais, et qu’il ne cessera de confronter avec les séries statistiques de l’histoire monétaire des XIXème et XXème siècles, consistera à considérer que cette attitude psychologique collective ne peut que procéder d’un effet de mémoire collective, consciente ou inconsciente, des expériences passées de la société face aux taux de variation x de cette même dépense globale D : c’est l’approche « Héréditaire » de la dynamique monétaire {7b} et {8b}.

 

L’approche Héréditaire de la dynamique monétaire.

Cherchant à synthétiser le plus directement possible cet effet de mémoire collective des taux passés d’expansion de la Dépense globale, Allais construit un indicateur Z(t) — qu’il baptise « Coefficient d’expansion psychologique » basé sur la somme, jusqu’à l’instant t, des taux d’expansion passés x(t), déflatés par une fonction d’oubli de taux d’oubli instantané χ(t) qui pondère en fonction exponentielle de leur fraîcheur l’effet actuel du souvenir de ces taux passés sur l’attitude psychologique présente de la collectivité face à la monnaie.

 

Cette définition héréditaire du Coefficient d’expansion psychologique Z(t) conduit à l’équation différentielle qui traduit son caractère héréditaire, en exprimant que son accroissement instantané dZ n’est autre que l’accroissement relatif x(t)dt de la dépense globale D(t) diminué de l’oubli χ(t)Z(t)dt de Z(t), ce qui s’écrit :

dZ = (x – χZ)dt                  (1 : Équation Héréditaire) (3)

 

Le cas très particulier et tout théorique de la dynamique monétaire stationnaire, c’est à dire le cas où la Dépense globale D(t) ne dépend plus du temps, c’est à dire encore le cas où les taux d’expansion x restent toujours nuls, ne peut bien sûr manquer de constituer le terme de référence des distorsions de la psychologie collective face à la monnaie, qu’Allais cherche à modéliser, puisque ces dernières ont alors disparu, et que le « Coefficient d’expansion psychologique » Z s’est alors, évidemment, annulé lui aussi : Z0 = 0.

 

Il notera ainsi Φl’Encaisse Désirée Relative de monnaie constante, qui n’est autre que la durée moyenne désirée constante T0 de rétention de l’unité monétaire entre recettes et dépenses, adoptée par la collectivité dans ce cas du régime monétaire stationnaire, terme de référence des distorsions de la psychologie collective ; et de même il notera χ0 la valeur, alors constante elle aussi, du taux d’oubli instantané χ(t) de la fonction d’oubli de la collectivité ainsi placée dans un tel environnement monétaire stationnaire.

 

Il ressort dès lors de cette démarche, qu’à tout moment t, les rapports ΦD(t)0 (= TD(t)/T0) ou encore χ0/χ(t), ne traduisent plus que les seules distorsions psychologiques héréditaires pures de la collectivité face à la monnaie, et que par suite, ils ne constituent plus que des fonctions psychologiques pures du seul Coefficient d’expansion psychologique héréditaire Z(t) à l’instant t.

 

La dimension Relativiste de la dynamique monétaire

Maurice Allais complète alors {9b} et {10} son approche Héréditaire des phénomènes monétaires par une hypothèse Relativiste portant sur l’existence d’une échelle de temps psychologique collectif (t’).

Partant en effet du constat que

« sur le plan économique l’échelle du temps ne peut être évidemment la même pour les opérateurs exerçant au cours d’une période de stabilité des prix, et pour ceux qui doivent décider lors d’une période où les prix changent d’heure en heure, comme ce fut le cas au cours de l’hyperinflation allemande de 1923 » {10b},

il en conclut qu’il doit donc exister une échelle de temps de la psychologie collective (t’), propre aux phénomènes monétaires, qui peut être définie, par rapport au temps physique ou historique (t) en formulant l’hypothèse Relativiste de la constance de l’oubli par unité de temps psychologique t’.

Ainsi cette hypothèse naturelle de la Relativité du temps (t’) de la psychologie collective s’exprime par la relation :

χ(t)dt = χ0dt’, ou dt’ = [χ(t)/χ0]dt,

qui conduit à l’invariance dans le temps des produits :

χ(t)TD(t) = χ0T0    ou encore    χ(t)ΦD(t) = χ0Φ0.

 

L’hypothèse Relativiste de Maurice Allais revient donc à admettre à tout moment t la proportionnalité de la vitesse de circulation de l’Encaisse désirée VD(t) avec le taux d’oubli instantané χ(t), et dès lors la formulation Héréditaire et Relativiste de la théorie quantitative de la monnaie conduit à écrire à tout instant t :

ΦD0 = χ0/χ = Ψ(Z) = TD/T0     avec    Ψ0 = Ψ(0) = 1            (2 : Équation Relativiste)

 

La durée moyenne désirée TD de rétention de l’unité monétaire entre recettes et dépenses se réduisant lorsque l’expansion s’accélère, la fonction psychologique héréditaire et relativiste Ψ(Z), ne peut être qu’une fonction monotone décroissante en Z.

 

Le caractère Logistique de la dynamique monétaire

Enfin, pour achever de spécifier sa modélisation de l’attitude psychologique collective de la société face à la monnaie, Maurice Allais formule la troisième hypothèse fondamentale de son approche, l’hypothèse de l’effet psychologique Logistique sur l’Encaisse désirée relative {9c}{10d} et {10bis.b}, en postulant que le taux d’expansion de l’Encaisse Désirée Relative : DDdt = dΨ/Ψdt  correspond à l’accroissement instantané du Coefficient d’expansion psychologique dZ/dt, multiplié par un facteur proportionnel à l’écart relatif entre cette Encaisse désirée relative et son maximum, supposé déterminé et fini. Cette hypothèse, qui exprime un effet de saturation de la fonction de distorsion psychologique Ψ(Z) pour les valeurs extrêmes de l’indicateur psychologique Z, conduit à écrire pour cette fonction psychologique Ψ(Z) l’équation suivante :

DDdt = dΨ/Ψdt = – α[M – Ψ)/ΨM]dZ/dt  où  0<Ψ<ΨM        (3 : Équation Logistique)

 

dont la solution Ψ(Z) est la fonction logistique à deux paramètres (α > 0, b > 0) en Z :

Ψ(Z) = (1 + b)/[1 + beαZ]    où    ΨM  = (1 + b)

 

Maurice Allais confronte alors {10c} son modèle HRL, dépendant a priori de trois paramètres positifs α, b, et χ0, et construit autour des trois équations qui expriment le plus naturellement possible les trois hypothèses qui fondent son approche Héréditaire, Relativiste et Logistique de la psychologie collective face à la monnaie, avec les données historiques de quinze séries temporelles réelles des XIXème et XXème siècles concernant la France, les États-Unis et la Grande-Bretagne, ainsi que les sept hyperinflations suivantes observées sous des régimes fort différents :

  • Allemagne (1919-23),
  • Autriche (1921-22),
  • Grèce (1941-44),
  • Hongrie I (1921-24),
  • Hongrie II (1945-46),
  • Pologne (1921-24),
  • URSS (1922-24).

 

La confrontation systématique de son modèle HRL, dépendant des trois paramètres positifs α, b, et χ0, avec toutes les valeurs disponibles des données historiques réelles, conduit Maurice Allais à adopter la forme la plus simple possible pour la fonction logistique Ψ(Z), en conférant du même coup un statut universel dans le temps et dans l’espace à la relation entre les encaisses désirées relatives ΦD(Z) et le coefficient d’expansion psychologique Zc’est-à-dire en énonçant une sorte de loi universelle de la psychologie collective des sociétés humaines — par l’énoncé de trois nouveaux postulats qui déterminent les valeurs universelles de ces trois paramètres positifs α, b, et χ0.

 

Postulat asymptotique

Maurice Allais énonce d’abord son postulat asymptotique : pour les très grandes valeurs de Z, et donc lorsque la fonction logistique Ψ(Z) devient très faible, comme du reste la durée moyenne désirée TD de rétention de l’unité monétaire qui lui est proportionnelle, situation caractéristique de la fin des hyperinflations, pour lesquelles l’effet héréditaire disparaît dans les comportements, seul comptant alors la situation de l’heure, le taux d’accroissement de l’encaisse désirée DDdt (= dΨ/Ψdt) en vient à prendre une valeur postulée directement équivalente à l’opposé de l’accroissement instantané du coefficient d’expansion psychologique ( –dZ/dt).

Compte tenu de l’équation logistique 3, ce postulat fixe à l’unité la valeur du paramètre α : α = 1

 

Postulat de symétrie psychologique conjoncturelle autour de la stationnarité

Il poursuit par l’énoncé de son postulat de symétrie psychologique conjoncturelle : autour de la stabilité, pour laquelle le coefficient d’expansion psychologique est nul (Z = 0), l’intensité du comportement différentiel des opérateurs est postulée être identique pour les accroissements, comme pour les réductions, dZ du coefficient d’expansion psychologique, ce qui entraîne que la dérivée dΨ/dZ soit une fonction paire de Z au voisinage de Z = 0 (état stationnaire).

Ce postulat exige la valeur unité pour le paramètre b : b = 1 , le point Z = 0 et Ψ(0) = 1 , caractérisant l’état stationnaire, devenant dès lors le centre de symétrie de l’unique Loi logistique universelle décroissante Ψ(Z) qui traduit la distorsion psychologique collective déterminant dans toutes les sociétés humaines l’encaisse désirée relative en fonction du coefficient d’expansion psychologique Z :

Ψ(Z) = 2/[1 + eZ]  donc :  Ψ<2  (4 : Loi logistique universelle de distorsion psychologique)

 

Postulat de symétrie psychologique temporelle générale

Enfin Maurice Allais, propose son dernier postulat, qui élargit encore la portée de son approche HRL de la psychologie collective des sociétés, en énonçant son postulat de symétrie psychologique temporelle générale : les opérateurs économiques sont supposés tenir compte du passé dans leurs décisions comme il tiennent compte de l’avenir, postulat qui identifie le taux d’oubli instantané χ(t) au taux d’intérêt psychologique instantané i(t) :

χ(t) ≡ i(t) .

 

En conséquence, à partir des données financières de bonnes qualités portant sur la période 1880-1956 aux États-Unis, Maurice Allais établit une première évaluation de la valeur i0 = χ0 à environ 5% par an, ou 0,004 par mois (4), correspondant à la valeur universelle du taux d’intérêt psychologique instantané ou du taux d’oubli instantané en période de stabilité (Z = 0).

 

Du reste, une telle valeur du taux instantané d’oubli lors d’un régime monétaire stationnaire χ0, donc en l’absence de distorsion psychologique (Z = 0), de 0,004 par mois, correspond à un taux d’oubli quasi-total de la part des acteurs économiques (d’environ 99%) de la situation prévalant un siècle auparavant, soit une disparition totale de la mémoire collective au bout d’une période couvrant trois générations.

En fait la période moyenne θ0, dont la société tient habituellement compte (5) en pratique, consciemment ou non, dans ses décisions en l’absence de distorsions psychologiques (Z0 = 0), couvre environ les 20 dernières années (= 1/χ0) pour un taux d’intérêt ou d’oubli à l’équilibre i0 = χ0 = 0,004 par mois, soit environ 5% par an.

 

Mais la logistique universelle Ψ précise aussi alors que les taux psychologiques χ(t) ≡ i(t) ne peuvent être inférieurs à i0/2, soit à 0,002 par mois, c’est à dire que les taux d’intérêt psychologique instantanés restent supérieurs à 2,5% l’an, ce qui entraîne que la période prise compte en pratique par les collectivités humaines, pour le futur comme pour le passé, ne saurait en fait excéder 40 ans.

 

Cet horizon psychologique maximum correspond, aujourd’hui en France, à l’espérance de vie d’un homme de 36 à 37 ans, et d’une femme de 40 à 41 ans.

 

L’approche HRL de Maurice Allais propose ainsi — par l’énoncé de ses trois derniers postulats — de reconnaître un même modèle permanent et universel de psychologie collective à l’œuvre derrière les comportements historiques des sociétés humaines face à la monnaie réellement observés.

 

Ce modèle universel est alors synthétisé, par la loi logistique de distorsions psychologiques (équations n°4 et 3) d’une part, et par la loi héréditaire (équation n°1) d’autre part, qui est ainsi devenue :

dZ/dt = x(t) – 0.002[1 + eZ]Z

 

avec (en raison de l’équation relativiste 2 et de la fonction psychologique universelle 4) :

ΦD = Φ0Ψ(Z) = 2Φ0/[1 + eZ]

 

Les valeurs des masses monétaires (comme celles des autres éléments de la dynamique monétaire, tels les vitesses de circulation, les taux de croissance du revenu national, ou les mouvements des taux d’intérêt…) calculées selon ce modèle HRL universel, proposé par Maurice Allais, s’avèrent {2} étonnamment proches des valeurs des séries temporelles des masses monétaires réelles publiées dans les annuaires des XIXème et XXème siècles des différents pays, une fois estimées les valeurs Φ0 correspondantes, et une fois calées les valeurs initiales Z1 du coefficient Z, de telle sorte que soient pour chaque série rendues minimum les sommes des carrés des différences entre les logarithmes des valeurs calculées M* et ceux des valeurs réelles correspondantes des séries M réelles.

 

Or, une fois estimées pour chaque série les deux valeurs optimum de Φ0  et ZI, le calcul de la série des valeurs M*(t), à partir des séries réelles des revenus nationaux R(t) des annuaires (ou des P(t) dans le cas des hyperinflations pour lesquelles on ne dispose plus des séries R(t)), demeure totalement indépendant des séries des masses monétaires réelles M(t). Les processus d’ajustements du modèle HRL universel de Maurice Allais aux séries monétaires historiques réelles ne recèlent donc aucune circularité, et les coïncidences extraordinaires entre les séries calculées par le modèle universel HRL et les séries historiques réelles ne peuvent que contraindre tout esprit scientifique de bonne foi à s’interroger sur la réalité et l’universalité du phénomène de psychologie collective que ce modèle HRL de Maurice Allais met ainsi en lumière, comme l’illustre l’échantillon des deux graphiques joints en annexe.

 

Les coïncidences des séries calculées par l’approche HRL, à partir de l’estimation des deux seuls paramètres Φ0  et ZI, avec les séries temporelles historiques apparaissent en effet d’autant plus spectaculaires, si l’on considère que les plages des valeurs des séries réelles peuvent être d’ordres de grandeur très divers : ainsi, sur la période 1918-1941, l’indice du revenu national des États-Unis a évolué entre les valeurs 1,68 et 2,84 , alors que l’indice des prix a varié de 15 à 1,09.109 de décembre 1919 à octobre 1923 au cours de l’hyperinflation allemande, et même de 105 à 4.1029 (chiffre astronomique) de juillet 1945 à juillet 1946, au cours de celle de Hongrie.

 

Ces résultats démontrent que les sociétés, placées dans des contextes très divers, en situations courantes ou plongées dans l’hyperinflation, sous régimes capitalistes ou communistes, se comportent de la même façon, aujourd’hui comme par le passé, face à la monnaie, ce qui souligne bien l’existence de structures, invariantes dans l’espace et dans le temps, de la psychologie collective des sociétés face aux signes monétaires.

 

Vilfredo Pareto avait déjà du reste fait apparaître de telles structures permanentes de la psychologie collective en énonçant sa célèbre loi de répartition des revenus dans les sociétés.

 

 

VERS UNE THÉORIE GÉNÉRALE DE L’ACTUALISATION : Au cœur de la psychologie des comportements économiques  {11}{12}{13}{14} et {15}.

 

L’identité formelle de l’expression mathématique de l’hypothèse Héréditaire (équation 1) de son approche, avec celle de la valeur actuelle capitalisée V(t) d’un flux de revenus instantanés futurs r(t), lorsque l’on inverse le sens du temps, dt devenant –dt , invitait par ailleurs Maurice Allais à énoncer son postulat de symétrie psychologique temporelle générale, assimilant le taux d’oubli instantané χ au taux d’intérêt psychologique instantané i .

 

Pour le vérifier aisément, il suffit en effet d’exprimer que l’accroissement instantané dV de cette valeur actuelle capitalisée n’est autre que l’excès de l’intérêt instantané au taux i(t) produit par cette valeur actuelle capitalisée i(t)V(t)dt sur le revenu non capitalisé instantané r(t)dt attendu, ce qui s’écrit :

dV = (iV – r)dt   soit   dV = (r – iV)dτ   si τ = -t   (1’ : Équation d’actualisation)

 

En identifiant ainsi le taux d’intérêt i(t) au taux d’oubli χ(t), distordu par les effets de la valeur Z(t) prise par le coefficient d’expansion psychologique de la collectivité, Maurice Allais pose les fondements d’une théorie générale de l’actualisation psychologique du passé ou de l’avenir au sein des sociétés, c’est à dire d’une théorie temporelle de la valeur, encore à expliciter entièrement.

 

En dévoilant la nature psychologique profonde de l’intérêt, il refonde la théorie de l’intérêt qui n’est plus ontologiquement réduit à la seule valeur d’équilibre du marché de l’épargne, comme l’affirmait John Maynard Keynes.

Bien au contraire, Maurice Allais la renouvelle entièrement {12b} en soulignant que ce sont précisément les écarts des valeurs du taux d’intérêt psychologique instantané, lequel fonde la perception collective de l’intérêt, avec celles des taux d’intérêt observés sur les marchés financiers de court et de long termes, qui jouent un rôle dynamique, dès lors explicitable, dans l’évolution de ces marchés, et donc de l’économie.

 

Ce faisant, Maurice Allais refonde, sur l’expérience des séries temporelles historiques, l’intuition de Ludwig Von Mises qui soutenait que

« l’intérêt n’est pas d’abord le prix payé pour la disposition du capital, mais qu’à l’inverse, c’est le phénomène psychologique qui génère l’intérêt qui explique pourquoi des méthodes de production moins consommatrices en temps sont mises en œuvre en dépit du fait que des méthodes plus consommatrices en temps de travail pourraient être d’un meilleur rendement..(..)..L’intérêt n’est pas plus le moteur de l’épargne, qu’il n’est la récompense ou la compensation pour une consommation différée, c’est le rapport d’appréciation des biens futurs en termes de biens actuels. Le marché des capitaux ne détermine pas le taux d’intérêt : il ajuste seulement le taux d’intérêt des prêts au taux originaire d’appréciation des biens futurs en termes de biens actuels » {12c}.

 

C’est donc, pour Maurice Allais, comme pour Ludwig Von Mises, le processus psychologique collectif de l’actualisation qui fonde en réalité l’intérêt, et non l’inverse.

 

Du reste, coefficient d’expansion psychologique Z, qui peut être aisément calculé à tout instant dans une économie, fournit une mesure de l’appréciation collective de la conjoncture.

 

Il est donc certain que le calcul systématique de cet indice dans tous les pays développés, apporterait un très grand progrès dans les analyses, comme dans les prévisions économiques, et serait d’un grand secours pour les autorités dans leur définition des politiques appropriées.

 

Ainsi par exemple, les écarts entre les séries des volumes M observés et M* calculés par le modèle HRL de la masse monétaire, reflètent les écarts entre les encaisses détenues M et désirées MD.

Or cet écart (M – M*) = (M – MD), qu’Allais appelle le « gap » joue un rôle décisif, inflationniste ou déflationniste, dans la dynamique monétaire, car il demeure, en première approximation proportionnel, à l’accroissement instantané de la dépense globale D(t) :

dD = λ(M – M*)dt  [10, p.144].

 

La détermination systématique de ce « gap » est donc susceptible d’éclairer très utilement les décisions des banques centrales, dans leurs politiques monétaires.

 

Par ailleurs, l’approche HRL de la dynamique monétaire de Maurice Allais peut être appliquée au marché d’un bien quelconque, et en particulier aux marchés boursiers et financiers. Les trois principales hypothèses, héréditaires, relativistes et logistiques de cette approche sont en effet aisément transposables à de telles études, en calculant des indices d’expansion psychologique convenables pour les marchés étudiés.

 

Quoique l’on puisse penser par ailleurs du « pouvoir d’explication » des phénomènes monétaires qu’apporte l’approche HRL de Maurice Allais, le fait demeure que cette approche met bel et bien en lumière des permanences numériques extraordinaires recelées par les séries statistiques monétaires réellement observées et publiées, et que le temps finira bientôt certainement par venir, en dépit de l’opiniâtreté des résistances, où, pour mener leurs analyses, les économistes entreprendront aussi couramment des calculs d’effets de mémoire que des calculs classiques d’actualisation {15c}.

 

 

L’HÉRITAGE ACTUEL DE L’« ALLAIS PARADOX » DANS LE CHAMP DE LA SCIENCE ÉCONOMIQUE : Daniel Kahneman, Prix Nobel 2002.

 

Si l’approche HRL de Maurice Allais — en dépit de son efficience éclatante face aux données observées, et bien que fort bien connue de ses pairs — n’a toujours pas, depuis près de quarante ans, rencontré la reconnaissance officielle qu’elle mérite, ses travaux sur les facteurs psychologiques collectifs des comportements économiques, ont en revanche — singulièrement depuis que l’« Allais paradox » est régulièrement enseigné dans les universités anglo-saxonnes — fécondé les recherches des économistes anglophones.

 

C’est ainsi qu’en 2002, l’Académie Royale de Suède a distingué l’œuvre du Professeur de Princeton et de l’Université de Jérusalem Daniel Kahneman

« pour avoir intégré dans les sciences économiques des aperçus provenant du champ de la recherche en psychologie, tout spécialement en ce qui concerne la formation du jugement humain et la prise de décision dans un environnement incertain »

en lui décernant le Prix Nobel de Sciences Économiques particulièrement pour la théorie des perspectives, base de la finance comportementale, ce prix étant partagé cette année là avec le Professeur Vernon L. Smith de l’Université George Mason de Virginie.

 

Par ses travaux menés depuis la fin des années 70 avec Amos Tversky et d’autre psychologues, le Professeur de Princeton a en effet développé l’économie comportementale (Behavioral Economics) et a apporté des prolongements à la théorie des jugements et des décisions en univers incertain.

 

Comme le souligne l’analyse de ses apports publiée par la Revue d’Économie Politique (6), la théorie des perspectives s’inscrit comme une théorie subjective de l’Utilité Espérée, en tentant de renouveler le débat sur le sujet de l’Utilité Espérée après la réfutation expérimentale de l’axiomatique initiale de cette théorie révélée par l’ Allais’ Paradox.

 

 

CONCLUSION : La malfaisance cynique et désinvolte d’un silence consensuel.

 

Voici en effet plus de quarante ans que Maurice Allais a publié, à 55 ans, son modèle HRL universel de psychologie collective face à la monnaie qui a révolutionné la dynamique monétaire {9d}{10e} et {10bis.c}.

 

Voici plus de trois décennies qu’il n’a cessé de publier régulièrement des articles sur le sujet dans les grandes revues de l’establishment anglo-saxon de la Science économique, en ayant, dans leurs colonnes, toujours fourni tous éclaircissements demandés, et répondu publiquement, et chaque fois victorieusement, aux critiques dont il a pu être l’objet de la part de ses collègues les plus éminents… En vain, semblerait-il ?

 

Car depuis plus de 40 ans aucune reconnaissance publique de la percée HRL, décisive dans l’analyse des mécanismes de la psychologie collective des sociétés devant la monnaie, ne lui a été rendue à ce jour par la communauté des économistes.

 

À la faveur de ce silence convenu, l’approche HRL de Maurice Allais est désormais couramment, mais clandestinement, mise en œuvre par les bureaux d’analyse des banques centrales des grands pays, par ceux des grandes compagnies d’assurances, comme par les grands cabinets qui interviennent sur les marchés financiers.

 

Maintenir un silence officiel sur l’approche HRL de Maurice Allais, offre ainsi l’avantage de conserver ces clés incomparables d’analyses des marchés monétaires et financiers hors du champ des études universitaires, et donc d’en conserver le monopole en les confisquant à l’usage exclusif de clubs d’initiés. On peut comprendre tout l’intérêt d’une telle discrétion.

 

Mais, bien mieux encore, le silence de la communauté des économistes se prolongeant sur le sujet, en France, comme à l’étranger, il arrive même à présent que l’on puisse lire, dans les colonnes des grandes revues d’Économie, des analyses où l’auteur en vient à s’approprier cyniquement tel ou tel point fort et original de l’approche HRL de Maurice Allais, sans aucune référence sur l’origine de son inspiration… Est-ce ainsi désormais que carrières et réputations devraient donc se construire ?

 

Aujourd’hui en 2009, Maurice Allais, qui s’astreint à pratiquer encore la natation et l’exercice quotidien, demeurant ainsi dans une santé enviable, s’acharne à poursuivre la publication de son œuvre (7) — dans l’indifférence, semble-t-il, de ses collègues français et étrangers — à raison d’un livre de près d’un millier de pages tous les deux ou trois ans.

Il va aujourd’hui sur ses 98 ans, et les dernières tables de mortalité du moment en France publiées par l’INSEE ne lui accordent plus qu’une espérance de vie de l’ordre de 3 ans à peine…

 

Décidément, l’establishment scientifique de l’économie semblerait être devenu autiste à propos de Maurice Allais, ou serait-ce que, plus encore que d’autres milieux professionnels (8), il serait devenu désormais parfaitement indifférent au scandale ?

 

Il est vrai que les hommes exceptionnels ont toujours beaucoup dérangé….

 

Philippe Bourcier de Carbon,
président de l’AIRAMA

 

 

 

 

image001 image002

 

Pour en savoir plus, références bibliographiques

 

               {1} Maurice Allais : Site internet « Maurice Allais » : http://allais.maurice.free.fr

               {2} Maurice Allais : « Fondements de la dynamique monétaire. », 1.302 pages, Clément Juglar, Paris, mai 2001

               {3} Maurice Allais : « Économie et Intérêt. », première édition : 2 volumes, 800 pages Imprimerie Nationale, Paris, 1947, deuxième édition avec une Introduction (pp. 19-265), ainsi que des Appréciations (111 pages), Clément Juglar, Paris, 1998.

               {4} Maurice Allais : « Le comportement de l’Homme Rationnel devant le Risque. Critique des Postulats et Axiomes de l’École Américaine. », Économetrica, octobre 1953, pp.503-546.

               {5} Maurice Allais : « La Psychologie de l’Homme Rationnel devant le Risque. La Théorie et l’Expérience (sondage sur la psychologie du risque. », Journal de la Société de Statistiques de Paris, janvier-mars 1953, pp. 47-73.

               {6} Maurice Allais : « Expected Utility Hypothesis and the Allais Paradox ; Contemporary Discussions of Decisions under Uncertainty with Allais’ Rejoinder. », Maurice Allais and Ole Hagen Editors, Reidel Publishing Company, DordRecht, 1979, 714 pages.

               {7}{7b} Maurice Allais : « Illustration de la Théorie des Cycles Economiques par des Modèles Monétaires non Linéaires. », Communication au Congrès Européen de la Société d’Économétrie, Innsbrück 1953. Résumé publié dans Économetrica, janvier 1954, pp. 116-120.

               {8}{8b} Maurice Allais : « Explication des Cycles Économiques par un Modèle Monétaire non Linéaire à Régulation Retardée. », Mémoire présenté au Congrès Européen de la Société d’Économétrie, Uppsala 1954. Metroéconomica, volume VIII, avril 1956, Fascicule 1, pp. 4-83.

               {9}{9b}{9c}{9d} Maurice Allais : « Des Effets Héréditaires et de la Relativité du Temps dans les Sciences Sociales. Application à la Théorie des phénomènes Monétaires. », Mémoire remis au Centre National de la Recherche Scientifique, Paris, 31 décembre 1963, 1.300 pages.

               {10}{10b}{10c}{10d}{10e} Maurice Allais : « Reformulation de la Théorie Quantitative de la Monnaie. », SEDEIS, Paris, septembre 1965, 186 pages.

               {10bis}{10bis.b}{10bis.c} Maurice Allais : « A Restatement of the Quantity Theory of Money. », American Economic Review, Vol. LIV, n°5 Décembre 1966, pp. 1123-1256.

               {11} Maurice Allais : « Forgetfulness and Interest. », Journal of Money, Credit and Banking, février 1972, pp. 40-71.

               {12}{12b}{12c} Maurice Allais : « The Psychological Rate of Interest. », Journal of Money, Credit and Banking, août 1974, pp. 285-331.

               {13} Maurice Allais : « La Formulation Héréditaire et Relativiste de la Demande de Monnaie et du Taux d’Intérêt. », Conférence et Séminaire des 5 et 6 mai 1980, Département d’Économétrie de l’Université de Genève, reproduits dans « Fondements de l’Analyse Monétaire et Conjoncturelle », V, pp. 105-177, Allais, ENSMP, Paris 1980.

               {14} Maurice Allais : « A New Empirical Approache of the Hereditary and Relativistic Theory of the Demand for Money. », in Articole in Memoria di Tullio Bagiotti, A. Agnati, D. Cantarelli, et A. Montesano, edit., Rivista Internazionale di Scienze Economiche e Commerciali, Oct.-Nov. 1985, n°10-11, pp. 905-948.

               {15}{15b}{15c} Maurice Allais : « The Empirical Approaches of the Hereditary and Relativistic Theory of the Demand for Money : Results, Interpretation, Criticisms, and Rejoinders. », Economia della Scelte Pubbliche, Journal of Public Finance and Public Choice (Fondazione Luigi Einaudi), 1986, pp. 3-83.

               {16} Philippe Bourcier de Carbon : « Maurice Allais, Prix Nobel d’Économie 1988 », Revue des Deux Mondes, janvier 1990, pp. 91-105.

               {17} Philippe Bourcier de Carbon : « Enjeux économiques, financiers et éthiques dans les sociétés modernes vieillissantes : Quelques pistes de réflexion« , Communication au Colloque Enjeux financiers et Éthique du 6 novembre 2002, CNAM, CNPF, CCEF, numéro spécial de Finance et Gestion, (à paraître), Paris, Mai 2003.

 

 

 

 

 

 


[1] Les numéros placés entre accolade { } renvoient aux références bibliographiques.

[2] Cf. {2}.

[3] Dont la solution est :   équation

[4] Exactement 4,87% : cf. Maurice Allais : « The Influence of the Capital Output Ratio on the Real National Income«  Économétrica, octobre 1962, p.714.

[5] Valeur moyenne pondérée du temps t, déflaté par un taux d’oubli instantané correspondant à 0,004 par mois.

[6] Christian Gollier, Denis J. Hilton, Eric Raufaste : “Daniel Kahneman et l’analyse de la décision face au risqué”, REP, 113 (3) mai-juin 2003.

[7] Une association internationale de personnalités scientifiques françaises et étrangères s’est du reste constituée pour l’aider dans cette tâche : l’AIRAMA Alliance Internationale pour la Reconnaissance des Apports de Maurice Allais en Physique et en Économie :

le site de Maurice Allais : http://allais.maurice.free.fr/

le site de présentation de l’AIRAMA et de ses objectifs : http://allais.maurice.free.fr/AIRAMA/Qui.htm

http://allais.maurice.free.fr/AIRAMA/objectifs.htm

[8] Maurice Allais, qui est aussi un très grand physicien — ce qui fait de lui un économiste toujours beaucoup plus soucieux des faits d’obsevation et des enseignements de l’expérience que de la théoriea, après des difficultés réellement bien étranges, obtenu finalement de l’Académie des Sciences la publication de trois Communications au CRAS dans le domaine de la Physique :

  • – Communication du 23 Janvier 1997 : « Des régularités très significatives dans les observations interférométriques de Dayton C. Miller 1925-1926« .
  • – Communication du 26 Avril 1999 : « Nouvelles régularités très significatives dans les observations interférométriques de Dayton C. Miller 1925-1926« .
  • – Communication du de Décembre 2000 : « L’origine des régularités constatées dans les observations interférométriques de Dayton C. Miller 1925-1926 : variations de température ou anisotropie de l’espace ?  » Dans cette communication, Maurice Allais réfute toutes les critiques qui ont pu être faites sur les travaux de Miller, depuis Shankland (1955) jusqu’à nos jours.

Parallèlement à la publication de ses trois communications exceptionnelles dans le Bulletin des Compte-rendus de l’Académie des Sciences, Maurice Allais a publié, aux Éditions Clément Juglar à Paris, en mars 1997, un ouvrage de physique de 757 pages, sous le titre « L’Anisotropie de l’espace : La nécessaire révision de certains postulats des théories contemporaines. Tome I les données de l’expérience », ouvrage qui DEVAIT susciter les commentaires, remarques ou critiques des professionnels de la Physique, mais qui – là encore – n’a rencontré depuis plus de dix ans qu’un silence convenu et hostile… Décidément… !