Auteur : Pierre Fuerxer

Comment l’écologie est utilisée comme prétexte à taxation

L’imposture écologique

D’un rêve humaniste à la vérité scientifique.

Une vraie question :

Nous savons tous que les ressources naturelles sont limitées. Les exemples ne manquent pas. Auprès de nous, les mines de charbon anglaises et les mines de fer lorraines ont été fermées après avoir contribué à l’économie européenne.

Nous savons également que des méthodes agricoles inappropriées ont  stérilisé les sols : cultures sur brûlis, déforestation excessive, abus de pesticides…

L’humanité ne fait-elle pas, depuis toujours, un usage excessif de ressources limitées, souvent non renouvelables ?

Aveuglée par le mirage d’un progrès sans fin, l’humanité ne devrait-elle pas se rendre compte de l’irresponsabilité de sa conduite ?

L’écologie, si elle correspond réellement au souci de préserver l’avenir de nos descendants, n’est-elle pas alors une nécessité impérieuse ? Ne doit-elle pas être la préoccupation de tous les responsables économiques ?

Peut-elle être instrumentée par des intérêts particuliers ou se satisfaire de réponses simplistes, ne prenant pas en compte la complexité de l’économie moderne ?

Une planification économique souple :

            En France, des mesures ont été prises par les pouvoirs publics, mais leur efficacité est restée limitée. En 1962, le général De Gaulle avait rattaché le SGDN (secrétariat général de la défense nationale) au premier ministre dans le but de lui donner plus de poids dans les choix stratégiques pour le pays.

Par ailleurs, des plans successifs, établis en concertation avec les différents acteurs, devaient permettre d’anticiper les conséquences des décisions de politique industrielle. Force est de constater que ces outils, bien qu’incomparablement supérieurs aux plans autoritaires de l’union  soviétique, n’ont eu qu’une efficacité limitée.

Nos compatriotes comprennent clairement que la protection de notre planète et de ses ressources doit être l’objectif des responsables économiques. Malheureusement, ne pouvant analyser par eux-mêmes ces problèmes complexes, ils font confiances aux spécialistes.

L’usage abusif du syllogisme :

            Au cours du temps, les experts ont souvent changé d’avis et recommandé des solutions différentes, que ce soit pour le chauffage des appartements ou la propulsion des véhicules automobiles. À chaque fois, ils ont justifié leurs préconisations par des arguments péremptoires, basées sur des simplifications excessives des critères de choix. Ils ont ainsi perdu une grande part de leur crédibilité auprès des personnes compétentes.

Pour être convaincants, ils ont justifié leurs positions par des syllogismes dont la capacité à conduire à des contre-sens est connue depuis l’antiquité. L’exemple type de ces argumentaires est celui visant à inciter les consommateurs à changer de changer de véhicule :

  • Vous voulez protéger la planète,
  • Donc vous voulez réduire les émissions de gaz carbonique (mais cette affirmation n’est pas démontrée).
  • Donc vous voulez changer votre vieille voiture diesel (et prendre un voiture diesel moderne, une essence ou, solution ultime un véhicule électrique).

Cette argumentation est évidemment absurde. Elle est construite sur un postulat : le gaz carbonique est seul responsable du réchauffement climatique. Supposons que le gaz carbonique soit réellement néfaste et le seul responsable du réchauffement climatique, donc d’une apocalypse annoncée. Que devrions-nous faire pour réduire sa production ?

  • Acheter un véhicule électrique ? Avons-nous déterminé la consommation de pétrole et de gaz nécessaire à sa fabrication (y compris celle de la batterie) et de l’électricité qu’elle consommera et qui est produite par les centrales à Gaz ou même au charbon ? (Tant qu’an moins une partie de l’électricité est produite par des centrales au charbon, nous devons prendre en compte ce cas le plus pénalisant du point de vue de la production de gaz carbonique).
  • À défaut, acheter l’un des véhicules à moteur thermique bénéficiant des primes actuellement décidées  et dont nous devons également évaluer la contribution à la production de gaz carbonique.

Est-il donc juste d’affirmer que le meilleur choix est toujours l’achat d’un véhicule électrique et qu’il faut détruire les véhicules anciens ?

Une comparaison objective des véhicules ?

            Sur cette base, nous pouvons maintenant comparer objectivement les différents choix qui nous sont proposés. Dans tous les cas la production d’un véhicule nécessite la consommation d’énergie, et donc la production d’une quantité minimale de gaz carbonique. Sans chiffrer précisément cette quantité d’énergie, nous pouvons l’estimer  proportionnelle au PRU (prix de revient usine) des véhicules.

Pour que la comparaison des véhicules soit objective, il faut ajouter à la contribution carbone d’un véhicule électrique celle des batteries louées qu’il faut lui associer.

 

Il faut prendre ensuite en compte la consommation kilométrique d’énergie et la production de gaz carbonique correspondante. Ce calcul est facile dans le cas des véhicules à moteur thermique. Pour les véhicules électriques, il faut prendre en compte le gaz carbonique produit dans la centrale électrique ayant servi à recharger la batterie, et le rendement énergétique de cette batterie (Comme cela a été dit précédemment, lorsque plusieurs centrales alimentent le réseau, le taux de gaz carbonique pris en compte doit être celui de la centrale la moins performante).

 

            Ce n’est que sur la base de ces estimations qu’il est possible de faire une comparaison objective des différentes techniques automobiles. Nos véhicules actuels ne sont-ils pas alors, le plus souvent, les plus éco-responsables ? Puisqu’ils existent, les dépenses initiales ayant déjà été faites, continuer à utiliser la plupart de nos véhicules actuels réduirait souvent la production totale de gaz carbonique.

 

Ne nous fait-on pas prendre des vessies pour des lanternes grâce à un syllogisme…

 

 

Pierre Fuerxer.

Membre de l’AIRAMA.

 

 

Télécharger l’article en PDF

 

 

Le mécanisme de la privatisation qui illustre la disparition d’État

Le mécanisme de la privatisation :

Introduction :

Contrairement à ce que de nombreux commentateurs pensent, les mécanismes fondamentaux de l’économie sont extrêmement simples.

Bien évidemment, les experts financiers inventent des règles et de dispositifs opaques pour le grand public. Les statisticiens, dans le but de décrire de mieux en mieux notre nation et son économie, diversifient leurs statistiques et améliorent leurs agrégats. Ces  modifications perpétuelles ont pour résultat de dérouter le public qui renonce souvent à comprendre et fait confiance aux experts.

Dans un premier temps, cet article explique sur la base de modèles mathématiques élémentaires que la réalité est biens plus simple qu’on ne le pense. Ensuite, il applique ce modèle aux données statistiques les plus récentes. Enfin, il explicite comment les mesures prises depuis 1973 ont conduit naturellement à la perte quasi-totale de notre indépendance, et finalement à une quasi-privatisation de l’état lui-même et des entreprises nationales.

 

Le fonctionnement normal de la monnaie :

Considérons une économie en croissance constante. Son PIB (Produit Intérieur Brut) est donc en croissance exponentielle.

Figure 1 : Exemple de croissance du PIB

  • Courbe bleue : Valeurs successives du PIB.
  • Courbe rouge : excès de PIB.

 

Un PIB de valeur unité en 1974 augmente de 2% par an. Il augmente au cours du temps de façon exponentielle. La masse monétaire doit donc augmenter régulièrement de façon à s’adapter au niveau de l’activité économique. Autrement dit, il faut ajuster le volume de la monnaie en circulation à l’activité économique.  En admettant, toujours pour simplifier l’exposé, que la masse monétaire nécessaire est égale au PIB annuel (valeur couramment observée dans les nations indépendantes), l’état doit augmenter chaque année la masse monétaire de l’accroissement du PIB national.

Bien évidemment, cette croissance de la masse monétaire est également nécessaire, que l’augmentation du PIB soit réelle ou simplement due à une dépréciation de la monnaie.

 

Dans un état souverain, l’état augmente la masse monétaire ex-nihilo grâce aux DTS (Droits de Tirage Spéciaux). S’il crée exactement la quantité de monnaie nécessaire à l’économie, les prix sont stables. S’il en crée davantage, la monnaie se déprécie, les prix augmentent et un ajustement des taux de change doit intervenir.

 

 

La création de la dette :

Depuis que l’état s’est interdit de procéder aux augmentations nécessaires de la masse monétaire par le mécanisme des DTS, il doit emprunter aux banques les sommes nécessaires. Celles-ci procèdent également par création ex-nihilo de cette monnaie. En revanche, elles transforment ce service en dette de l’état et exigent le versement d’un intérêt.

Supposons qu’elles exigent un intérêt de 2% égal au taux de croissance du PIB. La dette augmente de plus en plus vite au cours du temps.

Figure 2 : Augmentation de la dette avec un intérêt de 2%

  • Courbe bleue : Valeurs successives du PIB.
  • Courbe rouge : Dette au cours du temps

 

Cet intérêt identique au taux de croissance du PIB semble  modique. En réalité, il conduit en une trentaine d’années à une dette indue de 100% du PIB.

 

Des conséquences catastrophiques :

En comparant l’état à une entreprise dont la masse monétaire serait le fond de roulement, la nation qui était propriétaire de son entreprise perd son bien et devient quasiment « locataire » de son territoire.

Sa part du capital social se réduit au cours du temps. La nation est ainsi progressivement privatisée. Vers 2005, l’état perd la majorité au capital et paye un loyer déjà important, les citoyens devenant ses sous-locataires !

 

Figure 3 : Taux de participation de l’état

 

On démontrerait facilement que, lorsque les taux d’intérêt de la dette et du PIB sont dans un rapport constant, cette « privatisation partielle » ne dépend que de la croissance apparente du PIB.  Son rythme d’évolution temporelle ne joue alors aucun rôle.

Application à la dette française :

Considérons la variation du PIB depuis 1974. Nous constatons que sa variation moyenne est de 2% par an.

Figure 4 : Variation du PIB trimestriel depuis 1974

  • En rouge : Valeurs de l’INSEE.
    • En bleu : Approximation exponentielle.

 

Un calcul approché du niveau de la dette conduit aux résultats suivants :

Figure 5 : Évolution de la dette depuis 2014

  • En rouge : Valeurs du PIB annuel en trimestres glissants.
  • En bleu : Calcul approché de la dette,
  • Tirets verts : Prévision depuis 1974,
  • En  vert : Recalage en 2004.

 

Ces résultats montrent clairement que la dette publique n’est pas un phénomène complexe, mais le résultat mécanique d’une décision politique prise en 1973-1974.

 

Il reste à expliquer les modifications intervenues depuis 2010 :

  • Une augmentation injustifiée apparaît. Le transfert de la dette grecque à la BCE a sans doute joué un rôle, mais l’essentiel a certainement été la baisse des ressources fiscales pendant la crise de 2008.
  • La limitation de la dette à une valeur inférieure à 100% du PIB, qui est sans doute liée à une compagne de privatisation de biens publics.

 

L’étude de ces points accessoires sort de l’objet de ce document et ne pourrait qu’embrouiller l’exposé. Elle n’est donc pas développée dans ce document.

Conclusion :

            Cette analyse de la dette publique montre clairement qu’elle résulte d’une décision politique ancienne. Celle-ci a été camouflée sous différents prétextes vertueux. Les anciens se souviennent des raisons avancées à l’époque : éviter un recours excessif à la planche à billets, nous permettre de faire des investissement qui n’auraient  pas été possibles sans faire appel aux financements étrangers …

            Bien évidemment, l’analyse objective des faits réels montre clairement que l’abandon des DTS (avances non remboursables de la B.D.F.) avait d’autres raisons. En réalité, les réformes successives introduites dans les finances publiques n’ont eu qu’un seul objectif : déposséder, au profit des banques, les gouvernements futurs de leur pouvoir économique.

 

            N’oublions pas que la causalité économique et la causalité banquaire n’ont rien en commun. Les entreprises, qu’elle soient grandes ou unipersonnelles, les particuliers, doivent économiser pour créer ou pérenniser leur activité. Un salarié travaille avant d’être payé, un entrepreneur achète des machines et des fournitures avant d’espérer produire et vendre…     Ils travaillent dans le temps long. Leurs actifs sont des biens réels et l’épargne précède le revenu. Comme dans la vie courante, les dépôts monétaires précèdent les dépenses.

 

            L’univers bancaire, que nous appellerons « La Banque » est fort différent. Il monétise toute sortes de promesses de payer. Il place dans ses actifs les reconnaissances de dette de ses clients et dans le passif la monnaie correspondante qu’ils créent eux-mêmes…

Ce processus est immédiat. Selon le point de vue de la banque, les dettes créent les dépôts qui entrent naturellement dans la masse monétaire qui, à son tour, fait fonctionner l’économie en permettant le commerce. Est-il étonnant alors que les points de vue économiques et  bancaires soient incompatibles ?

 

            L’étude des conséquences de la mondialisation bancaire est plus complexe. Encore plus que les données économiques de base, les statistiques monétaires sont difficiles à analyser. Les changements perpétuels des monnaies et des bases statistiques rendent difficile les analyses économiques à long terme.

Des données importantes comme la masse monétaire ne sont plus publiées par les pays de la « Zone Euro ». Les données de l’ensemble de ces pays sont absentes des statistiques de la banque mondiale qui ne peut même pas présenter une valeur relative à l’UE toute entière.

 Il y a toujours des raison aux disparitions de données statistiques ou à leurs modifications. 

A nous de les trouver !

 

Une seule attitude peut nous permettre de comprendre les véritables raisons de réformes proposées : adopter une méthode d’analyse ne suivant pas les approches officielles.

 

 

 

Pierre FUERXER

Membre de l’AIRAMA

 

 

Télécharger l’article en PDF

 

 

Le financement de l’économie

Une nécessité économique

Pour prendre en compte les contraintes financières, le prédicteur économique OMEGA original doit être complété par un modèle financier.

En effet, de façon à clarifier l’analyse  du système économique, ce modèle avait été construit sur des « données réelles » supposées indépendantes des fluctuations monétaires. À ce stade, il était évidemment hors de question de tenter de décrire de façon détaillée tous les mécanismes financiers intervenant dans une économie nationale en interaction avec le reste du monde.

Figure 1 : Structure de modèle complet.

Le modèle initial a donc été complété en maintenant autant que possible un choix fondamental : séparer le plus possible les aspects économiques et financiers. Le prédicteur Oméga est lié par seulement deux entrées à un modèle financier : l’incitation à investir et l’incitation à consommer.

Le modèle décrit simplement les réponses temporelles du système économique à ces incitations. Elles ont montré que toute mesure autoritaire conduit à une modification transitoire de l’investissement et de la consommation.

Le modèle OMEGA, ainsi complété, a clairement démontré que seule l’augmentation de la part de l’investissement dans le revenu national permet d’augmenter la production et de conduire à une croissance durable. Comment l’état peut-il intervenir dans ce partage des ressources entre consommation et investissement ? Nous devrons distinguer deux cas bien différents.

Des lois économiques incontournables

Pour préciser le propos, considérons un agriculteur de l’âge de pierre tirant ses revenus de la culture du blé. Il vit dans une société ignorant la notion de monnaie et des prestations sociales. Il apporte sa contribution à la vie de son village. S’il se rend compte que son groupe a besoin de davantage de blé, il sait qu’il doit défricher davantage de terrain puis le mettre en culture. Il s’investit dans cette tâche avant de tirer quelque profit de son travail. Il sait parfaitement qu’il va devoir travailler plus et qu’il devra conserver plus de semences. Sa production sera alors transitoirement réduite.

Aujourd’hui, la présence de la monnaie rend les choses moins visibles, mais ces lois économiques restent incontournables. Le modèle Oméga décrit une relation statistique entre investissement et production.

Considérons un investissement exceptionnel intervenant au cours d’une période donnée. Nous supposons que les dépenses correspondent à la courbe gaussienne en pointillés bleus dans la figure 2. La production résultant de cet investissement correspond à la courbe rouge. Elles conduisent au versement de salaires, donc à augmentent les revenus. La demande totale est donc la courbe de droite en bleu, somme des deux précédentes.

Figure 2 : Effet d’un investissement exceptionnel au cours du temps en années.

  • Courbe pointillée bleue : Investissement exceptionnel,
  • Courbe rouge : Production,
  • Courbe bleue : demande totale.

Le modèle Oméga rend compte de ce mécanisme fondamental.

Figure 3 : Effet d’un investissement au cours du temps en années.

  • Courbe en pointillé bleu : dépenses d’investissement,
  • Courbe rouge : Production induite pas l’investissement.

En supposant la production des biens de consommation et d’investissement effectuée par des entreprises différentes, les revenus des premiers subissent une réduction temporaire (figure 4).

Figure 4 : Revenu des industries produisant des biens de consommation.

Le revenu de ceux-ci subira donc une réduction temporaire (Figure 5).

Figure 5 : Réduction transitoire des revenus au cours du temps (en années).

  • Courbe rouge : Investissement total,
  • Courbe pointillée bleue : production nouvelle,
  • Courbe en tirets verts : Bilan temporel.     

Ceci n’est pas différent de ce qui se passait dans le village de notre agriculteur à l’âge de pierre. Cependant, l’introduction de la monnaie, nécessaire aux échanges dans une société moderne va tout changer.

Cette monnaie, crée par une autorité, la nation puis des entités supranationales, et acceptée comme moyen de valorisation des produits et services va apporter beaucoup de souplesse, mais aussi permettre de nombreuses manipulations. Elle va, en particulier effacer la réduction temporaire du revenu perçu par notre agriculteur, mais cela ne se fait pas sans contrepartie.

Pour modifier la part des investissements dans le revenu national, l’état dispose de très nombreux moyens : des mesures fiscales, des subventions… Tous ces moyens d’action conduisent à des transferts de richesse entre les acteurs économiques, tant investisseurs que consommateurs. Les conséquences de ses décisions dépendent fortement du monde financier.

Selon le groupe homogène concerné, nation solidaire, ensembles régionaux et bientôt au monde entier, l’usage de la monnaie va être différent. Dans tous les cas, elle sera un élément fondamental de la politique économique. Les états perdront progressivement leur rôle et dépendront de leur environnement.

Les modes d’action de l’état souverain

Un tel état dispose de sa propre monnaie. Il régule ses échanges avec les autres états grâce à des taux de changes ajustés régulièrement. Ceci lui permet d’équilibrer ses échanges extérieurs. Il n’a donc pas de  dettes extérieures.

Toutes les actions de cet état conduisent à arbitrer entre les différents groupes de pression et à promouvoir une politique économique cohérente. Toute son action consiste à ajuster les deux paramètres d’entré du modèle Omega : l’incitation à investir et l’incitation à consommer.

De plus, cet état dispose du droit de modifier la quantité de monnaie en circulation, ce qui lui permet d’agir sur l’évolution des prix. À cette fin, il peut créer de la monnaie « ex-nihilo » et utiliser librement ce droit pour ajuster son volume aux besoins de l’économie, ou financer des dépenses imprévues. Toutefois, il ne doit,  en aucun cas, engager des dépenses injustifiées, ce qui provoquerait l’hyperinflation tant redoutée des épargnants.

Lors d’une période d’investissement exceptionnelle, un tel état peut maintenir le revenu nominal des citoyens puis restituer leurs revenus à ceux qui ont été lésés lorsque la croissance de la production le rend possible.

Les modes d’action d’un état ne contrôlant pas sa monnaie

Il s’agit des états ayant renoncé à une monnaie nationale, donc des états appartenant à la Zone Euro. Ils n’ont pratiquement plus aucune possibilité d’intervention dans le domaine économique. Cette catégorie comprend également ceux qui, comme la France depuis 1974,  ne disposent plus du droit de battre monnaie, c’est-à-dire de créer « ex-nihilo » de la monnaie.

Contrairement aux états précédents, ceux-ci sont progressivement endettés. Il faut donc chercher l’origine de ces dettes et estimer leurs conséquences à long terme.

L’origine de la dette

Comme nous allons le démontrer, cette prérogative du prince est en effet indissociable du pouvoir économique réel.

Figure 6 : Évolution de la dette depuis 2014.

  • En rouge : Valeurs du PIB annuel en trimestres glissants.
  • En bleu : Calcul approché de la dette,
  • Tirets verts : Prévision depuis 1974,
  • En  vert : Recalage en 2004.

 

Depuis que l’état a renoncé à recevoir des avances non remboursables de la Banque de France (alors désignées par le sigle DTS : Droits de Tirages Spéciaux), il n’a pu ajuster le volume de la masse monétaire sans faire des emprunts auprès des banques privées qui ont conservé le droit de créer « ex-nihilo » de la monnaie.

Au lieu d’utiliser à cette fin « la planche à billets », l’ajustement de la masse monétaire au niveau de l’activité économique a été fait par des emprunts dont l’accumulation a conduit à la dette actuelle. De 1974 à 2010, la dette se calcule simplement en ajoutant, trimestre après trimestre, à la dette antérieure. Elle se calcule sur la base du financement nécessaire de l’augmentation du PIB, et majorée des intérêts dus sur  les sommes déjà empruntées (Il serait facile d’expliquer par les événements postérieures à 2008 l’évolution les différences observée ces dernières années).

Il est permis de se demander pourquoi nos responsables politiques, en renonçant à battre monnaie, ont créé une dette inutile, injuste et de toutes façon impossible à rembourser ?

 

Le mécanisme sous-jacent

 La remarquable corrélation entre la croissance du PIB et celle de la dette est surprenante. L’ajustement de la monnaie aux besoins de l’économie n’aurait-elle pas dû se faire autrement ? Par la seule  croissance de la masse monétaire ? 

En réalité, nous devons nous souvenir que le PIB est un flux de biens et services. La masse monétaire correspond à ce flux, mais à un stock de dépôts à court terme. Si la vitesse de rotation de la monnaie est V, exprimée en mois, trimestres ou années, nous pouvons écrire :

PIB = M x V

Pour de nombreuses raisons économiques et psychologiques, il est impératif que les prix soient stables ou en légère croissance. Que l’augmentation du PIB soit réelle  ou seulement apparente, il faut que le flux monétaire augmente dans la même proportion que celui de l’offre. Ceci ne peut être fait qu’en ajoutant un flux de demande égal à l’augmentation de celui de l’offre.

Le flux de demande correspondant entre naturellement dans la sphère financière, et ajuste la masse monétaire aux besoins de l’économie, quelle que soit sa vitesse de rotation. Il faut donc, année après année, injecter un flux monétaire égal à l’augmentation du PIB. L’état réalise cette injection monétaire de la manière la plus simple du monde, en distribuant plus d’argent qu’il n’en reçoit. Si l’état ne peut plus créer de  monnaie, les banques pourraient créer elles-mêmes la monnaie nécessaire, « ex-nihilo« , mais dans ce cas elles ne seraient pas rémunérées pour le faire et l’état n’aurait plus de dette…

Le pouvoir a changé de mains ! Sans droit de battre monnaie, un état est réduit au statut de simple citoyen. Il ne dispose  plus que d’une apparence de pouvoir régalien !

Conclusion :          

            Il n’y a pas de politique économique possible sans souveraineté. Sans souveraineté monétaire, un état doit se soumettre au bon vouloir de ses créanciers. Un état ayant retrouvé son autorité, associé à un système bancaire au servi des citoyens et des entreprises constitueraient un ensemble œuvrant efficacement au bien commun.

            Sans cette restauration de l’état, la soumission diffuse de la nation à des intérêts étrangers va progressivement toucher tous les domaines. Le libre-échange permet ma mise en concurrence des entreprises et des citoyens du monde entier.

            Nous voyons tous les jours les effets du laisser-fairisme dénoncé en son temps par Maurice Allais et bien d’autres observateurs impartiaux du monde moderne.

 

Pierre FUERXER

Membre de l’AIRAMA.

 

 

Télécharger en PDF

 

 

L’emploi Industriel qui montre que le chômage résulte d’un choix

La perte des emplois industriels

Introduction :

Maurice Allais a exposé dans un livre publié en 2007 avec le titre « La mondialisation, la destruction des emplois et la croissance ».  Plus de dix ans plus tard, « l’évidence empirique » sur laquelle il basait son argumentation est de plus en plus claire.

Figure 1 : courbes présentées dans la presse par Maurice Allais

 

Une précédente mise à jour :

En janvier 2017, une mise à jour faite à partir des dernières statistiques de l’INSEE confirmait les prévisions de Maurice Allais.

Figure 2 : Emploi industriel : Projection faite en janvier 2017.

Cette projection conduisait à un emploi industriel nul en 2045. Il est évident qu’une telle extrapolation ne peut être retenue. Il est bien certain que l’évolution actuelle ne pourra se poursuivre indéfiniment. Il reste toutefois à observer jusqu’à quel point cette tendance pourra se poursuivre et à anticiper les mesures qui permettront de faire face au choc qui accompagnera la fin de cette période de désindustrialisation.

 

Évolution de la population française :

Même si le vieillissement de la population est un fait indiscutable, la population française ne cesse de croître.

Figure 3 : Population totale selon l’INSEE

La répartition en tranches d’âge permet d’observer son vieillissement. Compte tenu de l’accroissement constant du temps partiel, les nombres d’actifs et de chômeurs ne sont plus significatifs. Ainsi, le volume de la population active n’est plus publié. Nous allons donc considérer l’emploi total et sa répartition sur la base des équivalents temps plein.

Figure 4 : Emploi total (équivalent temps plein)

 

L’évolution de l’emploi industriel correspond strictement à la tendance prédite par Maurice Allais il y a près de dix ans.

Figure 5 : Évolution de l’emploi industriel

Le taux d’emploi industriels correspond alors à la figure suivante :

Figure 6 : taux d’emploi industriel dans l’emploi total

Ce taux, qui était de plus de 35 % en 1948 est maintenant de l’ordre de 10%. Il subit à une réduction légèrement plus forte par rapport à l’ensemble de la population, en raison de son vieillissement qui réduit la part des  actifs. Sur cette courbe, la cassure de 1974 apparaît nettement.

Dans ces conditions, il est facile de constater qu’en tenant compte du vieillissement de la population, la décroissance du niveau de l’emploi industriel réel est conforme aux prévisions de Maurice Allais, et strictement celui constaté en janvier 2017. Sur cette courbe, le ralentissement apparent de la désindustrialisation n’est dû qu’au vieillissement de la population. En effet celui-ci réduit la part de la population active dans la population totale.

Figure 7 : Taux d’emploi industriel par rapport à la population totale

Il reste à expliquer les vraies raisons de cette réduction de l’emploi industriel.  En effet, celle-ci ne peut être attribuée aux seuls progrès techniques et au développement des robots.

 

PIB ou valeur ajoutée ?

Pendant longtemps, le PIB (Produit Intérieur Brut),  malgré ses nombreux défauts, a été la mesure de l’activité économique.

Aujourd’hui, l’INSEE publie des mesures détaillées de la valeur ajoutée. Des données détaillées relatives aux diverses activités économique sont maintenant disponibles.

Nous les avons regroupées en trois domaines différents (Figure 8).

Figure 8 : Répartition de la valeur ajoutée

  • En bleu : Activité commerciales
  • En vert : Activités de service,
  • En rouge : Activité industrielles.

Le niveau des activités agricoles n’a pas été tracé compte tenu de sa très faible valeur.

Les pourcentages des valeurs ajoutées  industrielles et agricoles correspondent au graphique suivant (figure 9).

Figure 9 : Industrie et agriculture

  • Courbe bleue : Industrie,
  • Courbe rouge : Agriculture.

Elles sont très petites derrière les activités de service au sens global, en incluant les services commerciaux et les autres services, notamment aux entreprises (figure 10).

 

Figure 10 : Part des activités de service

Le transitoire présent sur les courbes correspond à mai 1968, période pendant laquelle l’activité industrielle a été fortement perturbée.

La répartition de la valeur ajoutée telle qu’elle apparaît dans les statistiques de l’INSEE  est donc bien plus instructive que celle du PIB. La somme des revenus pouvant être supérieure à la valeur ajoutée totale qui est la production réelle.

 

Le chômage importé :

En 2012, nous avions montré que les seules importations chinoises correspondaient à la perte de 2,7 millions d’emplois. Si nous ajoutons ces emplois à la valeur constatée en 2012, les courbes des figures 5 et 7 sont modifiées de la façon suivante (figures 11 et 12).

Figure 11 : Part des emplois industriels corrigé pour 2012

Figure 12 : Taux d’emploi industriel corrigé pour 2012

Ces courbes démontrent que  le chômage importé résultant des seules importations chinoises suffit à compenser la réduction de l’emploi industriel observée depuis 1974. Il est certain que si ce calcul avait été fait sur l’ensemble des importations, l’emploi industriel corrigé de l’effet des importations aurait poursuivi sa croissance au-delà de 1974.

La réduction de l’emploi industriel est donc clairement la conséquence d’une politique qui a, sciemment ou non, créé un chômage de masse.

 

Conclusion :

Cette analyse montre que le chômage de masse n’est pas une fatalité. Il résulte de d’une politique délibérée, le libéralisme, qui conduit naturellement à la mise en concurrence des travailleurs et des régimes sociaux du monde entier.

À la suite de mai 1968, la compétitivité de l’économie française n’a pu être rétablie que grâce à deux dévaluations du franc et une réévaluation du Mark. Toutefois, comme le modèle OMEGA l’a très clairement expliqué, ces événements ont conduit à une réduction de la croissance six ans plus tard.

En 1973-74, l’abandon  de notre souveraineté monétaire par le président Pompidou et Valery Giscard d’Estaing a eu des conséquences catastrophiques à long terme. Ne pouvant plus ajuster la compétitivité nationale en dévaluant le franc, nos gouvernements ont mené une politique mondialiste irresponsable. Le maintien du pouvoir d’achat des salariés et des revenus des capitaux s’est fait grâce à des expédients : exportations d’armes, importations en provenance des pays à faibles coûts salariaux, vente d’entreprises… Le recours aux banques privées pour ajuster la monnaie a introduit une dette publique totalement injustifiée, comme Maurice Allais et de nombreux économistes l’ont démontré. Globalement, cette politique a conduit inéluctablement à une augmentation du chômage.

L’adoption de l’EURO (€) a été présentée comme la solution finale aux problèmes des états européens. Force est de constater qu’il n’en est rien. Le mondialisme continue à détruire méthodiquement l’économie française et d’autres états européens.

On nous assure que la réduction de l’emploi industriel est un phénomène inévitable, une conséquence des progrès de la technologie, et en particulier du développement des robots industriels. En réalité, des emplois sont créés dans d’autres pays. Tout se passe comme si nous avions décidé de délocaliser notre industrie en transférant nos capitaux à l’étranger en vue d’y réaliser, à moindre coût, les produits demandés par notre marché intérieur.

Le déficit de notre balance commerciale et la croissance du chômage sont alors inévitables. N’est-il pas temps d’abandonner une politique qui, selon l’expression de Maurice Allais, a fait la « démonstration empirique » de sa nocivité ?

 

Pierre Fuerxer,

Membre de l’AIRAMA.

 

Télécharger en PDF

 

 

L’expérience de William Bertozzi

Vraie ou fausse preuve la théorie de la relativité ?

Introduction :

               En 1964, l’expérience de William Bertozzi  a été considérée comme une preuve de la théorie de la relativité. À la sortie d’un accélérateur linéaire, la vitesse d’un électron ne pouvait dépasser la vitesse de la lumière.

               Depuis, tous les cours de physique présentent cette expérience comme une validation de la théorie de la relativité restreinte. Aujourd’hui encore, elle conserve son rôle didactique. On en trouve la description sur INTERNET. Des commentaires et des exercices à l’intention des étudiants sont disponibles sur de nombreux sites.

 

Quels sont les résultats de cette expérience ?

               Les résultats de William Bertozzi tiennent dans une liste de cinq mesures. La figure 1 présente les quatre premières valeurs de la vitesse d’un électron en fonction du rapport k de son énergie cinétique à son énergie au repos.

Formule relativiste : rapport énergie cinétique sur énergie au repos de l’électronFigure 1 : Formule relativiste : rapport énergie cinétique sur énergie au repos de l’électron.

               Dans cette figure, les points marqués d’une croix sont les quatre premières  mesures de William Bertozzi, la cinquième (v=c pour k=30) n’étant pas significative n’a pas été retenue. La courbe en rouge correspond aux valeurs prédites par la théorie de la relativité restreinte. Elles ne sont pas parfaitement conformes aux observations.

               Comment doit-on interpréter les différences observées entre mesures et théorie ? Correspondent-elles à des erreurs de mesure ? Résultent-elles d’erreurs théoriques ?

 

 

Une analyse basée sur les théories antérieures :

               Avant l’apparition de la théorie de la relativité, la science disposait de l’ensemble des  théories nécessaires à l’étude d’un accélérateur linéaire. Citons par ordre chronologique :

  • L’électromagnétisme, complété en 1865 par les équations de Maxwell,
  • La masse de l’énergie, définie par la formule E=m.c2 établie par Poincaré en 1900.
  • Le principe de relativité proposé en septembre 1904, par Poincaré.
  • Enfin, les équations de changement de base entre repères relativistes, explicitées par Poincaré en juin 1905. Ces formules ont été appelées par Poincaré « transformations de Lorentz » en hommage au célèbre physicien, conservent les lois de l’électromagnétisme.

 

Les équations de Maxwell sont très antérieures à la théorie de la relativité. La transformation de  Lorentz ne  sera pas utilisée, bien qu’elle conserve son utilité comme formules de changement de repère. L’analyse de l’expérience de William Bertozzi ne fera donc appel qu’à la physique classique.

 

Un calcul résolument non relativiste :

               Les résultats obtenus par William Bertozzi se calculent également très simplement en faisant les hypothèses suivantes, différentes de celles retenues habituellement :

  • L’énergie de l’électron au repos se partage en parties égales entre sa masse mécanique et l’énergie de son champ électromagnétique calculée selon les formules de l’électromagnétisme classique.
  • L’énergie de son champ électromagnétique est calculée en faisant appel à une représentation ondulatoire du champ électromagnétique.

 

Nous obtenons ainsi une expression de l’énergie totale en fonction de la vitesse, directement liée au potentiel appliqué à l’accélérateur linéaire. Les prévisions sont alors parfaitement conformes aux observations de William Bertozzi :

Formule proposée : rapport énergie totale sur énergie au repos de l’électronFigure 2 : Formule proposée : rapport énergie totale sur énergie au repos de l’électron.

 

Comme dans la figure précédente,  les points marqués d’une croix sont les quatre premières  mesures de William Bertozzi. La courbe en bleu de la figure 2 correspond aux valeurs prédites par la physique classique, compte tenu d’une nouvelle hypothèse présentée ci-dessous.

 

Une expression nouvelle de l’énergie de l’électron :

               Selon ce nouveau mode de calcul, l’énergie cinétique totale de l’électron correspond à la somme de l’énergie cinétique de sa masse mécanique calculée par la formule de la mécanique classique (la masse étant supposée constante avec la vitesse), et de l’énergie du champ électromagnétique de l’électron calculée à partir d’une analyse ondulatoire.

               L’énergie cinétique de la masse mécanique de l’électron considéré comme une particule est alors, en admettant que la masse mécanique de l’électron est m = E/c2 et β = v/c :

Selon cette hypothèse, le champ accompagnant l’électron mobile correspondrait à l’énergie de deux ondes directes et rétrogrades dont la somme est le champ observé dans le repère fixe. Puisque la charge électrique des mobiles est conservée l’énergie cinétique du champ électrique de l’électron mobile serait selon cette hypothèse :

                L’énergie cinétique totale de l’électron rapportée à son énergie au repos W0 serait donc de la forme suivante :

               L’accélération de l’électron se calcule à partir de la loi fondamentale de la mécanique :

Soit :     

Ce qui donne finalement  l’accélération de l’électron et donc sa masse :

Bien évidemment, l’intégration de l’accélération au cours du temps conduit à la vitesse, puis à la distance parcourue dans l’accélérateur. Par ailleurs, on peut vérifier que l’énergie acquise par l’électron correspond alors au produit de sa charge par le potentiel appliqué. Ceci correspond parfaitement aux résultats de William Bertozzi.

 

Comparaison entre théorie et expérience :

               La comparaison entre théorie et expérience conduit aux valeurs de la figure 3. Dans ce graphique, nous avons souhaité  mettre en évidence les écarts entre les mesures réalisées par Bertozzi et les résultats théoriques correspondant au deux formules : la formule classique et de la nouvelle formule proposée ci-dessus. L’abscisse correspond à la vitesse réduite de l’électron (rapport entre la vitesse mesurée et la vitesse de la lumière). L’ordonnée correspond à l’écart en pourcentage entre la valeur de l’énergie appliquée à l’électron et les valeurs calculées avec les deux formules.

Comparaison entre théories et expérience (écarts en %)Figure 3 : Comparaison entre théories et expérience (écarts en %).

  • La courbe rouge correspond à l’écart entre les mesures et la théorie nouvelle,
  • La courbe bleue à l’écart entre les mesures et la théorie de la relativité restreinte.

 

               Ces deux courbes présentent ainsi, en fonction de la vitesse des électrons, les différences (en pourcentage) entre les énergies réellement appliquées et celles calculées avec les deux formules. La cinquième valeur de vitesse mesurée par Bertozzi a été v =c. Cette dernière mesure correspond à un temps de 2,8 ns connu avec une précision insuffisante à l’époque pour conduire à une mesure de vitesse significative.

En effet, en 1964, la qualité des mesures des très hautes tensions, et l’imprécision des mesures de vitesse à partir de photos d’écrans d’un oscilloscope suffisent à expliquer l’écart restant entre les mesures les résultats théoriques.  Quelle que soit la formule de calcul, l’énergie de l’électron serait infinie pour la valeur v = c). Le 5° point de ces courbes a donc pris en compte une valeur corrigée de la vitesse de l’électron, légèrement inférieure à c, assurant la meilleure extrapolation possible des deux courbes théoriques.  Les différences entre la théorie alternative et les résultats de William Bertozzi ne sont donc pas significatifs.  En revanche,  la théorie de la relativité restreinte conduit à des écarts nettement plus importants.

 

L’effondrement de la théorie de la relativité ? 

               Si Maurice Allais avait analysé les résultats de l’expérience, déjà ancienne, de William Bertozzi, il y aurait vu « l’effondrement de la théorie de la relativité » qu’il attendait. Il est certain qu’avec le recul dont nous disposons, il faut bien admettre que cette expérience n’est pas une preuve irréfutable  de la théorie de la relativité. Elle prouve tout au plus qu’un champ électrique ne permet pas d’accélérer  des électrons au delà de la vitesse de la lumière. Par ailleurs, nous constatons que la nouvelle formule proposée pour le calcul de l’énergie cinétique de l’électron soumis au champ d’un accélérateur linéaire donne des résultats bien plus proches des mesures de William Bertozzi que la formule relativiste.  Les différences ne sont toutefois importantes que pour les vitesses supérieures à 20% de la vitesse de la lumière.

               Pouvons-nous, comme Maurice Allais, conclure sur la base de ce résultat très partiel que la théorie de la relativité doit être définitivement rejetée ?

Comparaison des méthodes de calcul :

               La nouvelle formule présente par rapport à la formule de la relativité restreinte deux avantages essentiels :

  • Elle conserve intégralement la mécanique classique, ce qui est particulièrement important dans la plupart des problèmes pratiques.
  • Elle conserve également l’électromagnétisme classique. En effet, le champ d’une charge mobile s’obtient simplement en conservant le champ de l’électron dans le repère mobile. Son champ dans le repère fixe est alors calculé par une méthode ondulatoire dont la description sort du cadre de ce document.

En pratique, cette approche conduit à conserver l’espace et le temps absolus, et donc  abandonner la contraction de Lorentz.

               Enfin, les deux méthodes de calcul ne font apparaître aucune différence entre l’énergie électrique appliquée et celle acquise par la particule. En réalité, l’énergie appliquée par l’accélérateur linéaire se partage entre l’énergie accumulée par l’électron et l’énergie rayonnée. Il est possible que, dans le cas de trajectoires rectilignes et d’électrons faiblement accéléré, ceci soit une hypothèse raisonnable, conforté par les mesures calorimétriques de William Bertozzi. Toutefois, nous aurons besoin d’une théorie plus générale applicable à toutes les trajectoires, décrivant  aussi bien l’action des champs magnétiques qu’électriques, et permettant de calculer l’énergie rayonnée par l’électron.  L’évolution en un siècle de la théorie des antennes doit permettre de calculer avec précision le rayonnement des électrons rapides fortement accélérés.

Respectent-elles le principe de relativité ?

               Comme le prévoit la physique classique, cette expérience montrerait que les masses mécaniques et les champs électromagnétiques se comportent différemment en fonction de la vitesse.  Peut-on en déduire qu’elle ne respecte pas le principe de relativité ?

               Tel qu’il a été défini par Poincaré, le principe de relativité explicite une notion fondamentale en physique. Les lois doivent donc être les mêmes pour tous les observateurs. Elles sont  universelles. Ce principe ne peut souffrir aucune exception.

               Pour autant, l’environnement du laboratoire peut modifier le résultat d’une expérience. En particulier, les forces de gravitation jouent un rôle essentiel et doivent être prises en compte. Le principe d’équivalence d’Einstein en est l’illustration parfaite de l’influence de l’environnement du laboratoire. Il permet de déterminer la courbure gravitationnelle des rayons lumineux, même si le calcul exact de cette déviation est plus délicat qu’il ne semble à priori (Le résultat exact obtenu en 1916 est le double de la valeur calculée initialement en 1912).

               Les lois de la physique peuvent donc dépendre de « paramètre d’environnement » parmi lesquels le champ de gravitation, la vitesse relative d’un satellite par rapport à l’astre autour duquel il tourne…  Il est donc hasardeux d’affirmer qu’une loi respecte ou ne respecte pas le principe de relativité. En tous cas, la conservation de la vitesse de la lumière ne saurait suffire à le démontrer …

 

Une nécessaire rigueur mathématique :

               Contrairement aux mathématiques qui décrivent de façon rigoureuse les conséquences d’hypothèses, les lois de la physique  résultent d’expériences. Elles résultent alors d’une construction intellectuelle permettant de prévoir les résultats de nouvelles expériences.

               La cohérence mathématique des lois de la physique sont alors une condition nécessaire, mais pas suffisante, de leur validité. Considérons par exemple la propagation complexe des ondes électromagnétiques dans l’ionosphère. Dans ce milieu, la propagation des ondes dépend de la longueur d’onde, les rayons ne se propagent pas en ligne droite, des absorptions interviennent…

Le comportement de ce milieu peut être décrit par des équations différentielles. Ses propriétés étaient inconnues en 1912, lors des premières publications sur le principe d’équivalence et la courbure gravitationnelle des rayons lumineux.  Aujourd’hui, au lieu d’adopter une géométrie non-euclidienne, pourrions-nous faire un autre choix : décrire la propagation de la lumière par une équation différentielle de coefficients dépendant de la gravitation ? Toute équation de propagation étant du second ordre, le facteur deux observé entre le gradient de vitesse de propagation et la courbure des rayons apparaîtrait sans doute naturellement.

 

Une coexistence pacifique entre les théories :

               N’oublions pas que nous sommes totalement incapables de parler de l’univers sans supposer implicitement l’existence d’un repère euclidien. Comment mesurer autrement des distances ou un effet Doppler ? Les effets « relativistes » sont toujours présentés dans un repère particulier, par exemple le repère terrestre. Comment calculerait-on les dérives gravitationnelles ou lies à la vitesse des satellites de géo-localisation sans faire appel à ce repère ?

               Pouvons-nous assurer que la physique classique ne respecte pas aussi bien le principe de relativité que les théories modernes ? En tous cas, personne ne peut assurer que tout a été trouvé et que nos concepts ne devront plus être modifiés de façon à mieux décrire la réalité. Donnons donc aux théories de la relativité (restreinte et générale)  la place qui leur revient : des étapes dans l’évolution de notre connaissance. N’en faisons pas des vérités éternelles.

               Nous comprenons alors mieux la formule provocatrice de Maurice Allais. En physique, il n’y a pas de vérité révélée ! La justesse des  résultats d’un calcul mathématique peuvent être prouvés. En revanche, une théorie physique ne peut qu’être confrontée avec l’expérience. Dans tous les domaines, et particulièrement en optique, de nombreuses théories existent et sont utilisées au cas par sas, dans leur domaine de validité.

 

Des lacunes théoriques acceptées :

               Toutes nos théories scientifiques présentent des zones d’ombre.  Les exemples sont innombrables. Dans le domaine de l’électromagnétisme, nous faisons toute confiance aux équations de Maxwell. Nous savons cependant que le courant de déplacement qu’il a introduit reste une énigme. Il s’agit d’un courant « fictif » grâce auquel  la symétrie entre le champ électrique et le champ magnétique conduit aux modes ondulatoires.

               Ne devrait-on pas donner à ce courant une signification physique ? Comment son existence est-elle compatible avec le rejet d’un milieu de propagation ?

               À la fin d’une des « Journées Internationale de Nice sur les Antennes », sans doute en 1986, un calcul du champ électromagnétique diffracté par un obstacle mobile a été présenté, hors programme officiel. Grâce à une convention de dessin, ce champ ressemblait aux allées de Von Karmann observées en hydrodynamique. Dans son  commentaire, l’orateur expliquait que ce résultat n’était pas surprenant, les équations étant les mêmes…

               Ne devrions-nous pas réfléchir à des analogies entre domaines techniques différents ?

 

Des données expérimentales à exploiter :

               Depuis 1905, la technologie a fait des progrès remarquables.  Citons l’électronique, l’ensemble des théories des antennes, des tubes électroniques (klystrons, TOP,  Gyrotrons), les dispositifs nouveaux comme les LASERS à électrons libres. Nous disposons également d’horloges atomiques, de gyromètres Laser, de réseaux de satellites de géo-localisation. Il y a là une mine de données expérimentales qui pourraient être exploitées en vue de valider nos concepts.

               Enfin, l’observation de l’univers nous permet d’observer des phénomènes qui se sont déroulés au cours de milliards d’années et qui continuent à évoluer sous nos yeux. Comme je l’ai écrit en 2011 dans une présentation faite au cours des journées scientifiques de l’URSI (La physique du 21° siècle sera-t-elle ondulatoire?) :

Au 21° siècle, le développement de la physique ne pourra se faire qu’après l’abandon de l’approche abstraite et dogmatique adopté au siècle dernier.

               Ayant pris conscience de la fragilité des bases expérimentales et conceptuelles de la physique moderne, les étudiants et chercheurs pourront explorer des voies nouvelles. Libre de laisser leur imagination construire, sur les mêmes faits expérimentaux, des concepts et des représentations concrètes des lois de la physique, ils pourront faire preuve de créativité.

               Bien évidemment, science et science fiction n’étant pas de même nature, leurs rêves devront être en permanence confrontés aux réalités expérimentales, toutes les explications équivalentes des faits expérimentaux étant toutefois jugées également recevables.

               Les chercheurs, redevenus acteurs, donneront le meilleur d’eux-mêmes. Impliqués dans une science en perpétuelle évolution et dont ils connaîtront l’histoire, ils n’auront plus l’impression de naître trop tard dans un monde trop vieux.

               Bien évidemment, l’astronomie et l’astrophysique, sciences porteuses depuis toujours d’une capacité à émerveiller les hommes, joueront dans cette évolution de la physique un rôle essentiel.

               En 1905, Poincaré entrevoyait l’avènement d’une nouvelle physique. Somme-nous sur le point de continuer son œuvre ?

Pierre Fuerxer,

Membre de l’AIRAMA.

 

 

 

 

 

La mondialisation

Du rêve mondialiste à la réalité.

Préambule :

            Maurice Allais était un libéral et un européen convaincu  jusqu’il constate que l’Union Européenne prenait une orientation contraire aux intérêts des peuples. Il publiait dès 1981 un livre intitulé : « L’Europe face à son avenir. Que faire ? ».

            L’année suivante, il publiait un autre livre au titre évocateur intitulé : « Erreurs et Impasses de la Construction Européenne ». Après la publication d’une bonne dizaine d’ouvrages, son dernier livre, intitulé « La mondialisation, La destruction des emplois et de la croissance » apporte, selon son expression, « la démonstration empirique » de la validité de ses critiques antérieures.

            Personne ne peut sincèrement nier que l’Union Européenne, l’« UE », n’a pas tenu ses promesses. Le modèle Oméga-Allais, dont les premières publications ont eu lieu dès 1990, a prouvé l’existence de lois de l’économie permettant de faire des prévisions à long terme, en l’absence de crise monétaire majeure. Le succès de ce modèle est dû à deux choix fondamentaux : affirmer le rôle essentiel de l’homme dans la conduite de l’économie, simplifier au maximum la structure du modèle de façon à rendre son comportement intelligible.

            Ces méthodes économétriques auraient-elles permis de prédire les effets à long terme du libéralisme sur les économies des pays européens ? Nous allons démontrer qu’en adoptant une approche analogue, il est possible de construire un prédicteur à long terme aussi performant dans une économie mondialisée que le modèle Oméga-Allais dans une économie indépendante. Il suffit d’adopter les mêmes méthodes pour décrire les interactions internationales.

Un état stable est-il possible ?

            Une économie réelle n’est jamais totalement stable car elle subit de nombreuses influences extérieures. En revanche, pour être validé, le modèle d’une économie  doit être stable à tout niveau d’activité et expliquer l’existence des cycles économiques qui ont été observés dans le passé. Enfin, comme l’économie elle-même, un modèle doit tenir compte des investissements passés encore productifs. Ainsi, pour faire ses prévisions, le modèle Oméga-Allais prend en compte l’activité des quinze dernières années. Ces méthodes s’appliquent également aux économies interconnectées, lorsque les échanges sont équilibrés. Dans le cas contraire, les déséquilibres se propagent d’une économie à l’autre, ce qui déstabilise l’économie mondiale.

Figure 1 : Échanges équilibrés.

            La mondialisation peut même déstabiliser le marché et même provoquer des crises locales, en particulier dans des pays spécialisés dans des productions particulières. Les états doivent donc disposer d’outils permettant de stabiliser leurs économies nationales.

Une instabilité aux origines diverses :

            La stabilisation de l’économie nécessite l’emploi de nombreux moyens permettant de compenser les déséquilibres entre les nations qui peuvent être classés de la façon suivante :

La différence des redistributions sociales :

            Dans chaque nation, les autorités  remplissent des tâches d’intérêt commun. Il s’agit évidemment des tâches régaliennes qui sont l’attribut des gouvernements, mais aussi d’une redistribution sociales des revenus  par de nombreux canaux.

En ce qui concerne la France, citons les allocations familiales, l’enseignement et ce que nous appelons les services publics. Le financement de cette redistribution sociale étant différentes selon les pays, il est difficile d’en déterminer le niveau, mais il correspond à un pourcentage très important de PIB. Nous savons qu’en France le taux des prélèvements obligatoires est proche de 50%.

            Dans chaque pays, la population active a une productivité intrinsèque qui dépend de nombreux paramètres : âge, formation…

Figure 2 : Effet des prélèvements obligatoires.

            Les charges, directes et indirectes, de toutes natures pesant sur le travail réduisent la compétitivité des entreprises. Cette réduction de la compétitivité correspond à un taux de charges dont l’effet est comparable à celui du taux de change. Son augmentation est équivalente à une hausse de la monnaie nationale. Cette compétitivité apparente influe sur les échanges entre nations, et contribue au déséquilibre des balances commerciales.

            Traditionnellement, les états pouvaient compenser les effets de ces différences grâce à deux procédés :

  • Une méthode globale : Modifier les taux de change, ce qui réduit globalement les différences de compétitivité entre les nations,
  • Des mesures sectorielles : Les droits de douane et contingents d’importation.

Un taux  de charges globalement excessif pourrait être corrigé que par une dévaluation de la monnaie, si celle-ci n’était pas aujourd’hui impossible. Grâce aux droits de douane et aux contingents d’importation, des corrections sectorielles seraient également possibles.

Face à un taux de charge supérieur à celui de ses concurrents, la politique mondialiste de l’UE ne laisse aux états qu’une solution : abandonner les entreprises pour lesquelles la notion de concurrence libre et non faussée n’est qu’un mythe.

Les conséquences des investissements nouveaux :

            Le modèle Oméga –Allais permet de calculer l’effet sur la demande d’un investissement nouveau.  Considérons l’exemple suivant : Supposons que dans une économie stable, un investissement soit décidé (figure 3).

  • Les dépenses d’investissement produisent des revenus, puis une consommation nouvelle,
  • La production n’apparaît qu’avec un certain retard sur les investissements.

Figure 3 : Effet d’un investissement.

Figure 3 : Effet d’un investissement.

            Cette figure est un exemple montrant comment un ensemble d’investissements décidés simultanément conduit à des dépenses puis à une capacité de production :

  • La courbe en pointillé bleus correspond à la demande liée à la croissance des dépenses d’investissement,
  • La courbe rouge correspond à la demande générée par cet investissement.
  • La courbe continue bleue est da demande totale.

Effet direct de l’investissement dans une économie fermée :

Dans un premier temps, l’investissement produit une demande supplémentaire liée aux revenus des entreprises produisant les machines et services nécessaires à la réalisation des projets. Ces entreprises versent des salaires qui augmentent la demande alors que la capacité de production de biens de consommation n’a pas encore augmenté.

Jusqu’au croisement des courbes pointillées bleues et rouge (approximativement quatre ans après le début des travaux), la demande dépasse la production !  L’investissement n’est possible que si les consommateurs acceptent de différer une partie de leurs dépenses, et attendent la croissance de la production pour consommer. Dans son principe, le financement des investissements nouveaux devrait donc être réalisé par des placements à terme, ce qui garantirait la réduction temporaire de consommation imposée par l’investissement.

Effet direct de l’investissement dans une économie ouverte :

            Nous supposons que l’investissement est financé par des prêts bancaires ou des fonds étrangers. Peut-on alors demander aux actifs une épargne pour un investissement sur lequel ils n’auront aucuns droits ?

            Le financement de l’investissement leur est imposé selon l’un des modes suivants :

  • La hausse des prix qui réduit leur pouvoir d’achat et ponctionne leurs compte courants,
  • L’importation qui permettra de maintenir les prix, mais au détriment de la balance commerciale. Cette importation constituera une dette qui devra être remboursée, en principal et intérêts.

Effet indirect de l’investissement dans une économie ouverte :

            Dans les deux cas, la croissance du PIB a une conséquence indirecte. Il nécessite une augmentation de la masse monétaire. En effet, le niveau de la masse monétaire nécessaire au fonctionnement de l’économie augmente avec la production.

            Jusqu’à l’abandon des DTS (droits de tirage spéciaux), l’augmentation de la masse monétaire était faite par la banque de France. L’usage normal de ce droit de battre monnaie permettait à l’état d’ajuster la masse monétaire aux besoins de l’économie.

             L’Union Européenne à transféré ce doit à la banque Centrale Européenne qui ne prête pas directement aux états, mais aux banques qui prêtent ensuite aux états. Pour ajuster la masse monétaire, les états doivent emprunter aux banques les fonds nécessaires, alors que les banques les obtiennent  gratuitement (ou presque gratuitement) auprès de la banque centrale européenne. De toutes façons, ces fonds ne sont que de la monnaie bancaire.

            Évidemment, cette anomalie n’avait pas échappé à Maurice Allais qui considérait que la dette publique de la France devait être séparée en deux :

  • Une dette réelle correspondant au financement de dépenses nationales,
  • Une dette abusive constituée par les augmentations de la masse monétaire et les intérêts payés sur les sommes prêtées par les banques à cette fin.

            Cette modification, qui pourrait sembler anodine, dépossède en fait l’état de sa souveraineté monétaire. Elle conduit les nations à supporter une véritable taxe sur les investissements et sur la croissance du PIB.

Les transferts de capitaux :

            La libre circulation des capitaux conduit les entreprises à investir préférentiellement dans les nations dans lesquelles la rentabilité est la plus élevée. Les entreprises françaises sont donc incitées à investir à l’étranger. Si leur internationalisation présente des effets positifs, la fuite des capitaux provoque à terme une baisse de la production nationale, une croissance des importations et de la dette.

            Par ailleurs, le rapatriement des bénéfices par les actionnaires étrangers réduit la demande intérieure, et à terme la compétitivité des entreprises nationales.

La migration de travailleurs et de populations :

            La question de la main d’œuvre immigrée a provoqué une polémique intense. Tout le monde a entendu parler des travailleurs détachés qui prennent la place de travailleurs locaux. Il est certain que cette directive européenne contribue  à la hausse du chômage en France.

L’immigration de travail en  a également sa part, mais on oublie celle des importations en provenance des pays à bas coût de main d’œuvre. Une balance du travail prenant en compte tous ces éléments montrerait que le chômage de masse actuel s’explique parfaitement par ces causes.

Enfin, l’immigration de peuplement joue un rôle complexe. Elle évite une fuite des revenus, donc une réduction de la demande intérieure, mais coûte en dépenses sociales directes et indirectes dont il faut tenir compte et met en péril la base culturelle qui assure la cohésion des nations.

Les effets de la politique européenne :

            L’Europe assure vouloir qu’une concurrence libre et non faussée permette à tous les européens de bénéficier de produits et services compétitifs.

            Malheureusement ses décisions sont totalement contraires à cet objectif officiel.

La différence des redistributions sociales :

En privilégiant la concurrence, l’U.E. ne laisse aux états qu’une solution globale : réduire les prélèvements obligatoires. Ceci conduit à un nivellement par le bas des dépenses consacrées aux tâches régaliennes et à la politique sociale des pays.   

            Chacun peut avoir un avis sur le niveau souhaitable de la protection sociale et des prélèvements obligatoires associés. Ils sont sans doute trop élevés en France, mais il faut bien comprendre que la politique européenne contraint les états à les réduire.

 

Les conséquences des investissements nouveaux :

            Les nations européennes ne peuvent plus fixer le cours de leur monnaie,  n’ont plus de véritables banques nationales et doivent emprunter la monnaie bancaire nécessaire au fonctionnement de leur économie.

 

Les transferts de capitaux :

            La libre circulation des capitaux permet aux investisseurs de mettre en concurrence les nations, et de choisir la mieux disante. Les investisseurs peuvent mettre en concurrence les entreprises et sélectionner celles qui produiront les bénéfices les plus élevés. La libre circulation des capitaux conduit à maximiser les revenus du capital, face à des états impuissants.

 

La migration de travailleurs et de populations :

            La libre circulation des travailleurs tend à faire disparaitre les nations au profit d’une zone de libre échange soumise à la seule loi du marché. Le vote des étrangers serait l’aboutissement de cette destruction des états réduits au rôle de syndic de copropriété. La solidarité nationale serait alors un vain mot. Chaque habitant de l’Europe, riche ou pauvre,  pourrait choisir le pays présentant pour lui le plus d’avantages.

 

Construire un prédicteur global :

            Dans un monde ouvert, une économie nationale peut-être décrite par le modèle Oméga-Allais, à la seule condition de déterminer par ailleurs les l’influence du reste du monde sur les incitations à consommer et à investir. Il reste donc à décrire avec des méthodes analogues les interactions entre les différentes économies. Dans le cas de la France, le reste du monde pourra être assimilé à une économie unique, insensible aux fluctuations nationales.

 Bien évidemment, comme dans le modèle Oméga-Allais, toutes ces relations doivent être des fonctions temporelles faisant intervenir les valeurs passées des variables économiques.  

            Un ensemble minimal de  briques complémentaires doit permettre de modéliser les interactions internationales et de construire un prédicteur décrivant l’évolution d’une économie dans un monde  ouvert. Bien évidemment, ce modèle rendra compte des effets à moyen et long terme de politiques économiques, en particulier de celle de l’U.E.

Introduction des échanges extérieurs :

            Ceci impose quelques adjonctions au schéma et la mise au point de   relations temporelles nouvelles.

  • Demande intérieure : La valeur de la demande intérieure doit être corrigée pour prendre en compte les importations et les exportations.

  • Équilibres externes : L’ajout d’un taux de change réel, prenant en compte les écarts de compétitivité entre les nations, permet de prévoir l’évolution de la balance commerciale et d’une balance du travail non encore publiées dans les statistiques de l’INSEE.

Les importations et exportations se traduisent directement en données de la balance commerciale et de la balance du travail.

Le taux de change correspond à un taux global prenant en compte les taux de change corrigé des effets des différences entre le taux de charges français avec sa moyenne mondiale.

Les fonctions de ce module sont bien évidemment des relations temporelles qui restent à établir sur la base de l’analyse des crises passées.

  • Partage des investissements : La compétitivité entre les nations permet de répartir les investissements en tenant compte de la rentabilité espérée. Un faible taux correspondrait à la fuite des capitaux observée en 2000, lors de la libération des transferts de capitaux.

  • L’influence du chômage sur le taux de charge : plus le chômage croit, plus le taux de charges directes ou indirectes réduit la compétitivité des produits nationaux par rapport aux produits importés.

Il s’agit d’une réaction positive. Comme les autres, elle contribue à rendre l’économie de plus en plus instable.

  • La dette : Celle-ci est constituée d’un ensemble de composantes. Elle est alimentée par les flux suivants :
    • Le déficit de la balance commerciale,
    • Le déficit de l’état,
    • La fuite des capitaux,
    • Le solde des intérêts et dividendes payés à l’étranger…

 

Selon le schéma suivant, cette dette s’auto-entretient, son comportement étant également divergent :

Contrairement aux affirmations de nombreux économistes, le développement du commerce international ne contribue pas à stabiliser l’économie mondiale, mais bien au contraire de la rendre de plus en plus instable. Cette affirmation n’est basée sur aucune idéologie mais sur la modélisation des principaux mécanismes intervenant dans ces échanges.

La modélisation des relations entre les variables retenues :

            Toutes les relations temporelles entre ces variables doivent être causales. La plupart de celles-ci peuvent être estimées sur quelques exemples anciens, par exemple sur les événements de 1968 et de l’an 2000 qui sont les causes des crises de 1974 et 2007.

La libéralisation des transferts de capitaux de l’an 2000, bien qu’annoncé, a conduit de nombreux transferts pendant plus de deux années, et donc les conséquences n’ont été perçues qu’en 2007-2008, six ans plus tard.

L’analyse des transitoires observés dans les périodes de changes fixes peuvent préciser les phénomènes dynamiques à prendre en compte au cours des périodes de monnaie flottante.

Nous disposons donc d’éléments permettant de mettre au point un modèle dynamique d’économie nationale ouverte sur le monde, et de déterminer les conséquences d’une politique économique sur son évolution à long terme.

Là encore, l’U.E. ayant choisi le libéralisme interne et adopté une politique économique mondialiste, a laissé se développer, selon l’expression de Maurice Allais, le laisser-fairisme. Si rien ne change, le modèle ouvert, validé sur le passé, ne permettra que de prédire les étapes d’une faillite annoncée de notre économie.

Conclusion :

            Le modèle Oméga-Allais a démontré qu’il était possible de prédire l’évolution de l’économie française de 1968 à nos jours en ne prenant en compte que des données économiques objectives.  Le choc de 1968 n’est apparu clairement qu’en 1974, compte tenu des délais de réaction du système économique. La cassure de 1974 n’est alors que la conséquence des événements de mai 1968.

 Cette crise a été l’occasion d’un premier abandon de souveraineté, officialisé par la loi de réforme de la Banque de France de 1974, qui a imposé à l’état de recourir t aux capitaux étrangers pour financer ses dépenses.

L’intégration européenne s’est ensuite faite sur la base d’un libre échangisme européen, puis mondial. Les effets de cette politique étaient prévisibles. Maurice Allais n’a cessé de mettre en garde contre cette politique suicidaire. Pour lui, l’évidence empirique de l’absurdité de celle-ci, c’est-à-dire l’observation objective de ses résultats, aurait dû s’imposer à tous.

Nous savons maintenant que l’évolution actuelle de l’économie est parfaitement conforme aux décisions européennes. Tous pouvaient le pressentir. Il était même possible de faire des prévisions chiffrées, fiables à cinq ans, sur l’évolution de l’économie. 

En 1968, les français pouvaient préférer moins travailler pour avoir une vie meilleure.  C’était leur droit. Personne n’a voulu leur dire qu’ils ne pouvaient y parvenir sans choisir un modèle de développement, plus lent, et renoncer à une part de leurs dépenses non indispensables.

C’est pourtant ce qui s’est produit. La croissance a été divisée par deux après 1974. C’est bien le désinvestissement intervenu en 1968 qui est à l’origine de ce ralentissement, même si des explications circonstancielles comme la crise pétrolières ont pu être avancées.

La croissance continue de la dette extérieure de l’état et des entreprises a permis de maintenir le niveau de vie des français au dessus des possibilités de notre économie, mais nous disposions encore de moyens d’action sur l’économie.

L’introduction de l’EURO et la libre circulation des capitaux a détruit le reste de la croissance française. Dans les statistiques de l’INSEE, la croissance du PIB est largement due à l’évolution de son périmètre, imposée par les directives européennes.

Personne ne peut donc dire de bonne foi que cette évolution n’est pas la conséquence de la politique économique qui a été menée depuis plus de 30 ans.

La politique actuelle de l’UNION EUROPÉENNE est mauvaise :

Qu’attend-on pour en changer et prendre les mesures qui s’imposent ?

 

Pierre Fuerxer

Membre de l’AIRAMA

 

 

 

 

LE CHÔMAGE IMPORTÉ

Introduction :

               En France, le chômage ne cesse d’augmenter depuis 1974. Les responsables ont longtemps considéré que celui-ci était dû à une crise passagère et qu’il régresserait spontanément dès que l’économie repartirait. Maurice Allais a lié ce chômage de masse aux importations en provenance des pays à faible coût de main d’œuvre. Qu’en est-il exactement ? Peut-on conforter par des simulations l’évidence économique dont il parlait ?

 

Un phénomène mystérieux ?

               Maurice Allais, européen convaincu a dénoncé le rôle des importations dans le développement du chômage. Il expose ses arguments dans son livre sur l’Europe intitulé « La mondialisation, la destruction des emplois et la croissance », publié en 2007, avec le sous titre percutant, « l’évidence empirique« .

               Il publiera dans la presse divers articles montrant la réduction brutale de la croissance et la montée du chômage depuis 1974 (figure 1) :

Courbes de <abbr>PIB</abbr> et emploi publiées par Maurice Allais

Figure 1 : Courbes de PIB et emploi publiées par Maurice Allais.

               Cette cassure, que Maurice Allais attribue au développement du libéralisme, peut être reproduite par le prédicteur Oméga-Allais, comme les courbes suivantes le montrent :

Courbes calculées par le modèle Oméga-Allais Courbes calculées par le modèle Oméga-Allais

Figure 2 : Courbes calculées par le modèle Oméga-Allais.

Ces courbes confirment que cette réduction de la croissance résulte bien de la perte de compétitivité de l’industrie française due aux événements de mai 1968. En effet, il suffit d’introduire dans le modèle un retard de deux trimestres dans l’engagement des investissements pour reproduire la cassure de 1974. Ainsi, bien que la dévaluation intervenue en 1969 et la réévaluation du mark soient intervenues, la croissance de l’économie a été durablement réduite.

               La réduction de l’emploi industriel observée par Maurice Allais correspond alors directement au rapport entre le niveau du PIB réel avec celui qui aurait été atteint si la croissance n’avait pas été réduite par ce désinvestissement. Quant-à-elle, la dette correspond au manque de production industrielle par rapport à une consommation dopée par les accords de Grenelle.

               Ainsi, le maintien d’un pouvoir d’achat à un niveau proche de celui qu’il aurait atteint en l’absence du désinvestissement survenu en 1968, c’est-à-dire à un niveau supérieur à celui permis par la seule production nationale, a eu deux conséquences :

  • Une réduction de la part de l’industrie nationale dans la consommation qui induit une croissance du chômage. À moyen terme, le manque investissement réduit la croissance de la production nationale. L’augmentation du chômage correspond alors aux emplois qu’aurait dû créer l’économie pour maintenir le niveau de vie des français. Ceux-ci ont bien été crées, mais délocalisés à l’étranger.
  • Une dette extérieure de l’état et des entreprises (ou la vente de leur capital, ce qui est équivalent). Celle dette correspond à l’excès de consommation sur la production.

Ce mécanisme avait été clairement expliqué par Maurice Allais dans son livre publié en 2007.  Nous devrons donc considérer un nouvel indicateur économique, la balance du travail, explicitant l’effet des importations sur l’emploi.

 

Les causes du chômage selon Maurice Allais :

               Dans ses articles, Maurice Allais identifiait une cause structurelle souvent ignorée ou contestée du chômage : les importations en provenance des pays à faible coût de main d’œuvre, y compris de ceux appartenant à l’union européenne.

L’estimation du chômage induit par la mondialisation faite par Maurice Allais se fonde sur une remarque de bon sens : Il faut comparer entre elles les quantités de travail exportées et importées, donc prendre en compte la part salariale des objets importés de l’ensemble des pays à bas coût de main d’œuvre au prix de l’heure d’ouvriers français et non en prix de la main d’œuvre locale.

Toute importation correspond donc à une quantité de travail qui doit être comptée en heures et non en coût au taux de change en vigueur. Elle doit être valorisée au coût de la main d’œuvre française de qualification équivalente.

En sens inverse, les exportations françaises correspondent à des produits technologiques (par exemple des avions), c’est-à-dire à des heures de personnels très qualifiés, donc à des coûts horaires plus élevés. À prix égal, une exportation produit donc beaucoup moins de travail à la nation qu’une importation ne lui en coûte.

Nous devons alors considérer une nouvelle balance, La balance du travail comptée en temps de travail. Déficitaire, elle indiquera le niveau de chômage importé. Excédentaire, elle indiquera le niveau de travail importé.

Il est difficile de comparer les parts salariales des objets de fabrication locale avec celle des objets importés. Les statistiques ne peuvent estimer celles-ci de façon précise en nombre d’heures.

Sans reprendre les statistiques de 1997, une remarque de bon sens permet de contourner cette difficulté. En effet, la demande totale (somme de la consommation et des investissements), est directement  ou indirectement une consommation. Comme la consommation des ménages, les dépenses d’investissement se traduisent pour partie en travail, donc en salaires, et en consommation de ressources naturelles. Hors coût des matières premières, pays par pays, les temps de main d’œuvre sont donc indirectement proportionnels aux valeurs ajoutées.

Adoptons la démarche de Maurice Allais. Nous pouvons comprendre le mécanisme conduisant à importer du chômage en étudiant un exemple : les importations en provenance de la Chine.

             Pour déterminer le poids réel des importations, exprimé en perte d’emploi, il faut corriger le montant des importations de la façon suivante :

  • Tenir compte du niveau des coûts salariaux (6,2 plus faibles pour la Chine). En effet, la part de main d’œuvre contenue dans un produit importé de Chine aurait été 6,2 fois plus chère si elle avait été payée en France.
  • Prendre en compte tous les pays, internes ou non à la CE, sans oublier les importations indirectes. Celles-ci sont de la main-d’œuvre importée et doivent être comptabilisées de la même manière.
  • L’effet de la perte des emplois indirects (avec un facteur correctif supérieur à 1).

 

En 1997, le taux d’importation des produits en provenance de la Chine ne représentait officiellement que 1,2% du PIB, le poids de ces produits industriels n’était que 28% du PIB. Pour de nombreux économistes, ces importations avaient une influence négligeable, alors qu’en prenant en compte des écarts de coût salariaux, il aurait dû être estime à au moins 7,5% de l’emploi, soit plus de la moitié des pertes d’emploi industriel constatées.

 

Coûts horaires de la Main d’œuvre 1993 :

(toutes charges incluses)

Ouvriers qualifiés ou équivalent

En francs aux cours des changes

Groupe

Pays

Coût  (francs)

valeur relative

rapport

I

France

55

100

1

Madagascar

1,2

2

50

Viêt-Nam

1,5

3

36,7

Inde

2,6

5

20

Philippines

4

7

14

Thaïlande

5,5

10

10

Ile Maurice

5,75

10

10

Chine

9

16

6,2

Taïwan

23

42

2,4

Moyenne

 

7,8

12,8

II

Roumanie

2,5

5

20

Pologne

5

9

11,1

Ex-Tchécoslovaquie

11

20

5

Hongrie

11

20

5

Moyenne

 

11,8

8,6

III

Maroc

10

18

5,5

Tunisie

15

27

3,7

Moyenne

 

22

4,5

I+II+III

Moyenne Générale

 

10,2

9,8

 

               Figure 3 : Coût relatifs de main d’œuvre (la mondialisation, page 331).

 

La réduction de la croissance :

Maurice Allais présente comme une évidence la relation entre la mondialisation et la réduction de la croissance (du moins dans notre pays).  Il n’est pas nécessaire de rappeler que l’économie ne se développe que si des investissements conduisent à une offre, des revenus, et la demande correspondante.

Si une part excessive de la demande est satisfaite par des produits importés, la demande intérieure diminue. Il en résulte une baisse des profits générés, du volume de travail consacré, soit au maintien ou au développement de la production, soit à la consommation. Enfin, la libération des mouvements de capitaux permet à ces profits de rechercher la rentabilité maximale en soutenant l’activité économique des pays dans lesquels les coûts sont les plus faibles.

Nous devons donc considérer dans les relations internationales quatre flux: les produits, les investissements, le travail et les capitaux qui, comme la possession de ressources naturelles, permettent de constituer des rentes de situation. Les données statistiques correspondantes sont la balance commerciale, les investissements à l’étranger, la nouvelle balance du travail et enfin  les dettes, remboursables ou non, des états et des entreprises.

 

La balance du travail :

               Cette nouvelle balance, La balance du travail doit être comptée en temps de travail. Déficitaire, elle indiquera le niveau de chômage importé. Excédentaire, elle indiquera le niveau de travail importé. Pour établir cette nouvelle balance, nous devons prendre en compte, séparément pays par pays, et sans doute activité par activité, les importations et les exportations. Chaque transfert doit être valorisé en temps de travail, direct ou indirect, sachant que toute activité productrice est essentiellement des salaires, donc du temps de travail.

En 2009, alors que le solde des échanges avec la Chine était 22 G€, les importations depuis ce seul pays étaient de 30 G€, soit approximativement 1,5% du PIB. Le déficit de la balance commerciale était alors de 53,4 G€. La part de main d’œuvre contenue dans ces importations est sous-évaluée. En prenant la valeur publiée par Maurice Allais pour la Chine pour l’année 1993, le coût de main d’œuvre aurait été (6,2-1) fois supérieur pour une production en France, soit 7,8% du PIB.

Nous devons évaluer l’emploi supprimé par cette importation. Pour cela, admettons dans un premier temps que la totalité de la production résulte de coûts de mains d’œuvre. En effet, des mines d’où les matières premières sont extraites, aux circuits de distribution, les coûts résultent de salaires et profits qui finissent en consommation. Ainsi valorisée, cette importation correspondrait à 2 millions d’emplois perdus.

Les importations en provenance de la Chine ont été en 2012 de 41,4 G€, soit 2% du PIB et le déficit de la balance commerciale de 80 G€, soit 4% du PIB. Avec les mêmes paramètres, le nombre de chômeurs lié aux seules importations chinoises serait de 2,7 millions.

Bien évidemment, ce calcul n’a qu’une valeur explicative du mécanisme par lequel ces importations contribuent à la baisse de l’emploi industriel. Un calcul plus précis, pays par pays, permettrait de chiffrer de façon précise la part des importations provenant des pays à faible coût de main d’œuvre dans la hausse du chômage.

Il y a donc une relation directe entre le nombre de chômeurs et le niveau des importations en provenance des pays à faible coût de main d’œuvre.

Bien évidemment, comme la balance commerciale, cette nouvelle balance subirait les variations des taux de change et des évolutions sociales de nos partenaires économiques. Elle permettrait au moins de comprendre les vraies raisons du chômage lié à la mondialisation et de déterminer les actions susceptibles de le maitriser.

Comment peut-on espérer traiter un mal sans en avoir identifié les causes et trouvé les remèdes  à appliquer ?

 

L’évolution de l’emploi industriel :

               Pour calculer le niveau de la perte d’emploi, il faut donc considérer la totalité des importations des pays à faible coût de main d’œuvre  et le solde des échanges, et non seulement le déficit de la balance commerciale. Cette étude devrait porter sur tous les pays, y compris les pays de l’union européenne.

               Ensuite, ces données devraient être introduites dans un modèle dynamique analogue au modèle Oméga-Allais. Ceci permettrait de prévoir à échéance de plusieurs années les conséquences inévitables des distorsions sociales et monétaires entre les nations.

               Avant toute chose, nous devons mettre à jour les graphiques tracés par Maurice Allais en 1994. Nous disposons pour cela des statistiques de l’INSEE qui, malgré des modifications régulières des agrégats, permettent de bien comprendre l’inévitable régression de notre industrie.

               Nous trouvons les données suivantes :

  • Diverses statistiques de population qui présentent quelques discontinuités dues aux modifications de périmètre (la dernière modification étant la prise en compte de Mayotte).

Population françaiseFigure 4 : population française.

  • La courbe rouge est une ancienne série maintenant arrêtée,
  • La courbe bleue est la superposition de deux séries rouges et bleues nouvelles,
  • La courbe pointillée est la tendance moyenne observée depuis la cassure de 1974.

 

  • Des séries donnant l’emploi total et l’emploi salarié industriel (figure 5) :

Emploi total et emploi salarié industrielFigure 5 : Emploi total et emploi salarié industriel.

  • La courbe bleue correspond à l’emploi total,
  • La courbe rouge à l’emploi salarié industriel,
  • La courbe en pointillé verts correspond au taux de croissance moyen de la population.

Ces données permettent de mettre à jour la figure tracée par Maurice Allais à partir des statistiques disponibles en 1992 (page 126 du livre de Maurice Allais sur la mondialisation).

La politique économique libre échangiste adoptée en Europe depuis 1974 n’ayant pas varié, la destruction de l’industrie française s’est poursuivie, entrainant une croissance continue du chômage.

Pourcentage des emplois industriels dans la population activeFigure 6 : Pourcentage des emplois industriels dans la population active.

               La poursuite de la désindustrialisation au rythme actuel conduirait à la disparition totale de notre industrie dans moins de trente ans !

Pourcentage des emplois industriels : Extrapolation au rythme actuelFigure 7 : Pourcentage des emplois industriels : Extrapolation au rythme actuel.

               Chacun peut imaginer ce que serait une économie sans industrie, avec une agriculture endettée et dépendant totalement  de multinationales, des services entièrement Uberisés, avec un état incapable d’assurer ses fonctions régaliennes…

 

Les conséquences de la désindustrialisation :

               Bien évidemment, faute de volonté politique de rechercher les causes réelles du chômage, l’INSEE n’établit pas la balance du travail, mais il existe des indicateurs permettant de l’estimer. Considérons la série statistique donnant le volume des importations en provenance de la zone Asie du Nord (Japon, Chine, Corée notamment), d’où vient une grande partie des produits technologiques importés.

               Les figures 8 et 9 présentent ces données en valeurs mensuelles et annuelles de cette série statistique exprimées en millions d’Euros.

Nous observons qu’en dehors d’un léger fléchissement en 2009, le niveau de ces importations n’a cessé d’augmenter. En chiffres ronds, les importations de ces pays correspondent à 60 G€ par an, soit 3% du PIB.

Fabriqués en France, le coût de ces produits serait 18% d’un PIB qui augmenterait de 13%. Sa valeur deviendrait 115% de sa valeur actuelle. L’emploi industriel serait augmenté de 18% de l’emploi total, soit 4,8 millions, ce qui correspond grossièrement au chômage total français.

Figure 8 : série mensuelle des importations de la zone Asie du Nord.Figure 8 : série mensuelle des importations de la zone Asie du Nord.

Figure 9 : Série annuelle des importations de la zone Asie du Nord.Figure 9 : Série annuelle des importations de la zone Asie du Nord.

               Bien évidemment, nos exportations vers ces pays contribuent en sens inverse à la croissance de l’emploi, mais d’une façon marginale. Enfin, cette région du monde n’est pas la seule à considérer dans cette analyse. Nous ne produisons pratiquement plus de tissus et de vêtements et dépendons de nombreux fournisseurs étrangers : l’Inde, le Pakistan, le Bengladesh, la Turquie, la Somalie … Les emplois correspondants doivent être ajoutés aux précédents.

               La balance du travail est donc très négative, ce qui explique le sous-emploi actuel des français.

 

Une nécessaire analyse géopolitique :    

               Cette analyse des causes de chômage en France montre l’importance géopolitique du partage international du travail. En Europe, nous avons été habitués à penser que notre avance technologique justifiait notre niveau de vie comparativement élevé par rapport aux autres nations.

               Nous avons facilement accepté que les paysannes qui ramassent le coton vivent dans des conditions misérables. Nous acceptons aujourd’hui de délocaliser les productions de composants indispensables à l’économie numérique qui nous ferait entrer, nous assure-t-on, dans un avenir radieux. Que ferons-nous lorsque nous ne contrôlerons plus les technologies nécessaires ?

               Peut-on faire l’impasse sur ces questions qui ne peuvent être réellement abordées dans le cadre de cette étude limitée aux causes immédiates du chômage de masse que nous observons en France, mais qui sont un enjeu mondial pour nos sociétés ?

 

Des enjeux fondamentaux :

Les relations internationales dépendent de nombreux paramètres mais peuvent être résumées par deux indicateurs principaux : le flux des investissements, c’est à dire la balance entre les investissements français à l’étranger et des investissements étrangers en France, et la balance commerciale.

Elles dépendent également, selon l’expression de Maurice Allais des rentes de situations liées aux avantages naturels des pays (en particulier leurs ressources naturelles), et aux droits acquis (par exemple la possession du capital).

Dans un monde en équilibre, les échanges pourraient contribuer à un enrichissement mutuel des nations, chacune se spécialisant dans les produits pour lesquels elles sont les plus compétitives. Il en va différemment si le déséquilibre des échanges est associé à la liberté de circulation des capitaux.

Au déséquilibre des balances commerciales s’ajoute alors des transferts de capitaux qui permettent la mise en concurrence mondiale des entreprises. Toutes les formes de concurrence s’ajoutent les unes aux autres, et le dumping devient une pratique courante contre laquelle il n’y plus de protection possible.

 Enfin, en contribuant au développement de dettes abyssales des états et des entreprises, le chômage importé ne peut que conduire à des crises monétaires graves et à la faillite d’entreprises et de nations, mais cette question dépasse l’objet de cet article consacré au seul chômage importé.

Évaluer avec la plus grande précision possible les causes et le coût du chômage importé est donc fondamental pour la conduite de l’économie en vue du bien commun des nations.

L’INSEE ne devrait-elle pas publier une balance du travail, outil indispensable d’une politique économique ?  Selon le souhait de Maurice Allais, elle contribuerait ainsi à donner aux décideurs les outils permettant d’éviter le retour de catastrophes semblables à la crise de 1929, et de promouvoir le progrès social pour le bénéfice de tous.

 

Pierre Fuerxer (X 61)

Membre de l’AIRAMA.

 

 

 

 

 

Le principe de relativité

Ou l’universalité des lois de la physique.

 

Préambule :

            Au cours du 20° siècle, le principe de relativité a été au cœur des débats scientifiques. Il a conduit à la victoire des relativistes, et ringardisé les sceptiques. Il serait vain de revenir sur la bataille quasi idéologique qui les opposait.

 Un siècle après, l’observation de la déviation gravitationnelle de la lumière, et le triomphe de la théorie de la relativité générale, il est essentiel de revenir sur les relations entre les faits, les théories et les principes qu’elles doivent respecter.

Quels enseignements devons-nous tirer de cette période ?  Dans quel esprit devons nous aborder les défis scientifiques qui se présenteront à nous au cours de ce nouveau siècle ?

 

Un principe fondamental :

            Ce principe a été formalisé pour la première fois  par Henri Poincaré dans sa conférence de Saint-Louis en septembre 1904. Je cite sa définition : « principe de relativité d’après lequel les lois des phénomènes  physiques doivent être les mêmes, soit pour un observateur fixe, soit pour un  observateur entraîné dans un mouvement uniforme, de sorte que nous n’avons  et ne pouvons avoir aucun moyen de discerner si nous sommes, oui ou non, emportés dans un pareil mouvement« .

            Cette définition correspond au sujet essentiel qui préoccupait les physiciens à cette époque : justifier l’échec des expériences interférométriques de Michelson. Poincaré ne fait qu’affirmer un principe fondamental : les lois de la physique sont universelles et ne dépendent pas du laboratoire dans lequel on les étudie.

            Dans cette conférence de Saint Louis, il applique le principe de relativité à l’électro-magnétisme. Il prend comme hypothèse qu’il est impossible de mesurer la vitesse absolue de la Terre par des mesures interférométriques. Il formalise alors les invariances reconnues aux lois de la mécanique et les étends à l’électromagnétisme.  Cette position n’est pas dogmatique. C’est sur les bases des expériences de Michelson qu’il prend cette position et étudie la faisabilité d’une théorie électromagnétique nouvelle conduisant à la constance de la vitesse de la lumière.

 

La relativité classique :

            La mécanique classique respecte le principe de relativité. Ses lois sont conservée entre repères en translation uniforme l’un par rapport à l’autre, mais ne sont pas conservées entre repères en rotation, cette dernière propriété ayant été démontrée en 1851 par l’expérience du pendule de Foucault.  

            L’électromagnétisme ne semblait pas susceptible d’être relativiste dans les mêmes termes que la mécanique pour de nombreuses raisons.  La principale était que la propagation de la lumière à la vitesse « c », et les équations de Maxwell, supposaient implicitement l’existence d’un milieu de transmission.

 

La relativité de la mécanique classique :

            Les équations fondamentales de la mécanique sont clairement à l’origine du principe de relativité tel qu’il a été formulé par Poincaré en 1904. Elles sont conservées entre deux repères en translation rectiligne uniforme. La valeur de l’énergie cinétique est alors, en posant β=V/c :

            En l’absence de rotation, elles sont également conservées entre repères accélérés, sous réserve de tenir compte de l’accélération relative des repères qui est équivalent  à un champ de gravitation uniforme (Cette observation  conduira plus tard Einstein au principe d’équivalence, puis à la théorie de la relativité générale). La conservation de l’énergie étant bien évidemment assurée même si sa valeur diffère d’un repère à l’autre.

 

L’électromagnétisme classique :

            Les formules de l’électromagnétisme conduisent à des résultats analogues  à ceux de la mécanique. Elles permettent de calculer les forces appliquées à une charge électrique par les champs électriques et magnétiques qui l’entourent, ainsi que son énergie cinétique.

L’énergie cinétique d’un champ électromagnétique est toutefois différente de celles d’une masse mécanique. Des raisons théoriques conduisent à admettre que l’énergie d’un champ électrique (par exemple celui d’une charge électrique) d’énergie au repos d’énergie au repos E0 et de vitesse V est, en posant  β=V/c :

            Cette formule est analogue à celle de la mécanique classique, mais en diffère par l’introduction du terme 1-β2.

 

L’électromagnétisme classique est-il relativiste ?

            Ces formules découlant directement des lois de l’électromagnétisme classique sont clairement relativistes en admettant que le temps du repère en mouvement est ralenti dans le rapport γ de la relativité restreinte :

            Toutefois, la vitesse de la lumière reste anisotrope. Il suffit alors d’introduire un vecteur vitesse du milieu de propagation (ou anisotropie optique) pour prendre en compte cet effet. N’oublions pas que les équations, établies par Maxwell, justifient l’existence d’ondes électro-magnétiques de vitesse « c », ce qui semble impliquer la présence d’un milieu de propagation : l’Éther.  De plus, elles introduisent arbitrairement dans le vide un courant de déplacement dont la signification physique n’a pas été clairement établie.

            L’électromagnétisme classique est donc « presque » relativiste.

 

La relativité restreinte :

            Pour respecter la constance de la vitesse de la lumière, la relativité restreinte introduit deux modifications des lois de la physique :

  • La contraction de Lorentz qui a pour effet de réduire l’énergie d’une charge électromagnétique mobile dans le rapport γ,
  • Une modification complémentaire de la mécanique.

Ces modifications ne sont justifiées que par la nécessité de rendre la vitesse de la lumière identique dans tous les repères en translation rectiligne uniforme.

 

Un coup de pouce de la nature :

            Michelson avait voulu mesurer la vitesse absolue de la terre. L’échec de son expérience semblait ne pouvoir être expliquée que par l’invariance de la vitesse de la lumière lors d’un changement de repère.  Celle-ci  ne pouvait être alors qu’une constante universelle.

            Pour justifier cette invariance de la vitesse de la lumière, Lorentz avait imaginé une contraction des corps dans le sens du déplacement. Poincaré avait alors explicité les formules de changement de repère correspondantes et montré que ces transformations ont des propriétés remarquables (les mathématiciens disent qu’elles constituent un corps). En abandonnant la notion de temps absolu, ces équations introduisent un effet « stroboscopique » entre deux repères en mouvement relatif.

La contraction de Lorentz, « ce coup de pouce de la nature« , selon l’expression de Poincaré, reste toutefois justifié par un seul résultat expérimental : la constance de la vitesse de la lumière observée par Michelson.

 

Pouvait-on adopter d’autres approches théoriques ?

            Les échecs des expériences interférométriques de Michelson auraient-il s pu être expliqués autrement ? Le respect du principe de relativité proposé par Poincaré en 1904 imposait-il réellement d’abandonner à terme la géométrie euclidienne qui est et restera la base de notre culture scientifique ? Existe-t-il d’autres solutions relativistes, ou quasi-relativistes plus simples conceptuellement ?

            En un siècle, les immenses progrès de l’électromagnétisme permettent de se poser en termes nouveaux les questions qui préoccupaient les physiciens en 1905. Les calculs et les réalisations d’antennes à balayage électronique nous ont permis de mieux comprendre la propagation en champ proche. Les accélérateurs linéaires et cyclotrons ont permis des expériences nouvelles, riches d’enseignement, sur des particules de haute énergie. Les gyromètres Laser ont des performances incomparables avec le dispositif expérimental de Michelson et Gale qui, en 1925, a mis en évidence la rotation de la terre, grâce à l’effet Sagnac.

 

Les premières mesures d’électrons rapides :

            Oublions pour un temps d’expliquer les résultats de Michelson et considérons les résultats obtenus par Bertozzi en 1964, plus de 50 ans plus tard.

            L’énergie cinétique totale d’un électron semble mieux correspondre avec la formule suivante, légèrement différente de la formule de la relativité restreinte :

Dans cette formule W0 est l’énergie au repos de l’électron et Wm son énergie cinétique. Bien évidemment, pour les vitesses faibles de l’électron, cette énergie cinétique est celle prédite par la mécanique classique.

            Selon cette nouvelle hypothèse, l’énergie cinétique de l’électron correspondrait pour moitié à celle d’une masse mécanique et pour moitié à celle d’un champ électromagnétique (on rappelle qu’en 1900, Poincaré avait établi la formule donnant la masse d’une énergie : m=E/c2).

Pour les vitesses de moins de 80% de la vitesse « c » de la lumière, l’énergie cinétique de l’électron prédite par la nouvelle formule proposée reste très proche de la formule relativiste :

 Ces deux formules  ne diffèrent sensiblement que pour les grandes vitesses supérieures à 80% de « c » pour lesquelles la nouvelle formule semble plus proche des résultats expérimentaux.

 

La querelle relativiste :

            Les théories relativistes (restreinte puis générale) ont alors conduit à des controverses violentes entre partisans et opposants à ces nouvelles théories. Le fait que la vitesse de la lumière soit isotrope quelle que soit la vitesse du laboratoire était en soi surprenant.

            Mais cette découverte avait des implications, non seulement dans tout le domaine scientifique,  mais aussi dans ceux de la philosophie, voire du religieux. .. Certains ont confondu relativité et relativisme.

            D’autres pensaient qu’en mettant en cause l’existence  de l’Éther rigide du 19° siècle, et en ne prenant en compte que l’environnement propre de chaque observateur, cette théorie mettait en péril l’ensemble des connaissances longuement accumulées par les scientifiques.

            La relativité générale correspond à l’application du principe de relativité aux repères en accélération relative. En formulant le principe d’équivalence, Einstein avait prédit en 1912 la courbure gravitationnelle des rayons lumineux qui ne sera mesurée qu’en 1916. Malheureusement, les physiciens relativistes ayant  refusé de conserver toute notion de milieu de propagation des ondes lumineuses, ne pouvaient expliquer cette courbure des rayons lumineux par une variation gravitationnelle de la vitesse de la lumière.  

            La théorie de la relativité générale a donc dû faire appel à une géométrie, non euclidienne.  Cette nouvelle théorie de la relativité a alors été construite, en collaboration entre Einstein et Grossmann, sur la base de cette géométrie. Le refus d’accepter toute référence à un milieu de propagation, même fictif, avait amené les théoriciens à construire une théorie séduisante, mais d’utilisation bien très trop délicate pour être largement utilisée.

 

Peut-on faire confiance aux confirmations expérimentales ?

            Nous oublions trop facilement l’importance des progrès technologiques que nous avons connus depuis le début du 20° siècle. Réalisés avec la technologie d’aujourd’hui, les appareils utilisés par Michelson, Gale et Miller seraient considérablement plus performants. Les conclusions de ces expérimentateurs seraient-elles les mêmes ?

            N’oublions pas que l’horloge mobile de la relativité restreinte est ralentie dans un rapport directement lié à la vitesse de l’interféromètre (il a pour valeur la moyenne géométrique des vitesses d’ondes planes se déplaçant parallèlement et perpendiculairement au mouvement du repère).

            Il reste alors à expliquer le fait que l’interféromètre n’ait pas observé d’anisotropie de cette vitesse de propagation de la lumière dans le repère terrestre. Si Michelson avait connu les antennes RADAR à balayage électronique, il aurait pris conscience du fait qu’en champ proche, la vitesse de phase de la lumière n’est pas strictement celle des ondes planes. Ce n’est qu’en champ lointain, lorsque le lobe d’antenne est formé, que la vitesse de phase est égale à c. L’absence de déplacement des franges dans son interféromètre n’était donc pas la preuve de l’absence d’anisotropie de la vitesse de la lumière dans un  de repère en mouvement.

            Il en est de même pour les expériences de Michelson et Gale faites en 1925. Ces chercheurs voulaient observer la rotation de la terre, mais leur dispositif expérimental aurait très bien pu échouer. En effet, depuis que nous réalisons des gyromètres LASER, nous savons qu’ils sont aveugles lorsque leur vitesse angulaire descend en dessous d’un seuil donné. Ce phénomène est maintenant bien connu et clairement expliqué. Une vibration angulaire mécanique, imprimée au gyromètre, permet de masquer ce défaut qui réduirait grandement  le domaine d’emploi de ces dispositifs.

            Quels développements théoriques aurait-on fait en 1925 si Michelson et Gale n’avaient pas décelé la rotation de la terre ? En aurait-on conclu que les lois de la physique devaient être conservées entre repères en rotation ?

 

Comment valider les hypothèses scientifiques ?

            Nous disposons aujourd’hui d’une technologie incomparable avec celle du début du 20° siècle. Il serait donc intéressant de refaire, avec la technologie moderne, les expériences fondatrices de notre physique en évitant toute modification des dispositifs  pouvant fausser les résultats.

            Observons sur un exemple comment des changements, apparemment sans importance, peuvent modifier totalement le résultat d’une expérience. Depuis Michelson, de nombreux interféromètres ont été réalisés. Les plus grands ont pour objectifs de détecter les ondes de gravité prédites par la théorie de la relativité. Cependant, ces équipements ne sont pas des interféromètres de Michelson. Ils sont différents mais abusivement désignés sous le nom.

Considérons en effet l’interféromètre Franco-italien VIRGO. Il est composé de deux interféromètres « Fabry-Perot » de type plan convexe de 3 Km de long, dont les réponses sont  comparées en phase. Les directions de propagation des ondes, imposées dans chacun des bras par les « Fabry-Perot »,  est une propagation en champ proche. Au contraire, dans l’interféromètre de Michelson, la propagation des ondes se fait en espace libre entre la source optique et le détecteur. Ces deux dispositifs ne sont donc pas comparables.

 

Vers un effondrement de la théorie de la relativité ?

            Supposons qu’un interféromètre de Michelson moderne, plus sensible que le plus grand jamais réalisé par Miller, confirme l’existence d’une anisotropie optique de l’espace ?

Cette découverte ruinerait-elle tous les acquis scientifique du 20° siècle ?

 Certainement pas, mais il faudrait se demander comment construire une nouvelle physique respectant l’ensemble des principes énoncés par Poincaré en 1904, y compris le principe de relativité.  Essayons d’imaginer ce que serait cet événement, s’il se produisait.

 

Un rêve de physicien :

            En conclusion d’en exposé fait en 2011 à l’URSI, j’affirmais le rôle essentiel du rêve dans la recherche scientifique. J’écrivais : « Ayant pris conscience de la fragilité des bases expérimentales et conceptuelles de la physique moderne, les étudiants et chercheurs pourront explorer des voies nouvelles. Libre de laisser leur imagination construire, sur les mêmes faits expérimentaux, des concepts et des représentations concrètes des lois de la physique, ils pourront faire preuve de créativité« .

            Bien évidemment, science et science fiction n’étant pas de même nature, les rêves doivent être en permanence confrontés aux réalités expérimentales. Toutes les explications équivalentes des faits expérimentaux doivent être jugées également recevables.

            Pendant longtemps, les physiciens se sont classés en relativistes et anti-relativistes. Des personnalités aussi différentes que Pierre Tardi, que j’ai eu comme professeur d’astrophysique à l’École Polytechnique, ou Maurice Allais ne cachaient pas leur réticence ou leur opposition radicale à la théorie de la relativité générale. Le conflit idéologique qui a déchiré las physiciens semble maintenant terminé. Profitons-en pour nous poser une question iconoclaste :

Que se serait-il passé si Michelson avait détecte le mouvement de la terre ?

 

La construction d’une autre relativité :

            En 1925 la mesure d’une dissymétrie optique de l’espace par Miller et de l’effet Sagnac par Michelson et Gale auraient pu initialiser une mise en cause des concepts relativistes. Si ces résultats avaient été indiscutables, ils auraient confirmé l’existence d’un milieu de transmission des ondes électromagnétiques, appelé Éther. Les physiciens auraient construit la physique sur des concepts différents.

            L’existence d’un milieu de propagation des ondes électromagnétiques ayant été confirmée, ils auraient naturellement admis que la courbure gravitationnelle des rayons lumineux, vérifiée expérimentalement en 1916, résultait d’une modification gravitationnelle des caractéristiques de ce milieu.

            L’incohérence apparente des mesures de vitesse de la terre faites par l’interféromètre de type Michelson, utilisé par Miller au Mont Wilson, les aurait incités à admettre que l’Éther n’est pas un solide mais un fluide…

            A ce propos, je tiens à dire qu’au cours des JINA (Journées Internationales de Nice sur les Antennes), sans doute en 1986, un élève du Professeur Papiernik avait présenté, hors sessions officielles, une image iconoclaste : le champ électromagnétique derrière un obstacle. Son codage des données faisait apparaître des allées de Von Karmann, ensembles de tourbillons observés en hydrodynamique. Il avait ajouté que ce n’était pas surprenant, puisque les équations sont les mêmes.

            Cette nouvelle théorie entreprendrait de décrire de nombreux phénomènes actuellement inexpliqués, comme les difficultés rencontrées dans l’utilisation du vecteur de Poynting.

 

Une compréhension nouvelle du principe de relativité :

            Les physiciens devraient-ils pour autant dû rejeter le principe de relativité ?

Certainement pas. Poincaré avait cité la constance de la vitesse  de la lumière comme axiome de la nouvelle physique par respect pour les faits. Il s’agissait d’un résultat expérimental que la physique devait prendre en compte. Si de nouvelles expériences avaient infirmé ce résultat, il aurait abandonné ce choix et aurait reformulé en d’autres termes son principe d’universalité des lois de la physique.

            Considérons maintenant le principe d’équivalence proposé par Einstein. Ce principe affirme l’équivalence locale entre accélération et forces de gravitation. Ainsi, la propagation optique est perturbée de la même façon par un champ de gravitation ou par l’accélération du repère dans lequel  elle est étudiée. Pour que les lois de la physique soient indépendantes du repère, ne suffisait-il pas d’introduire dans les lois de l’électromagnétisme l’effet du champ de gravitation ?

            De la même façon, pourquoi l’anisotropie de l’espace ne correspondrait-elle pas à une vitesse du milieu de propagation ? Ceux qui refuseraient d’admettre l’existence de ce milieu pour des raisons philosophiques n’auraient  qu’à dire qu’il est fictif, un simple artifice de calcul. Par souci de neutralité, ne pourrait-on pas parler que d’un vecteur d’anisotropie ?

            Enfin, la dérive vers le rouge du rayonnement des galaxies lointaines serait seulement une indication de distance ; Pourrait-il, au gré des physiciens,  ne pas être  attribué à un effet Doppler ?

 

Pourquoi un tel retour en arrière ?

            Cette nouvelle approche de la physique aurait trois avantages  essentiels :

  • Permettre d’utiliser le savoir mathématique accumulé au cours des siècles, en particulier la géométrie euclidienne, base de notre culture scientifique.
  • Recréer un temps et un espace absolu, condition nécessaire au respect de nombreux principes, en particulier celui de la conservation de l’énergie.
  • Enfin, et ce n’est pas le moindre avantage, permettre de conserver intégralement les acquis de la mécanique et de l’électromagnétisme classiques qui deviendraient relativistes au sens du principe de relativité de Poincaré.

 

Un nouveau domaine de recherche :

            Cette nouvelle physique ne sera réellement construite que lorsque les propriétés du milieu de propagation des ondes électromagnétiques (fictif ou non) seront clairement établies. Celles-ci devraient être analogues à celles d’un fluide. Comme en hydrodynamique, les lois reliant les variations de la vitesse des ondes et de la direction de sa vitesse pourront être établies en variables de Lagrange ou d’Euler. De toutes façons, l’usage d’un repère espace-temps absolu redevient nécessaire.

 

Conclusion :

               La science doit reconnaître avant tout la primauté des faits. Maurice Allais n’a cesse de rappeler cette vérité, aussi bien en économie qu’en physique. Les théories doivent expliquer les faits, donner des résultats précis et avoir des applications concrètes.

               La physique doit respecter ses principes fondamentaux, en particulier le principe de relativité, mais avant tout décrire objectivement les faits. En 1904, en énonçant les principes de la physique, Poincaré citait la constance de la vitesse de la lumière pour une unique raison : rendre compte du résultat paradoxal d’une expérience. Il avait supposé la constance de la vitesse de la lumière avéré.

               Aujourd’hui, compte tenu des progrès scientifiques, il est raisonnable de mettre en doute l’interprétation par Lorentz de l’expérience de Michelson. Si celle-ci s’avérait erronée, la théorie de la relativité actuelle devrait être abandonnée au profit d’une autre théorie également conforme au principe de relativité.

               Si une nouvelle expérience montrait un jour que Lorentz a été victime d’une simple erreur expérimentale, comment nos successeurs pourraient-ils comprendre que nous ayons fait une confiance aveugle à Michelson ? Qu’ensuite nous ayons persisté dans l’erreur au nom d’un principe mal appliqué ?

Compte tenu des progrès de la technologie et de nos connaissances, nous devons constamment vérifier les hypothèses sur lesquelles reposent nos théories, et en particulier la contraction de Lorentz.

               Que penseront de nous nos descendants s’ils apprennent que nous avons négligé une tâche aussi fondamentale ?

 

Pierre Fuerxer

 

Ancien adjoint militaire au directeur de Centre National d’Études des Télécommunications,

Membre de l’AIRAMA.

 

 

 

 

 

Prévisions économiques 2016-2020

 

            Le modèle Oméga-Allais fait des prévisions sur la base des mécanismes de l’économie réelle. Il extrapole l’évolution  de l’économie à partir d’une modélisation du comportement dynamique des acteurs économiques, les entrepreneurs et les consommateurs.

            Cette démarche correspond à celle adoptée par Maurice Allais pour prédire la demande de monnaie avec son modèle « Héréditaire, Relativiste et Logistique » (voir l’article de Philippe Bourcier de Carbon ).

Des prévisions à 4 ou 5 ans ne peuvent tenir compte des aléas conjoncturels liés aux variations des marchés, des taux d’intérêt, du prix du pétrole et des mesures d’incitation fiscales. Nous ne publions donc qu’une fois par an de nouvelles prévisions sur quatre ou cinq ans qui ne peuvent tenir compte de ces incitations.

 

Rappel des prévisions faites fin 2014:

            En 2015, nous avions fait des prévisions sur la base des séries économiques en base 2005 publiées par l’INSEE. Ces données statistiques avaient été prises en compte jusqu’en fin 2014.

Prévisions faites à partir de fin 2014Figure 1 : Prévisions faites à partir de fin 2014.

  • La courbe verte correspond aux valeurs de PIB en base 2005 publiées en 2014 par l’INSEE.
  • La courbe bleue était la prévision faite à partir de 2005, en tenant compte de la fuite des capitaux publiée par la Banque de France (valeurs annuelles connues jusqu’en 2010). Ces prévisions étaient validées jusqu’en 2015, soit sur 10 ans.
  • La courbe rouge était une prévision faite en supposant la fuite des capitaux terminée après 2010. Compte tenu du délai moyen entre les décisions d’investir et la croissance de la production, l’économie était alors supposé libre de toute influence extérieure postérieure à 2010.

            Evidemment, ces prévisions  supposaient  la constance des influences conjoncturelles extérieures : croissance de la dette, taux d’intérêt, prix du pétrole qui ont un effet quasi immédiat…

Prévisions faites fin 2015 :

            Nous pouvons mettre à jour ces prévisions à long terme faites fin 2014 en introduisant dans le modèle les données de PIB observées en 2015. Les résultats sont les suivants :

Prévisions fin 2015Figure 2 : Prévisions fin 2015.

             Sur le fond, ces prévisions sont évidemment très voisines, mais ne peuvent être directement superposées en raison de nombreuses  modifications des séries statistiques :

  • Les montants ne sont plus en euros 2005 mais en euros 2010,
  • La série de valeurs du PIB publiées par L’INSEE sont en base 2010. Elle a été ajustée pour neutraliser les effets des différences entre les bases 2005 et 2010.
  • La hausse du périmètre de PIB introduite par les directives européennes a été intégrée.

 

La modification des bases de l’INSEE conduit en effet à une forte croissance apparente du PIB qui apparaît dans la figure suivante (figure 3).

Figure 3 :

  • La courbe rouge correspond aux valeurs publiées en base 2005,
  • La courbe bleue correspond aux valeurs en base 2010.
  • Les deux courbes sont recalées pour tenir compte de la variation de l’EURO.

 

La croissance observée depuis 2005 apparaît essentiellement due à l’évolution progressive de la base sur laquelle le PIB est calculé. Elle est donc largement artificielle.

 

Evolution entre ces prévisions :

Comme cela a été dit, ce modèle de prévision ne prend en compte ni les fluctuations liées à la conjoncture internationale,  ni celles résultant des effets à court terme des différentes incitations monétaires et fiscales.

La conjoncture actuelle est exceptionnellement favorable. Ceci a retardé la baisse attendue du PIB. Toutefois, le modèle Oméga-Allais n’a pas changé d’orientation. Il continue à prévoir pour 2020 une forte baisse du PIB.

L’investissement restant inférieur au niveau nécessaire au maintien de la production industrielle, la tendance ne peut s’inverser que très temporairement en raison de mesures conjoncturelles dont les conséquences à long terme risquent d’être catastrophiques.

Un retour à une conjoncture économique mondiale moins favorable (prix du pétrole et taux d’intérêt) conduirait mécaniquement à une baisse du PIB de l’ordre de 7% et pourrait amorcer une crise d’une ampleur incomparable avec celle de 2007-2008.

Pierre Fuerxer,

Membre de l’AIRAMA

 

 

Télécharger en PDF

 

 

Une reprise réelle ou fictive ?

Dans une période pré-électorale, les indicateurs économiques ont toujours été l’objet de polémiques. Les commentateurs focalisent leur attention sur l’évolution de quelques données macro-économiques sans en étudier les causes de leurs variations.

Les responsables politiques veulent à tout prix montrer que leur action a permis le redressement de l’économie. La majorité au pouvoir assure que sa politique, quelle qu’aient été ses résultats, va assurer la croissance du PIB, la réduction du chômage, en un mot la prospérité du pays. Bien évidemment, les oppositions présentent des solutions différentes, ou simplement des variantes de la politique menée par l’équipe sortante.

En fin de compte, une forme de politiquement correct s’impose au nom d’une mondialisation irréversible à laquelle les nations devraient se soumettre aveuglément. Pourquoi ne pas chercher, en appliquant les résultats de la science économique, à élaborer une politique économique nationale ? Pourquoi les états devraient se résigner à l’impuissance alors que la science économique met à leur disposition les outils permettant de prendre les bonnes décisions ?

 

Les outils théoriques :

Maurice Allais, fidèle à sa notion d’évidence empirique, avait décrit dès 1999 les premiers effets de la mondialisation. Aujourd’hui, le modèle Oméga-Allais permet d’expliquer  ses intuitions.

 

La cassure de 1974 :

Sur les données de 1955 à 1993, Maurice Allais explicitait l’effet sur le Produit Intérieur Brut et  l’emploi industriel de la cassure de 1974.

 

Figure 1

Figure 1

 

Ainsi, le taux de croissance français avait été divisé par deux en 1974, bien que notre indépendance monétaire ait laissé aux gouvernants des moyens d’action économique (création monétaire et dévaluation) qu’ils n’ont plus aujourd’hui.

Le modèle Oméga-Allais permet de décrire l’effet des désinvestissements résultant des événements de 1968, et d’en déterminer avec précision les conséquences à long terme :

Figure 2a Figure 2b
Produit intérieur brut Emploi industriel

Figure 2

 

Par ailleurs, le modèle démontre que cette cassure de 1974 est directement liée aux événements de mai 1968. Celle-ci apparaît clairement comme la conséquence à long terme d’un premier désinvestissement, lié à l’arrêt temporaire de l’industrie et aux accords de grenelle, dont les effets sur le PIB n’ont été perceptibles que six ans plus tard.

 

La cassure de 2007 :

Maurice Allais, européen convaincu, avait critiqué dès 1992 les « Erreurs et impasses de la construction Européenne ». Les conséquences, parfaitement prévisibles, de ces erreurs ont conduit aux difficultés actuelles. La libéralisation non préparée des transferts de capitaux à conduit à un désinvestissement en France dont les effets étaient tout autant prévisibles.

 

Figure 3

Désinvestissement trimestriel en France depuis 1997(estimé par interpolation avant 2012).

Figure 3

 

En 2013, un calcul prenant en compte un désinvestissement unique de 110 M€ effectué en 2000 conduisait aux valeurs de PIB observées. Les résultats ont été présentés fin 2013 lors d’une conférence de presse à la Maison de l’Amérique Latine.

Figure 4

Figure 4 : Prévision de 2007 à 20013.

 

Ce test valide parfaitement le fonctionnement du prédicteur Oméga-Allais qui fournit d’excellentes prévisions à cinq ans. Nous constatons que sur les données de 2007, le modèle prédit très précisément les valeurs de PIB qui seront effectivement observées.

Comme pour la cassure de 1974, ce fait montre que la cause principale de cette crise est la libéralisation des mouvements de capitaux, et non les effets de fluctuations économiques mondiales.

 

 

Les limites d’une prédiction :

Les prévisions faites par le modèle supposent implicitement que l’influence des événements monétaire extérieurs sur l’économie a été prise en compte. En effet, au cours de cette période, le déficit de la balance commerciale a été compensé par l’accroissement de la dette publique et la vente de biens du patrimoine national. De même, la mondialisation a permis aux entreprises de faire face à leurs besoins financiers grâce à des investisseurs étrangers, donc en fait de nouvelles dettes. Toutefois, l’accumulation de ces dettes n’a pas donné lieu à une crise ouverte.

Une logique comptable qui considère la vente du patrimoine comme une ressource, sans faire de différence entre une gestion rigoureuse et l’abandon d’un patrimoine stratégique dont les conséquences n’apparaîtront qu’à long terme, a masqué temporairement les conséquences de nombreux renoncements.

Le poids de ce que Maurice Allais appelait « les rentes de situation » est donc encore peu visible, mais ne peut que s’alourdir à terme. Maintenant, nous ne dépendons plus de l’étranger que pour notre approvisionnement en matières premières, en particulier en pétrole, mais aussi en technologies que nous ne maitrisons plus et en capitaux dont nos entreprises ont besoin. Le répit lié à la baisse du prix du pétrole et au coût du crédit sera de courte durée…

Le modèle Oméga-Allais permet de déterminer l’effet à long terme d’une incitation à investir. De même, il permet de chiffrer l’effet quasi immédiat d’une distribution de revenu, fruit supposé de la croissance… L’analyse de la réponse transitoire du modèle montre que, faute de pouvoir utiliser les leviers auquel notre pays a choisi de renoncer (en particulier la dévaluation, la création monétaire par la Banque de France, les droits de douane…), les différentes incitations gouvernementales ne peuvent avoir d’effet à long terme notable.

 

Des prévisions fiables à cinq ans ?

Le prédicteur Oméga-Allais a été construit sur une modélisation réaliste du comportement des acteurs économiques : entrepreneurs et consommateurs. L’exemple des crises (1974 et 2007) a validé l’existence d’un délai de six ans entre les décisions des entrepreneurs et les variations du PIB. En effet, la croissance n’a été réduite que six ans après les désinvestissements important qui en ont été la cause. Il n’y a donc pas de raison de penser que ce modèle ne puisse prédire l’évolution à cinq ans de l’économie, en l’absence de crise monétaire Majeure susceptible de paralyser le pays.

En 2015, nous avons donc refait de nouvelles prévisions sur la base des séries économiques mises à jour. La courbe verte correspond aux valeurs de PIB publiées fin 2015 par l’INSEE.

 

Figure 5

Figure 5 : Prévisions fin 2014.

 

La courbe bleue correspond aux prévisions faites depuis 2005, en tenant compte des désinvestissements en France comptabilisés par la Banque de France. La courbe rouge correspond à une prévision brute faite à partir de 2015, sans tenir compte des désinvestissements passés.

Ces deux prévisions sont très voisines. En effet, quinze ans après la libéralisation des transferts de capitaux au sein de l’UE, les effets du choc économique que cette décision a produit en France sont largement amortis. Il n’est donc plus strictement nécessaire de prendre en compte, dans l’initialisation du prédicteur  les valeurs du désinvestissement observé actuellement par la Banque de France.

 

 

Les conditions d’une bonne prédiction :

Les exemples précédents ont montré que l’évolution à cinq ans de notre économie a été prévisible des années 60 à nos jours, en ne faisant intervenir que de rares événements perturbateurs : mai 1968, la libéralisation des transferts de capitaux en l’an 2000. Les crises moins violentes dont parlent les commentateurs ne sont souvent que des fluctuations naturelles d’une activité économique largement prévisible. Seuls les événements majeurs, liés au contexte international ou à des événements politiques graves, ont une réelle influence sur l’économie.

 

En effet, des événements comme la crise de 1929, qui a conduit Maurice Allais à s’intéresser à l’économie, ou des guerres peuvent conduire à de véritables ruptures des équilibres économiques dont les conséquences restent imprévisibles. Dans notre pays, la crise de 1968 ou la construction européenne ont eu des conséquences moins dramatiques, mais très importantes à long terme.

 

Une bonne connaissance du passée :

Une bonne connaissance de l’évolution passée de l’économie est indispensable à l’établissement de prévisions à long terme. Le prédicteur Oméga-Allais permet de mettre en évidence cette nécessité.

Considérons un prédicteur initialement dans un état stable. Excitons-le par une perturbation externe au temps t = 0. Observons son évolution naturelle au cours du temps. Faisons ensuite une série de prévisions à partir des instants t1, t2, t3,… Le prédicteur extrapole alors la suite des valeurs observées au-delà des temps t1, t2, t3,…

 

Figure 6

Figure 6 : Effets transitoires des chocs externes.

 

Les courbes de la figure 6 correspondent à l’évolution d’une variable interne du système économique (par exemple le PIB) et aux prédictions associées. La courbe rouge en trait plein correspond à l’évolution du système. C’est la série économique à prévoir.

Au cours du temps, le prédicteur  prend en compte les valeurs économiques disponibles les plus récentes. Les courbes en pointillé correspondent aux prévisions économiques  successives faites par le prédicteur aux temps 2, 3, 5, 10 et 15, sans tenir compte de là perturbation initiale du système économique (courbes pointillées rouge, bleue, verte, cyan et marron).

Nous constatons que les prédictions ne deviennent précise que 15 ans après la fin  de la perturbation initiale du système économique. L’évolution de l’économie dépend donc des perturbations passées dont l’identification au cours des quinze dernières années est indispensable.

 

La nécessaire stabilité des agrégats statistiques :

D’autre part, il est essentiel que les séries économiques soient cohérentes dans le temps, c’est-à-dire que les agrégats statiques ne soient pas modifiés au cours de la quinzaine d’années précédant  le début de la période à prédire. Si tel n’est pas le cas, la qualité des prédictions est très dégradée.

Naturellement, les organismes officiels affinent constamment leurs outils. Les bases statistiques sont régulièrement modifiées pour tenir compte de l’évolution de la société. Des changements de base ont donc lieu régulièrement, actuellement tous les 5 ans (1995,2000, 2005, 2010).

Les dernières bases statistiques retenues par l’INSEE ont été modifiées conformément à une directive Européenne. Ces modifications ont été introduites progressivement de façon à assurer la continuité apparente des séries statistiques. La figure 7 présente les deux dernières séries de valeurs du PIB en bases 2005 et 2010.

Curieusement, ces deux courbes différent dans deux périodes distinctes. Dans les années 50, ce qui n’a pas d’importance réelle. Pour la période postérieure à 2005, ce qui est préoccupant car les séries sont fortement différentes en base 2005 et en base 2010.

 

Figure 7

Figure 7 : statistiques du PIB : courbe rouge : base 2005, courbe bleue : base 2010.

 

Figure 8

Figure 8 : Détail des valeurs de 1995 à 2015.

 

Il y a là une anomalie qui doit être expliquée. En effet, l’INSEE explique la variation du PIB entre ces deux séries numérique par l’introduction progressive des nouveaux agrégats.

Selon l’INSEE, le changement de  base a conduit à reconstruire l’ensemble des comptes trimestriels, c’est-à-dire à ré-estimer tous les modèles à partir des comptes annuels et des indicateurs conjoncturels, sur l’ensemble de la période 1980-2013.

En base 2010, l’Insee comptabilise en investissement les sommes que les agents économiques (entreprises privées, mais aussi organismes publics) dépensent pour la R&D. Traiter en investissement les dépenses de R&D permettrait de mieux rendre compte du poids de plus en plus important des actifs tirés de la propriété intellectuelle dans l’économie d’aujourd’hui.

La base 2010 se caractérise par des innovations importantes sur le plan conceptuel dans les comptes non financiers :

  • Une définition élargie des actifs et de l’investissement,
  • Les échanges internationaux sont comptés différemment (un produit n’étant pas passé physiquement sur le territoire national peut être comptabilisé comme importé puis exporté).

 

En fin de compte, l’INSEE prend en compte la financiarisation croissante de l’économie.

Cependant, la différence entre les deux séries, qui reste à expliquer, est beaucoup plus grande que les 3,2% annoncés.

 

Les effets de la politique monétaire:

Des événements monétaires importants ou lieu ces derniers temps :

  • La baisse du prix du pétrole et de l’Euro,
  • La réduction historique de coût de crédit aux États Unis puis en Europe.

 

Ces décisions correspondent à des objectifs conjoncturels, liés à l’évolution des échanges mondiaux et aux politiques des différents intervenants. Elles tiennent compte également à des échéances électorales françaises et européennes.

Ces changements ont eu sur l’économie française des effets incontestables :

  • Une réduction du déficit de la balance commerciale,
  • Une réduction du coût des dettes de l’état et des entreprises,
  • Une relance de la construction et de la consommation.

 

Ces évolutions monétaires liées à l’évolution de l’économie mondiales expliquent la croissance récente du PIB. La réduction de toutes ces dépenses conduit mécaniquement  à une hausse de la demande intérieure, donc du PIB.

La France va donc mieux puisque ses dettes lui coutent moins cher, mais cela ne signifie pas que l’économie française aille mieux ! Pour étudier l’évolution du système économique, est donc indispensable de séparer les tendances à long terme propres au système économique des effets quasi-immédiats des fluctuations monétaires mondiales.

 

 

Quelles prévisions faire fin 2015 ?

Nous pouvons maintenant mettre à jour les prévisions faites fin 2014. Les résultats sont les suivants :

 

Figure 9

Figure 9 : Prévisions fin 2015.

 

Ces deux prévisions sont évidemment très voisines. Elles ne peuvent être directement superposées en raison de nombreuses modifications de détail entre les séries statistiques :

  • Les montants ne sont plus en euros 2005 mais en euros 2010,
  • La série de valeurs du PIB a été modifiée pour neutraliser les effets à court terme de la conjoncture mondiale sur notre économie (en particulier celle des taux d’intérêt),
  • La hausse du périmètre de PIB introduite par les directives européennes a été intégrée.

 

 

Enfin, ces prévisions supposent l’invariance de l’environnement international actuellement très favorable. Un retour aux conditions précédentes (prix du pétrole et taux d’intérêt) conduirait rapidement à une baisse de 7% du PIB.

Année après année, un effort de réduction de la dette ne manquerait pas de réduire non seulement le PIB, mais aussi la croissance, c’est-à-dire enfoncer l’économie française dans une récession de plus en plus grave.

 

 

Conclusion :

Il ne faut pas nier que les perspectives d’évolution à long terme de l’économie française ne sont pas bonnes bien que notre pays ait des atouts et que nous disposons d’outils théoriques permettant de concevoir puis valider une politique économique ambitieuse.

Depuis le début des années 90, Maurice Allais n’a pas cessé d’alerter l’opinion sur les erreurs commises dans la construction européenne. Vingt cinq ans plus tard, il faut reconnaître que ses critiques étaient justifiées.

La plupart des européens, et en particulier des français, ne savent pas identifier les causes de la crise européenne. Toutefois, ils comprennent  que l’Europe n’a pas tenu ses promesses.  Bien loin des théories économiques, « l’évidence empirique » chère à Maurice Allais leur prouve qu’il faut changer de méthode. Une véritable reprise de notre économie ne sera possible qu’en adoptant une politique économique radicalement nouvelle. La poursuite de la politique économique actuelle ne peut conduire qu’à un déclin de plus en plus rapide de notre économie, entrecoupé de rémissions artificielles liées à des mesures conjoncturelles associées aux échéances électorales.

La science économique montre qu’un redressement est possible mais que l’effet des mesures courageuses à prendre ne sera visible qu’après un délai de cinq à dix ans. Est-ce compatible avec le fonctionnement de notre démocratie ?

La condition préalable à un redressement de notre économie est que nous puissions à nouveau utiliser les outils dont la construction européenne nous à privés : une monnaie indépendante, le contrôle de la création monétaire, la possibilité d’actions sectorielles par des cotas d’importation et la fixation de droits de douane…

Sans un changement radical de politique économique, il ne pourra y avoir aucune reprise durable.

 

Pierre FUERXER
Membre de l’AIRAMA.