Les modèles mathématiques sont-ils fiables ? Le paradoxe de la comparaison du climat, de l’épidémiologie et de l’économie 

8 juin 2020 - Posté par Alain Grandjean - ( 0 ) Commentaires

Tweet about this on TwitterShare on FacebookShare on LinkedIn
jcomp - fr.freepik.com
Credit : jcomp - fr.freepik.com

Le président de la République a créé plusieurs commissions « de haut niveau », certes dans des formats un peu différents, mais qui montrent dans tous les cas sa volonté de s‘entourer de garanties scientifiques pour fonder et légitimer ses décisions aux yeux de l’opinion. Nous ne discuterons pas ici de la question du lien entre la science et la décision politique mais soulignerons un paradoxe remarquable quand on compare trois domaines d’application récente de ce dispositif : le climat (avec le Haut Conseil pour le Climat[1]), la pandémie (avec le conseil scientifique Covid-19[2] et le Comité analyse, recherche et expertise, CARE, Covid-19[3]) et maintenant l’économie avec la commission Blanchard-Tirole[4]. Ce sont trois domaines où les mathématiques sont fortement mobilisées pour faire des modèles interprétatifs ou prédictifs. L’expertise ne se limite bien sûr pas à la modélisation quantitative. Mais celle-ci a une importance toute particulière dans un monde « gouverné par les nombres » selon la thèse d’Alain Supiot[5]. Elle permet aussi de crédibiliser les théories sous-jacentes : si un modèle quantitatif fondé sur une théorie permet de faire des prévisions quantitatives testables et conformes aux données empiriques la théorie en ressort crédibilisée.

Nous allons voir que, paradoxalement, les conclusions qu’il est possible de tirer de ces modèles sont d’autant moins utilisées dans les décisions politiques qu’elles sont plus solidement établies. Nous verrons aussi que les modèles climatiques sont beaucoup plus robustes que les modèles épidémiologiques et que les modèles macroéconomiques les plus reconnus sont, eux si fragiles qu’on ne devrait pas décemment utiliser leurs résultats. Il n’est donc pas possible de tirer des conclusions générales sur les modèles en extrapolant les faiblesses des uns sur les autres. C’est pourtant une argumentation souvent utilisée par des climato-sceptiques[6].

Pour établir ce constat nous nous appuierons sur un article assez détaillé rédigé avec Gaël Giraud en 2017 : Comparaison des modèles météorologiques, climatiques et économiques : quelles capacités, quelles limites, quels usages ? dont nous reprendrons des extraits dans la suite. Cette note présentant les modèles climatiques et économiques nous ne le referons pas ici, un encadré se limitant à présenter la logique des principaux modèles épidémiologiques.

N.B. Nous n’avons évidemment pas la prétention de connaître tous les travaux de modélisation dans ces trois disciplines et notamment les plus récents qui peuvent régler certains des problèmes soulevés ici. Nous tentons dans cet article de dégager une vue d’ensemble pour mettre en évidence des grandes lignes de force, pas de réaliser une revue de littérature académique poussée. Pour les modèles économiques nous nous limitons aux modèles macroéconomiques utilisés par les grandes institutions. Cette note ne vise pas les travaux faits dans la suite des simulations du rapport au Club de Rome ni les travaux novateurs initiés par exemple à l’AFD par Gaël Giraud.

Les constats en synthèse

1 Les modèles climatiques sont robustes et fournissent des conclusions solides synthétisées et affinées dans les rapports successifs du GIEC[7]. Ils rendent bien compte de l’évolution passée du climat ; les projections pour l’avenir des modèles réalisés par des équipes différentes de chercheurs, conditionnelles aux trajectoires d’émissions de GES, sont globalement cohérentes entre elles, même si, d’un modèle à l’autre, des différences apparaissent, notamment au niveau régional, et ce pour des raisons explicables. « Notons par exemple que les prévisions des modèles synthétisées dans les rapports du GIEC depuis 1990 en termes d’évolution projetée de la température se sont révélées globalement exactes même si elles se sont affinées avec le temps[8].

Pour autant, nous ne parvenons pas collectivement à prendre en considération ces résultats. Si l’accord de Paris a bien été signé à la quasi –unanimité, il est patent que les décisions politiques ne permettent pas de respecter ces engagements.

2 Les modèles épidémiologiques fournissent des résultats variant dans une fourchette d’incertitude large se refermant à mesure de l’amélioration de la compréhension de la réponse biologique humaine au virus et de la réponse sociale aux décisions de politique publique. Ils ne sont pas très robustes, leurs conclusions étant très sensibles à certains paramètres difficiles à estimer.

Par exemple, les premières estimations du nombre de victimes potentielles de la covid-19 fournies par l’Imperial College (IC) le 16 mars 2020[9] étaient surévaluées d’un facteur 10 en gros. La correction a été faite très vite ; les estimations ultérieures à partir du 30 mars[10] sont très inférieures. Il n’est pas facile de savoir pourquoi, mais il semble que le taux de létalité[11] du virus aie été initialement très surestimé.

Malgré ces incertitudes (pas toujours clairement explicitées ni bien comprises) les gouvernements ont pris des mesures radicales, comme le confinement de plus de 4 milliards d’êtres humains[12]. Si le déconfinement a, en France, été sans doute plus rapide que ce que recommandait la majorité des médecins, il n’en reste pas moins que les recommandations scientifiques appuyées sur les modèles ont été plutôt suivies.

Les modèles épidémiologiques[13]

Le cours d’une épidémie dans une population dépend de paramètres complexes et très nombreux (stades cliniques possibles, déplacement et comportement des individus, souches de la maladie). Les modèles mathématiques se sont peu à peu affirmés comme outils d’aide à la décision pour les politiques publiques car ils tentent d’évaluer les conséquences sanitaires d’actions aussi variées que, la mise en quarantaine, le confinement, la distribution de tests de dépistage, la vaccination. Ce sont des modèles socio-biologiques qui combinent des facteurs biologiques et comportementaux. Un modèle épidémiologique se fonde sur deux concepts : les compartiments et les règles.

 Les compartiments divisent la population en divers états possibles par rapport à la maladie. Le premier modèle utilisé est le Susceptible-Infectious-Removed (SIR)[14], datant de 1927 qui formalise, dans cette version schématique, la dynamique de l’épidémie en considérant une population fermée, sans naissances ni migrations, constituée de trois compartiments : les personnes susceptibles d’être contaminées S, les personnes infectées I, les personnes rétablies (immunisées) ou décédées R (pour removed).

Les règles spécifient la proportion des individus passant d’un compartiment à un autre. Ainsi, dans un cas à deux compartiments, il existe une proportion p ( S → I ) {\displaystyle p(S\to I)} d’individus sains devenant infectés et, selon les maladies, il peut aussi exister une proportion p ( I → S ) {\displaystyle p(I\to S)} d’individus infectieux étant guéris.

Les modèles plus sophistiqués peuvent comporter sept compartiments : S, I, R et D (pour décédés), Q (pour mis en quarantaine) M {\displaystyle M} , M (disposant d’une immunité à la naissance (par voie maternelle), et C {\displaystyle C} C (porteurs de la maladie (carriers) mais asymptomatiques).

Sans entrer dans le débat très technique autour de ces modèles, évoquons rapidement le R0, nombre moyen d’individus qu’une personne infectieuse infecte tant qu’elle est contagieuse. Le calcul du R0 est nécessairement basé sur des simplifications et il dépend de très nombreux facteurs[15] en partie imprédictibles (ex : conjonction d’un tremblement de terre, d’un évènement météorologique, socioéconomique ou d’une crise politique ou d’une guerre dans un contexte d’épidémie).

Le choix des modèles (et des paramètres qu’on y entre) influe sur les résultats. Ainsi, en un mois (entre le 1er janvier 2020 et le 7 février 2020), 12 équipes scientifiques ont cherché à calculer le R0 de la Covid-19 en utilisant différents modèles et données. Leurs résultats s’étalaient entre 1,5 et 6,68[16].

Notons enfin que les travaux actuels visent à complexifier les modèles pour qu’ils tiennent mieux compte de l’hétérogénéité de la population, des déplacements et de l’âge.

Pour autant, les gouvernements et les dirigeants des grandes institutions internationales (le FMI, la Commission européenne, les banques centrales) s’appuient sur les recommandations des économistes – qui s’appuient sur ces modèles- dans leurs politiques publiques : le traitement de la crise grecque –comme d’autres interventions- s’est appuyée sur des modèles économiques (reconnus ultérieurement comme faux par le FMI[18] et par Olivier Blanchard[19], alors chef économiste de cette institution), les décisions des banques centrales sur la fixation des taux d’intérêt sont fondées sur leurs modèles internes. Ce n’est que face au risque d’explosion de la zone euro lors de la crise de la dette publique en 2012 que Mario Draghi a osé transgresser les dogmes et Christine Lagarde fait de même aujourd’hui. Mais ce n’est pas l’attitude « conventionnelle » qui consiste à suivre les recommandations des économistes.

Concernant les modèles intégrés IAMs, comme le modèle DICE, qui a valu le « prix Nobel d’économie » à William Nordhaus leur faiblesse structurelle est bien connue des spécialistes[20] : ils utilisent des courbes de dommage extrèmement simplistes, sous-estimant généralement de manière massive les impacts du changement climatique et ne représentant pas les risques de « bifurcation » ou de ruptures écologiques, financières, économiques ou sociales. L’augmentation de la température moyenne mondiale qui accompagnerait le prix « optimal » du carbone recommandé par ce modèle est de 3,5°C d’ici à 2100 (donc une température supérieure au double de celle du consensus scientifique) et continue de s’élever ensuite. Ils continuent cependant, du fait de leur reconnaissance académique, à être utilisées pour évaluer les impacts économiques futurs du réchauffement et pour déterminer les politiques climatiques à mettre en oeuvre.

C’est ainsi que le gouverneur de la Banque de France dans une conférence publique le 13 décembre 2019 intitulée « Changer d’ère : réchauffement climatique et finance » affirme : « Selon l’OCDE[21], la perte de PIB global en 2100 pourrait atteindre -10% dans le cas d’une trajectoire conduisant à +4°C à cet horizon[22], un chiffre entouré d’incertitudes mais dont le volume doit nous alerter. » Or l’absence d’actions se traduirait par un réchauffement planétaire à cet horizon supérieur à 4°C possiblement 6 à 7°C[23] qui engendrerait un effondrement des économies dont l’impact sur le PIB ne peut être que bien plus considérable que ce -10% qui n’alerte personne …

Forces et limites des différents types de modèles

Nous renvoyons au working paper ci-dessus cité pour une analyse détaillée en nous limitant ici à un survol comparant les trois catégories de modèles selon une dizaine de critères que nous présentons rapidement avant de faire un tableau récapitulatif.

1. L’extension et l’exhaustivité de la représentation

*Du fait des connaissances accumulées en physique et en biologie, les modélisateurs en climatologie affinent progressivement leurs modèles. Ainsi, les premiers modèles de végétation ne modélisaient que le cycle du carbone. On a ensuite introduit le cycle de l’azote, qui peut être un élément limitant pour la productivité végétale dans certaines régions et ainsi modifier les résultats du modèle. Cette complexification se fait par un retour permanent entre les résultats et les observations. Ainsi, c’est la découverte récente des mécanismes d’instabilité et d’écoulement rapide des calottes de glace qui a motivé la prise en compte de ces phénomènes dans les modèles les plus récents et intensifié la recherche pour le couplage dynamique des modèles de climat et de calottes. Par ailleurs, les climatologues savent décrire des « conditions aux limites » souvent clefs dans la fiabilité du modèle.

*Les modèles macroéconomiques les plus généralement utilisés (les modèles stochastiques d’équilibre général dits DSGE) sont quant à eux insuffisamment exhaustifs.

  • Les agents sont très (trop !) agrégés (avec un ou deux agents représentatifs des ménages ou des entreprises). En particulier, l’impact des inégalités sociales est souvent de ce fait sous-estimé, par construction. Certains des modèles DSGE intègrent des agents hétérogènes, mais ils sont longtemps restés marginaux[24]. Ce n’est qu’assez récemment qu’ils ont été repris par un plus grand nombre de chercheurs[25].
  • Le secteur bancaire n’est majoritairement pas représenté en tant que tel (car pour de nombreux économistes, monnaie et finance sont neutres sur l’économie[26])
  • La monnaie est souvent exogène (pour la même raison) alors qu’il est clair qu’elle est endogène[27].
  • Les dettes des agents privés ne sont souvent pas représentées (du fait de l’unicité de l’agent représentatif). Il est parfois argumenté que ce n’est pas très grave puisque ces dettes ont forcément des créances en contrepartie, les annulant au niveau macroéconomique. Les travaux d’économistes comme Irving Fisher et plus récemment Steve Keen[28] sur le lien dette-déflation, montrent les risques de ce parti pris.
  • Ils n’intègrent pas le fait que des facteurs déterminants de l’évolution économique (comme les cours de titres boursiers, des énergies fossiles ou des matières premières minérales ou agricoles) peuvent connaître des évolutions « chaotiques[29] » et perturber massivement l’ensemble de l’économie.
  • Ils ne tiennent très généralement pas compte des contraintes de ressources naturelles (par exemple risque de tension sur l’approvisionnement de l’argent métal et d’autres minerais rares) et rarement de la question climatique. Rappelons sur ce sujet que seuls les modèles IAMs le font mais avec des courbes de dommages irréalistes et en souffrant pour le reste des faiblesses explicitées ci-dessus.

*Les modèles épidémiologiques les plus développés sont relativement exhaustifs même si ceux qui ont été utilisés par l’Imperial College, assez simples, ne le sont pas.

2. La qualité des données

*La mise au point et le calibrage des modèles climatiques bénéficient d’un ensemble de mesures de plus en plus sophistiquées depuis plus de 100 ans. La précision et la diversité des mesures permettent de tester de plus en plus finement la capacité des modèles à rendre compte des réalités. C’est particulièrement le cas des observations par satellite qui permettent une couverture globale et en quasi continu.

*Les modèles économiques dépendent de données « construites socialement » et dès lors dépendantes des performances d’institutions, parfois très faibles dans certains pays. Les pays en voie de développement qui manquent de ressources humaines ont un appareil statistique parfois très insuffisant et hétérogène.

*Les modèles épidémiologiques reposent sur des données elles aussi construites socialement et dépendantes des institutions publiques, de l’organisation de la santé et de la transparence qui en est faite. En début d’épidémie des données clefs sont de mauvaise qualité (comment connaître le taux de létalité sans base statistiques fiable notamment sur le nombre de personnes contaminées ?). Néanmoins la pression sociale en période d’épidémie pousse au progrès en la matière.

3. La pertinence et la représentativité des indicateurs de sortie des modèles

*Même si la notion un peu abstraite de température moyenne annuelle à la surface de la planète suscite quelques débats dans la communauté des climato-sceptiques, les indicateurs de sortie des modèles climatiques et météorologiques reposent sur les sciences « dures », et ne seront pas remis en cause avant longtemps.

*Inversement, des notions économiques comme le PIB, le coût d’une politique, le taux de chômage, qui peuvent sembler aller de soi dans le débat public, sont beaucoup plus discutables et discutées. Le chômage en est un bon exemple : on sait que sa définition est conventionnelle (et qu’elle n’est pas la même en France pour l’INSEE et la Dares qui compte les demandeurs d’emploi) et que dans tous les cas cet indicateur ne rend pas compte de toutes les situations relatives au non emploi telle que les chômeurs découragés qui ne se déclarent plus en recherche d’emploi, les travailleurs à temps partiel contraints, les personnes en stage ou en formation à défaut d’avoir trouvé un emploi. Derrière le taux de chômage au sens strict se cache en réalité un « taux de chômage élargi » bien plus élevé[30].

*Les indicateurs d’épidémiologie semblent eux les plus clairs : nombre de contaminés, de morts, et de cas plus ou moins graves. Plusieurs problèmes existent néanmoins : certaines données sur la mortalité de donnent pas la cause du décès et la question des comorbidités peut être source de confusion ; tant que les tests ne sont pas suffisamment généralisés il n’est pas facile de connaître le nombre de contaminés, ni les processus réels de transmission interindividuels.

4. La validité des relations que représentent les équations mathématiques

*Les modèles climatiques reposent d’une part sur des équations physiques dont la validité à leur échelle d’usage est prouvée depuis des décennies (comme la dynamique des fluides) et d’autre part sur des équations plus empiriques pour représenter certains phénomènes spécifiques. Plus précisément, les modèles de climat reposent sur de nombreuses équations physiques fondamentales décrivant par exemple la conservation du moment et de l’énergie, la conduction de la chaleur, le transport radiatif…etc. La résolution numérique de ces équations requiert leur discrétisation spatiale et temporelle, une méthode numérique, ainsi que diverses hypothèses et approximations afin de rendre le problème soluble, même avec l’importante puissance de calcul actuellement disponible. Ces choix méthodologiques ont bien sûr un impact sur les résultats et sont discutés au sein de la communauté scientifique. Cependant, ce ne sont donc pas les lois physiques de base, validées par ailleurs, qui sont discutées mais bien la façon dont elles sont implémentées et résolues. 

*L’économie représente des interactions complexes entre des unités de décision (les humains) complexes dont la description du comportement par des équations mathématiques reste à valider. Les équations de comportement et les théories économiques utilisées dans les modèles économiques sont presque toujours discutables et toujours discutées.

*L’épidémiologie, notamment face à un nouveau virus comme le Sras cov 2 est dans une situation intermédiaire : la relation du virus à l’être humain peut être mal comprise, beaucoup plus hétérogène que ne le supposent des modèles « simplistes ». Quant à la dynamique de propagation, elle est d’ordre sociologique et pas du tout facile à valider.

5. La pertinence et la robustesse des tests

*Du fait de la qualité des données, on peut tester la performance d’un modèle météorologique ou climatique. On peut faire des « back-castings » qui visent à contrôler que, le modèle étant fait, il peut rendre compte des phénomènes représentés sur une période passée. C’est l’une des méthodes les plus efficaces pour éliminer les artefacts liés au « calibrage » (voir point suivant).

Par ailleurs les équations physiques restent stables dans le temps et connues des physiciens « tiers ». Enfin, les moyens informatiques de plus en plus puissants peuvent permettre de réduire la maille d’analyse pour mieux résoudre les processus de petite échelle et améliorer les résultats à l’échelle régionale, sans pour autant changer la structure du modèle (ex : un maillage plus fin permet de beaucoup mieux capturer les effets de relief dans les zones montagneuses).

*Les modèles économiques sont beaucoup plus difficiles à tester : moins de données sont disponibles, et de moins bonne qualité. Les modèles de prévision conjoncturelle semblent faciles à tester : il suffit de comparer régulièrement leurs prévisions et les observations. Il n’est cependant pas si facile de trouver ce type de travaux… De la même manière nous ne connaissons pas de back-casting probants…

*Les modèles épidémiologiques sont faciles à tester et à faire progresser, leurs résultats étant non ambigus. Il serait très utile dans la période actuelle de « back-caster » les modèles les plus employés…

6. Le poids du calibrage et de l’estimation des paramètres

*Les modèles climatiques reposent en partie sur leur calibrage, qui est inévitable. Par exemple, la diffusion verticale de la chaleur dans l’océan est mal comprise, et relativement critique. La circulation océanique dépend en partie de cette diffusion. L’océan est chauffé par le dessus mais la couche de chaleur en surface est relativement bien mélangée sur quelques centaines de mètres d’épaisseur. Puisqu’il y a un gradient suivant les latitudes, une circulation peut se mettre en place. L’équation de diffusion de la chaleur dans les couches supérieures de l’océan requiert un paramètre, lequel n’est pas mesurable directement par expérimentation. La valeur de ce paramètre est donc ajustée, dans une gamme raisonnable, afin d’obtenir des températures en accord avec les observations.

Mais au total, cette dépendance de ces résultats au calibrage est très limitée. Comme le dit Hervé le Treut (directeur de l’IPSL) : « Contrairement à une idée souvent exprimée[31], il n’est pas facile d’optimiser les résultats d’un modèle en jouant avec les paramètres qui servent à le définir. Par exemple, on peut détériorer gravement les précipitations neigeuses sur les régions polaires en améliorant les circulations océaniques tropicales car il s’agit d’un système composé d’une myriade de processus interdépendants. »

* Les modèles économiques sont, de fait, fortement dépendants du calibrage qui permet de fixer les paramètres. La plupart des grands modèles néokeynésiens sont estimés équation par équation, à partir d’analyses économétriques du passé. Les modèles DSGE sont quant à eux souvent estimés comme des systèmes. La méthode bayésienne est alors la plus utilisée. Il s’agit de fournir des a-priori sur la moyenne et la distribution de chaque paramètre estimé. La valeur finale retenue est celle qui, compte-tenu des valeurs des autres paramètres estimés, maximise la vraisemblance du modèle par rapport aux données passées. Cette approche n’est pas exempte de critiques, que rappelle très bien Olivier Blanchard[32]. La plupart des modèles DSGE, même s’ils sont de taille moins importante que les modèles néokeynésiens présentent tant de paramètres que l’estimation de tous se révèle impossible. Il est nécessaire dans ce cas d’en calibrer certains en fixant directement leur valeur plutôt qu’en l’estimant en même temps que tous les autres.

*Les modèles épidémiologiques utilisés dans la décision publique sont beaucoup moins complexes que les précédents. En revanche leur pertinence surtout sur un grand nombre de pays dépend de la qualité des données. Le poids du calibrage dépend donc des pays concernés.

7. Le rapport au temps et à l’espace

Les modèles climatiques mettent en évidence des effets de moyen ou de long terme mais des leviers actionnables à court terme. Les modèles épidémiologiques mettent en évidence des effets de très court terme (de ce point de vue ils sont plus proches de modèles météo) et des leviers actionnables très rapidement. Les modèles économiques mettent en évidence des effets de moyen terme et des leviers actionnables à court terme.

Au plan spatial, les modèles climatiques peuvent donner des résultats régionalisés à une maille dont la finesse dépend de la qualité de la couverture géographique des données et bien sûr de l’horizon de projection. Les modèles épidémiologiques sont en général faits et utilisés à la maille nationale. Les modèles économiques sont en général nationaux ou par groupes de pays.

8. La robustesse

Les modèles climatiques sont robustes[33] ; leurs conclusions sont solides et peu sensibles à tel ou tel paramètre. Certes il existe des écarts entre les conclusions fournies par différents modèles (qui n’ont pas en résumé la même sensibilité climatique) mais pour un modèle donné (parmi les grands modèles étudiés par le GIEC) la robustesse est acquise.

Les modèles épidémiologiques sont sensibles au paramétrage et au calibrage. Comme on l’a vu plus haut une variation du taux de létalité peut faire bouger les conclusions. Cette sensibilité est d’ailleurs assez inévitable. La contagion est un phénomène qui peut devenir exponentiel. On peut penser néanmoins que pour une maladie donnée de mieux en mieux connue, cette sensibilité reflète de mieux en mieux les conséquences éventuellement très contrastées de différentes politiques publiques.

Les modèles économiques sont peu robustes car, comme vu précédemment, ils dépendent beaucoup trop du calibrage nécessaire.

 

Climat

Epidémiologie

Economie

L’extension et l’exhaustivité de la représentation

 

Assez forte

Variable mais pouvant être forte

Faible

La qualité des données

 

Plutôt bonne

Moyenne

Faible

La pertinence et la représentativité des indicateurs de sortie des modèles                                                 

 

Forte

Forte

Faible

La validité des relations que représentent les équations mathématiques                                    

 

Forte en général

Moyenne

Faible

La pertinence et la robustesse des tests

Forte

Faible en début d’épidémie, croissante avec le temps

Faible

Le poids du calibrage et de l’estimation des paramètres            

 

Faible

Moyenne

Déterminante

La prise en compte de l’environnement

Forte pour le climat, moyenne pour la biodiversité

N.A

Nulle ou faible (pour les IAMs en matière de climat)

La prise en compte des inégalités sociales

N.A

Faible

Faible

La robustesse

Forte

Moyenne

Faible

 

Conclusion : comment expliquer le paradoxe ?

Il nous semble assez bien démontré que les modèles climatiques sont plus robustes que les modèles épidémiologiques et beaucoup plus que les modèles économiques. On sait aussi que les conséquences de la dérive climatique, si rien de significatif n’est fait, seront bien plus lourdes que celles d’une crise comme celle de la COVID-19 (et même de toutes les pandémies connues dans l’histoire de l’humanité). Quant aux modèles économiques, il est malheureusement patent qu’ils ne fournissent pas d’informations crédibles dans l’état actuel des connaissances.

Pour autant, les conclusions qu’il est possible de tirer de ces modèles sont d’autant moins utilisées dans les décisions politiques qu’elles sont plus solidement établies. Peut-on expliquer ce paradoxe ? Il y a évidemment un déficit de compréhension de la part des décideurs et du public ; il est essentiel de continuer à former et informer tous les acteurs de la solidité des conclusions des climatologues (qui ne reposent bien sûr pas que sur des modèles).

Au-delà, il semble bien que notre paradoxe s’explique essentiellement par deux facteurs :

  • nous sommes beaucoup plus sensibles à la COVID 19 et enclins à accepter de respecter des mesures drastiques que nous ne le sommes pour le climat, car nous sentons que notre vie et notre santé sont en jeu,
  • et que les effets d’une épidémie se manifestent maintenant et non comme pour le climat de manière plus lointaine.

Ces deux paramètres jouent aussi pour l’économie : les effets des politiques économiques se manifestent dans des temps assez courts et concernent les citoyens et les dirigeants dont l’élection ou la réélection est en jeu. L’économie étant complexe la tentation est grande de s’en référer à des autorités, même si, comme pour les médecins de Molière, la preuve n’est pas faite de leur pertinence…

Alain Grandjean

Notes

[1] Officialisé le 15 mai 2019, le Haut Conseil Le Haut conseil pour le climat est un organisme indépendant chargé de donner des avis et d’émettre des recommandations sur la mise en œuvre des politiques et mesures publiques pour réduire les émissions de gaz à effet de serre de la France.
[2] Institué le 11 mars 2020 par le ministre des Solidarités et de la Santé, le Conseil scientifique accompagne les réflexions des autorités sur les questions stratégiques liées à la gestion de l’épidémie. Il peut être saisi de questions précises relatives à la politique de santé publique dans le contexte de la crise : effet attendu des mesures de confinement, stratégie de dépistage, etc. Cet article concerne ce conseil scientifique et les outils auxquels il a pu se référer.
[3] Installé le 24 mars2020 par le même ministre, le CARE éclaire plus spécifiquement les pouvoirs publics sur les innovations scientifiques, thérapeutiques et technologiques proposées par la communauté scientifique pour lutter contre le Covid-19 (développement et déploiement de traitements de tests et d’essais, avec un accent particulier sur les expériences conduites à l’étranger).
[4] Dont la création a été annoncée le 29 mai 2020. Voir l’objet et la composition de la Commission sur le site de l’Elysée
[5] Voir la page du Collège de France consacrée aux cours d’Alain Supiot sur La gouvernance par les nombre et écouter le podcast de ces cours sur France culture.
[6] C’est le cas de Didier Raoult qui critique les modèles épidémiologiques. A titre personnel j’ai entendu des économistes, très avertis des limites des modèles économiques faire la même extrapolation…
[7] Créé en 1988, le GIEC (Groupe Intergouvernemental d’experts sur l’Evolution du Climat – IPCC en anglais) a pour mission de synthétiser l’état de la recherche mondiale scientifique, technique et socio-économique sur le risque des changements climatiques additionnels provoqués par l’homme. Au total, plusieurs milliers de scientifiques de différentes disciplines sont impliqués dans ce processus. On trouve sur son site les rapports généraux sur le climat (état des connaissances sur le climat, le réchauffement en cours, ses impacts et les mesures à prendre pour l’atténuer et s’y adapter)) publiés tous les 5 ans et des rapports adressant des questions plus particulières.
[8]Voir sur le site de Carbon Brief l’article Analysis: How well have climate models projected global warming? (2017)
[9] L’IC est LA référence en la matière et que c’est sur la base de ces premières estimations qui se chiffraient en centaines de milliers de morts pour les pays de la taille de la France que les décisions politiques ont été prises.
Voir Neil M. Fergusson et al., “Impact of non-pharmaceutical interventions to reduce COVID-19 mortality and healthcare demand”, Imperial College COVID-19 Response Team, 16 mars 2020.
[10] N.Ferguson, S.Bhatt et al. Estimating the number of infections and the impact of non-pharmaceutical interventions on COVID-19 in 11 European countries. Imperial College COVID-19 Response Team, 30 mars 2020.
[11] On distingue le Case Facility Rate (ou taux de létalité apparent), rapport entre le nombre de morts et de ceux qui ont été testés positifs, et l’Infection Fatality Rate, rapport entre le nombre de morts et de ceux qui sont infectés (y c les non détectés). En moyenne mondiale, l’IFR est évalué début juin par l’institut Pasteur à 0,7% (https://science.sciencemag.org/content/early/2020/05/12/science.abc3517) et le CFR par l’OMS à 6% ( 385 000 décès pour 6 535 000 cas détectés).
[12] Selon un comptage AFP réalisé début avril. Voir sur le site du Figaro
[13] Voir l’article Modèles compartimentaux en épidémiologie dont s’inspire cet encadré. Voir aussi l’article Les réseaux sociaux dans la lutte contre le Covid-19 qui explique les limites de ces modèles dans la prise en compte des réseaux sociaux. Voir aussi cet article http://covid-ete.ouvaton.org/Rapport7_resume.html
[14] Voir une présentation pédagogique de ces modèles ici : http://variances.eu/?p=4837
[15] Viceconte G & Petrosillo N (2020) COVID-19 R0: Magic number or conundrum? [archive]. Infectious Disease Reports, 12(1).
[16] Viceconte G & Petrosillo N (2020) op.cit.
[17] Nous ne parlons ici que des modèles macro-économiques principalement de trois catégories : les modèles DSGE, IAM et néokeynésiens; pas des modèles financiers, notamment utilisés pour donner un prix aux produits financiers ; on sait qu’ils sont faux (car supposant que les variations des cours des sous-jacents suivent une loi de Gauss, et s’interprètent donc comme un mouvement brownien, alors qu’il a été montré, notamment par Benoit Mandelbrot que c’est faux au plan empirique). Mais ils sont performatifs. Voir Christian Walter et Michel de Paracontal, le virus B et le site https://epistemofinance.hypotheses.org/ On ne parle pas non plus des modèles sectoriels comme les modèles énergétiques qui peuvent s’avérer d’intéressants instruments d’aides à la décision, dès lors qu’on ne les emploie pas dans une logique de prévision ou de conformité au réel mais dans le cadre d’exercices de prospective.
[18] World Economic Outlook, 2012, box 1.1 p41-43
[19] Growth Forecast Errors and Fiscal Multipliers, Blanchard & Leigh, 2013
[20] Voir par exemple : cette note du FMI ; l’analyse critique de l’économiste Steve Keen traduite en français sur ce blog; le back-casting réalisé par Marie-Noëlle Woillez, Gaël Giraud et Antoine Gaudin de l’ AFD
[21] Dans le rapport « Investing in Climate, investing in growth – une synthèse» publié en 2020 ; il est écrit : « : « de l’absence d’actions (…) d’après les estimations hautes, résulterait une baisse du PIB annuel mondial comprise entre 10 et 12 % à 2100 ; » page7
[22] Les conséquences économiques du changement climatique – OCDE (2016). Ce chiffrage est issu d’une simulation utilisant le modèle AD-DICE.
[23] Voir l’article Les deux modèles de climat français s’accordent pour simuler un réchauffement prononcé, Site de l’IPSL, 2019
[24] Cf. Uninsured Idiosyncratic Risk and Aggregate Saving, S. Aiyagari, the Quaterly Journal of Economics, 1994, et Quantitative macroeconomic models with heterogeneous agents, P. Krusell et A.A. Smith, Econometric Society Monographs, 2006. Citons également Debt, deleveraging, and the liquidity trap: A Fisher-Minsky-Koo approach, G. Eggertsson et P. Krugman, The Quarterly Journal of Economics.
[25] Avec les travaux de E. Challe et X. Ragot, par exemple Fiscal policy in a tractable liquidity-constrained economy, X. Challe et X. Ragot, Economic Journal, 2011. Voir aussi Quantitative macro models of wealth inequality: A survey, Mariacristina de Nardi, voxeu.org/article/quantitative-macro-models-wealth-inequality-survey
[26] Cf. Debt-Deflation versus the Liquidity Trap : the Dilemma of Nonconventional Monetary Policy , G. Giraud et A. Pottier, Economic Theory, 2016 et de Gaël Giraud, Illusion financière, Editions de l’atelier, 2014 ainsi que l’annexe 6.4.3 du working paper Comparaison des modèles météorologiques, climatiques et économiques op.cit.
[27] Cf. Illusion Financière, Op. Cité, et l’article La création monétaire expliquée par les économistes de la Banque Centrale d’Angleterre
[28] Cf. A Monetary Minsky Model of the Great Moderation and the Great Recession, Op. Cit. En un mot si l’excès d’endettement privé est une cause d’un problème aussi important qu’une situation de déflation, il est pour le moins anormal que cet endettement ne soit pas représenté dans un modèle macroéconomique.
[29] Il y a une branche, encore un peu marginale, des DSGE qui modélise les équilibres multiples et l’instabilité de type chaotique. Cf. R. Farmer et J. Benhabib sur les « sunspots » en finance.
[30] C’est d’ailleurs ce qu’a relevé la BCE dans une note de 2017 qui remettait en cause la mesure du chômage dans la zone Euro. Selon ses experts, le taux de chômage (plus précisément le « labour market slack ») était à cette date de 18% dans la zone euro, soit presque le double du chiffre officiel fourni par Eurostat de 9,5%. Ce serait l’une des raisons du paradoxe d’une inflation ne croissant pas malgré une politique monétaire très accommodante.
[31] Exprimée par exemple par Henri Atlan, cf. sur sciences.blogs.liberation.fr (http://bit.ly/2q2EEGp).
[32] Olivier Blanchard Do DSGE Models Have a Future? Institut Peterson (2016)
[33] Un modèle est robuste s’il n’est pas perturbé par une petite modification dans les données ou dans les paramètres du modèle choisi pour l’estimation.

Laisser un commentaire

journal

Bibliothèque et papiers de référence