Pour déterminer si un modèle est utile, il faut voir si ses prédictions sont suffisamment précises
Contenu de l’article
Avec la protestation des camionneurs contre les politiques de santé obligatoires toujours en jeu, il n’est pas surprenant que la politique économique controversée de Johns Hopkins étudier publié la semaine dernière a fait le premières pages ici. Rédigée par Jonas Herby, Lars Jonung et Steve Hanke, contributeur occasionnel à cette page, l’étude estime que les confinements obligatoires ont réduit les décès dus au COVID de 2,4 % – seulement de manière marginale. C’est loin des études épidémiologiques de l’Imperial College de Londres d’il y a près de deux ans qui estimaient que des verrouillages étaient nécessaires pour réduire les décès de 98%.
Publicité
Cette annonce n’a pas encore été chargée, mais votre article continue ci-dessous.
Contenu de l’article
Les trois auteurs, dont un seul, Hanke, est en fait à Johns Hopkins, ont mené une « méta-analyse » de 34 études COVID axées sur la période du 16 mars au 20 avril 2020. En comparant les décès par COVID entre les juridictions, ils ont conclu que les mandats de masque avaient l’impact le plus important sur la mortalité (-21,2 %) avec des règles telles que le confinement sur place (-2,9 %) ou la fermeture des écoles (-4,4 %) n’ayant que des effets marginaux. D’autres règles, telles que la fermeture des frontières, n’ont eu qu’un impact quasi nul.
« Cela ne peut pas être vrai » était une réaction commune à l’étude. Mais les auteurs suggèrent plusieurs raisons plausibles pour lesquelles les verrouillages n’ont peut-être pas été – ou semblaient – efficaces. Premièrement, les gens évitaient volontairement le contact de toute façon sans être réglementés pour le faire. Certaines estimations attribuent à l’évitement volontaire 90 % de l’effet total. Les mandats ne réglementaient pas tout, bien entendu. En fait, la distanciation sociale était largement laissée à la conformité individuelle. Deuxièmement, les mandats ont peut-être été inopportuns, étant entrés en vigueur alors que les affaires commençaient de toute façon à tomber. Troisièmement, les mandats n’étaient pas nécessaires si la communication en matière de santé publique et un sens du collectivisme étaient suffisants pour réduire les infections.
Publicité
Cette annonce n’a pas encore été chargée, mais votre article continue ci-dessous.
Contenu de l’article
Sans surprise, de nombreux épidémiologistes se sont vigoureusement opposés à ces résultats si différents de leurs modèles théoriques, qui ont été exclus de l’analyse. À leur avis, l’étude de Johns Hopkins a préparé les livres. En fait, quelque chose de plus profond est en cause.
La méthode scientifique est une approche éprouvée pour recueillir des informations plus approfondies sur la façon dont le monde se comporte. Cela commence par le développement d’une théorie qui repose sur plusieurs hypothèses, telles que la façon dont une maladie se propage dans la population (par exemple, par l’air ou par le toucher). La théorie est ensuite utilisée pour dériver une prédiction, telle que le nombre de décès COVID évités. Les modèles théoriques qui émergent sont généralement des équations mathématiques sophistiquées qui produisent des prédictions numériques une fois que les données sont appliquées à chaque variable du modèle.
Publicité
Cette annonce n’a pas encore été chargée, mais votre article continue ci-dessous.
Contenu de l’article
Les modèles doivent cependant être testés. Cela nécessite d’analyser les données passées pour voir si leurs prédictions étaient dans le stade approximatif. Ce n’est pas une tâche facile car les observations, telles que le nombre de décès par COVID, dépendent de nombreux autres facteurs en plus des confinements et ceux-ci doivent également être inclus dans l’analyse. Une approche pour créer plus de confiance dans une théorie consiste à « antidater » les modèles pour voir si leurs prédictions sont proches de ce qui s’est réellement passé. Configurez le modèle avec des données allant jusqu’en 2010, par exemple, puis voyez si cela « explique » ce qui s’est passé entre 2010 et aujourd’hui.
Les auteurs de Johns Hopkins ont eu raison de n’inclure dans leur méta-analyse que les articles qui avaient été testés empiriquement, et non ceux qui n’avaient fait que des prédictions théoriques. Seul le temps nous dira si leur conclusion sur l’effet des mandats est correcte. Des études futures détermineront quelles théories sont correctes ou non. C’est ainsi que fonctionne la méthode scientifique.
Publicité
Cette annonce n’a pas encore été chargée, mais votre article continue ci-dessous.
Contenu de l’article
-
Jack M. Mintz : l’inflation aggrave le préjudice fiscal
-
Jack Mintz : Êtes-vous prêt pour 22 % d’impôts en plus ?
-
Jack M. Mintz : la faiblesse des investissements est le problème économique numéro un
Un autre domaine dans lequel des modèles complexes sont utilisés pour faire des prédictions sur des événements du monde réel concerne l’effet possible des gaz à effet de serre sur les températures moyennes. Ces modèles climatiques sont également basés sur la théorie et ensuite utilisés pour faire des prédictions en les complétant avec des données. Les prévisions dépendent fortement des hypothèses et de l’exactitude des données. Pour déterminer si un modèle est utile, vous devez voir si ses prédictions sont suffisamment précises. Dans le cas des modèles climatiques, vous voulez voir s’ils peuvent prédire les températures que nous avons déjà connues.
Ces dernières années, une grande attention a été accordée à la formation de nuages qui bloquent le soleil ou emprisonnent les gaz atmosphériques. Les nouveaux modèles prédisent des températures encore plus élevées à l’avenir. Mais lorsqu’ils sont antidatés, ils ont surestimé à la fois la température monte dans les périodes où le carbone atmosphérique s’accumule et la température décline pendant les périodes glaciaires. Les modélistes sont retournés à leurs planches à dessin.
Publicité
Cette annonce n’a pas encore été chargée, mais votre article continue ci-dessous.
Contenu de l’article
Dans mon propre domaine de l’économie, la soi-disant modélisation d’équilibre général a été utilisée pour analyser les impacts de politiques telles que le libre-échange, les politiques sur le carbone ou la réforme fiscale. L’un des premiers modèles de ce type, construit par Arnold Harberger de l’Université de Chicago dans les années 1960, examinait l’incidence de l’impôt sur les sociétés en supposant une économie à deux secteurs produisant des biens et des services utilisant du travail et du capital. Son calcul pourrait être fait à la main.
Les modèles théoriques d’aujourd’hui sont beaucoup plus compliqués et ne peuvent être résolus que par des ordinateurs. Mais leur succès est toujours défini par la qualité de leurs prédictions. Par exemple, les modèles d’imposition des sociétés autorisent aujourd’hui les flux de capitaux internationaux et l’innovation, de sorte qu’une hausse de l’impôt sur les sociétés peut entraîner une baisse des investissements et une baisse des salaires réels. Mais pour que ces modèles informatiques soient crédibles, leurs prédictions doivent être conformes à ce qui s’est réellement passé. De nombreuses études empiriques ont montré qu’au moins la moitié de l’impôt sur les sociétés est assumée par la main-d’œuvre par le biais de salaires réels plus faibles, surtout dans les petites économies comme le Canada.
Les modélisateurs doivent être humbles à propos des prédictions provenant de modèles mathématiques complexes qui n’ont pas encore réussi à confronter les données. Malgré ce que les gros titres disent, c’est la leçon la plus importante de l’étude de Johns Hopkins.
Publicité
Cette annonce n’a pas encore été chargée, mais votre article continue ci-dessous.