Tribune

Quelques erreurs fondamentales concernant la gestion du coronavirus

Quelques erreurs fondamentales concernant la gestion du coronavirus

Photo: BAM! ©Vick

Notre rédaction a reçu cette tribune d’un non-expert, citoyen, qui se pose des questions, somme toute, assez pertinentes. Cette tribune tente d’expliquer l’absurdité, en soi, des mesures gouvernementales. Nous avons tenu à la mettre à l’honneur en la publiant intégralement, car elle donne une bonne idée de ce que peut ressentir la population sous le joug des mesures sanitaires passées et actuelles.


Oubli de la nature humaine

En gérant, de façon techniciste, la crise par des experts et des technocrates, on oublie que les modèles scientifiques sont incapables d’intégrer la nature humaine, qui n’est pas modélisable scientifiquement, mais dont on possède la connaissance historique, empirique et métaphysique.

On a voulu gérer sans tenir compte de cette réalité, et on a gouverné en donnant des ordres aux gens comme s’ils n’étaient que des soldats obéissants, des robots et non des personnes. Ce qui implique alors une diversité de réactions autre que l’application des ordres, allant de la collaboration à la résistance, en passant par une application négligée des ordres. Ce qui en soi est normal : la nature produit de la diversité (d’espèces, compétences, comportementales) afin de faire face à la sélection naturelle, aux changements de contextes systémiques.

En agissant ainsi, on aliène une partie des gens et on crée une logique clivante, à la défiance des uns et la tentation de bouc-émissaire des autres envers les récalcitrants, accusés systématiquement par facilité de faire échouer la stratégie. Les partisans de la gouvernance, en aboyant des ordres, trouvent rapidement que l’aboiement n’est pas assez fort et la méfiance ne fera que s’amplifier alors que faire société implique la confiance des uns et des autres.

Scénario du pire

Le lockdown a été justifié selon le modèle de l’Imperial College de Londres, qui était un scénario catastrophe.

Le scénario du pire implique les problématiques suivantes :

Sidération de la démarche scientifique : on parle de catastrophe, avec des centaines, des millions de morts. Tenter de remettre en question ce scénario signifie mettre en danger des vies, empêcher l’action pour les sauver ; cela aboutit à une position d’immoralité du fait de réfuter ce modèle.

Comment ? Vous osez mettre la vie d’autrui en danger par votre besoin égotique de respecter les procédures de la science ?” Tout scientifique faisant l’examen du modèle sera dénoncé comme abject et dangereux. Sous cette pression, la plupart des scientifiques se tairont par crainte d’excommunication. Cela porte un nom : l’obscurantisme.

Ceux qui pensent que l’excommunication ne peut pas fausser la vérité scientifique sont-ils au courant de l’histoire du christianisme ? Ce modèle devient donc non-scientifique pour cette raison.

Justification des moyens excessifs. Avec de tels extrêmes, on justifie alors des moyens à mettre en œuvre de façon excessive. C’est normal, non ? Il faut sauver des vies ! Le problème, c’est que si on s’aperçoit du non-résultat, il y aura une phase de déni. Plus on s’investit dans un domaine, plus il est difficile de se remettre en question et d’accepter ses pertes. C’est ce qu’on appelle un piège abscons, à l’instar du joueur de casino qui double la mise quand il perd...

Il est improbable, celui-ci étant un risque de queue [1]. Et comme il est improbable, et que le pire ne sera pas arrivé, le partisan des mesures pourra prétendre au succès de la mesure, même si c’est faux. Il sera impossible de réfuter ou d’infirmer. Mais c’est en soi très commode.

Mauvaise évaluation des risques

Personne n’évalue, lors de la mise en place des stratégies, les risques d’échecs. Personne ne se demande « est-ce que ça peut échouer ? », « qu’est-ce qui peut ne pas aller ? ».

Ce n’est pas dans la logique des gens qui les établissent. Ceux-ci vendent leurs stratégies, tout comme un vendeur de voiture n’insiste pas sur ses défauts. Quand on fait un plan, on regarde les résultats espérés, pas le risque qu’ils n’arrivent pas. Les hommes fonctionnent comme ça, sinon ils ne feraient probablement rien.

Le problème, c’est que si cette méthode est valable pour une entreprise privée, au niveau d’une nation avec des millions d’habitants subissant les échecs de ces stratégies, l’impact n’est pas le même.

Le fait qu’on crée de nouvelles mesures est déjà la démonstration que la mesure précédente n’a pas porté les résultats promis et donc que l’estimation des avantages/inconvénients était fausse.

L’accumulation de tant de précédents d’échecs devrait pourtant rendre plus prudent concernant le processus, mais on dirait qu’on n’apprend rien.

Si les complotistes arrivent à prédire les échecs que ne voient pas les experts, c’est tout simplement que les experts sont dans un biais de confirmation tandis que les complotistes font le travail d’examen que ceux-ci ne font pas.

Conclusion : il faudrait peut-être engager des complotistes dans les conseils de sécurité...

Par Philippe Arnould, musicien

 


Les opinions exprimées dans cet article n’engagent que la responsabilité de l’auteur et ne représentent pas nécessairement celle de BAM!

[1] un risque avec des probabilités très faibles : le scénario du pire a peu de chances d’arriver car la probabilité est très faible que les conditions d’une telle catastrophe soient toutes réunies