--> Comprendre les crises : Coronavirus (3) Relire Daniel Kahneman
23 mai 2020
Comprendre les crises : Coronavirus (3) Relire Daniel Kahneman

La crise sanitaire qui se déroule sous nos yeux est malheureusement un formidable laboratoire pour voir les failles de la prise de décision complexe et de la communication de crise.
Il a été frappant de découvrir l’évolution du processus de décision qui a progressivement intégré des données autres que strictement sanitaires et qui, de ce fait, s’est un peu affranchi de l’avis des experts médicaux face à l’ampleur de la crise économique dont l’intensité est déjà considérable et dont les effets à moyen et long terme peuvent être plus significatifs que ceux produits par le virus sur la santé humaine.
Il est encore trop tôt pour analyser sérieusement la gestion de cette crise mais il est déjà possible de constater deux faits :
Le premier concerne les effets produits par un discours chaotique et orgueilleux de nombreux experts. Plutôt que d’avouer qu’il était difficile de disposer dans les premières semaines d’éléments vérifiés, les experts ont multiplié les informations approximatives et parfois contradictoires. Cela a contribué à décrédibiliser le discours scientifique ou tout au moins à largement instiller le doute dans la population quant à sa fiabilité.
Le second, lié au premier, est que la prise de décision a été d’emblée amarrée à la seule expertise scientifique. Cela n’est pas choquant dans l’absolu mais encore faut-il disposer d’une expertise solide ce qui n’a pas été le cas.
Une crise complexe, et cette crise du COVID 19 en est une, doit intégrer dès le début une multiplicité d’expertises, notamment dans les domaines économique, social et historique. Cela n’a semble-t’il pas été le cas. A cette lacune s’ajoute l’emballement des expertises médicales et des médias qui a contribué également, un peu partout dans le monde, à provoquer de mauvaises prises de décisions initiales qu’il a fallu corriger et qui vont provoquer des réactions de long terme qui ne seront pas toujours positives en ce qui concerne le bien-être et la sécurité globale des populations.
Tout cela est regrettable, d’autant plus que les biais qui ont pollué la gestion de cette crise sont connus.
Ce blog contient de nombreux articles sur le sujet et notamment sur les travaux du prix Nobel 2002 d’économie Daniel Kahneman qui a notamment décortiqué le processus permettant de savoir dans quelle mesure on pouvait faire confiance à l’expertise d’un professionnel.
Sans aucun doute l’environnement scientifique du COVID 19 n’était pas déterministe, donc non prédictible. Les incertitudes sur la connaissance du virus et ses implications dans la vie d’un pays industrialisé étaient telles que les jugements émis sur la situation ne pouvaient s’apparenter qu’a de la voyance améliorée.
Dans un environnement mouvant, Kahneman préconise de fixer des règles de décision et de s’y tenir. Cela réduit considérablement les biais cognitifs mais un tel exercice n’est possible que si le décideur jouit d’une grande crédibilité rendant acceptables pour la population ses prises de position.
Sur ce point nous touchons à la crise des démocraties des pays industriels qui font qu’un peu partout dans le monde, les citoyens de ces démocraties sont gagnés par le doute de la légitimité à les protéger. L’aversion au risque par exemple est compréhensible. Qui ne souhaite pas éviter les risques qui peuvent assombrir la vie ? Par contre ériger l’aversion au risque en dogme aboutit à créer des biais qui vont fausser la formulation même des problèmes.
Déjà en 1981 dans un article paru dans la revue Science, Kahneman publiait avec le psychologue Amos Tversky, spécialiste du jugement dans l’incertitude un exemple qui prend aujourd’hui une force particulière :

« Une épidémie asiatique est en passe de se produire, qui va tuer 600 personnes selon les estimations. Deux programmes sanitaires ont été prévus : _ Si le premier est adopté, 200 personnes seront sauvées _ Si le deuxième est adopté, il y a 1/3 de chances que 600 personnes soient sauvées, et 2/3 de chances que personne ne soit sauvé. » Dans ce cas de figure, 72% des gens (N=152) ont choisi la première option, certaine. Ensuite ils ont proposé le problème suivant à un deuxième groupe de personnes : « Une épidémie asiatique est en passe de se produire, qui va tuer 600 personnes selon les estimations. Deux programmes sanitaires ont été prévus : _ Si le premier est adopté, 400 personnes mourront _ Si le deuxième est adopté, il y a 1/3 de chances que personne ne meure, et il y a 2/3 de chances que 600 personnes meurent. » Dans ce dernier cas de figure, 78% des gens (N=155) ont choisi la deuxième option qui est la plus incertaine.
La lecture des travaux de Kahneman constitue ainsi des mises en garde salutaires dont nous ne pouvons que regretter qu’elles soient encore trop peu prises en compte par les décideurs ...

En savoir plus :
Tversky A, Kahneman D. The framing of decisions and the psychology of choice. 1981 ; Revue Science.
https://science.sciencemag.org/content/211/4481/453

Thinking Fast & Slow, New York : Farrar, Straus and Giroux, 2011.

Système 1/Système 2. Les deux vitesses de la pensée ; Flammarion, 2012 ;

Conférences TED de Daniel Kahneman ; https://www.ted.com/speakers/daniel_kahneman

Articles de ce blog

« Disponibilité, émotion et risque » . Chapitre 13 de l’ouvrage de Kahneman :Système 1, systéme2, les deux vitesses de la pensée ».

http://www.gerard-pardini.fr/spip.php?article44

http://www.gerard-pardini.fr/spip.php?article123

Partager cet article