L'origine du doute

doute-unsplash-min.jpg

Pouvons-nous nous fier à notre intuition ? Pour répondre à cette question, j'aimerais vous raconter l'histoire de la fameuse expérience de Rosenhan :

En 1973, le professeur de psychologie David Rosenhan eu l’idée d’une expérience étonnante.
Il se posait la question suivante : “Si la santé mentale et l’aliénation mentale existent, comment les reconnaître ?”.
Pour y répondre, il choisit d’envoyer huit volontaires - tous sains d’esprit - dans 12 hôpitaux de différents états des USA, pour les faire interner en psychiatrie. Rosenhan lui même prit part à l’expérience en tant que faux patient.

Pour réussir à se faire interner, chaque faux patient avait reçu la consigne de se plaindre devant les médecins d’entendre des voix, ce qui fonctionna : ils réussirent tous à intégrer un hôpital (majoritairement pour schizophrénie).

Une fois admis dans le service psychiatrique, les faux patients cessaient aussitôt de simuler quoi que ce soit et affirmaient ne plus entendre de voix.

Ils se comportaient normalement, parlaient avec tout le monde, respectaient les consignes des médecins... Et pourtant l’auteur nous apprend que “malgré cette démonstration de bonne santé mentale, ces faux patients ne furent jamais démasqués”. Les durées d’internements durèrent de 7 à 52 jours (19 jours en moyenne).

Les employés des hôpitaux restèrent persuadés que les patients étaient malades, et interprétaient leur comportement en fonction de l’étiquette que le diagnostic initial leur avait collé. Aucun médecin ne remis en cause son diagnostic.

La seule manière pour les faux patients de sortir de l'hôpital fût non pas d’expliquer qu’ils n’étaient pas malades, mais de reconnaître qu’ils étaient malades et qu’ils allaient mieux.

Lorsque Rosenhan publia ses résultats, un hôpital renommé souhaita prendre part à une expérience de ce genre. L’établissement, confiant dans les capacités de son personnel, doutait qu’un tel scénario puisse se dérouler chez lui. Rosenham accepta d’y envoyer des faux patients sur une durée de 3 mois, à charge de l'hôpital de débusquer lesquels.

Sur 193 patients admis pendant cette période, 51 furent diagnostiqués faux patients par au moins un psychiatre, 33 furent considérés comme suspects par au moins un psychiatre, et 19 par un psychiatre et un autre membre du staff. En fait, Rosenhan n’avait envoyé aucun faux patient.

* * *

Notre jugement est biaisé

Si l’expérience de Rosenhan eu pour effet de révéler les faiblesses des méthodes de diagnostic psychiatrique de l’époque, je la trouve particulièrement intéressante pour illustrer un autre point : quand nous sommes convaincus de quelque chose, nous pouvons passer à côté de la vérité.

Quand nous pensons savoir, nous ne doutons pas de nous même et de nos convictions, et nous interprétons les événements de la manière qui les fait correspondre à notre vision du monde : c’est à dire non pas comme ils sont en réalité, mais comme nous aimerions qu’ils soient.

L’esprit humain est construit ainsi : nous cherchons plus à confirmer nos propres opinions qu’à rechercher la vérité. Cette déviance du raisonnement porte un nom : le biais de confirmation.

Le biais de confirmation est une erreur dans le processus de réflexion, qui conduit l’individu à chercher la confirmation de ce qu’il pense déjà être vrai au détriment d’une réflexion objective. Cela s’applique à la recherche de preuve, aux souvenirs ou à l’interprétation.

Par exemple :

  • si je pense que tel candidat politique est le meilleur, je ne vais lire que les articles qui font son éloge ou qui critiquent ses opposants (sélection de preuve);

  • si je pense qu’un collègue fait du mauvais travail, je vais avoir tendance à retenir toutes les fois ou c’est effectivement le cas, en oubliant les fois où il fit du bon travail (sélection des souvenirs);

  • Si j’ai le sentiment que ce nouveau vendeur veut m’entourlouper, je vais prendre son attitude très aimable comme une volonté de me manipuler; si au contraire je lui fais confiance, je prendrais son amabilité pour de la gentillesse (interprétation).

 Le biais de confirmation fait partie de ce qu’on appelle les biais cognitifs, c’est à dire des manières de réfléchir que notre cerveau adopte automatiquement mais qui cause une erreur de jugement. Et des biais cognitifs, on en a PLEIN (plein plein plein). 

Quelques exemples de biais cognitifs :

  • On a tendance à se laisser plus fortement influencer par la première information qu’on obtient sur un sujet (biais d'ancrage mental) et à mieux s'en souvenir aussi (effet de primauté) : c’est pour ça que la première impression qu’on laisse aux gens est importante. Ceux qui ont l'habitude de marchander connaissent bien ce phénomène : si je vous annonce que je vous vends ma montre pour 10 000€, la négociation va se faire à partir de ce prix annoncé. Imaginons qu'elle ne vale que 1000€, mais qu'après un peu de négociation je vous la cède à 5000€, vous allez vous dire "Whaou moitié prix ! J'achète !" alors que si je n'avais pas annoncé de prix vous ne l'auriez pas achetée pour plus de 1000€.

  • On a tendance à évaluer la probabilité d’un événement à posteriori - c’est l’effet “je le savais !” ou “j’en étais sûr !” (biais rétrospectif).

  • On a tendance à percevoir des coïncidences étranges dans des données/ événements hasardeux (illusion des séries). Si vous jouer 4 fois à pile ou face, il est possible que le hasard vous fasse tomber 4 fois sur le côté pile. D'ailleurs si vous jouez 20 fois, vous avez une chance sur deux d'obtenir 4 piles à la suite à un moment donné. Sur de petits échantillons, le hasard a parfois l'air extraordinaire, mais si vous continuez à jouer un nombre élevé de fois, vous tomberez au final autant de fois sur pile que sur face.

  • On a tendance à rester engagé dans une décision, même mauvaise, dès qu’on y a investi de l’argent irrécupérable (biais du coût irrécupérable). Par exemple, on préférera rester dans une salle de cinéma même si le film est mauvais, alors que quitter la salle ne coûte rien et qu’on aurait plus de plaisir à faire autre chose.

  • On a tendance à mettre en place les conditions de réalisation d’une prophétie attendue (prophétie auto-réalisatrice). Exemple : je veux demander à cette fille de sortir avec moi, mais je suis persuadé qu’elle va dire non. Résultat : je suis craintif, je l’approche timidement, je suis gêné, elle est gênée, bref : elle refuse.

Conclusion de la présence de tous ces biais cognitifs : il est très difficile de produire un jugement objectif.

 

La raison n'est pas raisonnable

Comme on vient de le voir, il semblerait que notre raison ne soit pas si "raisonnable" que l’on aimerait le croire... 

Dans cet article du CNRS, le chercheur Hugo Mercier de l’institut des Sciences Cognitives de Lyon nous apprend que nos choix sont avant tout intuitifs et non pas rationnels : ils se font par les émotions plus que par la logique. La raison servirait non pas à guider nos décisions, mais à justifier nos choix, à trouver des raisons pour lesquelles nous avons agis. Hugo Mercier note en effet que "expliciter avec des mots sa propre décision vient souvent après avoir pris la décision elle-même".

Mais alors pourquoi avoir une raison si ce n'est pas pour nous aider à faire des choix ? 

"Les raisons produites par notre raison sont destinées en premier lieu à l’usage social. Sa finalité est argumentative afin de nous justifier et de convaincre les autres."

Cette utilité sociale de la raison pourrait expliquer pourquoi nous avons autant de biais cognitifs, qui nous écartent d'une recherche objective de la vérité. En effet, c'est bien sous l’hypothèse d’une raison dont le but est d'assurer le lien social et la survie en groupe que ces biais ne sont plus des défauts mais des atouts :  mieux vaut ne pas être objectif et être accepté par le groupe, que chercher la vérité et être isolé.

"Nous sommes biaisés vers des raisons qui soutiennent notre point de vue car c’est ainsi que nous pouvons justifier nos actions aux yeux des autres et les convaincre d’embrasser nos idées".

Selon le chercheur cette irrationalité apparente serait donc dû au fait que "la fonction première de la raison est sociale".

Mais alors si notre raison réussit à trouver des raisons à notre intuition, est-ce parce que notre intuition est rationnelle ?

Et bien… pas vraiment.

 

Les deux vitesses de la pensée 

Nous avons en réalité deux systèmes de pensée : un rapide (intuitif, émotionnel), et un lent (logique, analytique).
Cette idée est présentée par le psychologue Daniel Kahneman (prix Nobel d'économie en 2002 pour ses travaux sur les comportements irrationnels des agents économiques) dans son livre “Système 1 / Système 2 : Les deux vitesses de la pensée”.

  • Le système rapide (système 1) nous permet surtout de réagir : en fonction de nos expériences passées et de nos schémas mentaux, il utilise nos émotions pour nous guider rapidement vers telle ou telle décision. Exemple : je n’aime pas les épinards; on me propose des épinards - je dis immédiatement non parce que j’ai un sentiment de dégoût rien qu’à la vue de ceux-ci. Ma décision passe avant tout par mes émotions, je n'ai pas eu besoin d'analyse.

  • Le système lent (système 2) est analytique, et nous permet d’agir plus rationnellement : il est logique, réfléchi. Mais il est aussi plus lent et gourmand en énergie pour notre cerveau, c’est pourquoi celui-ci préfère utiliser le système rapide dès qu’il le peut.

Quand nous avons une intuition, c’est donc le système rapide qui s’exprime. Cela peut être très utile en situation connue, le système 1 nous évite d'analyser inutilement ce que l'on connait déjà.

Cependant le problème c’est qu’il n’est pas très précis, car il ne prend pas le temps d’analyser en profondeur la situation. Lors de situations nouvelles, le système 1 peut donc émettre un jugement erroné, car incomplet. Il affecte pourtant notre jugement via nos émotions, et il peut être difficile de s’en départir, même quand le système 2 prend le relais; prenons l’exemple des préjugés ou des premières impressions, souvent tenaces, notamment à causes des biais cognitifs qui viennent ensuite les justifier rationnellement.

Nous l’avons vu plus haut, notre raison a naturellement tendance à aller dans le sens de notre intuition, elle cherche à lui donner raison plutôt qu'à rechercher la vérité et risquer de lui donner tort.

[Pour plus d'informations sur les deux vitesses de la pensée et l'impact des émotions sur la pensées, je vous invite à consulter cet article]

 

Le début du doute

Il faut donc se méfier de sa première intuition. Quand il s’agit de former une opinion, d’avoir un avis raisonné, de prendre une bonne décision, bref, d’être objectif : méfions-nous de nos première impressions. Pensons avec notre système 2, même si c’est difficile.  

La voix de la raison est beaucoup plus discrète que celle,
claire et tonitruante, de l’intuition erronée.
— Daniel Kahneman

Il faudrait prendre le réflexe de penser contre soi-même, de remettre en cause nos premiers avis, de ne pas accepter une idée sans la passer au filtre du système 2.

C’est ce que disait le philosophe Alain lorsqu’il écrivait que "penser, c’est dire non" (Propos sur les pouvoirs) :

Penser ne consiste pas à "avoir des pensées", de manière passive. Ce n'est pas accepter ses propres pensées et les prendre pour vraies, les croire parce qu'elles s'imposent à l'esprit.
Penser, c’est faire l’effort de juger ses pensées, d'adopter un regard critique sur celles-ci, et parfois de les nier. 
Alain note que "le signe du oui est d’un homme qui s’endort ; au contraire le réveil secoue la tête et dit non."

Penser contre soi-même est difficile, et il est beaucoup plus facile de s’apercevoir des biais cognitifs des autres que de nous-même. Hugo Mercier l'explique d'un point de vue évolutif :

"la raison est une adaptation à la vie sociale où la confiance doit être gagnée et demeure limitée et fragile. C’est pourquoi nous sommes plus prompts à pointer les erreurs de raisonnement chez les autres qu’à démasquer les nôtres".

Cela est d'ailleurs un biais en soi : le "biais de la tâche aveugle", qui consiste à ne pas se rendre compte que nos jugements sont biaisés par… des biais cognitifs (le comble).

L’observateur est toujours plus objectif que l’acteur. C'est pourquoi Kahneman nous invite à l’entraide et à la bienveillance : il faut aider les autres à réaliser leurs erreurs de jugement. Quant à soi, il faut accepter de pouvoir se tromper, et accueillir la critique.

A cette fin, il faut se rappeler que l'on peut être persuadé d’avoir raison et avoir tort. Nos sentiments de certitude ne suffisent pas. Notre intuition n'est qu'une approximation, elle nous trompe parfois.

Qui plus est, on ignore ce qu’on ignore… On peut donc ignorer les informations qu’il nous manque, les faits que nous omettons, les alternatives dont nous n'avons pas conscience.

Il faut faire un effort pour se poser les bonnes questions. Creuser sa pensée pour y déceler des failles. Penser contre soi-même.

 

Le début de la pensée

Finalement, toutes ces informations nous amènent à douter de nous et de notre faculté de juger. Ça tombe bien : 

le doute est le commencement de la sagesse
— Aristote

C'est en effet lorsqu'on se rend compte que les choses ne sont pas évidentes et que l'on peut se tromper que l'on doute. C'est quand on doute que l'on examine les choses avec précaution. Et c'est quand on examine les choses avec précaution qu'on peut les voir telles qu'elles sont.

Dans l'expérience de Rosenhan, l'absence de doute quant aux diagnostiques établis a empêché les médecins de voir la vraie nature des faux patients.

Cela nous arrive surement aussi, en ce moment même. Il est extrêmement probable que nous ayons, vous et moi, des idées fausses, parce que nous n'avons pas pris le temps de douter d'elles.

Attention : loin de moi l'intention de vous faire perdre confiance en vous. Au contraire : je pense que nous pouvons avoir confiance en nous quand nous sommes sûrs de nos idées, et nous ne pouvons en être sûrs qu'après les avoir soumises à l'épreuve du doute.

Pour comprendre le monde tel qu'il est et éviter de nous fourvoyer, adoptons une attitude sceptique.

 

Doutons - un peu - de nous même, et commençons à mieux penser.


Pour aller plus loin :

Système 1 / Système 2 : les deux vitesses de la pensée - Daniel Khaneman. Un livre extraordinaire pour comprendre nos erreurs de jugements et prendre de meilleures décisions.