Le Roi des biais cognitifs : le biais de confirmation

analise-benevides-640958-unsplash-4M-min.jpg

Le biais de confirmation est le roi de la pensée tordue : il nous rend aveugle à tout ce qui nous prouve qu’on se trompe.

Comprendre son fonctionnement pour s'en prémunir est crucial. Si vous apprenez à l'éviter, je vous assure que la qualité de vos pensées fera un pas de géant !

 

Présentation du biais de confirmation

Le biais de confirmation est une erreur dans le processus de réflexion, qui nous conduit à rechercher la confirmation de nos opinions au lieu de chercher la vérité.

Dans son Novum Organum, Francis Bacon l'expliquait déjà à sa manière (paragraphe XLVI) :

"L’entendement, une fois familiarisé avec certaines idées qui lui plaisent, [...] s’y attache obstinément ; il ramène tout à ces idées de prédilection ; il veut que tout s’accorde avec elles ; il les fait juge de tout ; et les faits qui contredisent ces opinions favorites ont beau se présenter en foule, ils ne peuvent les ébranler dans son esprit ; ou il n’aperçoit point ces faits, ou il les dédaigne, ou il s’en débarrasse à l’aide de quelques frivoles distinctions, ne souffrant jamais qu’on manque de respect à ces premières maximes qu’il s’est faites. Elles sont pour lui comme sacrées et inviolables ; genre de préjugés qui a les plus pernicieuses conséquences."

Notre tendance à ne voir que ce qui nous arrange s’applique à la recherche de preuves, aux souvenirs ou à l’interprétation.  Quelques exemples...

Sélection de preuves

Rappelez vous la dernière fois que vous avez eu un débat avec un(e) ami(e). Vous affirmez que quelque chose est vrai, il ou elle affirme que c'est faux. Vous voulez vérifier sur Google qui a raison. A ce moment là, notre tendance naturelle est de chercher les preuves que ce que l'on dit est vrai, plutôt que les preuves que c'est faux - l'idéal étant bien sûr de faire les deux recherches et de comparer les arguments. Si vous affirmez qu'il vaut mieux se coucher tard que tôt, vous aller taper "pourquoi il vaut mieux se coucher tard", cliquer sur ce genre de lien et trouver des preuves (ça vous parle ?). Vous allez aussi trouver tout un tas d'exemples de personnes qui ont réussi leur vie et qui se couchent tard. Pourtant les preuves abondent aussi pour les couche-tôt...

Cette faculté à sélectionner les preuves a été mise en exergue lors d'une étude utilisant un cas fictif de garde d'enfant. Les sujets doivent déterminer qui doit obtenir la garde d'un enfant : soit le parent A, soit le parent B. Le parent A est décrit comme moyennement apte à assurer la garde : il n'a ni véritables atouts, ni véritables défauts. Le parent B a à la fois de fortes qualités et de grands défauts (exemple : une relation étroite avec l'enfant, mais un travail qui le tiendrait loin de l'enfant pour de longues périodes).
Lorsqu'on demanda à un premier groupe "Quel parent devrait avoir la garde de l'enfant ?" les sujets relevèrent les attributs positifs et choisirent majoritairement le parent B.
Lorsqu'on posa la question opposée à un deuxième groupe, à savoir : "Quel parent devrait se voir refuser la garde de l'enfant ?", les sujets examinèrent cette fois les attributs négatifs, mais là encore, une majorité désigna le parent B.
Je récapitule : en fonction de la question, les sujets de l'étude estiment que la personne B est soit la plus apte, soit la moins apte - alors que les descriptions ne changent pas ! Seules changent les preuves auxquelles ils accordent de l'attention.

Sélection des souvenirs

Vous le savez aussi bien que moi, notre mémoire n'enregistre pas toutes les informations auxquelles nous sommes exposés : elle fait le tri, et ne garde que ce qu'elle considère important. Le problème est qu'elle considère important ce qui soutient nos opinions, et choisit d'oublier ce qui peut nous faire douter ; or les deux sont importants pour se former une opinion objective.

Si par exemple je déteste les personnes de grande taille, je vais mémoriser toutes les fois où celles-ci ont été désagréables, et oublier toutes les fois où ce n'était pas le cas.
Plus spécifiquement, imaginons que j'ai l'opinion suivante : "les gens petits sont très sympas, mais les gens grands beaucoup moins". Admettons que dans une journée je rencontre 10 petits et 10 grands ; et que dans chaque groupe, je croise 8 personnes sympas, et 2 personnes désagréables - c'est donc que les petits et les grands sont aussi sympa les uns que les autres. Pourtant à la fin de ma journée, mes croyances vont être renforcées : je vais me dire "les petits sont vraiment sympa, d'ailleurs j'en ai croisé 8 très gentils ; mais les grands sont vraiment désagréables, d'ailleurs j'en ai encore croisé 2 pénibles". Chaque exemple confirmant mon préjugé est comptabilisé, alors que les exemples l'infirmant sont oubliés.  
Cet effet est accentué par les médias, qui rapportent plus facilement les méfaits que les actes ordinaires (il faut bien que l'actualité soit nécessairement un peu extraordinaire pour qu'on s'y intéresse). Mais il est alors facile de voir une population d'individus commettre des méfaits encore et encore, sans soupçonner la majorité silencieuse d'individus très biens. Je ne le rappellerai jamais assez : on ignore ce que l'on ignore...

Interprétation

Le biais de confirmation peut nous faire interpréter un même fait de manière différente en fonction de nos opinions. L'attitude aimable d'un vendeur sera perçue par un misanthrope comme une volonté de manipulation ; par un philanthrope comme de la sympathie.

Une étude de l'université de Stanford réalisée en 1979 illustre bien notre capacité d'interprétation :

Pour les besoins de l'étude, on sélectionne des candidats qui ont une opinion tranchée sur l'utilité de la peine de mort : une moitié est pour, l'autre moitié est contre. Les sujets de l'étude sont donc séparés en 2 groupes en fonction de leur opinion. On présente à chaque groupe deux études (fictives, créées pour les besoins de l'expérience) : l'une confirmant l'utilité de la peine de mort, l'autre l'infirmant.
Les participants ont alors l'occasion d'analyser les études. On constate que chaque groupe interprète les résultats de l'étude qui confirme son opinion comme beaucoup plus convaincants que ceux de l'étude allant à son encontre.
C'est à dire que lorsque l'on présente les mêmes faits à deux groupes d'opinions différentes, les avis de chacun ne convergent pas, mais s'éloignent : devant les mêmes preuves, chaque groupe est devenu encore plus convaincu de sa propre opinion.
C'est fou : on pourrait s'attendre à ce que devant les mêmes faits, les avis convergent, mais non ils divergent...

Le problème, c’est que comme tous les biais cognitifs, on ne le remarque pas et on ne se rend même pas compte que notre raisonnement n’est pas correct. Pourtant nous sommes tous victimes du biais de confirmation. Personnellement, je me rends compte tous les jours que mon esprit adopte "par défaut" le biais de confirmation...

 

La réfutation, le remède au bais de confirmation 

Le biais de confirmation a été mis en évidence lors d'une expérience du psychologue cognitif Peter C. Wason. Son expérience a été reproduite sous forme de micro-trottoir par la chaîne Veritasium, qui illustre assez bien le problème du biais de confirmation et l’intérêt de la méthode scientifique.

Je vous invite donc à regarder la courte vidéo ci-dessous avant de continuer (sous-titres en français disponibles) :

 

Ce qui est étonnant est que, quand les passants proposent la règle "il faut multiplier par 2" et que Veritasium leur dit que ce n'est pas cela, ils continuent malgrés tout à proposer des chiffres suivant cette même logique. Ils obtiennent encore et encore la validation de leur hypothèse, mais n'apprennent pas d'informations supplémentaires qui pourraient les mettre sur la piste de la règle.

Quand on a une théorie ("la règle est x2"), on émet des hypothèses pour la tester ("la suite 8, 16, 32 devrait marcher"). En fonction des résultats, on doit adapter la théorie. Si l'hypothèse est bonne et suit la règle, on sait qu'on est sur la bonne voie ; mais, comme pour l'histoire du cygne blanc, difficile de savoir si on a observé toute la vérité ou seulement une partie de celle-ci... (contrairement à ce qu’on pourrait penser, tous les cygnes ne sont pas blancs, il en existe des noirs en Australie).

La bonne stratégie à adopter est donc d'essayer de voir les limites de notre théorie. Pour cela, il faut imaginer d'autres règles possibles mais différentes, et proposer des suites de chiffres dont on ne sait pas si elles suivent la règle ou non. 
Quand on obtient un oui, la théorie s'agrandit ; quand on obtient un non, elle se rétrécit.

Nous essayons de prouver que nous avons tort aussi
vite que possible, parce que c’est uniquement
de cette manière que nous pouvons progresser.
— Richard Feynman

C'est exactement ce que l'on observe dans la vidéo : au début les volontaires pensent que leur théorie (x2) est toute la vérité, il la propose alors comme règle. Quand Veritasium leur apprend que ce n'est pas la bonne, ils restent bloqués sur leur théorie quelque temps, puis finissent par proposer plein de suites, toutes correctes : la théorie s'élargie alors considérablement, jusqu'à ce que les volontaires estiment que "n'importe quelle suite est correcte". Puis vient le moment où il obtiennent un non qui vient limiter la théorie : ils comprennent alors la bonne règle.

Il faut préciser que l'important n'est pas d'obtenir un "non". Si je ne propose que des suites négatives, j'obteindrai plusieurs "non", mais je ne comprendrai pas la règle pour autant : je saurais ce qu'elle n'est pas, mais pas ce qu'elle est. L'important est d'obtenir une information supplémentaire. Pour cela, il faut proposer une hypothèse dont on ignore si elle sera vraie ou fausse - c'est le principe de la falsifiabilité de Popper - et adapter sa théorie en fonction des résultats.

Pour trouver la règle de Veritasium, tout comme pour se rapprocher de la vérité dans notre vie, il faut donc tester ses théories en mettant nos hypothèses à l’épreuve des faits. 

Le biais de confirmation au quotidien 

Dans la vidéo, les gens qui avancent une théorie savent immédiatement si celle-ci est correcte ou non. Il peuvent alors proposer d’autres hypothèses pour la tester, et ils continuent de chercher et de se rapprocher de la vérité.

Or dans la "vraie" vie, on n'a malheureusement pas de maître du jeu pour nous dire si nous avons raison ou non. On peut vite s’imaginer une règle, tester une hypothèse qui fonctionne et continuer de la confirmer encore et encore sans la falsifier : on ne teste pas les autres hypothèses possibles, et on ne se rend pas compte que l'on se trompe.

Par exemple dans la vidéo, si Veritasium n'avait pas précisé si la règle annoncée était la bonne, chaque variation de 2, 4, 8 aurait agi comme une preuve supplémentaire que la théorie "x2" est la bonne. C'est d'ailleurs ce que considèrent les volontaires au début, et c'est ce que nous faisons tous : chercher la confirmation que ce que l'on sait être vrai... est vrai. Et c'est normal, c’est agréable de s’entendre dire qu’on a raison !

Mais on peut avoir raison sur l'hypothèse et pas sur la théorie : l'idée du x2 n’est pas fausse, mais elle est incomplète. Comme toute opinion, c’est une vérité tronquée.

L’opinion est quelque chose d’intermédiaire
entre la connaissance et l’ignorance.
— Platon

Quand on sait qu’on a une connaissance, la prochaine étape est d’en connaître la limite. Il faut s'efforcer de savoir si l'on détient toute la vérité, ou seulement une partie ; et la vérité est souvent plus complexe qu'il n'y parait.

J'insiste : tant que l'on a pas essayé de réfuter une théorie, elle ne doit pas être considérée comme vraie. Mais quand on échoue à prouver que l'on a tort, alors on a peut être raison.

Alors à vous de jouer maintenant : quelles sont les idées que vous considérez vraies mais que vous n'avez pas encore essayé de réfuter ?

 


Pour avoir une parfaite illustration du biais de confirmation à l'oeuvre, je vous invite à regarder la vidéo ci-dessous de la chaîne Youtube "La tronche en biais". Après avoir créé un crop circle dans un champ, le youtubeur AstronoGeek est resté une semaine sur place, incognito, pour recueillir les témoignages et avis des curieux. Vous allez voir, chez ceux qui y voient une origine non-humaine tout y est : sélection de preuves, interprétations et mémoire biaisée !