Biais de confirmation
Automatique traduire
Nous exigeons des preuves extrêmement solides pour les idées qui ne correspondent pas à nos croyances, tout en acceptant des preuves extrêmement faibles pour les idées qui correspondent à nos croyances.
Le biais de confirmation est une distorsion cognitive qui nous pousse à rechercher, percevoir, interpréter et mémoriser les informations de manière sélective, en privilégiant nos croyances préexistantes. Autrement dit, nous exigeons des preuves irréfutables de nos opposants, tout en acceptant facilement nos propres opinions sans les remettre en question.
Ce biais n’est ni un défaut de caractère isolé ni un signe de faible intelligence. Des études psychologiques l’ont mis en évidence chez des personnes de niveaux d’éducation et d’expériences professionnelles très variés. Il influence leur évaluation des données scientifiques, leurs décisions médicales, leurs opinions politiques et leurs jugements quotidiens.
2 Trois mécanismes d’une seule distorsion
3 Expériences classiques
4 Bases neurobiologiques
5 Phénomènes cognitifs associés
6 Biais de confirmation et dissonance cognitive
7 Manifestations en science et en médecine
8 Politique, médias et chambres d’écho
9 Facteurs qui augmentent les biais
10 Les biais dans les décisions quotidiennes
11 Techniques de réduction des biais
12 Lien avec d’autres distorsions cognitives
13 Les préjugés dans les contextes professionnels
14 Rationalité et limites du concept
contexte historique
Bien avant l’avènement de la psychologie expérimentale, des penseurs avaient déjà constaté que les individus s’attachent aux faits qui les confortent. Le philosophe anglais Francis Bacon écrivait au début du XVIIe siècle : « On remarque les coïncidences et on néglige les erreurs ; on conserve les premières en mémoire, mais on oublie et on passe sous silence les secondes. » Dans son traité Novum Organum (1620), Bacon décrivait les « idoles de l’espèce » – des biais cognitifs innés, parmi lesquels la plus manifeste est la tendance à confirmer ses préjugés.
L’étude systématique de ce phénomène a débuté au milieu du XXe siècle. En 1960, le psychologue britannique Peter Wason a publié les résultats d’une série d’expériences devenues des classiques des sciences cognitives. Le terme « biais de confirmation » s’est solidement ancré dans la littérature scientifique après les travaux de Raymond Nickerson et une importante synthèse parue en 1998 dans la revue Review of General Psychology.
Trois mécanismes d’une seule distorsion
Les chercheurs ont identifié trois processus relativement indépendants qui, ensemble, forment un tableau complet de la pensée biaisée.
Recherche biaisée d’informations
Le premier mécanisme, et le plus évident, est que les individus choisissent les sources qu’ils consultent, les personnes qu’ils écoutent et les questions qu’ils posent. Ce choix oriente inconsciemment leurs décisions vers ce qui correspond à leurs croyances préexistantes. L’expérience « 2-4-6 » de Wason, menée en 1960, l’a clairement démontré : on présentait aux participants une suite de nombres et on leur demandait de deviner la règle qui la composait. Les participants nommaient systématiquement des triplets de nombres confirmant leur hypothèse, plutôt que de tester des nombres susceptibles de la réfuter.
La recherche de confirmation est tellement structurée que l’on n’en a souvent pas conscience. Cliquer sur les résultats de recherche, s’abonner à des chaînes et parler à ses proches agissent comme des filtres qui éliminent subtilement les informations incohérentes.
Interprétation biaisée
Le second mécanisme se déclenche lorsqu’une personne est déjà en possession d’informations gênantes. Dans ce cas, elle ne les rejette pas d’emblée ; elle les examine plutôt à la recherche de failles méthodologiques, remet en question la compétence de l’auteur et déclare l’échantillon non représentatif. Elle se contente de ne pas tenir les mêmes propos à l’égard des recherches qui confortent ses opinions.
Ce mécanisme précis a été documenté par Lord, Ross et Lepper dans une expérience désormais emblématique menée en 1979. Ils ont recruté 48 étudiants : certains étaient favorables à la peine de mort comme moyen de dissuasion, d’autres y étaient opposés. Deux études ont été présentées aux deux groupes : l’une confirmait l’effet dissuasif de la peine de mort, l’autre le réfutait. Les deux groupes ont trouvé l’étude qui soutenait leur position convaincante et ont relevé des failles dans l’étude opposée. De ce fait, leurs opinions initiales non seulement ont persisté, mais se sont même polarisées davantage.
Mémorisation biaisée
Le troisième mécanisme intervient après l’événement. La mémoire ne fonctionne pas comme un enregistrement vidéo : elle reconstruit le passé à chaque remémoration. Les détails qui correspondent à nos attentes sont rappelés avec plus de précision et de détails, tandis que ceux qui les contredisent sont flous ou complètement oubliés. Ce phénomène est lié au concept de confirmation mnésique : on se souvient plus facilement des cas où nos prédictions étaient justes et moins facilement de ceux où elles étaient fausses.
Expériences classiques
Le problème des cartes mémoire de Wason
En 1966, Wason a mis au point la «tâche de choix», l’un des tests les plus cités de l’histoire de la psychologie cognitive. On présentait aux sujets quatre cartes portant les symboles «E», «K», «4» et «7». Ils devaient vérifier la règle «si une voyelle figure d’un côté, un nombre pair figure de l’autre» et ne retourner que les cartes qui contredisaient cette règle.
La bonne réponse était « E » et « 7 » : ce sont les cartes qui pouvaient enfreindre la règle. Cependant, seulement 10 % environ des participants ont donné la bonne réponse. La plupart ont choisi « E » et « 4 », les cartes qui auraient confirmé, plutôt qu’infirmé, la règle. Wason a attribué ce résultat à un biais de confirmation : les participants cherchaient à confirmer leur hypothèse, et non à la réfuter.
Expérimenter la peine de mort
Une étude menée en 1979 par Lord, Ross et Lepper a révélé un phénomène encore plus alarmant. Lorsque les deux groupes – partisans et opposants à la peine de mort – ont été confrontés aux mêmes données, leurs évaluations n’ont pas convergé. Au contraire, la divergence entre eux s’est accentuée. Ce phénomène est connu sous le nom de polarisation des opinions : plus les données présentées à des personnes ayant des opinions tranchées sont contradictoires, plus leurs points de vue s’éloignent les uns des autres.
Point essentiel, ce résultat ne s’explique pas par un mensonge ou une tricherie délibérée de l’une des parties. Chaque participant est subjectivement convaincu d’évaluer les données objectivement.
Sélection active des preuves
Une étude de 2022 publiée dans la revue eLife a démontré que les biais se manifestent non seulement dans l’interprétation, mais aussi dans le processus même de collecte d’informations. Les participants ont réalisé des tâches perceptives comportant deux phases de choix, entre lesquelles ils pouvaient librement demander des informations complémentaires. Plus une personne était sûre de sa réponse initiale, plus elle insistait pour obtenir les informations confirmant cette décision. La confiance renforce donc les biais, ce qui les rend particulièrement persistants dans les situations où une personne se sent compétente.
Bases neurobiologiques
Que se passe-t-il dans le cerveau?
Les techniques modernes de neuro-imagerie nous ont permis de mieux comprendre le mécanisme de la distorsion cognitive. Une équipe internationale de scientifiques de Virginia Tech, de l’University College London et de l’Université de Londres a utilisé l’IRM fonctionnelle en combinaison avec des tests comportementaux. Il s’est avéré que le cortex préfrontal médian postérieur fonctionne comme une sorte de «filtre de croyance» : l’activité dans cette zone reflète la propension à intégrer de nouvelles informations à une vision du monde préexistante. Lorsque les informations correspondaient à la position du participant, cette zone réagissait de manière significativement plus forte que lorsqu’elles ne la correspondaient pas.
Une étude distincte de 2020, publiée dans la revue Nature Communications, a utilisé la magnétoencéphalographie (MEG). Les auteurs ont constaté que lorsque les individus sont très sûrs de leur décision, le traitement neuronal des informations confirmant leur choix est renforcé, tandis que celui des informations l’infirmant est inhibé. Autrement dit, les personnes confiantes perçoivent littéralement moins de signaux contradictoires au niveau neuronal.
La persuasion comme menace
En 2016, les neuroscientifiques Jonas Kaplan, Sarah Gimbel et Sam Harris ont mené une expérience avec des volontaires engagés politiquement, à l’aide d’un appareil d’IRMf. Lorsque les participants étaient confrontés à des arguments contredisant leurs convictions politiques, les mêmes régions cérébrales s’activaient que lorsqu’ils percevaient une menace physique. Ceci explique pourquoi les gens réagissent si fortement émotionnellement face à la contradiction : le cerveau perçoit toute remise en cause de ses croyances comme un signal de danger.
Cette réaction s’explique par l’évolution. Appartenir à un groupe partageant des croyances communes était une condition essentielle à la survie pendant la majeure partie de l’histoire humaine. L’exclusion de la communauté représentait une menace réelle pour la vie. Le cerveau réagit encore aujourd’hui aux défis sociaux comme si la sécurité physique était en jeu.
Phénomènes cognitifs associés
biais de désinformation
Le biais de confirmation-infirmation décrit une asymétrie dans l’analyse critique : les arguments qui contredisent nos croyances sont examinés beaucoup plus en profondeur que ceux qui les soutiennent. Des études ont montré que les participants consacraient plus de temps à évaluer les arguments incohérents et formulaient davantage de critiques à leur égard qu’à l’égard des arguments qui appuyaient leur position.
L’effet boomerang
Dans certains contextes, présenter des preuves contredisant les idées reçues non seulement ne parvient pas à convaincre les gens, mais renforce même leurs convictions de manière plus radicale. Cet « effet boomerang » est décrit comme une forme extrême de biais de confirmation. Des modèles mathématiques montrent qu’il se produit lorsque de nouvelles informations sont perçues non comme des données, mais comme une atteinte à l’identité.
Persévérance des croyances
La persévérance des croyances est le maintien de croyances même après que les preuves sur lesquelles elles reposent se soient révélées fausses. Un exemple classique : des sujets ont été amenés à croire qu’une certaine personne était « parfaitement adaptée » à une profession à risque, puis on leur a révélé que cette affirmation était fictive. Leur appréciation de cette personne est restée supérieure à celle d’un groupe témoin n’ayant jamais entendu cette description mensongère.
Corrélation illusoire
On a tendance à percevoir un lien entre deux phénomènes, même lorsqu’il n’y en a pas, si ce lien est cohérent avec nos croyances. Ce phénomène, la corrélation illusoire, explique la persistance de nombreux stéréotypes : les cas qui confirment le stéréotype sont remarqués et mémorisés ; ceux qui le réfutent passent inaperçus.
Biais de confirmation et dissonance cognitive
Le biais de confirmation et la dissonance cognitive sont des phénomènes liés, mais non identiques. La dissonance cognitive, décrite par Leon Festinger en 1957, est le malaise ressenti lorsqu’on adhère simultanément à deux croyances contradictoires. Le biais de confirmation constitue l’un des principaux mécanismes pour résoudre ce malaise : il est plus facile d’ignorer la contradiction que de remettre en question une croyance.
Les données recueillies en 2022 lors d’une étude sur l’idéologie politique ont montré que l’exposition à des informations politiquement incohérentes aggravait significativement l’humeur des participants. De plus, cette dégradation émotionnelle prédisait un renforcement ultérieur de leurs convictions initiales. Autrement dit, l’humeur négative associée à une information « incorrecte » devient elle-même une motivation pour la rejeter.
Manifestations en science et en médecine
Reproductibilité et conception expérimentale
Les scientifiques sont plus sujets aux biais que le grand public. Un chercheur passionné par sa propre hypothèse est enclin à remarquer les résultats qui la confirment et à considérer les anomalies comme des artefacts. Pour lutter contre ce phénomène, la science recourt aux expériences en simple aveugle et en double aveugle, à la randomisation et à la réplication indépendante.
La méthode en aveugle prive littéralement le chercheur de la possibilité de savoir quel groupe a reçu l’intervention active, éliminant ainsi tout risque d’interprétation biaisée. Cela ne signifie pas que le chercheur est malhonnête ; cela signifie simplement que son cerveau fonctionne comme celui de tout le monde.
Diagnostic et raisonnement clinique
En médecine, le biais de confirmation se manifeste par le phénomène d’ancrage diagnostique : un médecin ayant formulé une hypothèse précoce sur la maladie d’un patient tend à interpréter les nouveaux symptômes en faveur de cette hypothèse et sous-estime les données suggérant un autre diagnostic. Il s’agit d’une cause avérée d’erreurs diagnostiques en pratique clinique.
Un processus similaire se produit dans le système judiciaire : les enquêteurs attachés à une version particulière des faits peuvent, par inadvertance, ignorer des preuves qui contredisent cette version – un phénomène connu sous le nom de «vision tunnel» dans le travail d’enquête.
Politique, médias et chambres d’écho
Polarisation des opinions politiques
Le biais de confirmation est un facteur persistant de polarisation politique. Les recherches montrent que les personnes ayant des opinions politiques différentes n’évaluent pas seulement les faits différemment, mais qu’elles sont souvent en désaccord sur la définition même d’un fait. Selon le Pew Research Center (2019), 73 % des démocrates et des républicains américains étaient en désaccord même sur des affirmations factuelles élémentaires.
Chambres d’écho dans l’environnement numérique
Les algorithmes de recommandation et les mécanismes des réseaux sociaux créent des structures où les individus reçoivent principalement des informations qui confortent leurs opinions préexistantes. Il ne s’agit pas d’une intention malveillante : les plateformes sont optimisées pour favoriser l’engagement des utilisateurs, et un contenu familier et agréable est par nature plus captivant. Il en résulte un cercle vertueux : les croyances renforcent le choix des sources, et le choix des sources renforce les croyances.
Une étude sur les chambres d’écho politiques pendant la pandémie de COVID-19 en 2020-2021 a révélé que les utilisateurs de droite formaient des groupes d’information beaucoup plus denses et plus isolés : environ 80 % du public atteint par les comptes d’extrême droite partageait des opinions de droite, tandis que ce chiffre était d’environ 40 % pour les comptes de gauche.
Désinformation et persistance des mythes
L’un des problèmes pratiques liés à ce biais est la persistance exceptionnelle des croyances erronées. Une fois qu’une personne a accepté une affirmation fausse, toute réfutation est accueillie avec un scepticisme encore plus grand que celui suscité par le message initial. L’effet « boomerang » a également été décrit dans le cadre de la démystification des idées reçues sur les vaccins, des théories du complot politiques et des pratiques médicales pseudoscientifiques.
Facteurs qui augmentent les biais
Toutes les croyances et toutes les situations ne sont pas également vulnérables. La recherche identifie plusieurs conditions dans lesquelles le biais de confirmation est plus prononcé.
- La portée émotionnelle du problème. Plus une croyance est importante pour l’identité personnelle, plus la réaction défensive face à des données contradictoires est forte.
- Forte conviction d’avoir raison. Les décisions prises avec assurance génèrent un «filtre» neuronal plus prononcé contre les informations contradictoires, comme le confirment les données MEG.
- Appartenance à un groupe. Lorsqu’une croyance marque l’appartenance à un groupe social, la remettre en question menace cette appartenance – et le cerveau réagit comme une menace.
- Durabilité des croyances. Les croyances profondément ancrées, formées au fil des années, résistent davantage à la remise en question que les croyances récentes.
- Ambivalence des données. Plus les preuves sont ambiguës, plus le risque d’interprétation biaisée est grand. Les faits clairs sont plus difficiles à réinterpréter.
Les biais dans les décisions quotidiennes
Investissements et comportement financier
Un investisseur convaincu du potentiel d’un actif consultera les analyses qui confortent son choix et ignorera les mises en garde contraires. Les économistes comportementaux désignent ce phénomène sous le nom de biais de confirmation post-décisionnel : après l’achat d’une action, l’individu recherche activement des données justifiant cet achat et sous-estime systématiquement les signaux de vente.
relations interpersonnelles
Notre première impression d’une personne déclenche un cycle de confirmation : l’opinion que nous nous forgeons détermine les traits comportementaux que nous remarquons par la suite. Une première impression positive nous pousse à percevoir des signes de sympathie ; une impression négative nous incite à rechercher des signes d’aversion. Cela confère aux premiers jugements une influence disproportionnée.
Les décisions médicales des patients
Un patient convaincu de l’efficacité d’une méthode de traitement alternative constatera des améliorations et les attribuera à cette méthode, tandis que toute détérioration sera imputée à des facteurs externes. C’est pourquoi l’expérience anecdotique est si convaincante pour le patient, mais si peu fiable comme source de données médicales.
Techniques de réduction des biais
mécanismes institutionnels
En science, l’aveuglement, la randomisation et l’indépendance
Historiquement, la réplication s’est développée précisément comme un moyen de se prémunir contre les biais involontaires du chercheur. Le système accusatoire en justice remplit une fonction similaire : l’accusation et la défense présentent délibérément des interprétations opposées des mêmes faits, partant du principe qu’une image plus fidèle de la réalité émergera de cette confrontation.
*
Stratégies individuelles
Au niveau individuel, plusieurs approches se sont révélées efficaces.
- «Envisagez le contraire.» Avant de prendre une décision, demandez-vous délibérément : «Quand aurai-je tort?» Cette technique réduit les biais en déplaçant l’attention de la recherche de confirmation à la recherche de réfutation.
- La stratégie du «et si c’était l’inverse?». Lorsqu’on teste une hypothèse, il faut d’abord tenter de la réfuter, comme l’a fait Wason, en testant initialement son principe par la négation.
- Pré-enregistrement. En science, la publication publique des hypothèses et des méthodes avant la collecte des données élimine la possibilité de les ajuster a posteriori en fonction des résultats.
- Formation à la sensibilisation aux biais. Une seule séance de formation — une vidéo de 30 minutes ou un jeu éducatif de 90 minutes — a montré une réduction significative du biais de confirmation, l’effet persistant après deux mois.
Déverrouillage des limites
Il est important de comprendre qu’éliminer complètement ce biais est illusoire. Le biais de confirmation est en partie fonctionnel : il accélère le traitement de l’information et réduit la charge cognitive. L’objectif n’est pas de considérer chaque croyance comme une hypothèse aléatoire, mais de savoir identifier les situations où les enjeux sont importants et où une asymétrie dans l’évaluation des preuves peut s’avérer coûteuse.
Lien avec d’autres distorsions cognitives
Le biais de confirmation n’existe pas isolément ; il est lié à tout un réseau de phénomènes connexes.
- Effet de halo – la première impression positive crée un «halo» positif général, qui influence ensuite toutes les évaluations ultérieures.
- Biais rétrospectif – après qu’un événement se soit produit, les gens sont convaincus qu’ils «le savaient depuis le début» parce que leur mémoire est reconstruite en fonction du résultat connu .
- Effet de primauté irrationnel : l’information reçue en premier exerce une influence disproportionnée, car elle devient le « cadre » à travers lequel tout ce qui suit est interprété.
- Le raisonnement motivé est un phénomène plus large, dont le biais de confirmation est un cas particulier : lorsque le but du raisonnement n’est pas de trouver la vérité, mais de justifier une conclusion pré-souhaitée .
Les préjugés dans les contextes professionnels
Analyse du renseignement et des menaces
Dans le domaine de l’analyse du renseignement, le biais de confirmation est reconnu comme une menace systémique. Les analystes qui se sont forgé une première impression d’une situation ont tendance à interpréter les nouvelles données comme confirmant cette impression. C’est pourquoi les services de renseignement professionnels adoptent des techniques d’analyse structurées, telles que l’analyse des hypothèses concurrentes (ACH), développée par Richard Hure à la CIA dans les années 1970.
décisions de gestion et d’organisation
Les dirigeants ayant pris une décision stratégique éprouvent des difficultés à la reconsidérer, même face à des signaux négatifs de plus en plus nombreux. Ce phénomène est décrit comme l’un des facteurs du « biais des coûts irrécupérables» : plus on est investi dans une décision, plus on cherche activement à la justifier.
système judiciaire
Le phénomène de «vision tunnel» dans le travail d’enquête – lorsqu’une enquête se focalise sur un suspect précis et commence à rassembler des preuves contre lui – est considéré comme l’une des causes avérées d’erreurs judiciaires. Aux États-Unis, l’Innocence Project a constaté que la condamnation injustifiée de personnes innocentes était souvent liée à ce biais systémique dans le processus d’enquête.
Rationalité et limites du concept
Fonction adaptative
Certains chercheurs soulignent que le biais de confirmation ne peut être considéré comme une simple « erreur » de raisonnement. Face à des ressources cognitives limitées et à la nécessité d’agir rapidement, s’appuyer sur des croyances déjà validées allège la charge cognitive. La stratégie « confirmer plutôt que réfuter » s’avère particulièrement efficace dans un environnement stable, où l’expérience passée permet de prédire l’avenir avec précision.
Le problème survient lorsque l’environnement change et que la stratégie cognitive ne peut suivre le rythme des changements, ou lorsque des jugements systémiques complexes sont impliqués, nécessitant précisément le type de précision que les biais compromettent.
Lien avec la pensée bayésienne
Selon la théorie bayésienne des probabilités, la mise à jour des croyances en réponse à de nouvelles preuves devrait obéir au théorème de Bayes : les probabilités a priori sont ajustées proportionnellement à la force des nouvelles preuves. Le biais de confirmation enfreint ce principe : le poids des nouvelles preuves est déterminé non par leur qualité, mais par leur cohérence avec les croyances a priori. Les preuves confirmant les croyances sont surpondérées, tandis que les preuves les infirmant sont sous-pondérées. Les modèles qui décrivent mathématiquement ce phénomène reproduisent des effets observés expérimentalement, tels que la polarisation des attitudes et l’effet boomerang.
Le biais de confirmation est l’un des phénomènes les plus persistants et les plus documentés en psychologie cognitive. Quatre siècles après Bacon, des décennies d’expérimentations et de données de neuro-imagerie convergent vers un constat clair : le cerveau humain est programmé pour renforcer plus facilement les croyances établies que pour les remettre en question. Cette prise de conscience n’est pas une raison de paralysie intellectuelle, mais plutôt un fondement pour exiger davantage de rigueur de sa propre réflexion là où elle compte vraiment.
Vous ne pouvez pas commenter Pourquoi?