La loi Brandolini
Automatique traduire
La loi de Brandolini (également connue sous le nom de principe d’asymétrie des conneries ) est un aphorisme internet inventé par le programmeur italien Alberto Brandolini en 2013. Son essence est que l’effort requis pour réfuter la désinformation est d’un ordre de grandeur supérieur à l’effort requis pour la créer.
La formulation originale est la suivante : « L’énergie nécessaire pour réfuter des absurdités est un ordre de grandeur supérieur à celle nécessaire pour les produire .»
2 Structure formelle du principe
3 Fondements cognitifs
4 Concepts connexes
5 Preuves empiriques de l’asymétrie
6 Champ d’application
7 Stratégies de contre-mesure
8 Critiques et limites
9 Relation avec d’autres concepts
10 place dans le discours académique
Origine et auteur
Alberto Brandolini est un programmeur et consultant italien originaire de Faenza (Émilie-Romagne), fondateur d’Avanscoperta, une entreprise spécialisée dans la formation des développeurs de logiciels. Il est reconnu dans le secteur informatique comme le créateur de la méthodologie EventStorming, une technique collaborative de modélisation des processus métier.
L’aphorisme a été formulé publiquement pour la première fois en janvier 2013 dans une publication sur les réseaux sociaux. Selon Brandolini lui-même, il est né de la conjonction de deux événements : peu de temps auparavant, il avait lu le livre de Daniel Kahneman, « Thinking, Fast and Slow » , puis regardé une émission politique italienne où le journaliste Marco Travaglio et l’ancien Premier ministre Silvio Berlusconi échangeaient des accusations. Constatant que chaque nouvelle affirmation nécessitait une réfutation longue et documentée, Brandolini a formulé un principe qui existait déjà depuis longtemps dans la pratique, mais qui n’avait pas de nom précis.
La loi s’est rapidement imposée dans les milieux professionnels et universitaires. Elle a commencé à être citée par les chercheurs dans les domaines de l’éducation aux médias, de la psychologie cognitive, de la communication politique et de l’éducation.
Structure formelle du principe
Qu’est-ce qu’un «ordre de grandeur»?
L’expression «un ordre de grandeur supérieur» dans la formulation originale désigne une différence d’environ dix fois. Dans ce contexte, il ne s’agit pas d’une affirmation mathématique stricte, mais d’une caractéristique qualitative : réfuter une affirmation exige incomparablement plus de temps, d’attention et de ressources que de la formuler.
On peut créer une fausse affirmation en quelques secondes : il suffit d’écrire une courte phrase sans aucune preuve. En revanche, une réfutation exige de rechercher des sources, d’analyser le contexte, de comprendre le public et d’expliquer clairement pourquoi l’affirmation initiale est fausse. Ainsi, l’asymétrie ne résulte pas d’une intention malveillante, mais de la nature même du processus cognitif.
Distinguer la désinformation, la mésinformation et les «absurdités»
Dans le contexte de la loi de Brandolini, on utilise le terme anglais «bullshit», que le philosophe Harry Frankfurt distinguait déjà du mensonge en 1986 (dans son essai «On Nonsense», publié sous forme de livre en 2005). Un menteur connaît la vérité et la dissimule délibérément. Celui qui répand des balivernes est indifférent à la véracité de ses propos ; son but n’est pas de tromper, mais d’impressionner ou d’obtenir l’effet désiré.
Cette distinction est cruciale : un mensonge peut être réfuté en présentant des preuves contraires. Réfuter une affirmation neutre vis-à-vis de la vérité est plus difficile, car son auteur n’est lié par aucune obligation factuelle préalable et peut librement changer de position à chaque nouvelle objection.
Le mensonge est l’opposé de la vérité. L’absurdité lui est indifférente.
La distinction entre mésinformation (désinformation diffusée involontairement) et désinformation (désinformation délibérée) est également importante pour la compréhension du droit. Le principe de Brandolini s’applique aux deux catégories, mais dans la diffusion intentionnelle d’informations sciemment fausses, l’asymétrie d’effort est instrumentale : elle est utilisée délibérément comme stratégie.
Fondements cognitifs
Système 1 et système 2 selon Kahneman
Brandolini s’est inspiré du livre de Kahneman, et à juste titre. Le concept de deux systèmes de pensée — rapide et intuitif (Système 1) et lent et analytique (Système 2) — explique pourquoi la création et la consommation d’énoncés simplistes sont peu coûteuses, tandis que leur vérification l’est beaucoup moins.
Le Système 1 fonctionne automatiquement : il repère des schémas familiers et porte instantanément un jugement. Une affirmation mensongère, formulée dans une phrase simple et chargée d’émotion, traverse le Système 1 sans quasiment aucune résistance. La réfutation, en revanche, exige l’intervention du Système 2 — une analyse lente, énergivore et consciente.
L’effet de familiarité et l’illusion de vérité
Répéter une affirmation fausse la rend subjectivement plus crédible : c’est ce qu’on appelle l’effet de vérité illusoire. Des expériences montrent que même si une personne sait qu’une affirmation est fausse, lorsqu’elle est répétée de nombreuses fois, son cerveau commence à la percevoir comme familière, et la familiarité finit par être associée à la vérité.
Cela signifie qu’une simple réfutation est souvent insuffisante. En répétant l’affirmation initiale, même dans le but de la critiquer, celui qui la réfute renforce involontairement son «poids» dans l’esprit du public.
Biais de confirmation et pensée motivée
Lorsqu’une affirmation erronée correspond aux croyances préexistantes d’une personne, la résistance à la réfutation augmente considérablement. La pensée motivée pousse les individus à évaluer de manière critique la réfutation plutôt que l’affirmation initiale : ils recherchent les failles dans les arguments de l’adversaire, et non dans leurs propres positions.
Une étude publiée dans la revue Frontiers in Psychology en 2024 a montré que lorsqu’une croyance est étroitement liée à l’identité personnelle ou à la classe sociale d’une personne, la réception d’informations correctives déclenche souvent des mécanismes de défense : au lieu de réviser leurs points de vue, ils renforcent leurs points de vue initiaux.
Concepts connexes
Le galop de Gish
La tactique dite du « Gallop de Gish » est une application pratique directe de la loi de Brandolini dans le débat. Un orateur utilisant cette technique déverse sur son adversaire un flot d’affirmations – demi-vérités, faits déformés et pures inventions – à une vitesse telle que ce dernier n’a physiquement pas le temps de réfuter chacune d’elles.
L’expression s’est imposée en 1994, lorsqu’Eugene Scott, directeur du Centre national américain pour l’éducation scientifique, l’a employée pour décrire les débats entre le biochimiste créationniste Duane Gish et les biologistes évolutionnistes. Chaque argument de Gish durait quelques secondes ; les réfutations, plusieurs minutes. Compte tenu du format concis de ces débats, cela constituait un avantage certain.
Le mécanisme du galop de Gish repose entièrement sur l’asymétrie décrite par Brandolini : si l’adversaire ne réfute pas les cent affirmations, le galopeur déclare la victoire sur les affirmations restantes.
L’effet boomerang et sa réévaluation
En 2010, les politologues Brendan Nyan et Jason Reifler ont publié une étude documentant ce que l’on appelle «l’effet boomerang» : réfuter des croyances pouvait parfois conduire à les ancrer davantage dans les esprits. Ces conclusions ont été largement relayées et ont alimenté l’idée que corriger la désinformation était totalement inutile.
Cependant, des recherches ultérieures ont remis en question cette conclusion. Une méta-analyse de 52 expériences de modification des convictions politiques menée par Porter et Wood n’a mis en évidence aucun effet boomerang systémique. Une étude de 2022, publiée dans une revue à comité de lecture, a révélé que lorsque cet effet était observé, il était principalement dû à l’incertitude des mesures plutôt qu’à un mécanisme psychologique robuste.
Cependant, la difficulté de réfutation – idée centrale de la loi de Brandolini – n’est pas réfutée par ces données. La vérification des faits réduit la croyance aux fausses affirmations, mais le processus lui-même demeure nettement plus laborieux que leur élaboration.
Le problème de la charge de la preuve
Le principe de Brandolini est étroitement lié à la répartition inégale de la charge de la preuve. Dans le débat public, celui qui avance une affirmation ne prend souvent aucun risque : il peut s’exprimer sans étayer ses propos par des sources. En revanche, son adversaire est tenu de construire un raisonnement logique, de vérifier ses sources, d’examiner les contre-arguments et de présenter l’ensemble de ces éléments de manière convaincante à l’auditoire.
L’aphorisme de Carl Sagan, « Des affirmations extraordinaires exigent des preuves extraordinaires », et le principe du rasoir d’Hitchens, « Ce qui est affirmé sans preuve peut être rejeté sans preuve », s’opposent directement dans leur esprit à la norme implicite qui régit en réalité de nombreux échanges publics.
Preuves empiriques de l’asymétrie
La rapidité de diffusion des fausses informations
Une étude de Washburn et Aral publiée en 2018 dans la revue Science a analysé environ 126 000 chaînes de diffusion d’informations dans la microblogosphère entre 2006 et 2017. Les fausses informations se sont propagées plus rapidement, plus loin et plus largement que les vraies, et cette supériorité s’est maintenue dans toutes les catégories thématiques. Les fausses informations politiques se sont propagées particulièrement rapidement.
Les auteurs de l’étude ont établi un lien entre cet effet et la nouveauté : les fausses informations contiennent souvent des éléments inattendus ou chargés d’émotion, ce qui suscite la surprise et encourage le partage. Les informations véridiques sont, en moyenne, « ennuyeuses » ; elles s’inscrivent dans une vision du monde déjà familière.
L’efficacité de la vérification des faits
Une étude à grande échelle menée simultanément dans quatre pays (Argentine, Nigéria, Afrique du Sud et Royaume-Uni) et publiée dans PNAS en 2021 a révélé que la vérification des faits réduisait la croyance aux fausses informations de 0,59 point en moyenne sur une échelle de cinq points. En revanche, la simple exposition à la désinformation, sans aucune correction, n’augmentait la croyance à celle-ci que de 0,07 point.
Autrement dit, une dose unique de désinformation a peu d’effet sur les croyances, mais l’effet cumulatif d’une exposition répétée, en l’absence de correction systématique, est significatif. C’est là que réside la véritable asymétrie : les fausses informations peuvent être produites en continu et à grande échelle, tandis que leur vérification demeure un processus rare et coûteux.
Le prix de la vérification professionnelle des faits
Une étude menée par le Harvard Kennedy School Misinformation Review a révélé que les vérificateurs de faits professionnels (dont Snopes, PolitiFact et d’autres organisations réputées) consacrent beaucoup plus de temps et de ressources à vérifier une seule affirmation qu’à la formuler. Les systèmes automatisés de vérification des faits réduisent cet écart, mais ne l’éliminent pas : pour les affirmations complexes et contextualisées, l’analyse automatique reste moins performante que l’analyse humaine.
Champ d’application
communications politiques
En politique, la loi de Brandolini est particulièrement claire. Une affirmation politique – une accusation, un soupçon, une interprétation simpliste d’un problème complexe – peut être lancée en quelques secondes et immédiatement relayée par les médias. Sa vérification, même si elle aboutit à une réfutation, prend des jours, voire des semaines, et nécessite la consultation d’experts, de documents et de statistiques.
Les débats électoraux en sont un parfait exemple. Dans un format de débat avec des limites de temps strictes, chaque fausse allégation d’un candidat exige une réponse concise mais convaincante de son adversaire – ce qui est matériellement impossible compte tenu de la fréquence élevée de telles allégations.
Discours scientifique et pseudoscience
En science, le principe de Brandolini explique la persistance des concepts pseudoscientifiques. Discours antivaccination, théories de la Terre plate, déni du changement climatique : chacune de ces positions repose sur un ensemble de prémisses simplistes dont la réfutation exige des explications détaillées étayées par des recherches évaluées par les pairs.
La pression du «publier ou périr» qui caractérise le milieu universitaire joue ici un rôle prépondérant : les chercheurs s’intéressent souvent davantage aux résultats spectaculaires qu’au travail fastidieux de réfutation des erreurs d’autrui. La crise de la reproductibilité en psychologie et en sciences sociales s’explique en partie par le fait que les résultats sensationnels sont publiés plus rapidement et plus facilement que leurs corrections rigoureuses.
désinformation médicale
Le domaine médical est particulièrement vulnérable à l’asymétrie décrite par Brandolini. L’affirmation selon laquelle «les vaccins causent l’autisme» a été formulée dans une seule publication du Lancet en 1998 – une publication par la suite rétractée et jugée frauduleuse. Réfuter cette allégation a nécessité des dizaines d’études épidémiologiques de grande envergure, impliquant des millions d’enfants, et a pris plus de vingt ans.
Cette asymétrie a pour coût une baisse de la couverture vaccinale et des épidémies de rougeole dans les régions où les discours antivaccins sont particulièrement ancrés.
Environnement et gestion d’entreprise
Dans le contexte organisationnel, le principe de Brandolini décrit un phénomène auquel sont confrontés de nombreux gestionnaires et spécialistes : une rumeur, une idée fausse ou une interprétation erronée des statistiques peuvent paralyser le travail d’un service ou compromettre un projet entier. La réfutation exige du temps, des explications formelles et souvent la tenue de réunions spéciales.
Les équipes travaillant sous une forte charge informationnelle sont particulièrement enclines à accepter l’affirmation «premier arrivé, premier servi» comme hypothèse de travail : il n’y a tout simplement pas les ressources nécessaires pour tester systématiquement chaque hypothèse.
Stratégies de contre-mesure
Prébanque et théorie de l’immunisation
Le chercheur Sander van der Linden, de l’université de Cambridge, et ses collègues ont développé le concept de « pré-désinformation » – une forme de pré-inoculation contre la désinformation, comparable à la vaccination médicale. L’idée est qu’en exposant les individus à des formes atténuées des techniques de manipulation utilisées dans la désinformation, ils développent une résilience cognitive face à ces dernières.
Une étude du jeu Bad News, menée dans quatre pays (Suède, Allemagne, Pologne et Grèce), a confirmé que les participants qui jouaient à un scénario de jeu dans lequel ils «produisaient» eux-mêmes de fausses informations étaient par la suite nettement meilleurs pour reconnaître les techniques de manipulation et étaient moins susceptibles de faire confiance à la désinformation.
Le pré-dépistage bancaire, contrairement au contrôle des faits traditionnel, intervient avant qu’une fausse déclaration ne se soit répandue et nécessite donc moins d’efforts par personne protégée.
Inversion de la charge de la preuve
Une façon de neutraliser cette asymétrie consiste à refuser d’assumer la charge de la réfutation là où elle ne devrait pas incomber. Si une affirmation n’est pas étayée par des preuves, elle n’exige pas formellement de réfutation : selon le rasoir d’Hitchens, elle peut être rejetée avec la même justification qui a servi à la présenter.
En pratique, cela signifie qu’au lieu d’analyser chaque thèse de désinformation spécifique, il est plus efficace de se poser la question : « Sur quoi se fonde cette affirmation ? » et de faire peser la charge de la preuve sur la partie qui l’a formulée.
L’éducation aux médias comme réponse systémique
Le cours «Démasquer les mensonges», conçu par les professeurs Carl Bergstrom et Jevin West de l’Université de Washington, s’inspire directement du principe de Brandolini. Il vise moins à vérifier les faits qu’à reconnaître les signes structurels de manipulation – dans les statistiques, la visualisation des données, les techniques rhétoriques et la sélection des sources.
L’objectif n’est pas de combattre la désinformation dans chaque cas individuel, mais de réduire la vulnérabilité globale à celle-ci en diminuant la demande d’allégations non fondées.
Vérification automatisée des faits
Face à l’incapacité du contrôle manuel des faits à gérer le volume de désinformation produite, la communauté scientifique et les entreprises technologiques investissent dans des systèmes de vérification automatisés. Ces systèmes sont capables de comparer en temps réel les affirmations à des bases de données de faits vérifiés, d’identifier les récits déjà réfutés et de signaler les contenus présentant une forte probabilité d’être faux.
La limite de l’automatisation est qu’elle fonctionne bien avec des énoncés factuels et mal avec des manipulations contextuelles, des demi-vérités et des distorsions rhétoriques qui ne contiennent pas formellement de faits faux.
Critiques et limites
Absence de vérification stricte
La loi de Brandolini est un aphorisme, non une hypothèse scientifique formelle. Elle ne contient aucune définition opérationnelle des termes « énergie » ou « effort » et n’implique aucune proportion numérique précise. L’expression « un ordre de grandeur supérieur » relève d’une appréciation qualitative, et non d’une mesure empirique.
Plusieurs chercheurs soulignent que l’asymétrie spécifique varie considérablement selon la nature de l’affirmation : réfuter une erreur mathématique peut être aussi rapide qu’elle a été commise, tandis que réfuter une falsification historique nécessitera des recherches archivistiques approfondies.
Le risque d’un scepticisme excessif
Une étude menée dans trois pays (les États-Unis, la Pologne et Hong Kong) et publiée dans la Harvard Kennedy School Misinformation Review en 2024 a révélé un effet secondaire inattendu de la vérification active des faits : les personnes exposées à des interventions correctives intensives ont commencé par faire preuve d’un scepticisme accru non seulement à l’égard des fausses informations, mais aussi à l’égard des informations fiables.
Cela signifie que la lutte agressive contre la désinformation peut indirectement saper la confiance dans les connaissances vérifiées – un effet qui, en soi, devient un vecteur de propagation du doute.
Différences contextuelles et culturelles
Le degré d’asymétrie décrit par la loi varie selon le contexte médiatique, le niveau de confiance du public envers les institutions et les normes culturelles du débat public. Dans les sociétés où le niveau d’éducation aux médias est élevé et où les institutions de vérification des faits sont robustes, le coût de la réfutation est moindre, non pas parce qu’elle est plus facile, mais parce que le public est mieux préparé à l’accepter.
Au contraire, dans un contexte de fragmentation de l’information, lorsque différents groupes de la population consomment des flux médiatiques fondamentalement différents, le coût de la réfutation augmente : atteindre un public qui croit déjà à une affirmation fausse est nettement plus difficile qu’atteindre un public neutre.
Relation avec d’autres concepts
Le principe de Brandolini s’intègre naturellement à un certain nombre de concepts connexes étudiant l’asymétrie de l’information et les biais cognitifs.
Le principe de Potter — l’affirmation informelle selon laquelle «la racine d’un mensonge pousse plus vite que sa réfutation» — a été formulé indépendamment et décrit le même mécanisme lorsqu’il est appliqué aux contextes bureaucratiques et administratifs.
Les lois de la propagation des rumeurs , étudiées par les psychologues sociaux dès le milieu du XXe siècle (Allport et Postman, 1947), documentent la tendance des rumeurs à se simplifier et à s’aiguiser au cours de leur transmission : chaque récit intensifie les détails saisissants et atténue les nuances, rendant la rumeur de moins en moins vérifiable.
La théorie de l’agnotologie — une discipline philosophique qui étudie la production de l’ignorance — examine les mécanismes systémiques par lesquels des acteurs, motivés par des considérations économiques ou politiques, créent délibérément une incertitude informationnelle. L’historien des sciences Robert Proctor a forgé le terme d’agnotologie pour désigner ce phénomène ; les campagnes menées par les compagnies de tabac pour semer le doute sur le lien entre tabagisme et cancer du poumon en sont un exemple classique.
place dans le discours académique
La loi de Brandolini est devenue un concept informel largement cité dans les textes universitaires. Elle est mentionnée dans des études portant sur la psychologie cognitive, l’éducation aux médias, la communication politique et l’éthique des sciences.
Dans leur ouvrage « Calling Bullshit : The Art of Skepticism in a Data-Driven World » (2020), les biologistes Carl Bergstrom et Jevin West ont systématisé diverses formes de manipulation de l’information, en s’appuyant notamment sur le principe d’asymétrie. Ce travail a transformé un aphorisme informel en un outil opérationnel pour la pédagogie de la pensée critique.
Le blog du British Medical Journal (BMJ) a publié un essai intitulé «L’insupportable asymétrie des conneries», dans lequel le principe était appliqué aux sciences médicales : les auteurs ont montré que les études injustes ou simplement négligentes occupent l’espace médiatique, tandis que leur réfutation méthodique reste le domaine de quelques examinateurs ingrats.
Les limites de la métaphore de «l’ordre de grandeur»
Le principe de Brandolini est souvent cité sous une forme atténuée : « beaucoup plus difficile ». Cet atténuation reflète les doutes de certains universitaires quant à la réalité d’une asymétrie d’un facteur dix dans chaque cas particulier. Certains chercheurs préfèrent parler d’une asymétrie substantielle, mais non d’une asymétrie systématiquement multiple.
Dans le même temps, l’idée générale — selon laquelle produire des affirmations non fondées coûte structurellement moins cher que de les vérifier — est étayée par un éventail assez large de données provenant de divers domaines, allant de la mesure de la vitesse de diffusion de l’information à l’économie de la vérification des faits.
Vous ne pouvez pas commenter Pourquoi?