Loi de Cunningham
Automatique traduire
La loi de Cunningham est une règle de communication en ligne observée empiriquement qui stipule que le meilleur moyen d’obtenir la bonne réponse sur Internet n’est pas de poser une question, mais de publier une affirmation sciemment fausse. Ce principe reflète l’asymétrie des motivations humaines : le désir de corriger l’erreur d’autrui est nettement plus efficace que la volonté de répondre à une question ouverte.
2 Ward Cunningham et ses contributions
3 mécanismes psychologiques
4 Analogies dans différentes cultures
5 Manifestations sur des plateformes spécifiques
6 application pratique
7 Limites d’applicabilité et critiques
8 Concepts et lois connexes
9 Dimensions éthiques
10 Le droit dans le contexte de la production collective des connaissances
11 Lien avec les phénomènes de propagande et de désinformation
12 Constance de l’effet dans le temps
Histoire de l’origine
La loi porte le nom du programmeur américain Howard Ward Cunningham (né le 26 mai 1949), inventeur de la technologie wiki. Cunningham a créé le premier système wiki, WikiWikiWeb, en 1994-1995 et l’a publié sur le site web de sa société de conseil, Cunningham & Cunningham (c2.com), le 25 mars 1995. Cette plateforme a préfiguré Wikipédia et toute la culture de l’édition collaborative qui a suivi.
La loi elle-même n’a pas été formulée par Cunningham, mais par son collègue Stephen McGeady, qui avait observé le style de communication de Ward au sein des premières communautés en ligne au début des années 1980. Selon McGeady, Cunningham avait le don d’obtenir des informations utiles de ses interlocuteurs sans leur demander directement de l’aide, mais en les incitant subtilement à développer leurs idées. McGeady a résumé cette observation sous forme d’aphorisme et l’a baptisée « Loi de Cunningham », bien que Ward lui-même en ait par la suite nié la paternité, la qualifiant de « citation inexacte ».
Initialement, la loi concernait le comportement des utilisateurs sur Usenet, l’ancêtre textuel des forums modernes. Par la suite, son application a été étendue à Wikipédia, Stack Overflow, Reddit et d’autres plateformes de partage de connaissances.
Ward Cunningham et ses contributions
Howard Ward Cunningham est l’un des rares programmeurs dont les travaux ont profondément transformé l’architecture même du savoir public. Outre les wikis, il a co-écrit le Manifeste Agile, développé le concept de «dette technique» et apporté des contributions majeures à la théorie des patrons de programmation orientée objet, en collaboration avec Kent Beck dès 1987.
L’idée d’un wiki est née du système HyperCard hors ligne que Cunningham utilisait pour consigner les idées au sein de son entreprise. Le nom «WikiWikiWeb» est apparu par hasard : à l’aéroport d’Honolulu, Cunningham a pris la navette « Wiki-Wiki » – en hawaïen, « wiki » signifie « rapide », et « wiki-wiki » signifie « très rapide ». Ainsi, la notion de vitesse s’est trouvée intrinsèquement liée au nom même de cette technologie.
La carrière de Cunningham comprend un passage au laboratoire de recherche informatique de Tektronix, un rôle d’architecte au sein du groupe Patterns & Practices de Microsoft, et le poste de directeur technique chez AboutUs. Son moteur wiki a donné naissance à Wikipédia ; selon McGeady, Wikipédia est devenue l’application mondiale la plus illustrative de la loi de Cunningham.
mécanismes psychologiques
Le besoin d’avoir raison
La loi ne fonctionne pas malgré la nature humaine, mais précisément grâce à elle. Les psychologues décrivent depuis longtemps un besoin persistant de supériorité cognitive chez l’être humain : le désir de se sentir détenteur du savoir exact. Lorsqu’une affirmation erronée apparaît, ce désir s’active presque instinctivement : la personne y voit un objectif, et non un appel à l’aide.
Une question ouverte ne suscite pas une telle incitation. Elle exige des efforts, des recherches et une formulation, sans pour autant garantir le sentiment d’avoir raison. Une affirmation erronée, en revanche, procure une satisfaction immédiate : corriger quelqu’un est bien plus gratifiant que de simplement l’aider.
Ce mécanisme s’accorde bien avec la théorie de la dissonance cognitive de Leon Festinger. Une personne qui découvre une incohérence entre ses connaissances et le contenu d’un texte éprouve un malaise intérieur. Le seul moyen rapide de résoudre cette tension est de rédiger une correction. Plus une personne est convaincue d’avoir raison, plus cette impulsion est forte.
L’effet Dunning-Kruger dans l’environnement en ligne
Il est intéressant de noter que ce ne sont pas seulement les experts qui publient des corrections en ligne. L’effet Dunning-Kruger décrit un biais cognitif selon lequel les personnes ayant de faibles connaissances dans un domaine donné surestiment systématiquement leurs compétences. Dans l’étude de Dunning et Kruger, les participants ayant obtenu les résultats les plus faibles s’estimaient au 62e percentile, alors qu’ils se situaient en réalité autour du 12e percentile.
En pratique, cela signifie que la loi de Cunningham attire non seulement ceux qui connaissent réellement la bonne réponse, mais aussi ceux qui pensent seulement la connaître. De ce fait, une affirmation erronée initiale reçoit souvent plusieurs « corrections » concurrentes, dont certaines contiennent elles-mêmes des erreurs.
Désinhibition dans le réseau
En 2004, le psychologue John Suler a décrit le phénomène de « désinhibition en ligne » : l’anonymat et l’asynchronisme de la communication en ligne réduisent les inhibitions sociales qui empêchent les individus de tenir des propos blessants dans la vie réelle. David Dunning a constaté que, dans les conversations traditionnelles, les normes de politesse et de respect mutuel prévalent, tandis que sur les réseaux sociaux asynchrones, les interlocuteurs s’expriment de manière péremptoire plutôt que de communiquer ; les règles de la courtoisie ne s’appliquent tout simplement pas.
Cela explique pourquoi corriger les erreurs d’autrui en ligne est plus rapide et plus direct que lors d’une conversation en face à face. Un utilisateur anonyme qui corrige un inconnu sur un forum supporte un coût social minimal tout en obtenant une validation publique de ses compétences.
Analogies dans différentes cultures
Le principe décrit par la loi de Cunningham n’est pas nouveau ; on le retrouve dans une grande variété de traditions bien avant l’avènement d’Internet.
En français, il existe un dicton : «prêcher le faux pour savoir le vrai» — «prêcher un mensonge pour apprendre la vérité». Il est utilisé dans des contextes rhétoriques et didactiques, impliquant la promotion délibérée d’une thèse manifestement douteuse afin de provoquer une réaction de l’interlocuteur.
L’expression chinoise 拋磚引玉 («jeter une brique pour attirer le jade») décrit une tactique similaire : offrir quelque chose d’imparfait ou de peu de valeur pour inciter autrui à partager quelque chose de bien plus précieux. L’accent n’est pas mis ici sur l’erreur, mais sur le caractère incomplet de l’offre initiale.
Cette technique est également employée en littérature. Dans le roman de Conan Doyle, «Le Signe des Quatre», Sherlock Holmes recourt délibérément à des suppositions erronées ou inexactes pour inciter son interlocuteur à développer ses idées. C’est une technique classique d’enquête : une fausse hypothèse permet d’obtenir davantage d’informations de la source qu’une question directe.
Manifestations sur des plateformes spécifiques
Usenet et les premiers forums
Usenet, un système de groupes de discussion en réseau existant depuis 1980, fut le premier environnement dans lequel McGeady observa ce phénomène. Les utilisateurs d’Usenet étaient techniquement compétents et très soucieux de précision. Une affirmation inexacte dans un tel environnement provoquait une réponse immédiate et souvent détaillée, étayée par des citations, des sources et des contre-arguments.
Wikipédia
McGeady considérait Wikipédia comme «l’incarnation la plus célèbre» de cette loi. Le mécanisme de Wikipédia, par essence, repose sur le principe qu’une première version imparfaite d’un article est rédigée, et que la communauté la corrige. En pratique, les articles comportant des erreurs factuelles sont souvent modifiés beaucoup plus rapidement que ceux présentant des lacunes ou des omissions : l’incomplétude est moins visible que l’erreur.
Stack Overflow
La plateforme Stack Overflow, lancée en 2008, a intégré ce principe à son architecture. Un programmeur qui publie un fragment de code défectueux en demandant « Pourquoi cela ne fonctionne-t-il pas ? » reçoit en quelques minutes des diagnostics, des solutions et souvent plusieurs pistes alternatives. Cette volonté de résoudre le problème favorise l’apprentissage collectif.
Sur Reddit, les affirmations fausses, publiées avec une assurance apparente, suscitent souvent des discussions entières, avec des réfutations détaillées, des liens vers les sources et des explications. Il en résulte souvent une analyse du sujet plus complète et instructive que celle que l’on peut trouver en consultant des bases de connaissances.
xkcd et la culture populaire
La BD en ligne xkcd a consacré un épisode de « Duty Calls » à ce phénomène, sous-titré « Quelqu’un se trompe sur Internet ». Le personnage principal est incapable de dormir car un internaute a publié une information erronée. La BD est devenue un mème internet, illustrant parfaitement le caractère irrationnel de ce réflexe.
application pratique
À la recherche d’informations
La loi est utilisée de manière délibérée. Des chercheurs, des journalistes et de simples curieux publient parfois des versions inexactes des faits afin d’obtenir des corrections de la part de personnes compétentes. Cette méthode est particulièrement efficace dans les communautés très spécialisées où l’expertise est élevée et où les obstacles à l’intervention sont faibles.
Prenons l’exemple d’une discussion sur des dates historiques, des spécifications techniques ou des noms géographiques : écrivez simplement « la capitale de l’Australie est Sydney », et des corrections de personnes compétentes ne tarderont pas à fuser. La réponse correcte – Canberra – apparaîtra instantanément, généralement accompagnée d’une explication.
En marketing et relations publiques
Les experts en communication observent une dynamique similaire dans le débat public. Une déclaration provocatrice, volontairement simplifiée à l’extrême ou partiellement inexacte, émanant d’une marque ou d’une personnalité publique, suscite bien plus de discussions qu’une déclaration équilibrée et exacte. Ceci engendre des contradictions éthiques évidentes : attirer l’attention par une inexactitude délibérée brouille la frontière entre communication et manipulation.
Dans la pratique du renseignement
La stratégie consistant à diffuser délibérément de fausses informations pour provoquer une réaction est également bien connue dans les opérations de renseignement. En diffusant sciemment un fait erroné, on peut espérer que des personnes informées le réfuteront, révélant ainsi des informations qui seraient autrement inaccessibles. Cette technique diffère fondamentalement de la désinformation classique : son objectif n’est pas de tromper, mais de provoquer une réaction qui mènera à des révélations.
En pédagogie
Les enseignants utilisent depuis longtemps une méthode similaire, qu’ils appellent «provocation socratique» ou méthode de la thèse fallacieuse. L’enseignant formule délibérément une affirmation erronée, incitant les élèves à la réfuter. Cette approche favorise l’engagement : un élève qui démontre une erreur assimile la matière plus en profondeur que celui qui accepte passivement la bonne réponse.
Limites d’applicabilité et critiques
Le problème des amendements incompétents
La loi de Cunningham part du principe que ceux qui corrigent une affirmation connaissent la réponse correcte. En pratique, c’est loin d’être toujours le cas. Une correction rédigée avec assurance, mais contenant elle-même une erreur, pose un double problème : l’idée fausse initiale est renforcée par l’autorité de la correction. Les lecteurs qui voient la « correction » sont enclins à lui accorder plus de crédit qu’à l’affirmation originale.
Sur Reddit et les plateformes similaires, cet effet est bien connu sous le nom informel de «réponse fausse mais assurée» : une réponse rédigée sur un ton assuré obtient plus de votes positifs qu’une réponse exacte mais incertaine.
L’effet de retour de flamme
Les recherches sur la réfutation de la désinformation ont montré que corriger une information erronée renforce parfois les croyances au lieu de les affaiblir, notamment lorsqu’elle touche à des sujets liés à la vision du monde. Ce phénomène, décrit par Nyhan et Reifler en 2010 et baptisé « effet boomerang de la vision du monde », limite considérablement le champ d’application de la loi de Cunningham.
Cependant, des méta-analyses ultérieures, portant sur 31 études et 72 variables dépendantes, ont montré que les effets pervers sont nettement moins fréquents qu’on ne le pensait initialement et s’expliquent souvent par des erreurs de mesure. La correction des informations erronées réduit néanmoins le degré de croyances erronées dans la plupart des situations étudiées.
Répandre l’erreur auprès d’un nouveau public
Un autre problème réside dans le fait que la publication d’une affirmation erronée risque de la faire connaître à un nouveau public : ceux qui lisent la publication originale mais ne consultent pas la correction jusqu’au bout. Dans les flux algorithmiques, où chaque réaction accroît la visibilité du contenu, une affirmation erronée qui suscite de nombreuses corrections peut toucher un public bien plus large que la réponse correcte.
Cela transforme la méthode en un outil à double action : elle peut accélérer la recherche de la vérité auprès d’un public informé et simultanément répandre l’erreur parmi les personnes non informées.
Caractère agressif des amendements
Le réflexe de corriger l’erreur d’autrui s’accompagne souvent de dédain ou de ridicule. Une correction formulée avec condescendance atteint un objectif – démontrer sa compétence – mais échoue à en atteindre un autre : transmettre des connaissances. Une personne qui se sent humiliée a souvent tendance à défendre sa position initiale plutôt qu’à la modifier. Ainsi, l’efficacité de cette méthode dépend non seulement de la présence d’une erreur dans la publication, mais aussi du ton employé par celui qui y répond.
Concepts et lois connexes
Loi de Godwin
En 1990, Mike Godwin a formulé l’observation suivante : à mesure qu’une discussion en ligne s’étend, la probabilité de comparaisons avec les nazis ou Hitler tend vers un. Cette observation décrit le déclin progressif de la discussion, un processus inverse à celui prédit par la loi de Cunningham. Tandis que Cunningham explique comment l’erreur engendre une quête de vérité, Godwin montre comment une longue discussion passe du sujet à l’émotion.
Effet Pixie Hollow (nom anecdotique)
Plusieurs sources décrivent un phénomène observé de manière informelle : une seule réponse manifestement erronée sur un forum suffit à déclencher l’émergence d’experts qui, autrement, resteraient silencieux. Ce mécanisme est similaire à la loi de Cunningham, mais il met l’accent non pas sur la valeur informative des modifications, mais sur leur fonction sociale : démontrer son appartenance au groupe des « initiés ».
Les lois de Goodhart et de Gall
Dans le contexte plus large des interactions en réseau, la loi de Cunningham est étroitement liée à d’autres observations sur l’irrationalité des comportements collectifs. La loi de Gall stipule qu’un système complexe fonctionnel découle invariablement d’un système simple fonctionnel. Appliquée à la connaissance collective, cela signifie que Wikipédia est devenue fonctionnelle précisément parce qu’elle a débuté comme une collection de pages simples et modifiables, et non comme une encyclopédie préconçue.
Dimensions éthiques
Publier intentionnellement une déclaration inexacte dans le but d’obtenir une rectification soulève des questions quant à l’intégrité de la communication. D’une part, si la déclaration initiale est qualifiée d’hypothèse ou de spéculation, le problème est minime. D’autre part, le mensonge intentionnel, même à des fins informatives, enfreint les normes fondamentales du débat public.
Ce problème est d’autant plus urgent que le public n’a pas le temps de lire la correction. Des journalistes ont maintes fois constaté que la réfutation d’une idée fausse devenue virale contribuait elle-même à sa propagation : les systèmes de classement des contenus ne font pas la distinction entre « fausse affirmation » et « réfutation d’une fausse affirmation » – les deux formes augmentant la visibilité de la thèse originale.
Enfin, la loi de Cunningham offre une justification commode à ceux qui publient des déclarations erronées sans chercher à se faire corriger. L’explication a posteriori «Je testais une hypothèse» est devenue un procédé rhétorique courant après que l’erreur a été révélée.
Le droit dans le contexte de la production collective des connaissances
Le modèle wiki de Cunningham et la loi qui porte son nom convergent vers un constat : la connaissance collective obéit à des règles très différentes de celles de l’évaluation par les pairs dans le milieu universitaire. Dans un contexte académique, un expert répond à une question lorsqu’elle lui est posée. En ligne, il intervient lorsqu’il repère une erreur.
Cette distinction a une conséquence importante. Une question est filtrée par la réputation de celui qui la pose : un inconnu sans statut reçoit rarement une réponse détaillée. Une erreur, en revanche, n’est pas filtrée : elle affecte la compétence du lecteur, indépendamment de sa relation avec l’auteur. C’est pourquoi le droit fonctionne horizontalement – au sein de communautés d’inconnus – bien plus efficacement que par des demandes directes à des experts.
Asymétrie entre aide et critique
Les psychologues sociaux observent que la critique et l’aide activent des systèmes de motivation différents. Aider requiert de l’empathie, c’est-à-dire la capacité de se mettre à la place de l’autre et de comprendre ses besoins. La critique, quant à elle, ne requiert que de la suffisance. La critique est psychologiquement moins coûteuse, ce qui explique pourquoi on observe statistiquement plus de réponses critiques que de réponses constructives en ligne.
Cela ne signifie pas que les gens sont fondamentalement malveillants. En réalité, la configuration spécifique des incitations dans l’environnement en ligne — anonymat, asynchronie, publicité des corrections — biaise systématiquement les comportements en faveur de la critique, même chez les personnes bien intentionnées.
Le rôle des algorithmes
Les plateformes modernes amplifient cet effet grâce à leur système de classement algorithmique. Une publication qui suscite de nombreuses réactions et corrections bénéficie d’une plus grande visibilité, indépendamment de sa crédibilité. Cela crée un cercle vertueux : plus une erreur provoque de corrections, plus elle est vue et plus de nouvelles corrections apparaissent.
Les plateformes Stack Overflow ont partiellement résolu ce problème en introduisant un système de vote pour les réponses. Une réponse acceptée est signalée visuellement, ce qui réduit le risque qu’un utilisateur confonde une correction erronée avec la bonne réponse. Cependant, la plupart des plateformes sociales ne disposent pas d’un tel mécanisme.
Lien avec les phénomènes de propagande et de désinformation
La logique de la loi de Cunningham explique l’un des paradoxes de la guerre de l’information : démentir une fausse information contribue souvent à sa diffusion plus large que de l’ignorer. Les services de renseignement et les chercheurs en opérations d’information décrivent depuis longtemps cet effet comme une « amplification par réfutation ».
Un autre phénomène, peu étudié, se produit lorsque des allégations mensongères et provocatrices sont délibérément publiées par des acteurs étatiques ou des groupes politiques afin de contraindre leurs opposants à consacrer du temps et des ressources à des corrections plutôt qu’à la promotion de leurs propres intérêts. Dans ce cas, la loi de Cunningham se transforme d’un outil d’acquisition de connaissances en un outil d’appauvrissement informationnel.
Constance de l’effet dans le temps
La loi de Cunningham a été décrite pour Usenet dans les années 1980, vérifiée sur Wikipédia dans les années 2000, sur Stack Overflow dans les années 2010, et reste observable sur les forums et applications de messagerie modernes dans les années 2020. Cette constance suggère qu’il ne s’agit pas d’un phénomène aléatoire propre à une plateforme spécifique, mais plutôt d’un comportement récurrent dans les situations de désaccord public.
Les technologies évoluent, les interfaces se complexifient, mais l’instinct fondamental – le besoin de corriger une erreur publique – demeure inchangé. La loi de Cunningham n’est donc pas qu’une simple observation sur les premiers réseaux, mais la description d’une propriété structurelle de tout environnement public où les erreurs sont visibles et où le coût de la correction est faible.
Vous ne pouvez pas commenter Pourquoi?