La littérature académique recense entre 180 et 200 biais cognitifs selon les taxonomies retenues1. Le Cognitive Bias Codex, élaboré par Buster Benson et mis en forme par John Manoogian III en 2016, en liste 1882. Le chiffre de « 60 biais » qui circule dans les supports de formation est une convention pédagogique. Pas une donnée empirique.
Le terme « biais cognitif » est dû à Amos Tversky et Daniel Kahneman. Ils l’introduisent en 1974 dans Science3. L’édifice théorique sera consolidé par Kahneman dans Thinking, Fast and Slow (2011)4, qui popularise la distinction entre deux modes de traitement de l’information : le système 1 (rapide, automatique, heuristique) et le système 2 (lent, délibératif, analytique). La majorité des biais recensés ici sont des produits du système 1.
Création numérique (Jiri Pragman)
1. Biais de prise de décision
Biais de confirmation. On cherche, on interprète, on mémorise les informations qui confirment ce qu’on croit déjà. Les données contraires sont ignorées ou minimisées. Peter Wason l’a documenté dès 19605.
Effet d’ancrage. La première valeur reçue - même arbitraire - distord toutes les estimations qui suivent. Si on vous annonce d’abord un prix élevé, le prix « raisonnable » qui vient ensuite paraîtra acceptable. Tversky et Kahneman (1974)3.
Heuristique de disponibilité. On estime la probabilité d’un événement à partir de la facilité avec laquelle des exemples nous viennent à l’esprit. Un accident d’avion récent rend le risque aérien subjectivement plus menaçant que le risque routier, statistiques à l’appui ou non3.
Coût irrécupérable (Sunk Cost Fallacy). On continue un projet défaillant parce qu’on y a déjà investi du temps, de l’argent ou de l’énergie. La question pertinente - ce projet vaut-il la peine d’être poursuivi ? - est éclipsée par ce qu’il a déjà coûté. Arkes et Blumer (1985)6.
Effet de cadrage (Framing Effect). Une même information produit des décisions différentes selon qu’elle est formulée en termes de gain ou de perte. « 90 % de chances de survivre » et « 10 % de chances de mourir » décrivent la même situation. Les réponses divergent. Tversky et Kahneman (1981)7.
Biais d’optimisme. On surestime systématiquement la probabilité que les choses se passent bien pour soi, et on sous-estime les risques. Weinstein (1980)8.
Aversion à la perte. Perdre 100 € est ressenti comme environ deux fois plus douloureux que gagner 100 € est satisfaisant. Cette asymétrie oriente fortement les décisions. Kahneman et Tversky (1979), théorie des perspectives9.
2. Biais de perception sociale
Erreur fondamentale d’attribution. Quand quelqu’un échoue, on l’explique par son caractère. Quand on échoue soi-même, on invoque les circonstances. L’asymétrie est constante. Lee Ross (1977)10.
Effet de halo. Une caractéristique positive — physique, rhétorique, statutaire — teinte l’évaluation globale d’une personne ou d’un objet. On juge plus compétent quelqu’un qu’on trouve sympathique, sans lien logique entre les deux. Thorndike (1920)11.
Pensée de groupe (Groupthink). Dans un groupe soudé, la pression vers le consensus étouffe l’analyse critique. Les informations défavorables ne remontent pas. Les décisions catastrophiques deviennent possibles. Irving Janis (1972) a construit ce concept en analysant des erreurs politiques majeures12.
Faux consensus. On surestime le nombre de personnes qui partagent nos opinions, nos goûts, nos comportements. Ross, Greene et House (1977)13.
Effet de simple exposition. La répétition d’un stimulus suffit à générer une préférence, sans aucune raison objective. Plus on voit quelque chose, plus on tend à l’apprécier. Zajonc (1968)14.
Biais d’auto-complaisance. On attribue ses succès à ses propres compétences et ses échecs au contexte ou à la malchance. Miller et Ross (1975)15.
3. Biais de mémoire et d’apprentissage
Effet Dunning-Kruger. Les individus peu compétents dans un domaine manquent des outils métacognitifs pour évaluer leur propre incompétence — d’où une surestimation de leurs capacités. L’effet inverse, souvent cité (les experts se sous-estimeraient), est une extrapolation incomplète de l’article original. Kruger et Dunning (1999)16. Des études de réplication ont depuis nuancé la robustesse de l’effet17.
Biais rétrospectif (Hindsight Bias). Après qu’un événement s’est produit, on se convainc qu’on l’avait prévu. Fischhoff (1975) appelle ce phénomène le creeping determinism — le passé semble inévitable une fois qu’il a eu lieu18.
Effet de primauté / effet de récence. Dans une série d’informations, les premiers éléments s’ancrent mieux en mémoire (primauté), mais les derniers sont plus facilement rappelés à court terme (récence). Les deux effets coexistent ; leur interaction a été modélisée par Murdock (1962)19.
Biais de focalisation. On surpondère un seul aspect d’une situation au détriment de l’ensemble. Kahneman, Knetsch et Thaler (1991) l’ont documenté notamment dans le contexte du bien-être subjectif20.
4. Biais de perception de la réalité
Biais de survie. On tire des conclusions à partir des seuls cas visibles — ceux qui ont « survécu » à un filtre de sélection — en ignorant les cas absents. L’exemple canonique : pendant la Seconde Guerre mondiale, le statisticien Abraham Wald démontre qu’il faut renforcer les zones non touchées sur les avions revenus, parce que les avions touchés à ces endroits ne sont jamais rentrés21.
Angle mort des biais (Bias Blind Spot). On reconnaît facilement les biais cognitifs chez les autres. On se croit, soi, relativement immunisé. C’est lui-même un biais. Pronin, Lin et Ross (2002)22.
Illusion de contrôle. On se croit capable d’influencer des événements objectivement aléatoires. Les joueurs qui soufflent sur leurs dés en savent quelque chose. Langer (1975)23.
Effet Forer. On accepte une description de personnalité vague et générique comme étant spécifiquement applicable à soi. C’est le mécanisme sous-jacent à l’astrologie, à la graphologie et à tout profilage pseudo-scientifique. L’expérience originale date de 194924. L’appellation populaire « effet Barnum » est courante ; la dénomination académique correcte reste « effet Forer ».
5. Quatre mécanismes, pas trois
Le Cognitive Bias Codex de Benson (2016) distingue quatre mécanismes à l’origine des biais cognitifs2 : le cerveau filtre et raccourcit face au surplus d’informations ; il comble les lacunes par des patterns - y compris inexistants - quand le sens manque ; il privilégie la vitesse sur la précision pour agir vite ; enfin, la mémoire sélectionne, reconstruit et déforme ce qu’elle retient.
Ces mécanismes n’opèrent pas isolément. Un biais de disponibilité (mécanisme 1) peut alimenter une illusion de contrôle (mécanisme 3). Pour les analyser conjointement, le cadre théorique le plus opérationnel reste le modèle dual-process de Kahneman4.
L’idée centrale est simple. Le cerveau fonctionne selon deux modes distincts. Le système 1 est rapide, automatique, intuitif — il réagit sans effort conscient, en s’appuyant sur des raccourcis et des associations. Le système 2 est lent, délibératif, analytique - il mobilise l’attention, vérifie, raisonne. La plupart des biais recensés dans cet article sont des produits du système 1 : des raccourcis efficaces dans la majorité des situations, mais qui déraillent dans certains contextes précis.
Le problème n’est pas que le système 1 soit défaillant. Il gère correctement l’essentiel de nos décisions quotidiennes. Le problème est qu’il s’active aussi dans des situations qui exigeraient le système 2 - et que le système 2, coûteux en énergie cognitive, intervient moins souvent qu’on ne le croit. Reconnaître un biais en train de s’opérer, c’est précisément activer le système 2 au bon moment. C’est pourquoi la connaissance des biais cognitifs a une utilité pratique - à condition de ne pas succomber, justement, au biais de l’angle mort : croire qu’on les connaît suffit à en être protégé.
Notes
1. Pohl, R. F. (Éd.). (2004). Cognitive Illusions : A Handbook on Fallacies and Biases in Thinking, Judgement and Memory. Psychology Press.
2. Benson, B. (2016, 1ᵉʳ septembre). Cognitive bias cheat sheet. Better Humans (Medium). https://medium.com/better-humans/cognitive-bias-cheat-sheet-55a472476b18 ; Manoogian, J. (2016). Cognitive Bias Codex [infographie]. DesignHacks.co.
3. Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty : Heuristics and biases. Science, 185(4157), 1124–1131. https://doi.org/10.1126/science.185.4157.1124
4. Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
5. Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12(3), 129–140. https://doi.org/10.1080/17470216008416717
6. Arkes, H. R., & Blumer, C. (1985). The psychology of sunk cost. Organizational Behavior and Human Decision Processes, 35(1), 124–140. https://doi.org/10.1016/0749-5978(85)90049-4
7. Tversky, A., & Kahneman, D. (1981). The framing of decisions and the psychology of choice. Science, 211(4481), 453–458. https://doi.org/10.1126/science.7455683
8. Weinstein, N. D. (1980). Unrealistic optimism about future life events. Journal of Personality and Social Psychology, 39(5), 806–820. https://doi.org/10.1037/0022-3514.39.5.806
9. Kahneman, D., & Tversky, A. (1979). Prospect theory : An analysis of decision under risk. Econometrica, 47(2), 263–291. https://doi.org/10.2307/1914185
10. Ross, L. (1977). The intuitive psychologist and his shortcomings. Dans L. Berkowitz (Éd.), Advances in Experimental Social Psychology (vol. 10, p. 173–220). Academic Press.
11. Thorndike, E. L. (1920). A constant error in psychological ratings. Journal of Applied Psychology, 4(1), 25–29. https://doi.org/10.1037/h0071663
12. Janis, I. L. (1972). Victims of Groupthink. Houghton Mifflin. (Rééd. augmentée :
13. Ross, L., Greene, D., & House, P. (1977). The «false consensus effect» : An egocentric bias in social perception and attribution processes. Journal of Experimental Social Psychology, 13(3), 279–301. https://doi.org/10.1016/0022-1031(77)90049-X
14. Zajonc, R. B. (1968). Attitudinal effects of mere exposure. Journal of Personality and Social Psychology, 9(2, Pt. 2), 1–27. https://doi.org/10.1037/h0025848
15. Miller, D. T., & Ross, M. (1975). Self-serving biases in the attribution of causality : Fact or fiction ? Psychological Bulletin, 82(2), 213–225. https://doi.org/10.1037/h0076486
16. Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it. Journal of Personality and Social Psychology, 77(6), 1121–1134. https://doi.org/10.1037/0022-3514.77.6.1121
17. Nuhfer, E., Fleisher, S., Cogan, C., Wirth, K., & Morgan, E. (2017). How random noise and a graphical convention subverted behavioral scientists’ explanations of self-assessment data. Numeracy, 10(1), article 4. https://doi.org/10.5038/1936-4660.10.1.4
18. Fischhoff, B. (1975). Hindsight ≠ foresight : The effect of outcome knowledge on judgment under uncertainty. Journal of Experimental Psychology : Human Perception and Performance, 1(3), 288–299. https://doi.org/10.1037/0096-1523.1.3.288
19. Murdock, B. B., Jr. (1962). The serial position effect of free recall. Journal of Experimental Psychology, 64(5), 482–488. https://doi.org/10.1037/h0045106
20. Kahneman, D., Knetsch, J. L., & Thaler, R. H. (1991). Anomalies : The endowment effect, loss aversion, and status quo bias. Journal of Economic Perspectives, 5(1), 193–206. https://doi.org/10.1257/jep.5.1.193
21. Wald, A. (1943). A Method of Estimating Plane Vulnerability Based on Damage of Survivors (SRG Memo 85). Statistical Research Group, Columbia University.
22. Pronin, E., Lin, D. Y., & Ross, L. (2002). The bias blind spot : Perceptions of bias in self versus others. Personality and Social Psychology Bulletin, 28(3), 369–381. https://doi.org/10.1177/0146167202286008
23. Langer, E. J. (1975). The illusion of control. Journal of Personality and Social Psychology, 32(2), 311–328. https://doi.org/10.1037/0022-3514.32.2.311
24. Forer, B. R. (1949). The fallacy of personal validation : A classroom demonstration of gullibility. Journal of Abnormal and Social Psychology, 44(1), 118–123. https://doi.org/10.1037/h0059240
Jiri Pragman est l’auteur de Antimaçonnisme. La fabrique numérique du soupçon (Numérilivre, 2026).