Qu’est-ce qui empêche de comprendre correctement une situation, d’exercer son esprit critique, de prendre la bonne décision ?
Dans Apprendre à résister (Flammarion, 2022), Olivier Houdé nous rappelle les découvertes du psychologue et économiste (prix Nobel) Daniel Kahnemann. Celui-ci avait apporté la preuve que nos jugements et décisions sont le plus souvent dominés par des heuristiques intuitives, très rapides, le plus souvent efficaces. Plus précisément, il modélisait le fonctionnement du cerveau par un double système : le système 1 basé sur des automatismes et le système 2 représentant des circuits plus longs et activant des algorithmes et des logiques exactes. Cependant, bien que fondamental dans notre vie, le premier est soumis aux biais cognitifs, illogiques. Kahnemann et Tversky expliquaient que ceux-ci étaient liés à l’aversion pour le risque, à la nécessité d’éviter les dangers immédiats mais aussi les dépenses énergétiques trop coûteuses du système 2.
« Vivre en doutant de tout serait une torture ». En effet, il serait très long d’assimiler des automatismes contraires, qui tiendraient compte de toutes les fois où nous avons rencontré des preuves qu’un biais s’est activé et nous a mené à la mauvaise décision. Il n’est pas question non plus de croire et faire croire que nous devons douter de notre cerveau qui nous fait commettre des erreurs en permanence, et de notre environnement qui ne serait constitué que de pièges successifs. Il nous faut donc à la fois détecter les biais les plus importants et relativiser nos erreurs de jugement pour gagner en efficacité.
Olivier Houdé a ajouté à ce modèle un système 3 : celui de l’inhibition, fonction exécutive très importante de notre cerveau. Apprendre à évaluer si la situation rencontrée peut être biaisée est essentiel et nécessite un ralentissement de la pensée automatique, un blocage du système 1 pour une activation du système 2.
Il apparaît alors utile de détecter, nommer et expliciter les biais avec les élèves lorsqu’ils agissent. Cela permettra alors au cortex préfrontal de l’élève de « muscler » le système 3 de pensée pour déclencher à bon escient le système 2 de la raison. L’élève averti peut en effet à son tour se questionner à propos des biais qu’il connait : l’un d’eux pourrait-il s’activer ? Comment peut-on l’empêcher ? Réfléchir à la façon dont les biais interviennent et à leur mise en lumière auprès des élèves s’avère donc un atout précieux pour accompagner les apprentissages. Cependant, le professeur doit faire preuve d’une certaine prudence avec des élèves qui manquent de confiance en eux et sont émotifs.
Il semble que les tâches mathématiques puissent faire rencontrer les premiers biais suivants (regroupés en trois catégories). Une seconde liste, donnée ensuite, paraît seulement complémentaire car il est beaucoup moins probable que ces derniers biais s’activent en cours de mathématiques.
Biais liés à la vie en société. Ils peuvent intervenir lorsque le contexte d’un problème mathématique est réel, ou parce qu’ils sont liés aux interactions humaines et donc aux interactions entre élèves, que ce soit en groupe classe ou en groupe restreint :
- Biais d’autorité : tendance à surévaluer la valeur de l’opinion d’une personne que l’on considère comme une autorité, un expert, qu’il le soit réellement ou qu’il soit simplement présenté comme tel.
- Effet de halo ou de généralisation abusive : la perception que l’on se fait d’une personne ou d’un groupe est influencée par l’opinion que l’on se fait d’une de ses caractéristiques (par exemple, une personne jugée comme belle physiquement est perçue comme intelligente et digne de confiance).
- Effet de groupe : priorité à l’avis du groupe plutôt qu’aux preuves et informations scientifiques.
- Influence de nos émotions : en particulier de la peur (plus grande sensibilité aux risques qu’aux émotions, préférence du statu quo, poids du conformisme). Les mathématiques génèrent un stress particulier. Ce biais ne serait pas lié à la tâche proposée.
Biais liés à la façon dont la situation est présentée et donc perçue. Cet aspect doit nous interroger particulièrement dans nos pratiques enseignantes :
- Biais de cadrage : tendance à être influencé par la manière dont une situation est présentée (par exemple, la décision d’effectuer une action risquée est influencée par la manière de présenter le taux de succès ou d’échec : même si les deux chiffres fournissent la même information, présenter le taux de succès va faire pencher la décision en faveur de l’action et présenter le taux d’échec va faire pencher la décision en défaveur de l’action).
- Biais d’ancrage : la première information reçue a plus de poids dans notre esprit que les suivantes, la première influence la façon de voir les informations suivantes.
Biais liés à la façon dont le cerveau « s’économise » :
- Biais de confirmation : on a inconsciemment tendance à chercher des informations qui renforcent nos croyances et à rejeter ou relativiser les informations qui les réfutent.
- Biais sélectif de données : notre cerveau a des difficultés à appréhender les statistiques, les « chiffres » et les probabilités, il a souvent une perception erronée du hasard, il surestime de très faibles probabilités, il se représente mal les situations de proportionnalité …
- Attrait pour les explications simples : refus des explications multifactorielles, confusion entre corrélation et causalité.
- Rejet et enfermement dans la croyance initiale en raison de son coût : plus on a utilisé d’énergie, de temps, … à adopter une croyance, plus on aura du mal à l’abandonner quand on voudra nous convaincre qu’elle est erronée.
Liste complémentaire de biais
Les biais ci-dessous n’ont a priori pas lieu de survenir en lien direct avec le cours de mathématiques. Ils sont plutôt liés à la façon dont notre cerveau garantit sa sécurité (dont le maintien du sentiment d’autosatisfaction dont il dépend en partie pour fonctionner).
- Effet Dunning-Kruger ou effet de « sur-confiance » : il arrive que les personnes les moins qualifiées dans un domaine surestiment leur compétence, elles n’ont pas conscience de tout ce qu’elles ne savent pas, alors que les personnes les plus qualifiées sont plus prudentes, elles ont surtout conscience de ce qu’elles ne savent pas encore et que la réalité, les situations, sont souvent très complexes
- Effet de « retour de flamme » : quand nous sommes confrontés à des preuves en contradiction avec nos croyances, nous avons tendance à les rejeter et à nous enfermer davantage sur nos croyances initiales qui sont paradoxalement renforcées
- Biais de validation subjective (ou de validation personnelle ou effet Barnum) : tendance à accepter une vague description de la personnalité de quelqu’un d’autre comme s’appliquant à nous-mêmes, en complétant les manques et en fabriquant du sens. C’est une grande simplification de la réalité qui nous amène à faire des analogies simplistes mais qui nous procure un sentiment d’appartenance à une catégorie, à un groupe de personnes.
A retrouver également :