Pourquoi les faits ne suffisent pas à convaincre les gens qu'ils ont tort

Les sciences cognitives expliquent pourquoi il est plus facile de nier les preuves factuelles que de renoncer à ses croyances.

Avez-vous déjà rencontré des gens qui changent d'avis quand vous leur exposez des faits qui sont contraires à leurs convictions ? Moi jamais. Pire, les gens semblent renforcer leurs croyances et les défendre avec acharnement quand il y a des preuves accablantes contre elles. L'explication est liée au fait que notre vision du monde nous semble menacée par des preuves factuelles qui ne vont pas dans son sens. [...]

Cette emprise de la croyance sur la preuve s'explique par deux facteurs: la dissonance cognitive et l'effet rebond (backfire).

Dans un ouvrage classique publié en 1956 intitulé Quand la prophétie échoue, le psychologue Leon Festinger et ses co-auteurs ont décrit ce qui est arrivé à une secte vouant un culte aux ovnis après que le vaisseau-mère extraterrestre attendu ne soit pas arrivé à l'heure annoncée. Au lieu d'admettre leur erreur, « les membres du groupe ont cherché frénétiquement à convaincre le monde de leurs croyances », et ils ont fait « une série de tentatives désespérées pour effacer cette dissonance entre leur croyance et la réalité en faisant de nouvelles prédictions après la prophétie initiale, dans l'espoir que l'une finirait par être la bonne ». Festinger a qualifié cet état de dissonance cognitive, une tension inconfortable qui survient lorsque l'on considère deux idées contradictoires simultanément.

Dans leur livre Des erreurs ont été commises (mais pas par moi), publié en 2007, les deux psychologues sociaux Carol Tavris et Elliot Aronson (un ancien étudiant de Festinger) documentent des milliers d'expériences démontrant comment les gens déforment et sélectionnent les faits pour les adapter à leurs croyances préexistantes et réduire leur dissonance cognitive. Leur métaphore de la « pyramide de choix » illustre comment deux individus ayant des positions proches – côte à côte au sommet de la pyramide – peuvent rapidement diverger et finir au pied de la pyramide sur des faces opposées, avec des opinions inverses, dès lors qu'ils se sont mis en tête de défendre une position.

Dans une série d'expériences, Brendan Nyhan, de Dartmouth College, et Jason Reifler, de l'Université d'Exeter, ont identifié un second facteur, connexe, qu'ils ont nommé « effet rebond » (en anglais, backfire): corriger les erreurs factuelles liées aux croyances d'une personne n'est pas seulement inefficace, mais cela renforce ses croyances erronées, car « cela menace sa vision du monde ou l'idée qu'elle se fait d'elle-même ». Les sujets d'une expérience recevaient par exemple des articles de presse fictifs qui confirmaient des idées fausses répandues, comme la présence d'armes de destruction massive en Irak. Puis on donnait aux participants un article qui démontrait qu'aucune arme de destruction massive n'avait été trouvée. Résultat: les sujets d'orientation libérale qui étaient opposés à la guerre ont accepté le nouvel article et rejeté les anciens, alors que les conservateurs qui soutenaient la guerre ont fait le contraire. Pire, ils ont déclaré être encore plus convaincus de l'existence d'armes de destruction massive après avoir lu l'article montrant qu'il n'y en avait pas, au motif que cela prouvait seulement que Saddam Hussein les avait cachées ou détruites. En fait, Nyhan et Reifler ont noté que chez de nombreux conservateurs, « la croyance que l'Irak possédait des armes de destruction massive juste avant l'invasion par les États-Unis a persisté longtemps après que l'administration Bush elle-même ait fini par admettre que ce n'était pas le cas ».

Si les corrections factuelles ne font qu'empirer les choses, que pouvons-nous faire pour convaincre les gens que leurs croyances sont erronées ? Selon mon expérience empirique, on peut adopter le comportement suivant:

  • Mettre ses émotions de côté.
  • Discuter, ne pas attaquer (pas d'attaque ad hominem ni de point Godwin).
  • Ecouter attentivement et essayer d'analyser la position de votre interlocuteur avec précision.
  • Montrer du respect.
  • Reconnaître que vous comprenez pourquoi quelqu'un peut soutenir cette opinion.
  • Essayer de montrer comment changer de vision des faits n'implique pas nécessairement de changer de vision du monde.

Ces stratégies ne fonctionnent pas toujours pour convaincre les gens de changer de point de vue, mais en ces temps où il est devenu si courant de s'affranchir de la vérité dans le débat public, cela pourrait au moins aider à réduire les dissensions inutiles.

Source

Les plus consultés (30 derniers jours)

Les dénominations

Les esprits qui animent les "leaders"

La vérité te rendra libre