Éclaireur

Voir les choses clairement avec un état d'esprit ouvert

Julia Galef, autrice et hôtesse d'un podcast sur la pensée rationnelle, a publié récemment un livre1 sur ce qu'elle appelle l'état d'esprit de l'éclaireur2scout en anglais.

Elle y expose sa théorie qu'il y a deux états d'esprit archétypaux : celui du soldat et celui de l'éclaireur. Tous les deux sont dans l'armée, mais ils ont des objectifs et des comportements opposés.

Si je suis un soldat, mon objectif est de gagner la guerre. Dans un contexte non militaire, ça veut dire gagner le débat, avoir raison. J'ai une confiance aveugle en mon jugement. C'est une qualité : cela me permet d'avancer vite et puissamment dans une direction, comme un bulldozer. C'est aussi évidemment un défaut : je suis soumis fortement au biais de confirmation3 et je ne vais pas me remettre en question.

Si je suis un éclaireur, mon objectif est de me faire une idée précise du terrain et de l'ennemi. Dans un contexte non militaire, ça veut dire tester et affiner mes croyances afin de découvrir la vérité.

Chaque état d'esprit a son importance en fonction du moment, mais Galef a découvert qu'on se favorise trop le soldat et pas assez l'éclaireur.

En incarnant l'éclaireur, j'ai trois grands comportements ou outils intéressants à ma disposition.

J'utilise une pensée probabiliste ou bayésienne4.

C'est-à-dire que je me fais une idée a priori du monde, avec une certaine probabilité, puis que j'ajuste ce modèle en fonction des preuves que je mets à jour.

Ainsi, il ne s'agit plus d'avoir raison ou tort, mais d'être précis. Et ça change tout dans l'état d'esprit. Car dire « il y a 80 % de chance que ce soit ça… » plutôt que « c'est ça… » permet de moins m'attacher à mon avis initial : je ne m'y identifie plus.

J'utilise les expériences de pensée.

C'est-à-dire que je teste mon point de vue mentalement en me forçant à quelques exercices.

Par exemple, je fais usage de l'analyse contradictoire : je me force à me mettre en empathie avec quelqu'un qui tient le point de vue opposé, en embarquant son contexte, et je regarde si cela me fait maintenir mon avis initial, si la probabilité bouge.

De même, je peux m'appliquer le test du statu quo : si je défends le statu quo, j'essaie d'imaginer que c'est la position opposée qui est le statu quo et je regarde si ça me donne envie de changer d'avis.

Mais encore, je tire profit du test de conformité : je regarde si je maintiendrais ma position si elle était considérée comme franchement minoritaire. À ce sujet, il parait qu'Obama faisait semblant de changer d'avis pour tester si les autres maintenaient le leur ou pas, et éviter l'effet de halo5 ou le biais d'autorité6.

J'apprends à gérer les émotions associées.

Parmi toutes les stratégies d'adaptation aux changements de croyance que je suis amené à faire par le recalibrage de mes modèles, je choisis celles qui sont les moins narcissiques à court terme et qui minimisent le fait de me raconter des histoires pour faire passer la pilule.

J'évite ainsi ce que C.S. Lewis décrit dans The Great Divorce : les damnés choisissent de ne pas quitter l'enfer alors qu'on leur offre la possibilité, simplement pour ne pas admettre qu'ils avaient tort.

Julia Galef écrit7 ainsi :

L'exemple d'honneur intellectuel auquel je pense le plus souvent est une histoire racontée par Richard Dawkins de ses années d'étudiant au département de zoologie d'Oxford. À l'époque, il y avait une controverse majeure en biologie sur une structure cellulaire appelée l'appareil de Golgi — était-ce réel ou une illusion créée par nos méthodes d'observation ?

Un jour, un jeune chercheur invité des États-Unis est venu au département et a donné une conférence dans laquelle il a présenté des preuves nouvelles et convaincantes que l'appareil de Golgi était, en fait, réel. Assis dans le public de cette conférence était l'un des zoologistes les plus respectés d'Oxford, un professeur âgé qui était connu pour sa position selon laquelle l'appareil de Golgi était illusoire. Alors bien sûr, tout au long de la conférence, tout le monde volait des regards au professeur, se demandant : comment prend-il cela ? Que va-t-il dire ?

À la fin de la conférence, le vieux professeur d'Oxford s'est levé de son siège, s'est dirigé vers l'avant de la salle de conférence et a tendu la main pour serrer la main du chercheur invité, en disant : « Mon cher camarade, je tiens à vous remercier. Je me suis trompé ces quinze dernières années. » La salle de conférence a éclaté en applaudissements.

Dawkins dit : « Le souvenir de cet incident me ramène encore une boule dans la gorge. » Cela me ramène aussi une boule à la gorge, chaque fois que je raconte cette histoire. C'est le genre de personne que je veux être — et c'est souvent suffisant pour m'inspirer à choisir l'état d'esprit éclaireur, même lorsque les tentations de l'état d'esprit soldat sont fortes.

Ça me fait le même effet. C'est le genre de personne que je veux être.


  1. J. Galef, The Scout Mindset: Why Some People See Things Clearly And Others Don't, 2021. ↩︎

  2. Cet apprenti-sage ne repose pas sur la lecture du livre, que je n'ai pas eu le temps de faire encore, mais sur la lecture de cette revue très fouillée de son contenu (en anglais). ↩︎

  3. À relire : biais de confirmation . ↩︎

  4. À relire : erreur de la preuve anecdotique  ; commission ou omission . ↩︎

  5. À relire : effet de halo . ↩︎

  6. À relire : biais d'autorité . ↩︎

  7. R. Dawkins, The God Delusion, 2006. ↩︎