Avons-nous trop confiance en nos connaissances ?

Surestimons-nous notre capacité à comprendre les choses ? La question est posée par Rob Brotherton dans son livre Suspicious Minds : Why We Believe Conspiracy Theories, dont Discover Magazine a publié un large extrait en avant-première (le livre n’est sorti que le 19 novembre).

Comment fonctionne un vélo ?

Le texte de Brotherton commence par une présentation de l’expérience effectuée par Rebecca Lawson et présentée dans son papier « The science of cycology (.pdf)« . La psychologue a montré à ses sujets un schéma incomplet d’un vélo, auquel il manquait les pédales, les chaînes et bon nombre d’éléments. Il s’agissait de terminer le dessin en y ajoutant les parties manquantes. La plupart pensaient que l’opération serait facile. En fait, plus de la moitié des sujets se sont trompés et ont placé les éléments de façon gravement incorrecte, au point qu’un vélo construit selon leurs schémas serait largement non fonctionnel. Pourtant précise Brotherton, toutes ces personnes ou la plupart avaient déjà fait du vélo, et bon nombre d’entre eux en possédaient un. Screen-Shot-2015-08-19-at-5.06.58-PM

L’un des participants au test devait ensuite déclarer : « je pense que je m’y connais moins que je ne le croyais« . Une constatation au coeur de l’argumentaire de Brotherton. Pour lui en effet, ce test du vélo est la démonstration que notre cerveau surestime largement ses connaissances. Ce n’est qu’en soumettant notre savoir à des tests rigoureux qu’il devient possible de l’évaluer correctement.

D’autres expériences tendent à montrer la même tendance. Celles de Leonid Rozenblit et Frank Keil (.pdf) vont aussi dans ce sens. Ils ont demandé à leurs sujets quelle était leur connaissance du fonctionnement d’objets familiers, comme les fermetures éclairs, les hélicoptères et les ouvre-boîtes. La plupart pensaient pouvoir en décrire assez correctement le mécanisme, mais là encore, la plupart furent incapables de s’en tirer correctement.

Des « connus connus » aux « inconnus inconnus »

Mais Brotherton ne s’intéresse pas spécialement aux vélos ou aux ouvre-boîtes : son livre traite en fait des théories de la conspiration et pour lui, le lien est clair : nous avons tendance à mettre en avant des théories délirantes parce que nous croyons en savoir suffisamment sur des systèmes très complexes comme la politique ou la loi, autant de domaines bien plus difficiles à appréhender pourtant que le fonctionnement d’une fermeture Eclair. En gros, notre tendance à expliquer l’ensemble des mécanismes historiques par les illuminati, les francs-maçons, les jésuites ou les extraterrestres reptiliens, serait de même nature que nos certitudes sur le fonctionnement d’un vélo.

suspicious1Brotherton se reporte à une phrase de Donald Rumsfeld, qui, bien embarrassé par les multiples polémiques sur la guerre du Golfe avait sorti une phrase alambiquée qui a suscité un bon nombre de moqueries par la suite, mais qui se révèle (peut-être involontairement) d’une profondeur insoupçonnée.

Il y a, disait-il en substance, des « connus connus », des « inconnus connus », et des « inconnus inconnus ». Bien que Rumsfeld n’avait certainement pas pour ambition de nous donner un cours d’épistémologie, mais plutôt d’échapper à la multiplication des critiques, il a en fait décrit assez bien notre situation cognitive, explique Brotherton. Un « connu connu » est une information que je connais. Il s’agit en général d’un fait simple. La capitale de la France est Paris, je le sais. Les « inconnus connus » sont des informations que je ne possède pas, mais qu’il m’est facile d’acquérir. Brotherton nous donne comme exemple la capitale de la Namibie. La plupart d’entre nous ignorent son nom, mais un simple coup d’oeil sur la Wikipedia nous permet d’apprendre qu’il s’agit de Windhoek.

Restent les « inconnus inconnus ». Ce sont les informations que je ne peux même pas rechercher, parce que j’ignore tout simplement leur existence. Je ne peux pas avoir la réponse, car j’ignore même quelle question il faut poser.

Et c’est là qu’entrent en jeu nos certitudes infondées. Nous avons tous un « vernis » de culture concernant la politique, la science ou les vélos. Mais nous ne sommes même pas capables d’évaluer l’étendue de notre ignorance, nous avons beaucoup « d’inconnus inconnus ».

Dans leur papier, Rozenblit et Keil envisagent plusieurs explications à ce qu’ils nomment « l’illusion de la profondeur d’une explication » (Illusion of Explanatory Depth ou IOED). La première concerne la mémoire. Il semble bien que la plupart des gens ont une mémoire visuelle inférieure à leurs attentes. Le fait d’avoir observé une scène, même avec intensité, ne signifie pas qu’on en a gravé tous les détails dans son esprit. Le cas du vélo cité plus haut entre dans cette catégorie. Nous voyons des vélos tous les jours, pourtant nous avons du mal à nous en rappeler les détails, alors que nous pensons qu’une bonne visualisation devrait nous suffire pour en comprendre le mécanisme.

Ensuite il y a la confusion des niveaux d’explication. Face à un objet complexe, par exemple une voiture, en comprendre le fonctionnement global conduit à s’imaginer qu’on peut aisément en déduire celui des parties (ou vice-versa).

Troisième cause envisagée, particulièrement vraisemblable pour les phénomènes les plus complexes, ceux qui ont la structure hiérarchique la plus élaborée : le fait que ces systèmes ne possèdent pas d’états finaux définis. Par exemple, expliquent les auteurs, si l’on essaie de comprendre comment on a préparé un gâteau, on peut prendre l’étape finale (le gâteau) et essayer de remonter jusqu’au début de la préparation. Les erreurs sont encore possibles, mais on est « contraint » par le résultat à obtenir. En revanche, si l’on est en face d’un système dont les états finaux ne peuvent être définis (les écosystèmes ou les équilibres géopolitiques en sont un exemple parmi d’autres) il devient impossible de s’imposer cette procédure. Cette catégorie correspond bien aux « inconnus inconnus » de Rumsfeld.

Enfin, Rozenblit et Kleit nous donnent une autre possible explication de cette limite cognitive. Nous ne sommes pas habitués à donner des explications, alors que nous sommes fréquemment sollicités pour énoncer des faits, raconter des événements, ou exécuter des séquences d’action. En conséquence, nous ne sommes pas vraiment en mesure d’évaluer notre compétence dans ce domaine. 

Les experts ne font pas mieux

Outre le problème de la théorie de la conspiration, ce biais cognitif nous amène à questionner la « sagesse des foules », la philosophie collaborative et participative qui va de la Wikipedia à la rédaction de lois, voire de constitutions. Si la plupart d’entre nous ne possédons pas les connaissances nécessaires pour avoir une idée claire de ces phénomènes complexes, additionner ces ensembles d' »inconnus inconnus » donne-t-il vraiment une chance de voir automatiquement se révéler des « connus connus » ?

L’intelligence collective nous aide-t-elle à relativiser nos certitudes infondées, ou au contraire les exacerbe-t-elle ? Ou les deux, selon les circonstances ? Ce n’est pas pour autant une raison de revenir à la parole d’autorité de l’expert. Il semble bien que la plupart d’entre eux, quel que soit leur niveau d’érudition, soient affublés d’un même aveuglement quant à l’étendue de leurs connaissances. Donald Rumsfeld en est bien la preuve !

En fait, comme l’a établi Dan Ariely les spécialistes n’hésitent pas à se surestimer largement. L’économiste comportemental en a fait l’expérience dans sa propre chair, comme il le raconte dans l’introduction de son livre C’est (vraiment ?) moi qui décide. Après un accident l’ayant laissé gravement brûlé, il a du, pendant des semaines devoir se faire changer ses bandages tous les jours, une opération très douloureuse. Ariely était convaincu que si l’infirmière lui ôtait lentement les pansements, la souffrance serait peut-être plus longue à endurer, mais moins intense et au final, plus supportable. Les soignants lui objectaient sans cesse qu’une action rapide était bien préférable. Une fois sorti de l’hôpital, Ariely a mené une recherche sur la douleur, multipliant les expériences sur des volontaires, sur lui-même et sur ses amis (je me demande s’ils le sont restés), recourant à des protocoles qui « impliquaient d’infliger la douleur physique par la chaleur, le froid, la pression ou le bruit ; mais aussi la douleur psychologique, par l’entremise d’un revers en bourse« . Il présenta ses conclusions aux infirmières de son hôpital, qui établissaient bien qu’une douleur de longue durée et de force modérée était préférable à une autre intense et courte. Celles-ci s’avouèrent surprises du résultat. L’une d’entre elles alla même jusqu’à avouer à Ariely que peut-être qu’ôter très rapidement les bandages permettait de réduire la souffrance… de l’infirmière plus que celle du patient.

En conclusion, quel que soit le niveau de connaissance d’une personne, rien ne garantit que son explication d’un phénomène « inconnu inconnu » sera libre de toute sorte de biais. Seules de rigoureuses procédures de test sont en mesure de nous donner une image exacte de ce que nous connaissons, ou croyons connaître. Mais évidemment si nous devions tester toutes nos certitudes sur la nature de la vie, de l’univers et du reste, les fins de repas seraient bien silencieuses…

Rémi Sussan

À lire aussi sur internetactu.net

1 commentaire

  1. Tout cela est bien vrai. Je rajouterai : on a tendance à être convaincu par un raisonnement uniquement qualitatif quand parfois l’explication requiert aussi un raisonnement quantitatif. Typiquement, quand on a trouvé un des mécanismes qui peuvent causer un phénomène, on s’arrête à cette explication car on n’y trouve aucune faille logique sur le plan qualitatif, sans chercher à savoir si le mécanisme en question explique plutôt 10% ou 90% du phénomène.
    Exemple bien connu: comment les avions volent.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *