Pourquoi les faits ne changent pas nos mentalités
Les nouvelles découvertes sur l'esprit humain montrent les limites de la raison.
Par Elizabeth Kolbert
20 février 2017
La capacité de raisonnement de l'homme, dont on fait l'éloge, a peut-être plus à voir avec le fait de gagner des disputes qu'avec la capacité à bien raisonner.
En 1975, des chercheurs de Stanford ont invité un groupe d'étudiants de premier cycle à participer à une étude sur le suicide. On leur a présenté deux lettres écrites avant un suicide. Dans chaque paire, une lettre avait été composée par un individu choisi au hasard, l'autre par une personne qui s'était ensuite suicidée. Les étudiants ont ensuite été invités à faire la distinction entre les vraies lettres, celles qui ont été suivies d'un suicide et les fausses celles qui ont été inventées.
Certains élèves ont découvert qu'ils avaient un génie pour cette tâche. Sur vingt-cinq paires de notes, ils ont correctement identifié la vraie vingt-quatre fois. D'autres ont découvert qu'ils n'étaient vraiment pas doués. Ils n'ont identifié la vraie note qu'à dix reprises.
Comme c'est souvent le cas dans les études psychologiques, toute la mise en place était un coup monté. Même si la moitié des notes étaient effectivement réelles - elles avaient été obtenues auprès du bureau du médecin légiste du comté de Los Angeles -, les scores, eux, étaient fictifs. Les étudiants à qui on avait dit qu'ils avaient presque toujours raison n'étaient en moyenne pas plus perspicaces que ceux à qui on avait dit qu'ils avaient très souvent tort.
Dans la deuxième phase de l'étude, la tromperie a été révélée. On a dit aux étudiants que le véritable but de l'expérience était d'évaluer leurs réactions face au fait de penser qu'ils avaient raison ou tort. (Il s'est avéré que c'était également une tromperie.)
Enfin, les étudiants ont été invités à estimer le nombre de lettres de suicide qu'ils avaient effectivement classées correctement, et le nombre de celles qu'ils pensaient qu'un étudiant moyen aurait deviné. À ce stade, il s'est passé quelque chose de curieux. Les élèves du groupe ayant obtenu les meilleurs résultats ont déclaré qu'ils pensaient avoir en fait réussi à faire mieux que l'élève moyen - même si, comme on venait de le leur dire, ils n'avaient aucune raison de le croire, puisque ces résultats étaient inventé par les chercheurs. À l'inverse, ceux qui ont été classés dans le groupe des élèves les moins bien notés ont déclaré qu'ils pensaient avoir obtenu des résultats nettement inférieurs à ceux de l'élève moyen - une conclusion tout aussi infondée.
"Une fois formé", ont observé les chercheurs, "les impressions sont remarquablement persévérantes".
Quelques années plus tard, un nouveau groupe d'étudiants de Stanford a été recruté pour une étude connexe. Les étudiants ont reçu des paquets d'informations sur deux pompiers, Frank K. et George H. Frank. Dans sa biographie, il a noté, entre autres, qu'il avait une petite fille et qu'il aimait la plongée sous-marine. George avait un petit-fils et jouait au golf. Les paquets contenaient également les réponses des hommes sur ce que les chercheurs ont appelé le test du choix risque-conservateur. Selon une version du paquet, Frank était un pompier accompli qui, lors du test, a presque toujours choisi l'option la plus sûre. Dans l'autre version, Frank a également choisi l'option la plus sûre, mais c'était un pompier minable qui avait été "mis au rapport" par ses supérieurs à plusieurs reprises. Une fois de plus, à mi-parcours de l'étude, les étudiants ont été informés qu'ils avaient été trompés et que les informations qu'ils avaient reçues étaient entièrement fictives. Les étudiants ont ensuite été invités à décrire leurs propres convictions. Quel genre d'attitude vis-à-vis du risque pensaient-ils qu'un pompier qui réussit aurait ? Les élèves qui avaient reçu le premier paquet pensaient qu'il l'éviterait. Les élèves du deuxième groupe pensaient qu'il l'accepterait.
Même après que les preuves "de leurs convictions aient été totalement réfutées, les gens ne révisent pas ces convictions de manière appropriée", ont noté les chercheurs. Dans ce cas, l'échec a été "particulièrement impressionnant", car deux points de données n'auraient jamais suffi pour généraliser.
Les études de Stanford sont devenues célèbres. Venant d'un groupe d'universitaires des années 70, l'affirmation selon laquelle les gens ne peuvent pas penser clairement était choquante. Elle ne l'est plus. Des milliers d'expériences ultérieures ont confirmé (et approfondi) cette constatation. Comme le savent tous ceux qui ont suivi les recherches - ou qui ont même parfois pris un exemplaire de Psychology Today -, tout étudiant diplômé possédant un presse-papiers peut démontrer que les personnes qui semblent raisonnables sont souvent totalement irrationnelles. Rarement cette idée a semblé plus pertinente qu'aujourd'hui. Il n'en reste pas moins qu'un puzzle essentiel demeure : Comment en sommes-nous arrivés là ?
Dans un nouveau livre, The Enigma of Reason (Harvard), les spécialistes de la cognition Hugo Mercier et Dan Sperber tentent de répondre à cette question. Mercier, qui travaille dans un institut de recherche français à Lyon, et Sperber, maintenant basé à l'Université d'Europe centrale, à Budapest, soulignent que la raison est un trait évolué, comme la bipédie ou la vision tricolore. Elle est apparue dans les savanes d'Afrique, et doit être comprise dans ce contexte.
Dépouillé de beaucoup de ce que l'on pourrait appeler les sciences cognitives, l'argument de Mercier et Sperber se présente plus ou moins comme suit : Le plus grand avantage de l'homme sur les autres espèces est sa capacité à coopérer. La coopération est difficile à établir et presque aussi difficile à maintenir. Pour tout individu, le parasitisme est toujours la meilleure solution. La raison ne s'est pas développée pour nous permettre de résoudre des problèmes abstraits et logiques, ni même pour nous aider à tirer des conclusions à partir de données inconnues ; elle s'est plutôt développée pour résoudre les problèmes posés par la vie en groupes collaboratifs.
"La raison est une adaptation à la niche hypersociale que les humains ont développée pour eux-mêmes", écrivent Mercier et Sperber. Les habitudes d'esprit qui semblent bizarres ou maladroites ou tout simplement stupides d'un point de vue "intellectualiste" s'avèrent astucieuses lorsqu'elles sont vues dans une perspective sociale "interactionniste".
Pensez à ce qu'on appelle le "biais de confirmation", la tendance qu'ont les gens à accepter les informations qui soutiennent leurs croyances et à rejeter celles qui les contredisent. Parmi les nombreuses formes de pensée erronée qui ont été identifiées, le biais de confirmation est l'une des mieux cataloguées ; il fait l'objet d'expériences entières dans les manuels scolaires. L'une des plus célèbres d'entre elles a été menée, là encore, à Stanford. Pour cette expérience, les chercheurs ont rassemblé un groupe d'étudiants qui avaient des opinions divergentes sur la peine capitale. La moitié des étudiants étaient en faveur de la peine capitale et pensaient qu'elle dissuadait de commettre des crimes ; l'autre moitié était contre et pensait qu'elle n'avait aucun effet sur la criminalité.
Les étudiants ont été invités à répondre à deux études. L'une a fourni des données à l'appui de l'argument de la dissuasion, et l'autre a fourni des données qui la remettent en question. Les deux études - vous l'avez deviné - ont été réalisées et ont été conçues pour présenter des statistiques qui, objectivement, sont tout aussi convaincantes. Les étudiants qui avaient initialement soutenu la peine capitale ont jugé les données en faveur de la dissuasion très crédibles et les données contre la dissuasion peu convaincantes ; les étudiants qui s'étaient initialement opposés à la peine capitale ont fait l'inverse. À la fin de l'expérience, les étudiants ont été à nouveau interrogés sur leurs opinions. Ceux qui avaient commencé à être favorables à la peine capitale y étaient maintenant encore plus favorables ; ceux qui s'y étaient opposés y étaient encore plus hostiles.
Si la raison est conçue pour générer des jugements solides, alors il est difficile de concevoir un défaut de conception plus grave que le biais de confirmation. Imaginez, suggèrent Mercier et Sperber, une souris qui pense comme nous. Une telle souris, "déterminée à confirmer sa conviction qu'il n'y a pas de chats dans les environs", serait bientôt à table. Dans la mesure où le biais de confirmation conduit les gens à rejeter les preuves de menaces nouvelles ou sous-estimées - l'équivalent humain du chat du coin - c'est un trait contre lequel il aurait fallu choisir. Le fait que nous et lui survivions, selon Mercier et Sperber, prouve qu'il doit avoir une certaine fonction adaptative, et cette fonction, soutiennent-ils, est liée à notre "hypersociabilité".
Mercier et Sperber préfèrent le terme de "biais de myside". Les humains, soulignent-ils, ne sont pas crédules au hasard. Si on nous présente l'argument de quelqu'un d'autre, nous sommes assez habiles à repérer les faiblesses. Presque invariablement, les positions que nous ignorons sont les nôtres.
Une expérience récente réalisée par Mercier et quelques collègues européens démontre bien cette asymétrie. Les participants ont été invités à répondre à une série de problèmes de raisonnement simples. Ils ont ensuite été invités à expliquer leurs réponses, et ont eu la possibilité de les modifier s'ils identifiaient des erreurs. La majorité d'entre eux étaient satisfaits de leurs choix initiaux ; moins de quinze pour cent ont changé d'avis lors de la deuxième étape.
Lors de la troisième étape, les participants ont été confrontés à l'un des mêmes problèmes, ainsi qu'à leur réponse et à celle d'un autre participant, qui était arrivé à une conclusion différente. Une fois de plus, ils ont eu la possibilité de modifier leurs réponses. Mais une astuce avait été jouée : les réponses qui leur étaient présentées comme étant celles d'un autre participant étaient en fait les leurs, et vice versa. Environ la moitié des participants ont réalisé ce qui se passait. Dans l'autre moitié, les gens sont soudainement devenus beaucoup plus critiques. Près de soixante pour cent d'entre eux ont rejeté les réponses dont ils étaient satisfaits auparavant.
"Merci encore d'être venus - je trouve généralement ces fêtes de bureau plutôt gênantes."
Ce déséquilibre, selon Mercier et Sperber, reflète la tâche que la raison a évolué pour accomplir, qui est de nous empêcher de nous faire avoir par les autres membres de notre groupe. Vivant en petits groupes de chasseurs-cueilleurs, nos ancêtres se préoccupaient avant tout de leur statut social, et de s'assurer que ce n'était pas eux qui risquaient leur vie à la chasse pendant que d'autres traînaient dans la grotte. Il y avait peu d'avantages à raisonner clairement, alors qu'il y en avait beaucoup à gagner des disputes.
Parmi les nombreuses, nombreuses questions dont nos ancêtres ne se souciaient pas, il y avait les effets dissuasifs de la peine capitale et les attributs idéaux d'un pompier. Ils n'avaient pas non plus à faire face à des études fabriquées de toutes pièces, à de fausses nouvelles ou à Twitter. Il n'est donc pas étonnant qu'aujourd'hui, la raison semble souvent nous faire défaut. Comme l'écrivent Mercier et Sperber, "C'est l'un des nombreux cas où l'environnement a changé trop rapidement pour que la sélection naturelle puisse le rattraper".
Steven Sloman, professeur à Brown, et Philip Fernbach, professeur à l'université du Colorado, sont également des spécialistes des sciences cognitives. Ils pensent eux aussi que la sociabilité est la clé du fonctionnement ou, peut-être plus pertinemment, du dysfonctionnement de l'esprit humain. Ils commencent leur livre, "L'illusion de la connaissance" : Why We Never Think Alone" (Riverhead), par un regard sur les toilettes.
Pratiquement tout le monde aux États-Unis, et même dans le monde développé, est familier avec les toilettes. Une toilette typique à chasse d'eau a une cuvette en céramique remplie d'eau. Lorsque l'on appuie sur la poignée ou sur le bouton, l'eau - et tout ce qui s'y est déposé - est aspirée dans un tuyau et de là, dans le réseau d'égouts. Mais comment cela se passe-t-il en réalité ?
Dans une étude menée à Yale, on a demandé à des étudiants de troisième cycle d'évaluer leur compréhension des appareils de tous les jours, notamment les toilettes, les fermetures éclair et les serrures à cylindre. Ils ont ensuite été invités à rédiger des explications détaillées, étape par étape, sur le fonctionnement de ces dispositifs et à évaluer à nouveau leur compréhension. Apparemment, cet effort a révélé aux étudiants leur propre ignorance, car leurs auto-évaluations ont chuté. (Il s'avère que les toilettes sont plus compliquées qu'il n'y paraît).
Sloman et Fernbach constatent cet effet, qu'ils appellent "l'illusion de la profondeur explicative", un peu partout. Les gens croient qu'ils en savent beaucoup plus qu'ils n'en savent réellement. Ce qui nous permet de persister dans cette croyance, ce sont les autres. Dans le cas de mes toilettes, quelqu'un d'autre les a conçues pour que je puisse les utiliser facilement. C'est une chose pour laquelle les humains sont très doués. Nous comptons sur l'expertise des uns et des autres depuis que nous avons découvert comment chasser ensemble, ce qui a probablement été un développement-clé dans notre histoire évolutionnaire. Nous collaborons si bien, affirment Sloman et Fernbach, que nous pouvons difficilement dire où se termine notre propre compréhension et où commence celle des autres.
"Une des implications du naturel avec lequel nous divisons le travail cognitif", écrivent-ils, est qu'il n'y a "aucune frontière nette entre les idées et les connaissances d'une personne" et "celles des autres membres" du groupe.
Cette absence de frontière, ou, si vous préférez, cette confusion, est également cruciale pour ce que nous considérons comme un progrès. En inventant de nouveaux outils pour de nouvelles façons de vivre, les gens ont simultanément créé de nouveaux domaines d'ignorance ; si tout le monde avait insisté, par exemple, pour maîtriser les principes du travail des métaux avant de prendre un couteau, l'âge du bronze n'aurait pas représenté grand chose. Lorsqu'il s'agit de nouvelles technologies, une compréhension incomplète donne du pouvoir.
Selon Sloman et Fernbach, c'est dans le domaine politique que cela nous cause des problèmes. C'est une chose pour moi de tirer la chasse d'eau sans savoir comment elle fonctionne, et une autre pour moi de favoriser (ou de s'opposer) à une interdiction d'immigration sans savoir de quoi je parle.
Sloman et Fernbach citent une enquête menée en 2014, peu de temps après que la Russie ait annexé le territoire ukrainien de Crimée. Les personnes interrogées devaient indiquer comment, selon elles, les États-Unis devraient réagir, et aussi si elles pouvaient identifier l'Ukraine sur une carte. Plus ils étaient éloignés de la base géographique, plus ils étaient susceptibles de favoriser une intervention militaire. (Les répondants étaient si peu sûrs de la localisation de l'Ukraine que la supposition médiane était fausse de 1 800 miles, soit à peu près la distance entre Kiev et Madrid).
Des enquêtes sur de nombreuses autres questions ont donné des résultats tout aussi consternants. "En règle générale, les sentiments forts sur les questions ne naissent pas d'une compréhension profonde", écrivent Sloman et Fernbach. Et ici, notre dépendance à l'égard d'autres esprits renforce le problème. Si votre position sur, par exemple, la loi sur les soins abordables est sans fondement et que je m'y fie, alors mon opinion est également sans fondement. Lorsque je parle à Tom et qu'il décide qu'il est d'accord avec moi, son opinion est également sans fondement, mais maintenant que nous sommes tous les trois d'accord, nous nous sentons beaucoup plus satisfaits de nos opinions. Si nous rejetons tous maintenant comme peu convaincante toute information qui contredit notre opinion, vous obtenez, eh bien, l'administration Trump.
"C'est ainsi qu'une communauté de connaissances peut devenir dangereuse", observent Sloman et Fernbach. Les deux hommes ont réalisé leur propre version de l'expérience des toilettes, en substituant la politique publique aux gadgets ménagers. Dans une étude menée en 2012, ils ont demandé aux gens leur position sur des questions comme Devrait-il y avoir un système de soins de santé à payeur unique ? Ou une rémunération au mérite pour les enseignants ? Les participants ont été invités à évaluer leur position en fonction de leur degré d'accord ou de désaccord avec les propositions. Ensuite, ils ont été invités à expliquer, de manière aussi détaillée que possible, les conséquences de la mise en œuvre de chacune d'entre elles. À ce stade, la plupart des gens ont eu des difficultés. Invités une fois de plus à évaluer leurs points de vue, ils ont réduit l'intensité, de sorte qu'ils étaient soit d'accord soit en désaccord avec moins de véhémence.
Sloman et Fernbach voient dans ce résultat une petite bougie pour un monde sombre. Si nous - ou nos amis ou les experts de CNN - passions moins de temps à pontifier et plus à essayer de comprendre les implications des propositions politiques, nous réaliserions à quel point nous sommes ignorants et nous modérerions nos opinions. Cela, écrivent-ils, "pourrait être la seule forme de pensée qui fera voler en éclats l'illusion d'une profondeur explicative et qui changera l'attitude des gens".
Une façon de voir la science est de la considérer comme un système qui corrige les penchants naturels des gens. Dans un laboratoire bien géré, il n'y a pas de place pour les préjugés ; les résultats doivent être reproductibles dans d'autres laboratoires, par des chercheurs qui n'ont aucun motif de les confirmer. Et c'est, pourrait-on dire, la raison pour laquelle le système s'est révélé si efficace. À un moment donné, un domaine peut être dominé par des querelles, mais, en fin de compte, c'est la méthodologie qui prévaut. La science progresse, même si nous restons bloqués sur place.
Dans "Denying to the Grave : Why We Ignore the Facts That Will Save Us" (Oxford), Jack Gorman, psychiatre, et sa fille, Sara Gorman, spécialiste de la santé publique, sondent l'écart entre ce que la science nous dit et ce que nous nous disons à nous-mêmes. Ils s'intéressent aux croyances persistantes qui sont non seulement manifestement fausses mais aussi potentiellement mortelles, comme la conviction que les vaccins sont dangereux. Bien sûr, ce qui est dangereux n'est pas vacciné ; c'est pourquoi les vaccins ont été créés en premier lieu. "L'immunisation est l'un des triomphes de la médecine moderne", notent les Gormans. Mais peu importe le nombre d'études scientifiques qui concluent que les vaccins sont sûrs et qu'il n'y a pas de lien entre les vaccinations et l'autisme, les antivaxxers restent inchangés. (Ils peuvent maintenant compter sur leur côté - une sorte de Donald Trump, qui a déclaré que, bien que lui et sa femme aient fait vacciner leur fils, Barron, ils ont refusé de le faire selon le calendrier recommandé par les pédiatres).
Les Gormans, eux aussi, affirment que des modes de pensée qui semblent aujourd'hui autodestructeurs ont dû, à un moment donné, s'adapter. Et ils consacrent eux aussi de nombreuses pages au préjugé de confirmation qui, selon eux, a une composante physiologique. Ils citent des recherches suggérant que les gens éprouvent un véritable plaisir - une ruée vers la dopamine - lorsqu'ils traitent des informations qui soutiennent leurs croyances. Il est bon de "s'en tenir à ses positions" même si on a tort", observent-ils.
Les Gormans ne veulent pas seulement cataloguer les erreurs que nous commettons, ils veulent les corriger. Il doit y avoir un moyen, soutiennent-ils, de convaincre les gens que les vaccins sont bons pour les enfants et que les armes de poing sont dangereuses. (Une autre croyance répandue mais statistiquement insupportable qu'ils voudraient discréditer est que posséder une arme à feu vous rend plus sûr). Mais ici, ils se heurtent aux problèmes mêmes qu'ils ont énumérés. Fournir aux gens des informations exactes ne semble pas les aider ; ils les ignorent tout simplement. Faire appel à leurs émotions peut être plus efficace, mais cela va évidemment à l'encontre de l'objectif de promotion d'une science solide. "Le défi qui reste à relever", écrivent-ils vers la fin de leur livre, "est de trouver comment s'attaquer aux tendances qui conduisent à de fausses croyances scientifiques".
"L'énigme de la raison", "L'illusion de la connaissance" et "Nier jusqu'à la tombe" ont tous été écrits avant l'élection de novembre. Et pourtant, ils anticipent Kellyanne Conway et la montée des "faits alternatifs". Aujourd'hui, on a l'impression que le pays tout entier a été livré à une vaste expérience psychologique menée soit par personne, soit par Steve Bannon. Des agents rationnels seraient capables de réfléchir à une solution. Mais, sur ce sujet, la littérature n'est pas rassurante. ♦
Publié dans l'édition imprimée du numéro du 27 février 2017, avec le titre "C'est ce que vous pensez".
Source : https://www.newyorker.com/magazine/2017/02/27/why-facts-dont-change-our-minds
Par Elizabeth Kolbert
20 février 2017
La capacité de raisonnement de l'homme, dont on fait l'éloge, a peut-être plus à voir avec le fait de gagner des disputes qu'avec la capacité à bien raisonner.
En 1975, des chercheurs de Stanford ont invité un groupe d'étudiants de premier cycle à participer à une étude sur le suicide. On leur a présenté deux lettres écrites avant un suicide. Dans chaque paire, une lettre avait été composée par un individu choisi au hasard, l'autre par une personne qui s'était ensuite suicidée. Les étudiants ont ensuite été invités à faire la distinction entre les vraies lettres, celles qui ont été suivies d'un suicide et les fausses celles qui ont été inventées.
Certains élèves ont découvert qu'ils avaient un génie pour cette tâche. Sur vingt-cinq paires de notes, ils ont correctement identifié la vraie vingt-quatre fois. D'autres ont découvert qu'ils n'étaient vraiment pas doués. Ils n'ont identifié la vraie note qu'à dix reprises.
Comme c'est souvent le cas dans les études psychologiques, toute la mise en place était un coup monté. Même si la moitié des notes étaient effectivement réelles - elles avaient été obtenues auprès du bureau du médecin légiste du comté de Los Angeles -, les scores, eux, étaient fictifs. Les étudiants à qui on avait dit qu'ils avaient presque toujours raison n'étaient en moyenne pas plus perspicaces que ceux à qui on avait dit qu'ils avaient très souvent tort.
Dans la deuxième phase de l'étude, la tromperie a été révélée. On a dit aux étudiants que le véritable but de l'expérience était d'évaluer leurs réactions face au fait de penser qu'ils avaient raison ou tort. (Il s'est avéré que c'était également une tromperie.)
Enfin, les étudiants ont été invités à estimer le nombre de lettres de suicide qu'ils avaient effectivement classées correctement, et le nombre de celles qu'ils pensaient qu'un étudiant moyen aurait deviné. À ce stade, il s'est passé quelque chose de curieux. Les élèves du groupe ayant obtenu les meilleurs résultats ont déclaré qu'ils pensaient avoir en fait réussi à faire mieux que l'élève moyen - même si, comme on venait de le leur dire, ils n'avaient aucune raison de le croire, puisque ces résultats étaient inventé par les chercheurs. À l'inverse, ceux qui ont été classés dans le groupe des élèves les moins bien notés ont déclaré qu'ils pensaient avoir obtenu des résultats nettement inférieurs à ceux de l'élève moyen - une conclusion tout aussi infondée.
"Une fois formé", ont observé les chercheurs, "les impressions sont remarquablement persévérantes".
Quelques années plus tard, un nouveau groupe d'étudiants de Stanford a été recruté pour une étude connexe. Les étudiants ont reçu des paquets d'informations sur deux pompiers, Frank K. et George H. Frank. Dans sa biographie, il a noté, entre autres, qu'il avait une petite fille et qu'il aimait la plongée sous-marine. George avait un petit-fils et jouait au golf. Les paquets contenaient également les réponses des hommes sur ce que les chercheurs ont appelé le test du choix risque-conservateur. Selon une version du paquet, Frank était un pompier accompli qui, lors du test, a presque toujours choisi l'option la plus sûre. Dans l'autre version, Frank a également choisi l'option la plus sûre, mais c'était un pompier minable qui avait été "mis au rapport" par ses supérieurs à plusieurs reprises. Une fois de plus, à mi-parcours de l'étude, les étudiants ont été informés qu'ils avaient été trompés et que les informations qu'ils avaient reçues étaient entièrement fictives. Les étudiants ont ensuite été invités à décrire leurs propres convictions. Quel genre d'attitude vis-à-vis du risque pensaient-ils qu'un pompier qui réussit aurait ? Les élèves qui avaient reçu le premier paquet pensaient qu'il l'éviterait. Les élèves du deuxième groupe pensaient qu'il l'accepterait.
Même après que les preuves "de leurs convictions aient été totalement réfutées, les gens ne révisent pas ces convictions de manière appropriée", ont noté les chercheurs. Dans ce cas, l'échec a été "particulièrement impressionnant", car deux points de données n'auraient jamais suffi pour généraliser.
Les études de Stanford sont devenues célèbres. Venant d'un groupe d'universitaires des années 70, l'affirmation selon laquelle les gens ne peuvent pas penser clairement était choquante. Elle ne l'est plus. Des milliers d'expériences ultérieures ont confirmé (et approfondi) cette constatation. Comme le savent tous ceux qui ont suivi les recherches - ou qui ont même parfois pris un exemplaire de Psychology Today -, tout étudiant diplômé possédant un presse-papiers peut démontrer que les personnes qui semblent raisonnables sont souvent totalement irrationnelles. Rarement cette idée a semblé plus pertinente qu'aujourd'hui. Il n'en reste pas moins qu'un puzzle essentiel demeure : Comment en sommes-nous arrivés là ?
Dans un nouveau livre, The Enigma of Reason (Harvard), les spécialistes de la cognition Hugo Mercier et Dan Sperber tentent de répondre à cette question. Mercier, qui travaille dans un institut de recherche français à Lyon, et Sperber, maintenant basé à l'Université d'Europe centrale, à Budapest, soulignent que la raison est un trait évolué, comme la bipédie ou la vision tricolore. Elle est apparue dans les savanes d'Afrique, et doit être comprise dans ce contexte.
Dépouillé de beaucoup de ce que l'on pourrait appeler les sciences cognitives, l'argument de Mercier et Sperber se présente plus ou moins comme suit : Le plus grand avantage de l'homme sur les autres espèces est sa capacité à coopérer. La coopération est difficile à établir et presque aussi difficile à maintenir. Pour tout individu, le parasitisme est toujours la meilleure solution. La raison ne s'est pas développée pour nous permettre de résoudre des problèmes abstraits et logiques, ni même pour nous aider à tirer des conclusions à partir de données inconnues ; elle s'est plutôt développée pour résoudre les problèmes posés par la vie en groupes collaboratifs.
"La raison est une adaptation à la niche hypersociale que les humains ont développée pour eux-mêmes", écrivent Mercier et Sperber. Les habitudes d'esprit qui semblent bizarres ou maladroites ou tout simplement stupides d'un point de vue "intellectualiste" s'avèrent astucieuses lorsqu'elles sont vues dans une perspective sociale "interactionniste".
Pensez à ce qu'on appelle le "biais de confirmation", la tendance qu'ont les gens à accepter les informations qui soutiennent leurs croyances et à rejeter celles qui les contredisent. Parmi les nombreuses formes de pensée erronée qui ont été identifiées, le biais de confirmation est l'une des mieux cataloguées ; il fait l'objet d'expériences entières dans les manuels scolaires. L'une des plus célèbres d'entre elles a été menée, là encore, à Stanford. Pour cette expérience, les chercheurs ont rassemblé un groupe d'étudiants qui avaient des opinions divergentes sur la peine capitale. La moitié des étudiants étaient en faveur de la peine capitale et pensaient qu'elle dissuadait de commettre des crimes ; l'autre moitié était contre et pensait qu'elle n'avait aucun effet sur la criminalité.
Les étudiants ont été invités à répondre à deux études. L'une a fourni des données à l'appui de l'argument de la dissuasion, et l'autre a fourni des données qui la remettent en question. Les deux études - vous l'avez deviné - ont été réalisées et ont été conçues pour présenter des statistiques qui, objectivement, sont tout aussi convaincantes. Les étudiants qui avaient initialement soutenu la peine capitale ont jugé les données en faveur de la dissuasion très crédibles et les données contre la dissuasion peu convaincantes ; les étudiants qui s'étaient initialement opposés à la peine capitale ont fait l'inverse. À la fin de l'expérience, les étudiants ont été à nouveau interrogés sur leurs opinions. Ceux qui avaient commencé à être favorables à la peine capitale y étaient maintenant encore plus favorables ; ceux qui s'y étaient opposés y étaient encore plus hostiles.
Si la raison est conçue pour générer des jugements solides, alors il est difficile de concevoir un défaut de conception plus grave que le biais de confirmation. Imaginez, suggèrent Mercier et Sperber, une souris qui pense comme nous. Une telle souris, "déterminée à confirmer sa conviction qu'il n'y a pas de chats dans les environs", serait bientôt à table. Dans la mesure où le biais de confirmation conduit les gens à rejeter les preuves de menaces nouvelles ou sous-estimées - l'équivalent humain du chat du coin - c'est un trait contre lequel il aurait fallu choisir. Le fait que nous et lui survivions, selon Mercier et Sperber, prouve qu'il doit avoir une certaine fonction adaptative, et cette fonction, soutiennent-ils, est liée à notre "hypersociabilité".
Mercier et Sperber préfèrent le terme de "biais de myside". Les humains, soulignent-ils, ne sont pas crédules au hasard. Si on nous présente l'argument de quelqu'un d'autre, nous sommes assez habiles à repérer les faiblesses. Presque invariablement, les positions que nous ignorons sont les nôtres.
Une expérience récente réalisée par Mercier et quelques collègues européens démontre bien cette asymétrie. Les participants ont été invités à répondre à une série de problèmes de raisonnement simples. Ils ont ensuite été invités à expliquer leurs réponses, et ont eu la possibilité de les modifier s'ils identifiaient des erreurs. La majorité d'entre eux étaient satisfaits de leurs choix initiaux ; moins de quinze pour cent ont changé d'avis lors de la deuxième étape.
Lors de la troisième étape, les participants ont été confrontés à l'un des mêmes problèmes, ainsi qu'à leur réponse et à celle d'un autre participant, qui était arrivé à une conclusion différente. Une fois de plus, ils ont eu la possibilité de modifier leurs réponses. Mais une astuce avait été jouée : les réponses qui leur étaient présentées comme étant celles d'un autre participant étaient en fait les leurs, et vice versa. Environ la moitié des participants ont réalisé ce qui se passait. Dans l'autre moitié, les gens sont soudainement devenus beaucoup plus critiques. Près de soixante pour cent d'entre eux ont rejeté les réponses dont ils étaient satisfaits auparavant.
"Merci encore d'être venus - je trouve généralement ces fêtes de bureau plutôt gênantes."
Ce déséquilibre, selon Mercier et Sperber, reflète la tâche que la raison a évolué pour accomplir, qui est de nous empêcher de nous faire avoir par les autres membres de notre groupe. Vivant en petits groupes de chasseurs-cueilleurs, nos ancêtres se préoccupaient avant tout de leur statut social, et de s'assurer que ce n'était pas eux qui risquaient leur vie à la chasse pendant que d'autres traînaient dans la grotte. Il y avait peu d'avantages à raisonner clairement, alors qu'il y en avait beaucoup à gagner des disputes.
Parmi les nombreuses, nombreuses questions dont nos ancêtres ne se souciaient pas, il y avait les effets dissuasifs de la peine capitale et les attributs idéaux d'un pompier. Ils n'avaient pas non plus à faire face à des études fabriquées de toutes pièces, à de fausses nouvelles ou à Twitter. Il n'est donc pas étonnant qu'aujourd'hui, la raison semble souvent nous faire défaut. Comme l'écrivent Mercier et Sperber, "C'est l'un des nombreux cas où l'environnement a changé trop rapidement pour que la sélection naturelle puisse le rattraper".
Steven Sloman, professeur à Brown, et Philip Fernbach, professeur à l'université du Colorado, sont également des spécialistes des sciences cognitives. Ils pensent eux aussi que la sociabilité est la clé du fonctionnement ou, peut-être plus pertinemment, du dysfonctionnement de l'esprit humain. Ils commencent leur livre, "L'illusion de la connaissance" : Why We Never Think Alone" (Riverhead), par un regard sur les toilettes.
Pratiquement tout le monde aux États-Unis, et même dans le monde développé, est familier avec les toilettes. Une toilette typique à chasse d'eau a une cuvette en céramique remplie d'eau. Lorsque l'on appuie sur la poignée ou sur le bouton, l'eau - et tout ce qui s'y est déposé - est aspirée dans un tuyau et de là, dans le réseau d'égouts. Mais comment cela se passe-t-il en réalité ?
Dans une étude menée à Yale, on a demandé à des étudiants de troisième cycle d'évaluer leur compréhension des appareils de tous les jours, notamment les toilettes, les fermetures éclair et les serrures à cylindre. Ils ont ensuite été invités à rédiger des explications détaillées, étape par étape, sur le fonctionnement de ces dispositifs et à évaluer à nouveau leur compréhension. Apparemment, cet effort a révélé aux étudiants leur propre ignorance, car leurs auto-évaluations ont chuté. (Il s'avère que les toilettes sont plus compliquées qu'il n'y paraît).
Sloman et Fernbach constatent cet effet, qu'ils appellent "l'illusion de la profondeur explicative", un peu partout. Les gens croient qu'ils en savent beaucoup plus qu'ils n'en savent réellement. Ce qui nous permet de persister dans cette croyance, ce sont les autres. Dans le cas de mes toilettes, quelqu'un d'autre les a conçues pour que je puisse les utiliser facilement. C'est une chose pour laquelle les humains sont très doués. Nous comptons sur l'expertise des uns et des autres depuis que nous avons découvert comment chasser ensemble, ce qui a probablement été un développement-clé dans notre histoire évolutionnaire. Nous collaborons si bien, affirment Sloman et Fernbach, que nous pouvons difficilement dire où se termine notre propre compréhension et où commence celle des autres.
"Une des implications du naturel avec lequel nous divisons le travail cognitif", écrivent-ils, est qu'il n'y a "aucune frontière nette entre les idées et les connaissances d'une personne" et "celles des autres membres" du groupe.
Cette absence de frontière, ou, si vous préférez, cette confusion, est également cruciale pour ce que nous considérons comme un progrès. En inventant de nouveaux outils pour de nouvelles façons de vivre, les gens ont simultanément créé de nouveaux domaines d'ignorance ; si tout le monde avait insisté, par exemple, pour maîtriser les principes du travail des métaux avant de prendre un couteau, l'âge du bronze n'aurait pas représenté grand chose. Lorsqu'il s'agit de nouvelles technologies, une compréhension incomplète donne du pouvoir.
Selon Sloman et Fernbach, c'est dans le domaine politique que cela nous cause des problèmes. C'est une chose pour moi de tirer la chasse d'eau sans savoir comment elle fonctionne, et une autre pour moi de favoriser (ou de s'opposer) à une interdiction d'immigration sans savoir de quoi je parle.
Sloman et Fernbach citent une enquête menée en 2014, peu de temps après que la Russie ait annexé le territoire ukrainien de Crimée. Les personnes interrogées devaient indiquer comment, selon elles, les États-Unis devraient réagir, et aussi si elles pouvaient identifier l'Ukraine sur une carte. Plus ils étaient éloignés de la base géographique, plus ils étaient susceptibles de favoriser une intervention militaire. (Les répondants étaient si peu sûrs de la localisation de l'Ukraine que la supposition médiane était fausse de 1 800 miles, soit à peu près la distance entre Kiev et Madrid).
Des enquêtes sur de nombreuses autres questions ont donné des résultats tout aussi consternants. "En règle générale, les sentiments forts sur les questions ne naissent pas d'une compréhension profonde", écrivent Sloman et Fernbach. Et ici, notre dépendance à l'égard d'autres esprits renforce le problème. Si votre position sur, par exemple, la loi sur les soins abordables est sans fondement et que je m'y fie, alors mon opinion est également sans fondement. Lorsque je parle à Tom et qu'il décide qu'il est d'accord avec moi, son opinion est également sans fondement, mais maintenant que nous sommes tous les trois d'accord, nous nous sentons beaucoup plus satisfaits de nos opinions. Si nous rejetons tous maintenant comme peu convaincante toute information qui contredit notre opinion, vous obtenez, eh bien, l'administration Trump.
"C'est ainsi qu'une communauté de connaissances peut devenir dangereuse", observent Sloman et Fernbach. Les deux hommes ont réalisé leur propre version de l'expérience des toilettes, en substituant la politique publique aux gadgets ménagers. Dans une étude menée en 2012, ils ont demandé aux gens leur position sur des questions comme Devrait-il y avoir un système de soins de santé à payeur unique ? Ou une rémunération au mérite pour les enseignants ? Les participants ont été invités à évaluer leur position en fonction de leur degré d'accord ou de désaccord avec les propositions. Ensuite, ils ont été invités à expliquer, de manière aussi détaillée que possible, les conséquences de la mise en œuvre de chacune d'entre elles. À ce stade, la plupart des gens ont eu des difficultés. Invités une fois de plus à évaluer leurs points de vue, ils ont réduit l'intensité, de sorte qu'ils étaient soit d'accord soit en désaccord avec moins de véhémence.
Sloman et Fernbach voient dans ce résultat une petite bougie pour un monde sombre. Si nous - ou nos amis ou les experts de CNN - passions moins de temps à pontifier et plus à essayer de comprendre les implications des propositions politiques, nous réaliserions à quel point nous sommes ignorants et nous modérerions nos opinions. Cela, écrivent-ils, "pourrait être la seule forme de pensée qui fera voler en éclats l'illusion d'une profondeur explicative et qui changera l'attitude des gens".
Une façon de voir la science est de la considérer comme un système qui corrige les penchants naturels des gens. Dans un laboratoire bien géré, il n'y a pas de place pour les préjugés ; les résultats doivent être reproductibles dans d'autres laboratoires, par des chercheurs qui n'ont aucun motif de les confirmer. Et c'est, pourrait-on dire, la raison pour laquelle le système s'est révélé si efficace. À un moment donné, un domaine peut être dominé par des querelles, mais, en fin de compte, c'est la méthodologie qui prévaut. La science progresse, même si nous restons bloqués sur place.
Dans "Denying to the Grave : Why We Ignore the Facts That Will Save Us" (Oxford), Jack Gorman, psychiatre, et sa fille, Sara Gorman, spécialiste de la santé publique, sondent l'écart entre ce que la science nous dit et ce que nous nous disons à nous-mêmes. Ils s'intéressent aux croyances persistantes qui sont non seulement manifestement fausses mais aussi potentiellement mortelles, comme la conviction que les vaccins sont dangereux. Bien sûr, ce qui est dangereux n'est pas vacciné ; c'est pourquoi les vaccins ont été créés en premier lieu. "L'immunisation est l'un des triomphes de la médecine moderne", notent les Gormans. Mais peu importe le nombre d'études scientifiques qui concluent que les vaccins sont sûrs et qu'il n'y a pas de lien entre les vaccinations et l'autisme, les antivaxxers restent inchangés. (Ils peuvent maintenant compter sur leur côté - une sorte de Donald Trump, qui a déclaré que, bien que lui et sa femme aient fait vacciner leur fils, Barron, ils ont refusé de le faire selon le calendrier recommandé par les pédiatres).
Les Gormans, eux aussi, affirment que des modes de pensée qui semblent aujourd'hui autodestructeurs ont dû, à un moment donné, s'adapter. Et ils consacrent eux aussi de nombreuses pages au préjugé de confirmation qui, selon eux, a une composante physiologique. Ils citent des recherches suggérant que les gens éprouvent un véritable plaisir - une ruée vers la dopamine - lorsqu'ils traitent des informations qui soutiennent leurs croyances. Il est bon de "s'en tenir à ses positions" même si on a tort", observent-ils.
Les Gormans ne veulent pas seulement cataloguer les erreurs que nous commettons, ils veulent les corriger. Il doit y avoir un moyen, soutiennent-ils, de convaincre les gens que les vaccins sont bons pour les enfants et que les armes de poing sont dangereuses. (Une autre croyance répandue mais statistiquement insupportable qu'ils voudraient discréditer est que posséder une arme à feu vous rend plus sûr). Mais ici, ils se heurtent aux problèmes mêmes qu'ils ont énumérés. Fournir aux gens des informations exactes ne semble pas les aider ; ils les ignorent tout simplement. Faire appel à leurs émotions peut être plus efficace, mais cela va évidemment à l'encontre de l'objectif de promotion d'une science solide. "Le défi qui reste à relever", écrivent-ils vers la fin de leur livre, "est de trouver comment s'attaquer aux tendances qui conduisent à de fausses croyances scientifiques".
"L'énigme de la raison", "L'illusion de la connaissance" et "Nier jusqu'à la tombe" ont tous été écrits avant l'élection de novembre. Et pourtant, ils anticipent Kellyanne Conway et la montée des "faits alternatifs". Aujourd'hui, on a l'impression que le pays tout entier a été livré à une vaste expérience psychologique menée soit par personne, soit par Steve Bannon. Des agents rationnels seraient capables de réfléchir à une solution. Mais, sur ce sujet, la littérature n'est pas rassurante. ♦
Publié dans l'édition imprimée du numéro du 27 février 2017, avec le titre "C'est ce que vous pensez".
Source : https://www.newyorker.com/magazine/2017/02/27/why-facts-dont-change-our-minds
Commentaires
Enregistrer un commentaire