Sage cosmique, lecteur vorace, romantique incurable et philosophe brillant, Carl Sagan était tout ça à la fois, même si on s’en souvient surtout comme du saint patron de la raison et du bon sens du siècle dernier. Maître suprême de l’équilibre — vital — entre scepticisme et ouverture d’esprit, il a signé The Demon-Haunted World : Science as a Candle in the Dark (Un monde hanté par les démons : la science, une lueur au bout de la nuit), ouvrage indispensable dans lequel il offre aux lecteurs, quelques mois avant sa mort en 1995, ses réflexions intemporelles sur la science et la spiritualité. L’auteur y décrit également les techniques de raisonnement qu’il applique en toutes circonstances, en particulier aux contrevérités les plus décomplexées qui foisonnent dans notre société. Retour sur ces techniques atemporelles pour une meilleure hygiène mentale.
Au chapitre intitulé The Fine Art of Baloney Detection (l’art savant de la détection d’inepties), Carl Sagan explore les nombreux types de tromperies dont nous pourrions être victimes, de la voyance au fanatisme religieux, en passant par la recommandation déloyale de produits par des « spécialistes » rémunérés pour le faire, au carrefour des croyances, des pseudo-sciences et des marchands en blouse blanche sur petit écran. Il tenait d’ailleurs ces derniers en piètre estime, considérant que leurs actes « révèlent le mépris qu’ils éprouvent pour l’intelligence de leurs clients » et « altèrent insidieusement les attitudes des peuples face à l’objectivité scientifique ».
Couverture de l’ouvrage de Carl Sagan : The Demon-Haunted World : Science as a Candle in the Dark, ouvrage publié en 1995
Au lieu de se livrer à un prêche enflammé et condescendant, Sagan aborde le sujet de manière intimiste en parlant d’un moment où il s’est senti particulièrement vulnérable. Peu de temps après la disparition de ses parents, il se souvient avoir lui-même été attiré, l’espace d’un temps, par des promesses de retrouvailles surnaturelles de quelques charlatans. Il nous rappelle donc que de céder à de telles fables ne fait pas de nous des idiots ou des nuls, mais démontre bien que nous devons tous, même les plus instruits, nous munir des ressources adéquates pour les contrer.
Leur formation dote les scientifiques d’un « kit de détection d’inepties », soit un ensemble de techniques et d’outils cognitifs qui protègent leur esprit et bloquent les illusions dès qu’elles tentent de pénétrer leur cerveau.
« Les scientifiques déballent tout naturellement leur kit lorsque de nouvelles idées sont soumises à leur jugement. Si l’une d’elles survit après avoir été passée au crible, elle est acceptée. Mais une telle acceptation, si chaleureuse soit-elle, n’est peut-être que provisoire. Si vous ne voulez pas vous laisser séduire par des allégations mensongères, même si elles vous rassurent, vous pouvez prendre vos précautions. Il existe une méthode qui a fait ses preuves et qui est approuvée par ses utilisateurs. » (Traduction libre)
Le kit, avance toutefois Sagan, est bien plus qu’une simple ressource scientifique : il propose une démarche sceptique salutaire applicable à la vie de tous les jours. Appliqué au monde des réseaux sociaux, il devient véritablement vital tant la désinformation, les « infomercials » (faux articles commerciaux qui font la promotion d’un produit tout en prétendant informer), les fakes ou les manipulations politiques sont monnaie courante. En l’adoptant, nous nous tenons à l’abri de la fourberie et de la manipulation.
Voici 9 des principes du « kit de détection d’inepties » :
1. Les « faits » doivent, autant que possible, être confirmés par une source indépendante. Ceci ne signifie pas qu’il faut avoir confiance aveuglément aux médias officiels, eux-mêmes font le plus souvent référence à une source pas forcément fiable. Vérifier le sérieux et la validité d’une source est fondamental pour accepter une donnée dans sa zone de savoir.
2. Encouragez les débats de fond sur les éléments de preuve entre des personnes informées représentant tous les points de vue possibles. Le débat fait souvent ressortir les faits et permet de distinguer les avis qui reposent sur des opinions personnelles et des croyances.
3. Rejeter les arguments d’autorité. Les « autorités » ont fait des erreurs par le passé. Elles en feront donc à l’avenir. On pourrait aussi dire qu’il n’existe pas d’autorités en science. Il existe des spécialistes, au mieux. L’appel à l’autorité tente de donner de la valeur à un propos en fonction de son origine (la figure d’autorité) plutôt que de son contenu réel. « Regardez cet homme est un scientifique, il dit forcément la vérité ! ». En matière de climato-scepticisme, on sait aujourd’hui que ce n’est pas un gage de vérité.
4. Envisagez plusieurs possibilités. Si quelque chose doit être expliqué, pensez à toutes les manières dont il pourrait l’être et élaborez une « multitude d’hypothèses plausibles ». Réfléchissez ensuite à des tests qui pourraient infirmer chacune de vos hypothèses de façon logique et rationnelle. Celle qui résiste à l’expérience a de plus grandes chances de correspondre à la vérité que votre première idée… et encore cela n’en fait pas LA vérité car nous n’avons pas sous la main nécessairement toutes les hypothèses et tests.
5. Pouvoir lâcher prise sur une fausse idée séduisante. Essayez de ne pas trop vous attacher à une hypothèse simplement parce que c’est la vôtre ou qu’elle semble évidente. L’a priori n’est souvent qu’une étape de votre quête de la vérité. Demandez-vous plutôt pourquoi cette première idée vous séduit autant. Comparez-la équitablement avec les autres hypothèses. Voyez si vous pouvez trouver de bonnes raisons de l’écarter. Si vous ne le faites pas, d’autres s’en chargeront…
6. Quantifiez. Si ce que vous cherchez à expliquer se mesure, si vous l’exprimez par une donnée numérique, vous évaluerez beaucoup plus facilement des hypothèses concurrentes. Ce qui est vague et qualitatif peut s’expliquer de plusieurs manières. Toutes les interrogations qualitatives qui surgissent témoignent bien sûr de vérités à rechercher, mais les trouver présente un défi d’une autre envergure.
7. Dans une chaîne d’arguments, chacun des maillons doit fonctionner, y compris les prémisses, et pas seulement la plupart des maillons. En d’autres termes, il ne faut pas juste quelques vagues arguments pour élaborer une théorie et affirmer une vérité. Chaque argument doit être valable et former un tout solide.
8. Le rasoir d’Occam : Ce précepte commode nous enjoint, s’il y a deux hypothèses qui expliquent des données aussi bien l’une que l’autre, de préférer la plus plausible ! Attention, plausible ne veut pas dire « simpliste ». En effet, même une théorie complexe (donc, le contraire de simple) peut être la plus plausible. C’est une confusion courante qui enjoint certains à suivre des théories du complot aux raisonnements de surface.
9. Demandez-vous si l’hypothèse peut, au moins en principe, être réfutée. Des propositions qu’il n’est possible ni de tester ni de réfuter ne valent pas grand-chose. Les sceptiques doivent avoir la possibilité de suivre votre raisonnement, de répéter vos expérimentations seuls et de constater d’eux-mêmes s’ils obtiennent les mêmes résultats.
Au sommet des Vosges, la voie lactée. Prenons l’idée selon laquelle notre univers et tout ce qu’il renferme ne représentent qu’une particule élémentaire — disons un électron — d’un cosmos beaucoup plus grand. S’il nous est impossible d’acquérir des données venant de l’extérieur de notre univers, il est impossible de réfuter cette idée. Or il faut pouvoir vérifier les assertions. Source : Flickr
Il est tout aussi important d’apprendre à utiliser ces principes que de désapprendre les raisonnements erronés et d’éviter les pièges de la vie courante. Sagan nous rappelle que la société y est très vulnérable :
« En plus de nous apprendre ce qu’il faut faire pour évaluer une affirmation qui se veut exacte, tout bon détecteur d’inepties doit aussi nous apprendre ce qu’il ne faut pas faire, pour nous aider à reconnaître les pièges de la logique et de la rhétorique les plus communs et les plus dangereux. La religion et la politique nous offrent un grand nombre d’exemples éloquents, parce que leurs adeptes se trouvent très souvent obligés de justifier des contradictions ». (Traduction libre)
Il nous met donc également en garde contre les vingt sophismes les plus courants, nés, pour beaucoup, de notre inconfort chronique devant l’ambiguïté.
Voici les 20 sophismes les plus courants :
1. L’attaque ad personam — « dirigée contre la personne » en latin. Attaquer la personne qui argumente plutôt que l’argument pour générer du rejet chez les observateurs. Exemple : « Le style vestimentaire de ce député écologiste est ridicule ! On ne peut pas lui donner crédit sur son projet politique environnemental ! ». Les grands esprits parlent des idées, les petits parlent des personnes.
2. L’argument d’autorité — Exemple : « Si c’est le président qui le dit, c’est que c’est LA vérité. » Dans le domaine commercial, c’est par exemple faire confiance à un personnage en blouse blanche qui vous explique qu’un tel produit fonctionne mieux que les autres au simple prétexte qu’elle semble être scientifique, donc une autorité intellectuelle jugée fiable. De nombreux publicitaires utilisent ce sophisme.
3. L’argument fondé sur des conséquences négatives — Exemple : « Un dieu distribuant châtiments et récompenses doit forcément exister, parce que si ce n’était pas le cas, le monde serait beaucoup plus immoral et dangereux, et sombrerait peut-être même dans le chaos. » Variante : « Le suspect d’un procès hautement médiatisé doit forcément être déclaré coupable parce-que l’inverse ne donnerait plus crédit en l’enquête du procureur et pourrait générer de la révolte. » Le risque d’une conséquence négative ne peut donc jamais détruire une réalité objective.
4. L’appel à l’ignorance — Affirmer que ce qui n’a pas été prouvé comme étant faux doit être vrai et vice versa. Exemple : « Il n’a jamais été prouvé que les OVNIS ne visitaient pas la Terre, donc ils la visitent. » Variante : « Il existe peut-être d’innombrables autres mondes, mais nous n’en connaissons aucun qui ait une moralité aussi développée que le nôtre ; aussi demeurons-nous le centre de l’univers. » Pour contrer ce raisonnement fallacieux, il suffit de se rappeler que l’absence de preuve n’est pas la preuve d’absence.
5. Le « traitement spécial » est souvent utilisé comme raccourci pour se sortir d’une impasse rhétorique. Une fuite intellectuelle manifeste. Au domaine de l’écologie, ça donne par exemple : « Il faut manger moins de viande pour réduire urgemment la pollution et éviter l’effondrement écologique ! » Traitement spécial : Manger de la viande a toujours existé. C’est la Nature qui veut ça, ou la tradition.
6. Présumer la question résolue — Faire des suppositions qui semblent évidentes (fausse bonne idée). Exemple : « Nous devons instaurer la peine de mort, car cela découragera la criminalité ! » Mais la criminalité baisse-t-elle réellement une fois la peine de mort en place ? Pas vraiment selon les données scientifiques. Une opinion séduisante ou populaire n’est pas forcément la vérité.
7. L’observation sélective, également appelée l’énumération des circonstances favorables ou, comme l’a décrit le philosophe Francis Bacon, le fait de compter les réussites et d’oublier les échecs. Ceci s’observe par exemple dans le greenwashing de certaines multinationales. Exemple : « L’augmentation de 15% du recyclage des bouteilles plastiques est positif. » Cependant, la production totale ayant triplé sur la même période le bilan écologique final reste largement négatif. Quelque chose apportant un effet positif ponctuel et observé n’offre pas toujours un bilan global positif.
Quel sens a le recyclage de bouteilles plastiques si nous consommons toujours plus ? Source : Pixabay
8. Les statistiques portant sur de petits nombres — proche de l’observation sélective. Exemple : « Il paraît qu’une personne sur cinq est chinoise sur la terre. Comment est-ce possible ? Je connais pourtant des centaines de personnes et aucune n’est chinoise ! » Variante : « Je viens de faire un triple six consécutif aux dés. Impossible que je perde ce soir. » Et une dernière, courante : « J’ai été agressée deux fois, c’était c’est deux fois par des étrangers ! Donc tous les étrangers sont des agresseurs, et les agresseurs ne peuvent être que des étrangers ! »
9. La méconnaissance de la nature des données statistiques — Exemple : « Le Président Dwight Eisenhower s’étonne et s’alarme d’apprendre que la moitié des Américains sont en dessous de la médiane de l’intelligence des Américains. » Une affirmation totalement logique (la moitié est forcément en dessous de la médiane) mais qui porte une incidence politique par son incompréhension. Dans le monde marchand, on utilise souvent cette assertion : « 100% des gagnants ont joué ! » Effectivement, tout autre chiffre est impossible. Ou encore « Avec 70% de pesticides en moins ! » par rapport à quelle référence ? Vous ne le saurez jamais…
Nous vivons dans une société extrêmement dépendante de la science et de la technologie dans laquelle presque personne ne connaît rien à la science et à la technologie – Carl Sagan. Marche pour la Science. Avril 2017. Source : Wiki Commons.
10. L’incohérence — Par exemple, se préparer de façon très prudente à une possible attaque armée ennemie et délibérément ignorer les changements climatiques par ailleurs parce qu’ils ne seraient pas prouvés. Ou encore considérer la faible espérance de vie en ex-URSS pour lorsque l’on souhaite discréditer le communisme et plébisciter le capitalisme, mais ne jamais attribuer le taux élevé de morts infantiles aux États-Unis — l’un des plus importants des civilisations industrialisées — à l’échec du capitalisme. Ceci est souvent le fruit d’une incapacité à voir la problématique en nuances de gris, avec plus de deux choix manichéens.
11. L’argument non sequitur — « qui ne suit pas » en latin. Exemple : « Si notre nation prévaut, c’est que c’est la volonté de Dieu ». Souvent, ceux qui se laissent duper par un argument de ce type n’ont pas fait attention aux autres possibilités, à l’idée que d’autres peuples existants et puissants ont aussi leurs divinités.
12. L’argument post hoc — « c’est arrivé après, donc cela a été causé par » en latin. Exemple : « Je connais une femme de 26 ans qui en fait 60 parce qu’elle prend la pilule contraceptive » (Jaime Cardinal Sin, archevêque de Manille). Temporalité proche ne veut pas dire causalité.
13. La question dénuée de sens — Exemple : « Qu’arrive-t-il lorsqu’une force irrésistible rencontre un objet inamovible ? » Poser une question qui n’a pas de sens – mais qui semble complexe – permet de postuler dans la question la validité d’une idée fausse dont l’interlocuteur ne saura s’extirper que par la négation car entraîné de force sur un terrain miné. Exemple : « Si le changement climatique était bien réel, comment expliques-tu qu’il a été observé des températures record en France pendant le Moyen-Âge ?! » L’étude du climat n’est pas de la météo locale.
14. Le faux dilemme ou l’exclusion du tiers — Ne prendre en considération que les deux extrêmes d’un vaste éventail de possibilités. Exemple : « C’est ça, prends sa défense ! Mon mari est parfait et moi, j’ai toujours tort ! » Variante : « Quoi ? Vous critiquez les actions de ce policier violent ? Vous détestez la police et supportez les criminels, c’est ça ? » Variante : « Si vous ne faites pas partie de la solution, vous faites partie du problème. » La vision absolue, sans nuances, d’une problématique mène toujours aux extrêmes, un peu à l’image des seigneurs Sith dans Star Wars. « Si tu ne partages pas mon idée sur ce sujet, toutes tes idées sont forcément mauvaises et tu deviens mon ennemi. »
La vision absolue, sans nuances, d’une problématique mène toujours aux extrêmes, un peu à l’image des seigneurs Sith dans Star Wars. Source : Dragster Wave
15. La fausse opposition court terme versus long terme — Déclinaison importante du faux dilemme. Exemple : « Nous n’avons pas les moyens d’instaurer des programmes de secours à l’intention des enfants en malnutrition et d’éduquer les enfants en bas âge parce que nous devons lutter de toute urgence contre la criminalité de rue. » Variante : « Pourquoi explorer l’espace ou poursuivre des travaux de recherche fondamentale quand nous avons un grand déficit budgétaire ? » Un problème urgent ne doit pas occulter d’autres problèmes de long terme. À ce titre, la plupart des politiques actuelles tentent de répondre à des problématiques de court terme pour séduire l’électorat, reléguant de grandes questions à leurs successeurs politiques.
16. La pente savonneuse — Autre déclinaison du faux dilemme. Exemple homophobe, éculé sur les réseaux sociaux : « Laisser les homosexuels se marier ? Et bientôt on autorise la zoophilie ?! » Il s’agit donc d’utiliser l’imaginaire « du pire » pour effrayer et valider une idéologie, ici, haineuse, alors que les comparatifs sont hors sujets (comparaison de relations humaines à relations humaine / animal non humain). Autre exemple politique largement utilisé à l’extrême droite : « Si on laisse les immigrés venir, ils vont nous remplacer ! ».
17. La confusion entre causalité et corrélation. Deux réalités qui semblent liées ne le sont pas forcément. Exemple : « Le gouvernement cherche à augmenter les taxes sur le pétrole. L’écologie est donc une machination mondiale pour taxer les citoyens ! » Non, l’écologie peut servir de prétexte aux gouvernements et industriels, ce qui ne fait pas de l’écologie la cause. Bref, corrélation n’est pas forcément causalité.
18. L’homme de paille ou la technique de l’épouvantail — Caricaturer une position en a rendant effrayante de manière à la rendre plus facile à attaquer. Cela peut se faire en présentant une fausse déclaration de son opposant, la discréditer et prétendre que la fausse déclaration est la position véritable de son opposant. Exemple : « Aurélien Barrau a dit qu’il fallait abandonner les technologies. Il veut laisser mourir nos malades et aller vivre dans des grottes ! » Non, son discours est bien plus mesuré et complexe. Voici un autre exemple souvent utilisé de nos jours, qui contient par ailleurs une fausse opposition entre le court terme et le long terme : « Les écologistes se préoccupent plus des abeilles et du plancton que de la survie des êtres humains ! » Non, la survie du plancton et des abeilles garantissent aussi la survie de l’humanité. L’épouvantail est donc la création d’une image mentale caricaturale qui bloque les raisonnements de fond.
19. La suppression de preuves ou la demi-vérité — Exemple : « Les abus de ce gouvernement appellent au coup d’État militaire. On ne fait pas d’omelette sans casser des œufs ! » Certes, mais cette révolution ne risque-t-elle pas d’être plus sanglante que le régime précédent ? Est-ce que la fin justifie tous les moyens ?
20. Le recours à des mots ambigus — En vertu de la séparation des pouvoirs inscrite dans la Constitution américaine, les États-Unis ne peuvent faire la guerre à un autre pays sans déclaration du Congrès. Cependant, c’est le président qui décide de sa politique extérieure et des guerres qu’il entreprend. Celui-ci peut donc décider d’user de ses prérogatives dans l’optique de se faire réélire. Un président pourrait donc être tenté de partir en guerre drapeau brandi, en prétendant qu’il s’agit d’autre chose, par exemple d’une « action policière », d’une « incursion armée », de « ripostes visant à assurer la protection », de « sauvegarde des intérêts américains », de « pacification » ou le grand classique : apporter la démocratie et libérer les peuples. Les euphémismes qualifiant la guerre font partie d’une longue liste de trucages sémantiques à usage politique.
« Un des arts pratiqués par les politiciens consiste à trouver de nouveaux noms à des institutions dont l’ancien nom est devenu odieux aux oreilles du public », disait Talleyrand.
Aujourd’hui, de très nombreux mots utilisés en politique sont empruntés au monde marchand formant une novlangue manipulatoire mais efficace pour séduire les masses.
Comme on le constate, le point commun entre l’ensemble de ces sophismes, c’est qu’ils sont tous plus ou moins séduisants dans l’interprétation de la réalité. Il est extrêmement facile d’en appeler à l’autorité, à la nature, à la force divine ou aux préjugés populaires. Un raisonnement complexe demande du travail et de la réflexion. C’est la facilité qui génère un manque de recul critique. Sagan termine cependant son chapitre sur un avertissement : « Comme tous les outils, ce kit de détection d’inepties peut être mal utilisé, appliqué hors contexte ou même utilisé machinalement, sans effort de réflexion. Employé à bon escient, il peut toutefois faire une grande différence dans le monde, en vous aidant notamment à évaluer vos propres arguments avant de les présenter aux autres. » (Traduction libre)
The Demon-Haunted World est une lecture aussi fascinante qu’intemporelle. À de nombreux égards, elle semble même plus d’actualité que jamais à notre époque, où cohabitent propagande médiatique, pseudosciences et intérêts commerciaux divers et variés.
– Suzanne Etter