Blanc Guillaume & Noûs Camille, La méthode scientifique, in Physique et enjeux de société (Université Paris Cité, 2023). https://doi.org/10.53480/physique-societe.3224b0

Ouvrage publié sous licence Creative Commons Attribution 4.0 Creative Commons License

Chapitre 1 : La méthode scientifique

Dans ce premier chapitre, nous allons voir ce qu’est la science, comment elle se construit. Puis nous verrons quelques notions de zététique, une science qui s’intéresse aux croyances diverses et variées, et qui a construit quelques outils pour aiguiser son esprit critique. Nous parlerons de la toile (le web) et de la façon d’y faire une recherche documentaire. Enfin, nous dirons quelques mots sur une poignée de croyances toujours vivaces, pour finir sur la notion de risque et le principe de précaution.

1.1 Comment se fait la science ?

Après avoir défini la science, nous allons voir comment elle se construit. Ce domaine de réflexion autour de la science est une branche de la philosophie appelé épistémologie. Nous ne présentons ici qu’une approche vulgarisée de cette discipline.

1.1.1 Science et technologie

La science, du latin scientia signifiant « connaissance », est ce que l’on sait pour l’avoir appris, ce que l’on tient pour vrai au sens large, l’ensemble de connaissances, d’études d’une valeur universelle, caractérisées par un objet (domaine) et une méthode déterminés, et fondés sur des relations objectives vérifiables. (Dictionnaire Le Robert)

Mais la science peut désigner ses débouchés, à savoir les applications technologiques (bombe, GPS, smartphone, OGM, etc.).

Pourtant, les deux aspects sont fondamentalement différents :

1.1.2 Les domaines scientifiques

Tentons une liste (exhaustive ?) des différents domaines de la science :

Il s’agit là d’une classification, on pourrait en imaginer d’autres. Par exemple, la physique se retrouve non seulement dans les « sciences de la matière » tout comme la chimie, mais également dans les « sciences de la Terre et de l’Univers » (géophysique, astrophysique) ; et même dans les sciences de la vie (biophysique) et de l’environnement (climatologie).

Chaque domaine fait appel à des connaissances, des outils théoriques et expérimentaux ou des méthodes parfois spécifiques, avec plus ou moins de porosité entre eux.

Il y a également un lien entre sciences exactes et sciences humaines, en particulier dans les études liées à l’environnement (voir par exemple le Laboratoire Interdisciplinaire des Énergies de Demain1 – LIED – rattaché à Université Paris Cité, qui abrite des biologistes, des physicien\(\cdot \)ne\(\cdot \)s, mais aussi des économistes et des sociologues).

La pluridisciplinarité consiste à juxtaposer plusieurs disciplines différentes autour d’un même sujet d’étude, comme par exemple le réchauffement climatique. L’interdisciplinarité consiste à entrecroiser les disciplines autour d’un même sujet, afin d’aborder un problème souvent complexe (comme le réchauffement climatique, encore) avec différents regards et approches. La transdisciplinarité va au-delà en faisant s’enrichir mutuellement les disciplines impliquées, dont les frontières deviennent ainsi floues.

1.1.3 Qu’est-ce que la physique ?

En tant que physicien\(\cdot \)ne ou étudiant\(\cdot \)e en physique, on peut se demander également, qu’est-ce que la physique ? Et quelle est la différence avec sa proche cousine, la chimie ?

Le dictionnaire, selon celui que l’on regarde, nous dit :

Il n’est donc pas simple de trouver une distinction claire entre la physique et la chimie. On voit souvent (sur internet) que la chimie étudie les transformations de la matière. Mais il faut préciser qu’il s’agit de transformations au niveau atomique ou moléculaire. Parce que la physique couvre aussi certaines transformations de la matière – les transformations nucléaires. . .

Dans le film Les Palmes de M. Schutz de Claude Pinoteau (1997), adapté de la pièce de théâtre de Jean-Noël Fenwick (scénario par Richard Dembo, Claude Pinoteau et Jean-Noël Fenwick), qui s’inspire d’un passage de la vie et du travail de Pierre et Marie Curie, on voit Marie Curie interprétée par Isabelle Huppert expliquer à Georgette (Marie-Laure Descoureaux), la nourrice de sa fille :

Quand quoi que ce soit qui n’est pas un être vivant est en activité, un volcan, un nuage, de l’eau qui bout, une bûche qui brûle, ou c’est de la physique ou c’est de la chimie [. . .] [Une pomme de terre qui bout] ça c’est un phénomène physique. Retirez la pomme de terre, coupez le feu, le phénomène s’arrête. Ça c’est de la physique. En revanche, si vous plongez ce morceau de craie dans du vinaigre, ça bouillonne aussi ; et si vous retirez la craie, ça continue à bouillonner tant qu’il reste du vinaigre sur la craie. C’est une transformation, ça c’est de la chimie. Avec la radioactivité, la question était de savoir si c’était de la physique ou de la chimie. Et bien c’est de la physique. Qu’on le mouille avec n’importe quoi, qu’on le mélange, qu’on le chauffe, qu’on le refroidisse, l’uranium continue à « yoyoter » comme dit M. Schutz, c’est-à-dire à rayonner invariablement, sans baisse ni interruption. Ça c’est de la physique.

Jean Perdijon dans son ouvrage La formation des idées en physique, du phénomène à la théorie (Perdijon 2007) rappelle que « physique » vient d’un mot grec signifiant « nature ». Jusqu’au XVIIIe siècle elle était la philosophie naturelle c’est-à-dire l’étude du monde extérieur et des lois de son évolution. Il propose la définition suivante :

La physique étudie, par l’expérimentation et l’élaboration de concepts, la matière et le rayonnement en relation avec l’espace et le temps.

Pour Feynman 1963,

La physique est la plus fondamentale des sciences, celle qui contient le plus de choses et elle a eu un effet profond sur tout le développement scientifique.

1.1.4 La méthode scientifique

À l’origine

La science se construit avec méthode. La méthode scientifique est une démarche d’investigation (volonté d’explorer et de comprendre) similaire à l’investigation journalistique ou policière. Cette démarche n’est pas apparue du jour au lendemain, elle s’est construite petit à petit au cours de l’histoire de l’humanité ; elle est issue d’une suite d’essais et d’erreurs corrigées. L’outil final obtenu est performant, il a fait preuve de son efficacité pour comprendre le réel (Machon 2015).

Initialement, la démarche scientifique était basée uniquement sur l’observation et le raisonnement (nécessaire mais non suffisant). Par exemple, les grecs s’interrogeaient sur la nature des constituants élémentaires de toute chose. Plusieurs théories s’affrontaient sur des bases purement rhétoriques (celle des quatre éléments d’Empédocle : eau, terre, air, feu, celles des « atomes », particules élémentaires « insécables » de Démocrite. . .).

La science moderne débute avec l’introduction de l’expérimentation et de l’instrumentation permettant la mesure de propriétés physiques : il s’agit là d’une quantification nécessaire pour discriminer des hypothèses contradictoires. La quantification est garante d’objectivité (jusqu’à un certain point, celui de l’interprétation des résultats) et permet d’obtenir des relations entre les grandeurs qui modélisent un phénomène (Machon 2015).

La démarche

La démarche d’investigation scientifique fait ainsi le lien entre le rationalisme, doctrine selon laquelle toute connaissance vient de principes pouvant a priori être logiquement formulés, ne dépendant pas de l’expérience et dont nous avons une connaissance raisonnée et innée 4 et l’empirisme, méthode qui ne s’appuie que sur l’expérience concrète, particulière 5. On peut grossièrement schématiser le processus à partir d’une situation de départ que serait un questionnement ou une observation, comme illustré à la figure 1.1. Le questionnement initial (ainsi que l’observation) entraîne une réflexion pour proposer des explications (conformément aux outils de l’esprit critique – voir section 1.2), puis une expérimentation afin de discriminer entre les hypothèses alternatives, dans le but de privilégier celle qui est la plus vraisemblable (jusqu’à preuve du contraire).

PIC

Figure 1.1 – Illustrations de possibles démarches scientifiques. Par exemple, le point de départ peut être l’élaboration d’une théorie (a), ou encore une observation (b). Ces schémas reflètent une logique courante, notamment en physique ; la réalité est néanmoins plus variée et complexe.

Les différentes hypothèses doivent rendre compte du phénomène étudié et doivent avoir des implications (prédictions) se démarquant les unes des autres. Ces prédictions doivent être testables et le cas échéant réfutées ou confirmées.

L’expérimentation ou l’observation comme concept clef

Il s’agit ensuite de mettre en place des expériences pour vérifier ou infirmer les prédictions de chaque hypothèse. Les expériences doivent être choisies avec soin pour être discriminantes. Elles devront être bien menées, exemptes d’artefacts, de facteurs non contrôlés (pouvant modifier ou interférer avec le résultat). Sinon, on risque d’observer un phénomène qui n’a rien à voir avec la cause annoncée (une corrélation ne signifie pas forcément causalité, voir section 1.2.5).

Une étape importante dans ce processus est la reproductibilité : les expériences réalisées ou les observations effectuées doivent pouvoir être reproduites pour que le résultat soit validé. Ce concept de reproductibilité (Hocquet 2020, Attard 2020) peut être évident dans certaines disciplines comme la physique expérimentale, mais moins dans certains domaines observationnels. Par exemple, dans la discipline de l’astrophysique qui étudie l’univers dans son ensemble, non seulement il n’est pas possible de faire des expériences (créer un autre univers en laboratoire), mais faire des observations sur un autre univers n’est pas possible non plus. De surcroît nous devons l’étudier de l’intérieur.

L’expérience se termine par une observation d’un phénomène, par une mesure quantitative d’une donnée. Ce qui distingue une science observationnelle (comme l’astrophysique) d’une science expérimentale (comme la physique des matériaux) est que dans le premier cas, il n’est pas possible de modifier les paramètres permettant d’aboutir à l’observation. En revanche, il est parfois possible d’observer de nombreuses configurations d’un même phénomène aboutissant à des observations différentes (par exemple la mort d’une étoile devenant supernova en astrophysique).

Par la suite d’autres faits ou résultats permettent d’étayer ou de rejeter le schéma interprétatif : ce sont les faits qui valident la théorie et non l’inverse. Si un nombre important de faits s’interprète de manière rationnelle avec cette explication, celle-ci devient alors la meilleure façon de comprendre cette partie-là de la nature, jusqu’à preuve du contraire. Les scientifiques n’ont pas besoin d’avoir accès à toutes les facettes d’un phénomène, de faire toutes les expériences imaginables pour en donner une explication satisfaisante. Toutefois, il existe des expériences plus cruciales que d’autres. Une explication satisfaisante ne signifie pas qu’elle soit vraie dans l’absolu, c’est seulement la meilleure explication pour un phénomène donné à un moment donné. Ce que Victor Hugo, dans L’art et la science (Hugo 1993), résume ainsi :

La science est l’asymptote de la vérité. Elle approche sans cesse et ne touche jamais.

Un nouveau fait peut permettre à l’explication d’évoluer. Par exemple, la gravitation universelle de Newton est supplantée par la relativité d’Einstein, ce qui n’empêche pas la théorie de Newton de rester valide dans certains domaines.

Une infinité de « méthodes » ?

La réalité est plus complexe, il peut exister plusieurs théories à discriminer (comme sur la nature de l’énergie noire en cosmologie), il se peut qu’il soit impossible de faire une expérience (astronomie, climatologie, géophysique. . .), on a donc recours à l’observation (et à la classification, puis modélisation, et éventuellement prédiction jusqu’à ce qu’une nouvelle observation vienne confirmer ou infirmer le modèle ou la théorie), il ne suffit pas toujours d’une seule mesure ou observation pour confirmer ou infirmer une théorie (climatologie. . .) etc.

Il n’y a pas une méthode, recette universelle, par laquelle la science se construit, mais de nombreuses façons de procéder. Néanmoins, quelques traits principaux peuvent être retenus. Ainsi les sciences tendent à faire preuve (Rasplus 2014) :

Une connaissance scientifique est ainsi une construction méthodique autour de faits observationnels ou expérimentaux. Ce que résume Henri Poincaré dans La science et l’hypothèse (Poincaré 1917) :

On fait la science avec des faits comme une maison avec des pierres ; mais une accumulation de faits n’est pas plus une science qu’un tas de pierre n’est une maison.

Qu’est-ce que la « vérité » ?

La science cherche à comprendre comment la nature (au sens large : des constituants de la matière à la psychologie humaine) fonctionne. Par des expériences elle déduit les lois qui régissent le monde. Mais ces lois sont des théories élaborées éventuellement avec un langage spécifique (comme les mathématiques dans nombre de domaines scientifiques) qui tentent d’expliquer une partie de ce monde, avec des variables, des hypothèses sous-jacentes. La complexité de la réalité « physique » de l’univers qui nous entoure n’est qu’imparfaitement reproduite et comprise par la science. L’objectif de celle-ci est d’approcher cette réalité au plus près. Néanmoins, il est probable que cette approche ne sera jamais qu’asymptotique, comme le mentionne Victor Hugo dans son texte.

La vérité scientifique se distingue ainsi de cette réalité physique. La science repose sur un socle solide qui n’est pas remis en question, à savoir, typiquement, les connaissances qui sont enseignées jusqu’au premier cycle universitaire. L’existence des atomes ne fait pas débat tout comme la notion de cellule ; la Terre est certainement ronde à une certaine échelle ; un courant électrique génère un champ magnétique, etc. Mais ces notions (l’atome, la cellule, la rotondité de la Terre, le champ magnétique. . .), comme tant d’autres sont des représentations que nous avons faites de la réalité. Même si ce sont des vérités scientifiques.

La science se construit ainsi sur ce piédestal, lentement. Certaines avancées deviennent des briques du socle, d’autres sont réfutées et oubliées.

Voici ce que dit Feynman (1963) de cette notion de vérité scientifique :

Chaque fragment de l’ensemble de la nature n’est en fait qu’une simple approximation de la vérité totale ou de ce que nous croyons être à l’heure actuelle la vérité totale. En fait tout ce que nous savons n’est qu’approximation parce que nous savons que nous ne connaissons pas encore toutes les lois. De ce fait, les choses doivent être apprises seulement pour être désapprises ensuite ou, plus probablement, pour être corrigées. Le principe de la science, sa définition, pour ainsi dire, est ce qui suit : toute notre connaissance est à l’épreuve de l’expérience. L’expérience est seul juge de la « vérité » scientifique.

Réfutable ou pas réfutable ?

Le concept de « réfutabilité » (Attard 2020, Chalmers 1990, Juignet 2015) est un concept clef dans la démarche scientifique. On peut même s’en servir pour définir ce qu’est une science. Ce concept a été mis en avant par le philosophe britannique Karl Popper (Rakotoarison 2014). Réfuter quelque chose : repousser ce qui est affirmé par une démonstration argumentée qui en établit la fausseté 6. Un concept est alors dit « scientifique » s’il peut être réfuté, c’est-à-dire si on peut en établir la fausseté, par des arguments, par des observations, par des expériences. . . Ou encore s’il peut être testé. Ainsi une théorie scientifique, le résultat d’une expérience ou d’une observation ne sont vrais que jusqu’à preuve du contraire. Même si certains concepts, comme l’existence des atomes par exemple, sont indubitablement vrais.

Ce concept de réfutabilité ou de falsifiabilité n’est évidemment pas un critère de scientificité absolu : il y a des exceptions, il y a des théories épistémologiques différentes ou plus élaborées. Il s’agit néanmoins d’un critère particulièrement intéressant d’un point de vue pédagogique, parce qu’il est relativement simple à comprendre, et qu’il permet de séparer en grande partie ce qui relève du domaine scientifique de ce qui n’en relève pas.

1.1.5 Qui sont les scientifiques ?

Les scientifiques cherchent à comprendre comment fonctionne le monde par le prisme de la science. Il peut s’agir d’amateur\(\cdot \)rice\(\cdot \)s (citoyen\(\cdot \)e\(\cdot \)s éclairé\(\cdot \)e\(\cdot \)s) ou de chercheur\(\cdot \)euse\(\cdot \)s professionnelle\(\cdot \)s. En France, un\(\cdot \)e chercheur\(\cdot \)euse en sciences peut faire de la recherche à plein temps dans un établissement public à caractère scientifique et technologique (EPST) comme le CNRS, l’INSERM, l’INRAE, l’INRIA, etc., ou dans un établissement public à caractère industriel et commercial (EPIC) comme le CEA. Ou bien elle/il peut être enseignant\(\cdot \)e-chercheur\(\cdot \)euse (dans un établissement d’enseignement supérieur, comme l’université) avec une charge d’enseignement. Au CNRS, par exemple, il y a des chargé\(\cdot \)e\(\cdot \)s de recherche, des directeur\(\cdot \)rice\(\cdot \)s de recherche. À l’université, il y a des maître\(\cdot \)sse\(\cdot \)s de conférences, des professeur\(\cdot \)e\(\cdot \)s des universités. Elles et ils sont fonctionnaires. Les enseignant\(\cdot \)e\(\cdot \)s-chercheur\(\cdot \)euse\(\cdot \)s sont les « profs » à l’université, leur mission d’enseignement est statutairement de 192 heures devant les étudiant\(\cdot \)e\(\cdot \)s, chaque année.

Elles et ils font également de la recherche. Notons que faire de la recherche n’implique pas forcément de produire des connaissances scientifiques : cela peut être dans d’autres domaines7 que ceux de la science (arts, langues, philosophie, théologie, architecture, etc.).

Il y a également des étudiant\(\cdot \)e\(\cdot \)s qui préparent le diplôme du doctorat, avec ou sans charge d’enseignement (vacation ou monitorat), des titulaires du doctorat en « post-doc », sorte de CDD de la recherche, souvent sans charge d’enseignement, des ATER (Attaché\(\cdot \)e\(\cdot \)s Temporaires d’Enseignement et de Recherche), qui sont l’équivalent des enseignant\(\cdot \)e\(\cdot \)s-chercheur\(\cdot \)euse\(\cdot \)s mais en CDD (toujours après un doctorat).

1.1.6 Le processus de publication d’un résultat scientifique

La revue par les pairs

Le résultat d’une expérience, d’une théorie, d’un modèle, d’une observation doit être publié dans un journal spécialisé. Il existe un grand nombre de revues dans chaque domaine de la science. Par exemple en astrophysique : Astronomy and Astrophysics, Astrophysical Journal, Monthly Notices of the Royal Astronomical Society, New Astronomy. Il existe également quelques revues généralistes comme Nature ou Science. Ces journaux sont dits « à comité de lecture ».

Dans quasiment tous les domaines des sciences de la nature, la langue de publication est l’anglais (la science est internationale, elle s’est mondialisée bien avant le reste de la société !).

Un article est soumis à une revue ; un comité éditorial demande à des scientifiques (deux, typiquement) ayant le même domaine de compétence (et si possible pas de lien avec les auteurs de l’article) de lire l’article afin de décider s’il répond aux canons de la science et mérite d’être publié. Il s’agit de l’évaluation par les pairs, qui est généralement anonyme.

Les questions typiques auxquelles doivent répondre les relecteur\(\cdot \)rice\(\cdot \)s (referees) (Ramus 2014) sont :

Ce processus fondamental permet d’avoir des publications de qualité, il est le garant de la méthode scientifique.

Un résultat scientifique publié n’est pas pour autant gravé dans le marbre ! La science est un processus long, qui demande de refaire les expériences, de vérifier, de contrôler, de valider, de refaire les observations, etc. D’autant plus que certains articles sont publiés dans des revues peu regardantes sur la qualité (dites revues prédatrices) ; la preuve en a été faite avec un canular d’une poignée de scientifiques (qui a consisté à publier un papier bidon et hilarant dans une de ces revues – Huet 2020, Rochoy 2020).

Les articles scientifiques honnêtes emploient souvent le conditionnel, et il faut du temps pour qu’un résultat soit considéré comme sûr. La science avance lentement.

L’échelle des preuves

On peut définir une hiérarchie des preuves scientifiques, comme illustré à la figure 1.2. Si un témoignage, un ressenti personnel, une rumeur n’ont aucun poids, une seule étude en a moins qu’une multitude d’études distinctes concluant dans le même sens. Les méta-analyses font le bilan d’un grand nombre d’études, comme le GIEC le fait sur le climat dans ses rapports. Mais parfois une seule étude permet d’avoir une preuve raisonnable, comme par exemple la première observation directe des ondes gravitationnelles par les observatoires interférométriques.

PIC

Figure 1.2 – Illustration des différents niveaux de preuves scientifiques : seule la partie rouge a un sens.

1.1.7 Consensus et controverses

Le consensus scientifique représente la position sur laquelle la plupart (mais pas forcément tous) des scientifiques spécialisés dans un domaine se mettent d’accord, à un moment donné.

Le consensus scientifique n’est, en lui-même, pas un argument scientifique, et il ne fait pas partie de la méthode scientifique. Le consensus n’est donc pas synonyme de vérité8. L’inverse est vrai, en revanche : la « vérité » scientifique fait souvent consensus.

L’histoire des sciences montre que certains consensus se sont finalement révélés faux, comme par exemple le caractère fixe et immuable de la croûte terrestre, et ce malgré la théorie de la dérive des continents, reprise par par Wegener en 1915, mais à laquelle les géologues n’ont adhéré que dans les années 1950 ! Il est donc sain que tous les scientifiques n’adhèrent pas à un consensus, ce qui permet de le tester.

Une controverse scientifique peut être définie comme un débat amical (ou non) opposant des personnalités de la communauté scientifique ou ses observateurs (sociologues des sciences, journalistes. . .) sur un point de théorie scientifique ou sur les faits historiques ou philosophiques devant être associés à cette théorie.

On peut citer par exemple la mémoire de l’eau9 ou la fusion froide10, controversées en leur temps, réfutées à l’heure actuelle.

Attention cependant : il ne faut pas confondre une controverse scientifique et une controverse publique ; en effet, les scientifiques qui débattent le font dans leur domaine de compétence, ce qui n’est en général pas le cas lors d’une controverse sur un sujet scientifique mais qui arrive dans la société (par exemple le réchauffement climatique11 ou les effets des ondes électromagnétiques sur la santé).

1.1.8 L’erreur fait partie de la méthode

La science étant une construction humaine, la perception de la réalité, des phénomènes, des expériences et des résultats peuvent varier et engager des controverses sur leurs interprétations (Rasplus 2014).

L’erreur fait partie intégrante de la méthode scientifique, elle est source de progrès et de savoir. La science progresse en permanence par essais et erreurs. Se tromper permet parfois de découvrir des choses que l’on n’avait pas imaginées a priori. On parle de « sérendipité »12. Par exemple, en 1928, le biologiste britannique Alexandre Fleming découvre par accident que de la moisissure évite le développement des bactéries. Il découvre ainsi la pénicilline13, premier antibiotique. De même, le physicien français Henri Becquerel découvre la radioactivité14 inopinément en 1896. L’histoire des sciences regorge de telles découvertes.

Pour illustrer cela, on peut citer Ramunni (2012) :

Si l’on a peur de se tromper, alors on risque de rester trop ancré dans la « science normale » et de ne jamais changer de conception. Il n’y aurait pas de révolution en science, mais simplement de l’évolution.

Ou encore Victor Hugo (L’art et la science) (Hugo 1993) :

La science va sans cesse se raturant elle-même. Ratures fécondes.

La science et sa démarche sont ainsi sujettes aux erreurs, mais toute erreur peut être corrigée, c’est ce qui fait l’essence même de la réfutabilité.

La figure 1.3 tente de résumer la complexité et la diversité du processus d’élaboration de la connaissance scientifique.

PIC

Figure 1.3 – La construction de la connaissance scientifique est finalement un joyeux fouillis, mais on y trouve néanmoins un soubassement méthodique rigoureux.

1.1.9 La capitalisation de la science

Il y a des limites à ce schéma qui sont dues à la capitalisation de la science : les chercheur\(\cdot \)euse\(\cdot \)s du monde entier sont soumis\(\cdot \)e\(\cdot \)s à une pression croissante au fil des années pour publier toujours plus, ce qui amène à des dérives qui contreviennent à la déontologie, comme la fraude (manipulation des résultats, typiquement) (Arnold 2014). Le modèle économique des revues scientifiques est également plus que discutable (Althaus 2019) : des éditeurs privés peu scrupuleux en situation de monopole prennent les chercheur\(\cdot \)euse\(\cdot \)s en otage en les faisant payer pour publier, pour ensuite vendre à prix d’or les revues aux bibliothèques des universités15. Les chercheur\(\cdot \)euse\(\cdot \)s étant généralement financé\(\cdot \)e\(\cdot \)s par les contribuables pour faire leur travail. Il y a bien d’autres dérives humaines, souvent liées à une croissance ingérable (« toujours plus ») qui ternissent cette image, comme des idéologies, des intérêts privés, etc., et peuvent biaiser voire fausser intentionnellement des résultats.

1.2 Quelques méthodes autour de l’esprit critique

1.2.1 La zététique

Le mot vient du grec qui signifie « chercher ». Il a été mis au goût du jour par Henri Broch qui a notamment créé un laboratoire de zététique16 au sein de l’université de Nice en 1998. La zététique cherche à comprendre (ou à réfuter) les phénomènes para-normaux17 à l’aide de la méthode scientifique (expérimentation, modélisation, etc.) : elle va mettre à l’épreuve une connaissance. Henri Broch la définit comme l’art du doute mais cette appellation n’est pas correcte, car la zététique est une science puisqu’elle en utilise les méthodes18, et non un art, qui, par essence, n’est pas une science. On pourrait donc qualifier la zététique de « science du doute » ?

La zététique a développé un certain nombre d’outils permettant d’éviter de tomber dans différents pièges de croyances ou pseudo-sciences. Elle recommande de penser avec ordre et méthode, en tenant à distance dogmes19, préjugés et idées reçues (source : Wikipédia, https://fr.wikipedia.org/wiki/Zététique).

Plus qu’une science, la zététique est un ensemble de méthodes à visée pédagogique dans la sensibilisation à l’esprit critique.

1.2.2 Comprendre le monde qui nous entoure

La zététique va mettre en œuvre trois outils principaux pour interpréter et comprendre la nature et en particulier les phénomènes « para-normaux » : l’observation, la réflexion et l’expérience. L’observation recueille les faits, la réflexion les combine, l’expérience vérifie le résultat de la combinaison.20

La façon dont ces trois moyens sont mis en œuvre est tout aussi importante : Il faut que l’observation de la nature soit assidue, que la réflexion soit profonde, et que l’expérience soit exacte.21

1.2.3 Sciences et pseudo-sciences

La science diffère fondamentalement des autres champs de connaissance (arts, religions, etc.) : que ces connaissances soient vraies ou fausses, peu importe, la question n’a même aucun sens. La science est tout simplement le seul mode de connaissance permettant de comprendre l’univers qui nous entoure. [. . .] La science est en fait tout simplement le seul domaine qui intègre un processus auto-correctif de découverte. (Broch 2008a). La science a également une portée universelle : le monde physique et les sociétés dans lesquels nous vivons doivent beaucoup à la science et à la technologie. On ne peut pas en dire autant d’autres champs de la connaissance (religions, pseudo-sciences. . .) :

Si les épidémies de peste ont désormais presque disparu, on peut difficilement supposer que les prières et aspersions d’eau bénite y soient pour quelque chose. . . (Broch 2008a)

Une pseudo-science n’est pas seulement un domaine de connaissance qui ne fait pas preuve d’auto-correction des erreurs (i.e. une non-science), c’est une non-science qui voudrait se prendre pour une science ! Les pseudo-sciences sont dangereuses parce que (Broch 2008a) :

1.2.4 Croyances

Une croyance est l’adhésion à une thèse considérée comme vérité sans tenir compte des faits ou de l’absence de faits confirmant ou infirmant cette thèse. Une croyance par définition s’appuie sur un principe d’autorité et de certitude (Yeganefar 2013).

Une croyance est capable d’écarter les faits (voir figure 1.4) qui ne vont pas dans son sens. Elle ne se base pas, contrairement à la science, sur les règles de la logique. Quand la logique n’est pas respectée, tout un chacun peut exprimer ses conclusions comme des vérités !

PIC

Figure 1.4 – Méthode scientifique et méthode créationniste ! Crédit : Julia Fraud. CC BY-NC-ND.

Entre deux théories pour expliquer un fait, la science choisira celle avec le moins d’hypothèses (principe de parcimonie ou du rasoir d’Ockham22) :

Si une vitre est cassée et qu’un caillou est retrouvé à l’intérieur, il n’y aura peut-être pas besoin de faire l’hypothèse qu’un esprit a déposé le caillou dans la pièce et que le père-noël était ivre ce jour-là. (Yeganefar 2013).

Les croyances, les pseudo-sciences n’obéissent pas au critère de réfutabilité, car en général elles ont été réfutées.

1.2.5 Règles d’or de la zététique

Dans son livre Comment déjouer les pièges de l’information, Henri Broch (Broch 2008b) liste de manière détaillée et exhaustive différentes facettes de la zététique, qu’il nomme « règles d’or » ou effets de présentation. Il faut considérer ces quelques « règles » comme des règles de bonne conduite dans le labyrinthe de la connaissance.

Ces « règles » et « effets » zététiques aux noms imagés imaginés par Henri Broch se retrouvent (sous d’autres appellations) dans le recueil des « moisissures argumentatives » du collectif Cortec23. Il y a souvent des biais cognitifs ou des erreurs de logique derrière ces raisonnements fallacieux. On les retrouve également sous l’appellation « sophismes ». Un sophisme24 est un raisonnement qui semble correct et rigoureux, mais qui se révèle illogique, donc faux, pour peu que l’on prenne le temps de s’y pencher pour en comprendre les étapes. Contrairement au paralogisme, qui est un raisonnement erroné, mais de bonne foi, le sophisme cherche à tromper l’interlocuteur sciemment.

Une belle histoire (ou scénario) n’est pas une loi (ou une preuve). Par exemple, les gravures préhistoriques présentes sur de nombreux rochers affleurant dans la vallée des Merveilles dans le massif du Mercantour font l’objet de nombreuses interprétations25 qui résonnent sympathiquement, mais les faits archéologiques ne sont pas au rendez-vous pour les étayer.

Quantité n’est pas qualité ou mille-feuille argumentatif : une collection d’anecdotes ne constitue pas une preuve scientifique. Ce n’est pas parce qu’il y a de nombreux témoignages d’OVNIS que les extraterrestres en visite existent ! Cet argument est à relier à la loi de Brandolini26 qui stipule que : La quantité d’énergie nécessaire pour réfuter du baratin est beaucoup plus importante que celle qui a permis de le créer.

Ce n’est pas parce que c’est écrit que c’est exact : le corollaire est qu’il faut toujours vérifier l’origine de l’information. En sciences, l’origine est le ou les articles scientifiques publiés dans des revues à comité de lecture, c’est-à-dire ayant bénéficié d’une évaluation par les pairs.

L’analogie n’est pas une preuve : ce n’est pas parce que la Lune provoque les marées qu’elle provoque quelque chose chez l’individu à la naissance ou qu’elle fait pousser les tomates.

L’absence de preuve n’est pas la preuve de l’absence : lorsqu’on n’a pas la preuve de quelque chose cela ne signifie pas que cette chose est inexistante. Par exemple, personne n’a encore vu de magnifiques licorne blanche dans son jardin. Cela ne signifie nullement que la licorne n’existe pas quelque part sur Terre ; sa probabilité d’existence est toutefois extrêmement faible, et il est donc inutile, pour l’instant, de créer un nouveau domaine de recherche comme la licornologie. . .

La non-impossibilité n’est pas un argument d’existence ou renversement de la charge de la preuve. Ce n’est pas parce qu’on ne peut pas prouver que quelque chose n’existe pas, que cette chose existe nécessairement !

Un exemple est le concept de la théière de Russell. Bertrand Russell (1872-1970) est un philosophe britannique spécialiste de logique et du fondement des mathématiques27. Dans son texte Is There a God? (Russell 1997), voici ce que l’on peut lire :

De nombreuses personnes orthodoxes parlent comme si c’était le travail des sceptiques de réfuter les dogmes plutôt qu’à ceux qui les soutiennent de les prouver. Ceci est bien évidemment une erreur. Si je suggérais qu’entre la Terre et Mars se trouve une théière de porcelaine en orbite elliptique autour du Soleil, personne ne serait capable de prouver le contraire pour peu que j’aie pris la précaution de préciser que la théière est trop petite pour être détectée par nos plus puissants télescopes. Mais si j’affirmais que, comme ma proposition ne peut être réfutée, il n’est pas tolérable pour la raison humaine d’en douter, on me considérerait aussitôt comme un illuminé. Cependant, si l’existence de cette théière était décrite dans des livres anciens, enseignée comme une vérité sacrée tous les dimanches et inculquée aux enfants à l’école, alors toute hésitation à croire en son existence deviendrait un signe d’excentricité et vaudrait au sceptique les soins d’un psychiatre à une époque éclairée, ou de l’Inquisiteur en des temps plus anciens. (figure 1.5)

PIC

Figure 1.5 – La théière de Russell. Crédit : Julia Fraud. CC BY-NC-ND.

Ce n’est pas parce que c’est précis que c’est exact ! Attention à la limite de précision d’un calcul ou d’une mesure. En effet, le résultat d’un calcul, par exemple, peut être précis avec beaucoup de chiffres significatifs, mais faux. . . (figure 1.6).

PIC

Figure 1.6 – Illustration de la différence entre précision et exactitude.

Il vaut mieux faire une analyse globale ou statistique que de regarder les cas individuellement.

Par exemple, des analyses statistiques pourraient montrer que l’astrologie fonctionne en étudiant les corrélations entre prédictions des astrologues et réalités des personnalités des individus. Ce type d’analyse a été faite (Biraud & Zarka 1998, Carlson 1985), pour montrer (depuis quelques décennies !), que l’astrologie ne fait pas mieux que le hasard.

Autre exemple, la croyance que la Pleine Lune influence les naissances. De nombreuses études se penchent sur des statistiques de naissance en fonction des phases de la Lune (Arliss et al. 2005, Morton-Pradhan et al. 2005, Staboulidou et al. 2008), et ne relèvent aucune corrélation significative.

Se montrer prudent dans l’interprétation des faits : Ce précepte général, qui est une des bases de la méthode expérimentale, c’est le doute ; et il s’exprime en disant que la conclusion de notre raisonnement doit toujours rester dubitative quand le point de départ ou le principe n’est pas une vérité absolue (Bernard 2013).

Par exemple, le « suaire de Turin » a été daté au carbone 14 du Moyen-Âge ; une interprétation faite a été de dire que le suaire avait été contaminé par le carbone récent. Sauf qu’un calcul simple28 montre qu’il aurait fallu une masse de carbone de plusieurs fois la masse du suaire pour fausser les mesures.

La nature est sûre : on n’a pas besoin de croire en la gravitation pour en observer les effets !

Principe de parcimonie : entre diverses explications possibles, celle qui est la plus vraisemblable, la plus simple est préférée. On parle encore de rasoir d’Ockham. Ce n’est pas un théorème, ce n’est pas une pierre angulaire de la méthode scientifique, mais simplement un principe de simplicité ou d’économie.

Une théorie scientifique est testable, réfutable.

Le bizarre, l’improbable. . . est probable ! Des événements inhabituels sont en fait probables sur un laps de temps important et/ou sur un nombre important de cas.

L’erreur est humaine, mais pas en permanence : même un astrologue sans aucun pouvoir fera nécessairement, de temps en temps, des prédictions justes.

La compétence réelle de l’informateur est fondamentale : la personne qui affirme quelque chose le fait-elle dans son domaine de compétence ? Le corollaire est l’argument d’autorité qui fait que l’on fait confiance à une argumentation en fonction de son origine plutôt qu’en fonction de son contenu. Les médias font régulièrement appel à des experts pour avoir des avis circonstanciés. Il faut simplement faire attention au champ de compétence des experts en question. Un géophysicien fameux qui nie le réchauffement climatique sur un plateau télé est loin de ses compétences, il utilise l’argument d’autorité pour assoir son idéologie.

Effet boule de neige : accumuler les détails dans un récit de n-ième main. . .

Effet bipède : prendre l’effet pour la cause – l’existence des pantalons prouve que Dieu a voulu que nous soyons des bipèdes. Par exemple, d’après le créationnisme, certains phénomènes vivants sont si bien conçus et si complexes qu’il est impossible qu’ils se soient produits naturellement, par hasard, sans un concepteur intelligent ; donc ce concepteur existe nécessairement29. On le nomme également effet Pangloss ou raisonnement panglossien, c’est le raisonnement à rebours.

Effet petits ruisseaux : les petits oublis (ou erreurs) permettent des grandes théories. . .

Par exemple pour le 11 septembre 2001 : des incendies dans des gratte-ciels de structure totalement différente ont été utilisés pour « démontrer » que les tours n’auraient pas dû s’effondrer. . . Bien sûr, on oublie de dire à chaque fois que des structures en béton armé résistent bien mieux en cas d’incendie que des structures en acier.

Autre exemple, la loi de Titius-Bode en astronomie : énoncer une loi générale à partir de données peu fiables ou peu nombreuses : distance des planètes du Système solaire = \(d = 4 + 3 \times 2^n\) où \(d\) est la distance en dixième d’unité astronomique, \(n\) vaut \(-\infty \) pour Mercure, 1, 2, 3, 4 et 5 pour les planètes suivantes. . . Cependant ce calcul n’est plus valide pour Uranus, Neptune. . . Il n’y a pas de fondement physique, c’est un artefact numérique.

À propos de la théorie d’Yves Rocard sur la sourcellerie : les expériences sont mal faites, les données sont manipulées a posteriori pour coller aux idées préconçues. . .

Effet cerceau : admettre au départ ce que l’on va ensuite prouver (raisonnement circulaire).

Effet puits ou effet Barnum : faire un discours profond – creux – est efficace : il a été montré que le pouvoir persuasif de déclarations totalement vagues et générales était supérieur aux descriptions pourtant appropriées et précises. On retrouve cet effet un peu partout dans différentes croyances, comme l’astrologie, la graphologie, la voyance, etc. C’est lui qui fait qu’un horoscope très général donne l’impression de s’appliquer à son propre cas.

Effet impact : utiliser le poids des mots, la connotation. Nombre de marchands de peur utilisent un vocabulaire spécialement choisi pour choquer au-delà du raisonnable et propager des inquiétudes.

Effet cigogne : confondre corrélation et causalité (on a vu la population des cigognes augmenter conjointement avec celle des humains dans une région donnée. . . Les cigognes apporteraient-elles les nouveaux-nés ?) Ce n’est pas parce que deux variables sont corrélées qu’elles ont un lien de cause à effet. Par exemple, la consommation de chocolat d’un pays est corrélée avec le nombre de ses prix Nobel (Messerli 2012) : manger du chocolat nous rendrait-il plus intelligent ou tout du moins plus apte à faire de grandes découvertes ? En fait, c’est plutôt parce qu’un pays est riche qu’il consomme du chocolat et qu’il a une recherche de qualité, donc des prix Nobel. . . On peut trouver toutes sortes de corrélations, le site web http://www.tylervigen.com en recense un certain nombre (comme le fait que le nombre de personnes qui se noient chaque année dans une piscine est corrélé au nombre de films dans lesquels l’acteur Nicolas Cage apparaît chaque année !).

Autre exemple : le CO\(_2\) dans l’atmosphère serait-il bénéfique pour la santé (figure 1.7) ? Les deux croissent avec le temps, mais pour des raisons différentes : les progrès de la médecine et de l’hygiène pour l’un, les rejets de gaz carbonique dus à la combustion des énergies fossiles pour l’autre.

PIC

Figure 1.7 – Illustration de la corrélation entre le taux de CO\(_2\) dans l’atmosphère et l’espérance de vie. (a) L’espérance de vie à la naissance en France pour les hommes (en bleu) et pour les femmes (en rouge), en fonction de la fraction de gaz carbonique mesurée au Mauna Loa. (b) Concentration en gaz carbonique mesurée chaque année à l’observatoire du Mauna Loa (Hawaï). (c) Espérance de vie à la naissance en France pour les hommes (en bleu) et pour les femmes (en rouge).

Effet paillasson : faire un choix trompeur des mots utilisés. (« Des scientifiques disent que. . . » se transforme quelquefois en « Les scientifiques disent que. . . » ; un petit changement d’une lettre qui modifie en fait profondément le sens. . .). Cet effet est largement utilisé dans les médias : souvent le conditionnel de la science s’y transforme en certitude.

1.3 Internet

1.3.1 Qu’est-ce qu’internet ?

Internet tel que nous le connaissons est un outil formidable qui a vu le jour au CERN en 1989 (World Wide Web, pages en HTML, URL et protocole HTTP. . . standards développés par des informaticiens du CERN, Tim Berners-Lee et Robert Cailliau) suite à des développements depuis les années 1960, notamment ARPANET (1969), le premier réseau, développé au départ pour faciliter les communications entre chercheur\(\cdot \)euse\(\cdot \)s.

Il s’agit d’un vaste réseau informatique sans centre névralgique composé d’une multitude de sous-réseaux, publics ou privés, autonomes. Le « web » n’est qu’une application d’internet, il y a aussi le courrier électronique, les communications instantanées, le peer-to-peer. . . La communication sur internet se fait par paquets qui sont transmis séparément. Les données à transmettre (texte, images, son, vidéo. . .) sont ainsi découpées en « paquets » contenant un entête avec les informations nécessaires pour acheminer et reconstituer les données.

Un réseau informatique est un ensemble d’équipements (ordinateurs, imprimantes, objets connectés, routeurs30, serveurs31 reliés physiquement entre eux – directement ou non – par l’intermédiaire de câbles dans lesquels circulent des signaux électriques (ondes électromagnétiques), d’ondes électromagnétiques micro-ondes (wifi) ou de fibres optiques dans lesquelles circulent des ondes électromagnétiques lumineuses.

En 1993 apparaît le premier navigateur web avec images et interactivité, Mosaic. En 1994, le premier moteur de recherche, Lycos, puis Altavista en 1994. Supplantés par Google en 1998. Wikipédia arrive en 2001, Facebook en 2004.

1.3.2 Diffusion du savoir

La propagation du savoir s’est d’abord faite oralement, puis par l’écriture manuscrite sur divers supports (rouleaux de papyrus, –5000 ans, puis de parchemin, –200 ans av. J.-C.). Le codex, ancêtre du livre actuel, apparaît à la fin de l’Antiquité (vers le IIIe siècle). Le papier, inventé en Chine un peu avant J.-C., remplace progressivement le parchemin en occident à partir du VIIIe siècle. La révolution arrive vers 1450 avec la possibilité de reproduire les livres en plusieurs exemplaires par l’imprimerie mise au point par Gutenberg. Le savoir se propage en parallèle par l’éducation, de l’école à l’université. Désormais, internet (depuis le début des années 1990) s’est ajouté à l’équation. L’accessibilité au savoir pourrait être un enjeu fondamental de notre avenir démocratique.

L’introduction du rapport de l’UNESCO de 2005, Vers les sociétés du savoir, stipule :

À présent, la diffusion des nouvelles technologies et l’avènement de l’internet comme réseau public paraissent ouvrir de nouvelles chances pour élargir cet espace public du savoir. Serions-nous désormais dotés des moyens qui permettraient un accès égal et universel à la connaissance, et un authentique partage ? Celui-ci devrait alors être la clé de voûte de véritables sociétés du savoir qui soient source d’un développement humain et durable. (UNESCO 2005, p. 17)

Pour accéder à ce programme, il faut en premier réduire la « fracture numérique » c’est-à-dire l’inégalité d’accès aux sources du savoir, donc internet. Le même rapport (UNESCO 2005, p. 47) précise : La transformation d’une information en savoir suppose un travail de réflexion. En tant que telle une information n’est qu’une donnée brute, la matière première de l’élaboration du savoir. Car les processus de diffusion de l’information, en particulier sur internet, ne sont pas tous sélectifs ni « digérés », ce qui pose un certain nombre de problèmes.

L’avènement d’internet engendre effectivement un libéralisme cognitif (Bronner 2011) : les produits du savoir ne subissent pas de taxation ou d’interdiction étatique (démocratie) ; cela est rendu possible par les innovations technologiques (internet en est la manifestation emblématique).

1.3.3 Internet comme support du savoir

L’accès à internet dans le monde croît très rapidement (figure 1.8) : en 2015, 3 milliards d’internautes, soit 42 % de la population ; en 2020, 4,7 milliards d’internautes, soit 59 % de la population32 : plus de la moitié de la population est connectée33 ! Ce qui se traduit par un recul des autres supports de l’information (journaux, radios, télévisions).

PIC

Figure 1.8 – Évolution du nombre d’internautes (en milliards) dans le monde en fonction du temps. Un utilisateur d’internet ou internaute est défini par l’Union Internationale des Télécommunications comme toute personne ayant accédé à internet depuis n’importe quel endroit au cours des trois derniers mois. Cela peut se faire à partir de n’importe quel type d’appareil connecté (ordinateur, téléphone mobile, console de jeux, télévision numérique, etc.).

Est-ce un problème ?

Quand j’ai écrit ce cours en 2014 et la première version de ce document en 2018, la partie sur internet provenait de l’ouvrage du sociologue Gérald Bronner (Bronner 2013), qui proposait une explication séduisante à la propagation irraisonnée des croyances diverses et variées à une époque où la science et la technologie dominent la société. Cette thèse avançait qu’internet permettant un déploiement exponentiel de la quantité d’information disponible, celle-ci serait forcément, en moyenne, de moindre qualité. Comme tout un chacun peut publier ses élucubrations très facilement sur la toile, il n’y a pas de vérification a priori de la véracité de ces informations. Comme les tenanciers de croyances diverses ont du temps et de la motivation pour partager leurs connaissances, ils le font, et provoquent ainsi de nombreuses adhésions à leurs idées. Idées qui sont en général séduisantes pour l’esprit, car elles demandent un effort cognitif relativement faible pour être comprises. Cette « théorie » de Gérald Bronner m’a instantanément séduit, je l’ai intégrée à mon cours. Pourtant, elle reste une théorie, elle n’est pas prouvée, cela peut être une explication mais qui semble désormais très minoritaire par rapport à d’autres (Attard 2021).

Vérification de l’information

Le contrôle de l’information se fait a posteriori sur internet (Wikipédia, etc.) contrairement aux médias traditionnels où elle est contrôlée a priori. Mais conformément à la méthode de production de la science, où le contrôle est fait a posteriori par les pairs.

Sur internet tout un chacun peut publier ce qu’il souhaite : partage de connaissances, d’idéologies, etc. La vérification n’est généralement pas possible compte tenu de la quantité d’information. C’est notamment vrai dans le domaine de la vulgarisation scientifique, où des vulgarisateurs « amateurs », sans forcément avoir été formés à la science et à la méthode scientifique ouvrent blogs et chaînes de vidéo pour raconter la science. Ce qui était le pré carré des journalistes scientifiques auparavant est devenu ouvert grâce au web. Avec des avantages (certains vulgarisateurs sont très bons et permettent au public de mieux comprendre la science) et des inconvénients (le manque de méthode peut faire dire ou écrire des choses, qui peuvent être graves selon le domaine scientifique). Ainsi Foucart et al. (2020) et Andreotti & Noûs (2020), entre autres, pointent un dévoiement d’une partie de cette vulgarisation au profit savamment calculé de « marchands de doute »34, sur certains sujets ayant trait à des problématiques environnementales, notamment. Il faut donc choisir avec soin les vulgarisateurs de la toile, et ce n’est pas forcément un choix facile à effectuer. En revanche, les journalistes scientifiques et savamment formés pour cela, restent une valeur sûre.

L’exemple de Wikipédia

Cette encyclopédie participative est assez incroyable : je la consulte presque quotidiennement, et c’est souvent le point de départ que j’utilise pour découvrir un sujet, les références et les liens sont souvent utiles et pertinents pour aller plus loin35. Même pour les cours que je dois faire à l’université, Wikipédia s’avère un outil très utile. Pourtant il a longtemps été décrié dans le milieu universitaire36.

Et même encore maintenant, on peine à le citer dans les outils encyclopédiques de base pour réaliser une bibliographie. Mais un système encyclopédique basé sur « la revue par le public », c’est-à-dire un système d’auto-correction des erreurs basé sur celui de la science (revue par les pairs), a pourtant tout pour plaire. De fait (Cummings 2020) : La connaissance évaluée par les pairs est le moteur de croissance de la compréhension humaine, avec une profondeur presque illimitée, mais la connaissance évaluée par le public fournit le point d’entrée à cette profondeur pour le plus grand nombre de personnes. Les connaissances évaluées par le public tentent de traduire, d’interpréter et de contextualiser les connaissances évaluées par les pairs pour les masses. Il faut évidemment, évaluer les forces et les faiblesses d’un tel système (tout comme la revue par les pairs de la production scientifique) !

Prenons deux exemples. D’une part l’article « homéopathie » de Wikipédia37 est exhaustif, il traite non seulement de l’histoire du concept mais aussi de son manque d’efficacité validé par des études scientifiques. Le même article « homéopathie » sur l’encyclopédie Universalis38 est rédigé par un unique auteur, historien, qui écrit dans l’introduction : Traiter sereinement de l’homéopathie n’est pas chose aisée, tant elle est et a été l’objet de controverses. Pour les uns, elle n’est qu’une tromperie, au mieux un usage de placebo39 qui ne mérite pas le nom de médecine, et doit être reléguée au rang des rites conjuratoires. Pour les autres, elle est une médecine efficace, sans effets secondaires, qui prend en compte l’individu dans sa globalité et son individualité. Ce relativisme n’est pas tolérable dans une encyclopédie qui se veut objective. La revue par le public de la page Wikipédia permet ainsi d’aboutir à une connaissance beaucoup plus objective et référencée, dans ce cas, tout au moins, que pour l’encyclopédie classique.

Le deuxième exemple concerne la présence de notices bibliographiques de personnalités fictives40, des canulars, en somme. Ainsi la page du militaire et explorateur de Jean-Noël Savelli41 (1853-1917) en est un exemple. Cette page a été créée en octobre 200642, en avril 2013, une référence bibliographique apparaît, un obscur volume référencé par Gallica43, dans lequel je ne parviens pas à trouver le nom de Savelli. Le nom n’apparaît pas dans les promotions de l’École Navale de Brest44 ; il y a bien une rue Charles-Marie Savelli45 à L’Île-Rousse, mais ce n’est pas le bon prénom. . . La véracité de l’existence de ce fameux Jean-Noël Savelli sent le roussi tant les erreurs (volontaires ?) sur sa biographie sont importantes ! Des recherches plus poussées pourraient permettre d’établir la nature exacte de ce personnage (fictif ou pas ?). Le processus de revue n’a pas encore fait son œuvre !

1.3.4 Le biais de confirmation

Il désigne la tendance naturelle qu’ont les personnes à privilégier les informations qui confirment leurs idées préconçues ou leurs hypothèses (sans considération pour l’authenticité de ces informations) et/ou d’accorder moins de poids aux hypothèses jouant en défaveur de leurs conceptions. Le biais de confirmation est sans doute déterminant dans les processus qui pérennisent les croyances.

1.3.5 Le marché de l’information

La quantité d’information (figure 1.9) produite sur notre planète en cinq ans, au tournant du XXIe siècle, a été quantitativement supérieure à l’ensemble de l’information imprimée46 depuis Gutenberg (1450) (à savoir quelques exaoctets – 1 Eo = \(10^9\) Go) (Siméon 2012).

PIC

Figure 1.9 – Évolution de la quantité d’information disponible dans le monde, avec la part de l’analogique et du numérique. Données : Hilbert & López (2011). Crédit : Julia Fraud. CC BY-NC-ND.

En 2018, la quantité de données produite était estimée à 33 zettaoctets47 (Reinsel et al. 2018) (figure 1.10). En 2020, nous produisons 2,5 exaoctets de données chaque jour. En deux jours nous produisons autant de données que tout ce qui a été produit entre le début de la culture humaine et 2003 ! Ce qui fait environ 1 zettaoctet par an. . . Et cette quantité croît !

PIC

Figure 1.10 – Évolution passée et prévisionnelle de la taille de la sphère des données globales (le volume de données créées et répliquées est exprimé en zétabytes – Zb). Données : © IDC (https://www.idc.com), Worldwide IDC Global DataSphere Forecast, 2022-2026 : Enterprise Organizations Driving Most of the Data Growth (IDC US49018922, May 2022). Voir aussi Reinsel et al. (2018).

Ces données sont diverses et variées, les mails que nous échangeons, les images et vidéos postées sur internet, mais aussi les données issues de capteurs en tous genres (météo, climat, caméras de surveillance. . .), les échanges sur les réseaux sociaux, etc.

Au passage, la science est une grande génératrice de données (télescopes, accélérateurs de particules, capteurs du climat et de la météo, mais aussi simulations numériques). Par exemple l’observatoire Vera Rubin va produire environ 20 téraoctets de données chaque nuit (soit l’équivalent de 20 disques durs de 2018, et ce pendant 10 ans entre 2023 et 2033. Donc 60 pétaoctets au total ! Évidemment, d’ici là, à côté de tout le reste, cela semblera ridicule. Jusqu’à il y a peu, la science générait les plus grosses quantités de données (accélérateur LHC et expériences de physique des particules, par exemple), mais la notion de « big data » est en train de s’écouler depuis la sphère scientifique vers la société.

1.3.6 Recherche d’information sur internet

Pour rechercher de l’information sur internet, on utilise un « moteur de recherche » qui est une application web permettant de trouver une page web à partir d’une requête sous forme de mots-clés. Actuellement le monopole des recherches sur internet est détenu par Google (90 % des recherches en France en mai 201748). Il existe néanmoins des alternatives49.

Comment fonctionne un moteur de recherche ?

Le principe de base est qu’un certain nombre de logiciels sont dédiés au parcours systématique du web en suivant récursivement les liens, afin d’indexer le contenu des pages web, dans de grandes bases de données, par l’intermédiaire de « mots-clés ». Enfin, un algorithme de recherche permet à partir de mots-clés tapés par l’utilisateur d’affiner les résultats retournés par ces vastes bases de données.

Par exemple, Google utilise une mesure de la popularité d’une page web pour améliorer les performances de son algorithme de recherche. Il s’agit du PageRank : chaque site est noté en fonction de sa popularité (mesure établie à partir du nombre de liens pointant vers le site, liens pondérés par la popularité des sites dont ils sont issus) (figure 1.11).

Un site a donc d’autant plus de chances d’être visité qu’il a un PageRank élevé puisqu’il va arriver en tête dans les recherches effectuées par Google.

PIC

Figure 1.11 – Illustration du PageRank. Source : Wikipédia, https://commons.wikimedia.org/wiki/File:PageRank-hi-res.jpg. CC BY-SA.

1.3.7 Motivation des croyants

D’après Bronner (2011).

1. Sur internet, les croyants sont généralement plus motivés que les non-croyants pour exprimer leur point de vue.

Un conspirationniste, par exemple, cherchera à retenir quelques-uns des arguments qui permettent de croire que les attentats du 11 septembre ont été fomentés par la CIA. Le non-croyant sera souvent dans une posture d’indifférence, il refusera la croyance, mais sans avoir besoin d’une autre justification que la fragilité de l’énoncé qu’il révoque.

2. Ceux qui seraient en mesure d’opposer des arguments robustes aux allégations des croyants n’ont pas beaucoup d’intérêt à le faire.

Par exemple, dans le cas de l’astrologie, les astronomes peuvent facilement faire la promotion de certaines des raisons qui conduisent à trouver les propositions astrologiques douteuses, mais la plupart du temps, ils ne se sentent pas plus qu’agacés par les allégations astrologiques, celles-ci ne représentent aucun danger pour eux, les combattre serait chronophage et sans intérêt institutionnel.

C’est aussi vrai pour d’autres médias qu’internet (livres, journaux. . .), mais internet amplifie le processus dans la mesure où il réduit considérablement les coûts de l’offre : tout le monde peut s’exprimer très facilement sur le net, c’est moins évident dans une revue ou dans un livre.

1.3.8 La propagation des croyances

Internet n’est probablement pas le principal vecteur des croyances, contrairement à une idée reçue.

On pourrait penser que l’éducation de tous, la transmission du savoir scientifique à l’école et à l’université est un frein essentiel à ces diffusions des fake news50. Ce n’est pourtant pas si évident car il a été montré à partir de sondages auprès d’échantillons représentatifs de la population (Boy & Michelat 1986, Boy 2002) qu’un niveau d’études élevé ne signifiait pas être moins crédule, comme le montre la figure 1.12b. La figure 1.12 montre en outre que l’intérêt pour les sciences est corrélé positivement avec le degré de croyances dans les para-sciences (astrologie, divination, télépathie). Et que seule une bonne culture scientifique permet de diminuer ce degré de croyance. Une étude (parmi d’autres) américaine (Drummond & Fischhoff 2017) montre également que sur certain sujets les croyances sont corrélées avec l’identité religieuse et/ou politique des individus, indépendamment des connaissances et de l’éducation scientifiques.

PIC

Figure 1.12 – Illustration des résultats d’un sondage analysé par Boy (2002). Degré de croyance aux para-sciences (astrologie, divination, télépathie) en fonction : (a) de l’âge et du sexe ; (b) du niveau d’études ; (c) de l’intérêt pour les sciences ; (d) des connaissances scientifiques.

De fait, des études récentes (Osmundsen et al. 2021, Attard 2021) montrent que la polarisation politique joue un grand rôle dans le partage des croyances sur les réseaux sociaux : ce serait donc nos conceptions politiques qui nous incitent à partager des contenus faux ou manifestement faux, même si les personnes sont capables de faire la différence entre le vrai et le faux. La véracité des partages n’étant pas le critère principal sur ces réseaux. Les croyances dans les théories farfelues (comme la Terre plate) ou les théories du complot ne tiennent que par leur caractère hors système, ou contre le « système » ; les biais cognitifs n’ont pas forcément un grand rôle (Attard 2021).

Une des façons, probablement, de freiner ce genre de diffusion est non seulement de transmettre le « savoir » scientifique mais également d’enseigner des méthodes permettant d’aiguiser l’esprit critique.

1.4 Quelques croyances tenaces

1.4.1 Les effets allégués à la Lune

Plus de naissances lors de la pleine Lune ?

Une croyance populaire voudrait que le nombre de naissances soit plus important lors des nuits de pleine Lune. Il est facile d’étudier statistiquement cet effet avec les bases de données de naissances. De fait, certaines études semblent observer des effets marginaux observés (moins de 10 %) en fonction des phases (cependant pas de pic lors de la pleine Lune), mais qui dépendent des bases de données utilisées, aussi grandes soient-elles ! Voir, par exemple : Caton & Wheatley (1998) ; Gans & Leigh (2015).

Faut-il planter ses tomates en fonction des phases de la Lune ?

Autre croyance tenace, qui fait la fortune de certaines revues de jardinage peu scrupuleuses, celle qui imagine que la Lune a un effet sur la croissance des plantes (Blanc 2006). Cet effet, qui n’a jamais été observé, pourrait être soit d’origine gravitationnelle tout comme la Lune soulève l’eau des océans lors des marées, soit d’origine lumineuse : la lumière de la pleine Lune pourrait alors permettre la photosynthèse. En fait, la force de marée engendrée par la Lune est proportionnelle à la taille de l’objet (pour la Terre, 12 800 km de diamètre, la marée est de 1 m de hauteur en moyenne) ; pour un objet de taille métrique, la marée est indécelable. De même, l’éclairement de la pleine Lune est d’environ 2 mW/m\(^2\) ; or la photosynthèse nécessite 10 000 fois plus de lumière pour se faire. . . Aucune « expérience » ne montre d’effet significatif (voir par exemple Dorion & Mouchotte 2012).

Peut-on prendre un « coup de Lune » ?

La quantité de lumière issue de la Lune, qui n’est que le reflet de la lumière du Soleil, est 1/500 000e fois celle du Soleil. L’indice UV correspondant est de 0,00002. . . (sachant que l’échelle des indices UV va de 1 à 10, les indices 1 et 2 ne nécessitent aucune protection).

1.4.2 Les machines « surnuméraires »

Un moteur surnuméraire est un concept pseudo-scientifique de machine qui voudrait produire plus d’énergie qu’il n’en consomme. Or ce type d’appareil, s’il existait, violerait le principe de conservation de l’énergie ou premier principe de la thermodynamique. Postulat en mécanique classique, on peut le démontrer à l’aide du théorème de Noether. En effet, l’invariance par translation dans le temps des lois physiques (relativité du temps), se traduit par la conservation de l’énergie. Donc une machine surnuméraire ne peut pas exister!

De même que le mouvement perpétuel (figure 1.13) ne peut pas exister : il y a toujours des frottements (mécaniques, magnétiques. . .) qui dissipent l’énergie : un système en mouvement soi-disant perpétuel fini toujours par s’arrêter. . . Même les mouvements planétaires ne sont pas perpétuels : de l’énergie est en effet dissipée par effets de marée.

PIC

Figure 1.13 – Machine à mouvement perpétuel imaginaire : gravure sur bois réalisée vers 1660, considérée comme la première tentative de représenter un tel dispositif. CC0.

1.4.3 L’astrologie

L’astrologie (Biraud & Zarka 1998) postule une relation entre les astres et les aptitudes, les comportements humains. Pour prouver scientifiquement une telle relation, soit on l’explique théoriquement, soit on l’observe (mesures et analyse statistique). Cette influence n’est explicable en aucune manière, par aucune des interactions connues (gravitation, rayonnement). Si l’astrologie « marche », alors on n’a aujourd’hui pas la moindre idée de « comment ça marche ». Reste la possibilité de l’observer.

C’est aux astrologues de prouver que l’astrologie marche et non aux astronomes – ou autres scientifiques – de prouver qu’elle ne marche pas51. . . Or il y a déjà de très nombreuses expériences, toutes négatives, qui tentent de prouver une telle relation.

1.4.4 La sourcellerie

Un sourcier (figure 1.14) est une personne qui recherche (et prétend trouver !) de l’eau souterraine en utilisant une baguette ou un pendule.

L’efficacité des sourciers n’a jamais pu être démontrée scientifiquement, des expériences réalisées dans des conditions rigoureuses, dites « en double aveugle », ont montré que les sourciers ne faisaient pas mieux qu’un choix au hasard. . .

PIC

Figure 1.14 – Un sourcier du XVIIIe siècle dans un livre français sur les superstitions. CC0.

Expérience en « double aveugle »

Dans les domaines où l’humain intervient (comme en médecine, sociologie. . .) dans toute sa complexité et sa diversité, on prend ce paramètre en compte dans les expériences et les études : deux groupes sont constitués (avec chacun le ou les sourciers et le ou les techniciens indiquant le protocole à suivre), par exemple l’un avec une source d’eau cachée à proximité (groupe test), l’autre sans source (groupe contrôle), mais ni les sourciers ni les techniciens ne savent dans quel groupe ils sont. La levée du voile n’est faite qu’après le traitement statistique des données. Il s’agit ainsi d’une expérience en « double aveugle » : ni les cobayes ni les techniciens ne savent s’ils sont dans le groupe test ou dans le groupe de contrôle.

1.4.5 Expérimenter la validité d’une pseudo-science/croyance

De nombreuses expériences prétendant montrer tel ou tel effet (astrologie, sourcellerie, mais aussi dangerosité des ondes de la téléphonie mobile, de vivre à proximité des centrales nucléaires, des OGM, etc.) ne respectent pas toujours les conditions fondamentales de rigueur pour garantir la validité scientifique de l’analyse des résultats (Biraud & Zarka 1998) :

1. définir rigoureusement le protocole expérimental avant l’expérience et s’y tenir ;

2. vérifier le caractère significatif des résultats obtenus (tests de confiance, analyse des biais possibles, etc.) ;

3. s’engager à publier tous les résultats obtenus, clairement et sous contrôle.

1.5 Le principe de précaution

1.5.1 Danger et risque

Il y a de nombreuses façons de définir la notion de risque selon le domaine (scientifique, juridique, etc.) dans lequel on se place. Nous adopterons les définitions suivantes, qui distinguent la notion de danger de celle de risque : Danger : la façon dont un objet, une substance ou une situation est susceptible de causer du dommage (à une personne, à un bâtiment, à l’environnement. . .). C’est, par exemple, un produit toxique dans une usine, un manteau de neige instable en montagne, etc. Exposition : la présence d’une victime potentielle et son éloignement par rapport au danger déterminent le niveau du risque. Risque : la combinaison entre la probabilité que des effets dommageables surviennent réellement et la gravité de leurs conséquences réelles.

On peut résumer lapidairement :

Risque = fonction (Danger, Exposition, Gravité)

Si l’exposition est nulle, malgré un danger qui peut être important, alors le risque encouru sera nul. Un exemple est illustré à la figure 1.15.

PIC

Figure 1.15 – Illustration de la différence entre danger et risque : observer des requins nager depuis le bord ne présente aucun risque (mais le danger est présent), tandis que nager au milieu des requins est risqué. Source : https://www.efsa.europa.eu/. © Autorité européenne de sécurité des aliments.

Autre exemple : en montagne, l’hiver, le danger d’avalanche de neige guette l’alpiniste. Si celui-ci reste chez lui, le danger subsiste mais l’exposition est nulle. S’il s’aventure en montagne dans ces conditions, il s’expose au danger. Mais il peut maîtriser le risque qu’il prend en limitant son exposition s’il peut connaître les pentes dangereuses, en renonçant à celles-ci. Ou bien en limitant la gravité d’un accident (dommage) en s’équipant du matériel adéquat (détecteur de victime d’avalanche, pelle, sonde, moyen de communication, etc.).

De façon plus mathématique (mais sommaire), on peut définir le risque \(r\) comme la conséquence (ou la gravité) \(C\) d’un événement multiplié par la probabilité d’occurrence \(p\) de cet événement.

\[ r = p \times C \]

L’estimation des risques52 a beaucoup d’importance dans différents domaines : travail, assurance, société (risque sanitaire, environnemental), etc. Il n’est pas toujours facile de les évaluer de manière quantitative correctement.

1.5.2 Le principe de précaution

Cette section est basée en grande partie sur Bronner & Géhin (2008).

Considérons trois notions indispensables et complémentaires (d’après Wikipédia : principe de précaution 53).

La prudence vise les risques avérés, ceux dont l’existence est démontrée ou suffisamment connue, de façon empirique, pour que l’on puisse en estimer la fréquence d’occurrence. Le fait d’être probabilisable rend le risque assurable. Exemples : l’utilisation de produits tels que l’amiante, jouer à la roulette russe, la consommation de vins et autres alcools, la cigarette.

La prévention vise les risques avérés, ceux dont l’existence est démontrée ou connue empiriquement sans toutefois qu’on puisse en estimer la fréquence d’occurrence. Exemples : le risque nucléaire, le risque de rupture de barrage. L’incertitude ne porte pas sur le risque, mais sur sa probabilité de réalisation. L’absence de probabilités rend le risque inassurable par l’industrie classique de l’assurance.

La précaution vise les risques dont ni l’ampleur ni la probabilité d’occurrence ne peuvent être calculées avec certitude, compte tenu des connaissances du moment. Exemples : les organismes génétiquement modifiés, les émissions électromagnétiques des téléphones portables, la robotique, le génie génétique, les nanotechnologies.

Au-delà d’un principe philosophique, le principe de précaution autorise les pouvoirs publics à prendre les mesures nécessaires pour faire face à des risques éventuels, alors même que l’on ne dispose pas des connaissances scientifiques nécessaires pour en établir l’existence (Larrère & Larrère 2001). Il est donc passé de statut philosophique à statut juridique. En effet, la Charte de l’Environnement inscrite dans la Constitution Française en 2005 stipule que : l’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommages graves et irréversibles à l’environnement à un coût économiquement acceptable. Ce principe applicable à l’environnement s’étend également à la santé publique et à la sécurité alimentaire (sang contaminé, « vache folle », etc.).

D’après Larrère & Larrère (2001),

[. . .] ce qui différencie la prévention de la précaution, c’est que la première relève d’un calcul d’optimisation en avenir incertain, quand la seconde est une procédure de décision en avenir controversé. Les risques auxquels s’applique le principe de précaution n’étant pas prouvés, leur présomption même est sujette à caution. Le principe de précaution revient à suspendre la décision d’introduire une innovation (ou à l’encadrer de mesures préventives dont on ne sait pas encore si elles seront nécessaires), le temps de réduire l’incertitude concernant l’existence d’un risque et de l’évaluer. Or, ce temps est aussi celui de laisser se développer, et se résoudre, les controverses scientifiques concernant les risques encourus. Le principe de précaution n’est donc pas un outil d’aide à la décision. Son objet est d’inviter la recherche scientifique à réduire l’incertitude, son ambition d’articuler science et politique en prenant acte de la diversité des régimes de la rationalité.

De fait, la société recherche un « risque zéro », c’est-à-dire une absence totale de risque, que ni la science ni la technologie ne peuvent garantir (les bénéfices sont souvent exclus du débat). Ce principe est ainsi souvent invoqué devant certaines avancées technologiques (OGM, ondes électromagnétiques de la téléphonie mobile, nucléaire, vaccination, agriculture. . .) et peut constituer une entrave à l’innovation et à l’accumulation de connaissances.

1.5.3 Mathématisation du principe de précaution

On peut quantifier le compromis entre les bénéfices \(B\) d’une innovation et les coûts \(C\) associés (qui peuvent être de divers ordres : financiers, humains, etc.) comme le fait que :

\[ (p_1 \times B) + (p_2 \times C) > 0 \]

avec :

\(B >0\) = bénéfices de l’application d’une innovation ;

\(p_1 >0\) = probabilité que cette application tienne ses promesses ;

\(C < 0\) = coût de l’innovation ;

\(p_2 >0\) = probabilité que ce que l’on craint se réalise.

Un exemple intéressant

Dans leur livre L’inquiétant principe de précaution, Gérald Bronner et Étienne Géhin (Bronner & Géhin 2008) reviennent sur l’entrave que représente le principe de précaution institutionnalisé pour l’innovation. À propos de la balance entre bénéfice et coût d’une innovation, ils prennent l’exemple de l’aspartame (pp. 47-48) :

Prenons par exemple, le cas de l’aspartame. Il s’agit de l’ester méthylique d’un dipeptide, molécule constituée de l’association de deux acides aminés. C’est une substance non nutritive qui a une saveur sucrée 200 fois supérieure à celle du sucre. On doit sa découverte à un hasard expérimental survenu en 1965. Les avantages que présentent cette substance sont évidents. Pourtant, certaines voix ont commencé à s’élever pour dire que garder la ligne était un objectif louable mais qu’en l’occurrence le prix à payer serait exorbitant. En effet une étude italienne54 prétendait avoir montré que la consommation de ce produit pouvait favoriser l’apparition de tumeur cancéreuse chez le rat. Dans ces conditions, la conclusion que l’on devait tirer de la formule \((p_1\times B)+(p_2 \times C)\) s’imposait. Ainsi, même si l’on pouvait accorder à coup sûr (\(p_1\)) que l’aspartame nous permettait de consommer moins de sucre (\(B\)), ce qui peut être considéré, en moyenne, comme bénéfique pour la santé, on craignait (\(p_2\)) que celui-ci soit cancérigène (\(C\)). Il paraissait donc évident que le coût exorbitant rendait parfaitement anecdotiques les avantages attendus du produit. [. . .] Il se trouve que cette expérimentation italienne fut invalidée par la communauté scientifique, notamment par l’AESA (Agence Européenne de Sécurité des Aliments), parce que les biais du protocole étaient si importants qu’ils interdisaient de prendre au sérieux les résultats obtenus55. Dès lors, les termes de la formule précédente ne sont plus exactement les mêmes : \(p_2\) en particulier pouvant être considéré comme provisoirement nul, il n’y a pas de raison de se méfier de ce produit. C’est là que l’énigme sociologique commence : malgré ce démenti unanime de la communauté des experts, et sur un sujet à propos duquel le sens commun n’a aucune compétence, il reste une suspicion concernant l’aspartame. Il n’est pas rare de rencontrer des individus qui s’abstiennent d’en consommer ou vous conseillent de ne pas le faire, avec cet argument que l’innocuité du produit ne serait pas démontrée. Internet est un outil intéressant pour sonder non l’état de l’opinion, mais la facilité avec laquelle on rencontre une thèse sur le marché des idées.

J’ai présenté cet exemple dans ce cours pendant 4 ans, faisant confiance56 aux auteurs du livre, notamment Gérald Bronner dont j’ai eu l’occasion de lire d’autres écrits57. Néanmoins, en rédigeant ce cours, je suis allé voir un peu plus loin, et simplement en consultant la page web correspondante de Wikipédia58, on se rend compte que la controverse persiste dans le monde académique, de nouvelles études mettent en cause l’aspartame en 2010, 2013, ou encore 201459.

La science avance donc doucement, plus doucement que ne le voudrait la société, qui tire des conclusions erronées (dans un sens ou dans l’autre) d’études sérieuses mais partielles. Le chapitre de l’aspartame n’est probablement pas encore refermé, comme l’ont cru les auteurs du livre cité plus haut.

1.5.4 Biais cognitifs liés à l’estimation des risques

Les biais cognitifs

Les psychologues et les sociologues étudient notre façon de penser et de raisonner, il s’avère que nous sommes parfois soumis à des erreurs de traitement de de l’information, que l’on appelle « biais » (Berthet 2018). Le modèle de Kahneman (2012), stipule que nous fonctionnons avec un système cognitif relevant du réflexe et de l’intuition (système 1), et avec un système complémentaire, le système 2, de la réflexion. Faire fonctionner le système 2 demande un effort, on l’évite la plupart du temps. Et parfois, par paresse cognitive, notre système 1 court-circuite notre système 2. À ce moment-là, on parle de biais cognitif60.

Par exemple, les illusions d’optique61 comme les paréidolies, qui consistent à « voir » un visage ou une forme familière dans un paysage, un rocher, un nuage, etc. L’une des plus célèbre est le visage de Mars (figure 1.16).

Un biais particulièrement important dans l’explication de la propagation des croyances est le biais de confirmation. Nous y sommes tous soumis, cela consiste à privilégier (inconsciemment) les informations qui confirment nos idées préconçues (figure 1.17).

PIC

Figure 1.16 – Le « visage de Mars » au cours du temps ! Un relief martien nommé « Cydonia Mensae ». (a) Cliché pris par la sonde Viking 1 en juillet 1976. © NASA/JPL-Caltech. (b) Image par la sonde Mars Global Surveyor en 2001. CC0. (c) Image par la sonde Mars Express en 2006. Source : ESA/DLR/FU Berlin (G. Neukum), https://www.esa.int/Space_in_Member_States/Belgium_-_Francais/Cydonia_Le_visage_de_Mars. CC BY-SA.

PIC

Figure 1.17 – Illustration du biais de confirmation : influence de la pleine Lune sur le sommeil. On peut avoir l’impression que la pleine Lune nous empêche de dormir parce que parfois, en cas d’insomnie, on constate qu’elle brille. Mais on oublie qu’on peut aussi ne pas bien dormir lorsqu’elle n’est pas pleine, ou encore dormir même si elle est pleine ! Crédit : Julia Fraud. CC BY-NC-ND.

Sur-estimation des faibles probabilités

De nombreux travaux de psychologie montrent que nous avons tendance à sur-estimer les faibles probabilités et à sous-estimer les fortes probabilités (voir figure 1.18). Ce biais cognitif est amplifié quand ces probabilités sont associées à un risque (Blondel 2003).

On a tendance à vouloir un risque zéro, quitte à vouloir payer le prix fort pour y parvenir. D’où des coûts (financiers) déraisonnables pour la société, compte tenu des gains en matière de risque.

PIC

Figure 1.18 – Courbe des probabilités perçues selon deux modèles qui permettent de quantifier la sur-évaluation des faibles probabilités et la sous-évaluation des fortes probabilités. Source : Blondel (2003). © Direction générale du Trésor.

Par exemple : un nouveau processus de dépistage de l’hépatite C (cadre des dons du sang), plus efficace que les précédents, mais d’un coût sans commune mesure (l’année de vie gagnée est estimée à 55 millions d’euros à comparer avec ce qu’on investit en sécurité routière ou traitement du cancer du sein de l’ordre de 8000 euros par année de vie gagnée !), accepté par le gouvernement contre l’avis des experts, pour satisfaire l’opinion publique62.

L’opinion publique pèse fortement sur la décision politique, ce qui n’est pas illégitime en démocratie. La difficulté naît de ce que ses préférences ne vont pas toujours dans le sens de l’intérêt général, notamment lorsqu’elle est victime d’une erreur cognitive si répandue et si bien installée, la surestimation des faibles probabilités, que même le prestige de certains experts ne peut la contrebalancer sur le marché des idées. (Bronner & Géhin 2008, p. 60)

Les coûts sans les bénéfices

Dans l’exemple ci-dessus,

La non-application de ce dépistage comportait, certes, des risques de contamination supérieurs pour la population des transfusés, mais elle permettait aussi de consacrer l’argent économisé à des actions de santé publique permettant de sauver des vies en plus grand nombre. (Bronner & Géhin 2008, p. 61)

Il y a une idéologie derrière ce type de décision : peu importe le coût, seul le résultat compte. . . De fait, on prête plus facilement attention à une perte qu’à un gain de valeur équivalente. On a ainsi tendance à se focaliser sur un seul aspect du problème, à savoir les coûts, en l’oubliant l’autre partie, les bénéfices. Et donc le débat public est biaisé !

Décisions humaines face à l’incertitude

Dans une situation d’incertitude, de choix risqué, la théorie de l’utilité espérée développée en 1944 par Von Neumann & Morgenstern (1944) stipule que nous opérons un choix en calculant les probabilités d’occurrence des principaux choix disponibles, et en maximisant une valeur attendue, rationnelle, l’utilité. Pourtant, les humains ne se comportent généralement pas de manière rationnelle (Kahneman 2012). Des émotions comme la peur peuvent ainsi avoir une grande importance dans nos décisions (Chanel et al. 2020). Il convient donc d’en tenir compte dans certains arbitrages.

La perception des risques

Pour les raisons évoquées jusque-là, l’idée que nous nous faisons d’un risque (sanitaire, environnemental, etc.) est souvent distordue par notre cerveau qui biaise notre perception. Il est possible d’essayer de quantifier l’écart entre notre perception et une réalité plus objective, comme la perception d’experts (figure 1.19, voir aussi Fiolet 2019).

PIC

Figure 1.19 – La perception des risques pour la santé par le public canadien selon les différences entre le public et les experts. Les valeurs positives représentent une perception plus élevée des risques par le public ; les valeurs négatives représentent une perception plus élevée des risques par les experts. Données : Krewski et al. (2012).

1.5.5 La responsabilité des médias professionnels

Il existe de nombreux exemples d’études réalisées par des scientifiques ou des associations (publiées ou pas dans des revues à comité de lecture), qui prétendent avoir découvert ou estimé un « risque » (souvent pour l’environnement ou la santé) lié à telle ou telle technologie (OGM, vaccins, nucléaire, ondes électromagnétiques. . .). La peur faisant vendre, les médias (presse, télé, radio. . .) s’empressent de publier le communiqué correspondant et de disserter ad infinitum sur le sujet (sans forcément aller lire le papier (scientifique) lui-même, d’ailleurs). Or, quand il se trouve que l’étude scientifique en question ne respectait pas certaines règles rigoureuses de la démarche scientifique, et/ou qu’elle n’est pas reproductible par les pairs, un démenti est publié dans la même revue. Mais la quasi-totalité du temps, celui-ci passe inaperçu dans les médias. Résultat, la population reste convaincue que les OGM provoquent le cancer (voir, par exemple, Huet 2018), que vivre à côté d’une ligne THT rend malade (Gouhier et al. 2008), que certains vaccins donnent des maladies graves63, etc.

Depuis quelques années les médias se dotent de cellules pour traquer les fausses informations64. On peut citer Les Décodeurs au Monde65, Vrai ou Fake de France Info66 ou encore Check News de Libération67.

Si les fake news semblent sous contrôle au moins des principaux médias, qu’en est-il de sujets comme le réchauffement climatique ? La couverture médiatique de cette catastrophe en cours n’est actuellement pas à la hauteur des enjeux de compréhension et d’action68. Les événements climatiques dus au réchauffement ne sont généralement pas traités comme dramatiques (notamment pour les canicules69), ce qu’ils sont, ou comme ayant un lien direct avec le réchauffement (comme les tempêtes et les inondations).

Néanmoins, les journalistes et les médias commencent à prendre conscience de leur rôle fondamental pour la diffusion des connaissances70.

1.5.6 Instiller le doute

Dans le domaine des technologies, nous avons vu que les « marchands de peur » avaient largement pignon sur rue. Il en est d’autres, les marchands de doute, dont l’action est largement dénoncée et documentée (voir par exemple : Oreskes & Conway 2012).

Les marchands de doute sont des industriels qui produisent de la science pour discréditer les effets néfastes de leurs produits en les relativisant. La stratégie fut mise au point par les marchands de tabac quand ils virent s’accumuler les preuves scientifiques de la toxicité de leurs produits. Ils ont ainsi pu retarder la prise de conscience collective du public et des décideurs politiques en semant le champ scientifique d’études minimisant l’impact du tabac tout en suggérant d’autres causes possibles pour les cancers observés. La stratégie a fonctionné à merveille, même si, in fine, la « vérité » scientifique ne peut plus être dissimulée. Mais le doute est instillé dans les esprits. La même stratégie a été adoptée par l’industrie pétrolière envers le réchauffement climatique pour créer ce mouvement climatosceptique mortifère qui perdure et continue de retarder la prise de décision politique. Ainsi que sur d’autres thématiques comme les pluies acides, le trou dans la couche d’ozone ou les pesticides.

L’enquête journalistique relatée dans Foucart et al. (2020), tout comme l’étude de Andreotti & Noûs (2020) accusent ainsi les industriels des pesticides, notamment mais pas seulement, d’avoir changé de stratégie depuis 15-20 ans en faisant relayer leurs messages de communication et d’instillation du doute envers le grand public pour minimiser les impacts de leurs produits sur la santé humaine et la biodiversité, par les défenseurs (souvent auto-proclamés) de la science, et autres associations rationalistes comme l’AFIS71. L’un des relais entre les défenseurs de la science et ces industriels serait les agences sanitaires (Factsory 2019).

La solution est de s’appuyer sur les références primaires qu’est la littérature scientifique issue de journaux à comité de lecture, et non sur les rapports des agences, qui peuvent être biaisés. Les « passeurs de science », vulgarisateurs ou journalistes scientifiques, dans ces domaines doivent ainsi être choisis avec soin.

1.http://www.lied-pieri.univ-paris-diderot.fr/

2.https://www.cnrtl.fr/definition/physique

3.https://www.cnrtl.fr/definition/chimie

4.Source : CNRTL, http://www.cnrtl.fr/lexicographie/rationalisme.

5.Source : CNRTL, http://www.cnrtl.fr/definition/empirisme.

6.Source : CNRTL, https://www.cnrtl.fr/definition/réfutable.

7.Voir par exemple les différents domaines universitaires dans les sections disciplinaires du Conseil national des universités : https://fr.wikipedia.org/wiki/Conseil_national_des_universités ou les différents instituts du CNRS : https://www.cnrs.fr/fr/la-recherche.

8.La vérité scientifique n’est pas synonyme de vérité absolue et ne représente pas forcément la réalité physique, même si elle tend à s’en approcher. Elle peut s’avérer fausse, puisque réfutable. Mais il n’est pas possible de prouver qu’elle est absolument et définitivement vraie.

9.La mémoire de l’eau est le nom donné en 1988, au cours d’une controverse médiatique, à une hypothèse du chercheur, médecin immunologue, Jacques Benveniste selon laquelle l’eau qui a été en contact avec certaines substances conserve une empreinte de certaines propriétés de celles-ci alors même qu’elles ne s’y trouvent statistiquement plus. (Source : Wikipédia, https://fr.wikipedia.org/wiki/Mémoire_de_l’eau )

10.L’expression médiatique fusion froide désigne des réactions supposées nucléaires à température et pression ambiante. La plus connue est celle qui semble être une fusion nucléaire réalisée selon des techniques dérivées d’une expérience réalisée par Martin Fleischmann et Stanley Pons en mars 1989. [. . .] Lorsque l’eau est électrolysée dans un vase entouré d’un calorimètre, il est possible de vérifier la loi de conservation de l’énergie en utilisant les théories de l’électricité, de la thermodynamique et de la chimie : l’énergie électrique en entrée, la chaleur accumulée dans le vase, l’énergie chimique stockée, et la chaleur s’échappant du vase s’équilibrent parfaitement. Lorsque la cathode est constituée de palladium, et lorsque l’eau est remplacée par de l’eau lourde, on s’attend aux mêmes transferts d’énergie. Fleischmann et Pons observèrent dans leurs expériences que, dans certains cas, la quantité de chaleur mesurée par le calorimètre semblait plus grande que prévue. Lorsqu’ils ont calculé la densité de puissance sur base du volume de la cathode, ils ont obtenu une valeur trop grande pour être explicable par une réaction chimique. Ils en conclurent provisoirement que l’effet pouvait être nucléaire, malgré l’absence de preuves expérimentales. (Source : Wikipédia, https://fr.wikipedia.org/wiki/Fusion_froide)

11.Une étude du consensus scientifique sur le réchauffement climatique a été faite, entre autres, par Cook et al. 2016, qui montre qu’entre 90 % et 100 % des scientifiques spécialistes du climat adhèrent au consensus depuis plus de 15 ans. D’un autre côté, un sondage en septembre 2019 (Bouchet-Petersen 2019) montre que 85 % des Français\(\cdot \)e\(\cdot \)s considèrent le dérèglement climatique comme « une réalité », et 84 % considèrent que ce dérèglement est dû à « l’activité humaine sur la Terre ».

12.Voir, par exemple : https://fr.wikipedia.org/wiki/Sérendipité.

13.Voir, par exemple : https://fr.wikipedia.org/wiki/Alexander_Fleming.

14.Voir, par exemple : https://fr.wikipedia.org/wiki/Radioactivité#Histoire.

15.Par exemple des éditeurs commerciaux comme Elsevier (https://fr.wikipedia.org/wiki/Elsevier) ou Wiley (https://onlinelibrary.wiley.com/) auraient voulu faire payer l’utilisation de figures issues d’articles scientifiques – parfois même anciens ! – publiés dans des revues leur appartenant, pour leur reproduction dans cet ouvrage en accès ouvert.

16.http://sites.unice.fr/site/broch/labo.html

17.Ensemble de phénomènes qui ne sont ni observables ni explicables scientifiquement, comme les ovnis, les fantômes, les esprits, la télékinésie, etc.

18.Un bémol cependant, car aucune des analyses « zététiques » du laboratoire de zététique de Nice (http://www.unice.fr/zetetique/), fondé par Henri Broch (et désormais fermé) n’a été publié dans des revues scientifiques à comité de lecture, court-circuitant ainsi un échelon fondamental de la méthode scientifique, celui de la revue par les pairs, comme en témoigne le livre grand public Charpak & Broch 2002. Voir aussi Andreotti & Noûs 2020, p. 24.

19.Un dogme est une affirmation considérée comme fondamentale, incontestable et intangible par une autorité politique, philosophique ou religieuse. (Source : Wikipédia, https://fr.wikipedia.org/wiki/Dogmatique)

20.D’après Diderot, Pensées sur l’interprétation de la nature. Aux jeunes gens qui se disposent à l’étude de la philosophie naturelle (1753), cité par Broch 2008b, p. 31.

21.id.

22.Le principe du rasoir d’Ockham (d’après le philosophe franciscain Guillaume d’Ockham (XIVe siècle)) consiste à ne pas utiliser de nouvelles hypothèses tant que celles déjà énoncées suffisent, à utiliser autant que possible les hypothèses déjà faites, avant d’en introduire de nouvelles, ou, autrement dit, à ne pas apporter aux problèmes une réponse spécifique, ad hoc, avant d’être (pratiquement) certain que c’est indispensable, sous peine de risquer d’escamoter le problème, et de passer à côté d’un théorème ou d’une loi physique. (Source : Wikipédia, https://fr.wikipedia.org/wiki/Rasoir_d’Ockham)

23.https://cortecs.org/language-argumentation/moisissures-argumentatives/

24.https://fr.wikipedia.org/wiki/Sophisme

25.https://fr.wikipedia.org/wiki/Vallée_des_Merveilles#Des_interprétations_isolées_et_controversées

26.Voir par exemple : https://bonpote.com/loi-de-brandolini-doit-on-repondre-aux-cons/.

27.On pourra lire le roman graphique de Apóstolos K. Doxiádis et Christos H. Papadimitriou, Logicomix (2008), sur sa vie et son œuvre.

28.Voir : http://www.unice.fr/zetetique/articles/HB_suaire_C14.html.

29.Différents modèles ont vu le jour au cours de l’histoire pour expliquer l’évolution des espèces. Les principaux sont :

  • le transformisme de Jean-Baptiste Lamarck, qui dit que les organismes s’adaptent à leur milieu ;
  • l’évolutionnisme de Charles Darwin, qui avance que l’évolution se fait par sélection naturelle. En d’autres termes, ce sont les organismes les mieux adaptés à leur environnement, grâce à de nouvelles mutations, qui survivent et transmettent leurs gènes ;
  • le néodarwinisme, qui conserve le concept de sélection naturelle, mais qui précise en plus que l’évolution est graduelle et que les changements évolutifs par mutation sont soit de type anagenèse (une nouvelle lignée remplace une ancienne), soit de type cladogenèse (deux nouvelles lignées se scindent à partir d’une lignée ancestrale) ;
  • les équilibres ponctués de Stephen Jay Gould et Niles Eldredge ne diffèrent du précédent modèle que sur un point : les espèces évolueraient lors de périodes ponctuelles séparées par des périodes stagnantes, et non de manière graduelle.

30.Un routeur est un appareil permettant aux « paquets » d’être acheminés vers leur destination.

31.Un serveur est un appareil fournissant des services à des clients, comme le stockage de pages web, de bases de données, de courriers électroniques. . .

32.Par ailleurs estimée à 8,011 milliards en janvier 2023. Voir http://www.worldometers.info/fr/population-mondiale/.

33.Source : https://ourworldindata.org/internet

34.De nombreuses études ont trait à ces marchands de doute que l’on regroupe sous le terme d’agnotologie (voir : https://fr.wikipedia.org/wiki/Agnotologie).

35.Voir par exemple : http://www.questiondebonsens.uquebec.ca/wikipedia_pourquoi.html

36.http://www.francoisguite.com/2008/05/des-professeurs-duniversite-utilisent-wikipedia/

37.https://fr.wikipedia.org/wiki/Homéopathie

38.https://www.universalis.fr/encyclopedie/homeopathie/

39.L’effet placebo est un procédé thérapeutique n’ayant pas d’efficacité propre mais agissant néanmoins par des processus psychologiques. Dans le cas d’un médicament, celui-ci ne contient pas de principe actif. Il est utilisé en recherche médicale pour les groupes contrôles pour tester l’efficacité de nouveaux médicaments. Il est néanmoins remis en question par certaines études récentes, comme celle de Hróbjartsson & Gøtzsche (2010) qui conclut : Nous n’avons globalement identifié aucun effet clinique important associé aux interventions placebos. Néanmoins, dans certains contextes, les interventions placebos peuvent avoir un impact sur les résultats rapportés par les patients, en particulier la douleur et les nausées, mais il est difficile de distinguer les effets rapportés par les patients d’un éventuel biais de notification. Les effets sur la douleur variaient (négligeables à cliniquement importants), y compris parmi les essais présentant un faible risque de biais. La variabilité des effets du placebo pouvait s’expliquer en partie par les variations observées en termes de mise en œuvre des essais et d’information des patients.

40.Voir aussi : https://en.wikipedia.org/wiki/Reliability_of_Wikipedia#False_biographical_information

41.https://fr.wikipedia.org/wiki/Jean-Noël_Savelli

42.https://fr.wikipedia.org/w/index.php?title=Jean-Noël_Savelli&action=history

43.https://gallica.bnf.fr

44.http://ecole.nav.traditions.free.fr/promotions.htm

45.https://www.qwant.com/maps/place/street:osm:way:244263570?client=search-ia-maps-address

46.Le nombre de livres ayant été imprimés a été estimé en 2010 à 130 millions (voir par exemple : https://mashable.com/2010/08/05/number-of-books-in-the-world). Une page imprimée recèle environ 2 ko d’information (texte et image). Le nombre de page moyen d’un livre est estimé à 200. Soit 400 ko, en moyenne, par livre. Ainsi, l’ensemble des livres imprimés représente environ 50 To de données.

47.zetta est le préfixe pour \(10^{21}\), donc 1 Zo correspond à \(10^{21}\) o soit \(10^{9}\) To, donc un milliard de disques durs de taille actuelle (2018) ; exa (E) est le préfixe pour \(10^{18}\) ; péta (P) est le préfixe pour \(10^{15}\).

48.Source : Les parts de marché 2017 des moteurs de recherche en France et dans le monde ! Vincent Brossas, 7 juin 2017, https://www.leptidigital.fr/webmarketing/seo/parts-marche-moteurs-recherche-france-monde-11049/.

49.Voir, par exemple : https://fr.wikipedia.org/wiki/Liste_de_moteurs_de_recherche

50.Quand j’ai démarré ce cours en 2014 le terme n’existait pas. Les fake news ou infox ont été popularisées en 2016 lors de l’élection de Donald Trump aux États-Unis. Depuis lors une quantité invraisemblable d’études et d’ouvrages sur cette question est parue.

51.Ce qui, au passage, est logiquement impossible : on ne peut pas prouver que quelque chose n’existe pas dans l’absolu. On ne peut pas prouver théoriquement l’impossibilité d’une relation entre deux phénomènes, seule la méthode statistique permet de montrer une éventuelle absence de relation (Biraud & Zarka 1998). Par exemple, je ne peux pas prouver que je ne suis pas Dieu. En revanche, si je l’étais, je pourrais le prouver, il me suffirait de faire un petit miracle.

52.Voir : https://fr.wikipedia.org/wiki/évaluation_des_risques

53.https://fr.wikipedia.org/wiki/Principe_de_précaution

54.Soffriti et al. (2006), First experimental demonstration of the multipotential carcinogenic effects of aspartame administered in the feed to Sprague-Dawley rats, Environ Health Perspect., 114, pp. 379-385. https://doi.org/10.1289/ehp.8711.

55.EFSA (1996), Opinion of the Scientific Panel on food additives, flavourings, processing aids and materials in contact with food (AFC) related to a new long-term carcinogenicity study on aspartame. EFSA-Q-2005-122, The EFSA Journal, 356, pp. 1-44. https://doi.org/10.2903/j.efsa.2006.356

56.Même si la citation dans leur livre d’un site web malhonnête comme « preuve » de l’existence de scénarios alternatifs au réchauffement climatique m’a conduit à penser que tout n’était pas à prendre pour argent comptant dans cet ouvrage ; sa lecture reste instructive, mais à considérer avec précaution !

57.Par ailleurs de plus en plus controversés !

58.https://fr.wikipedia.org/wiki/Aspartame#Controverse

59.Voir par exemple : Fagherazzi, Vilier, Saes Sortorelli, Lajous, Balkau & Clavel-Chapelon 2013, et https://presse.inserm.fr/les-boissons-light-associees-a-une-augmentation-du-risque-de-diabete-de-type-2/6541/

60.Pour une liste de nombreux biais répertoriés et étudiés, voir, par exemple : https://fr.wikipedia.org/wiki/Biais_cognitif.

61.Il en existe des livres entiers ; un seul exemple, éloquent, l’échiquier d’Adelson : https://fr.wikipedia.org/ wiki/Échiquier_d’Adelson.

62.Cité par Bronner & Géhin 2008, p. 58-59 ; Jean-Yves Nau, Le gouvernement renforce la sécurité transfusionnelle contre l’avis des experts, Le Monde, 17 octobre 2000.

63.Voir : http://blogs.univ-poitiers.fr/n-yeganefar/2013/03/10/vaccination-consequences-funestes-de-la-peur/

64.Voir une liste ici : https://www.leprogres.fr/societe/2020/04/08/cinq-sites-pour-vous-aider-a-demasquer-les-fake-news

65.https://www.lemonde.fr/les-decodeurs/

66.https://www.francetvinfo.fr/vrai-ou-fake/

67.https://www.liberation.fr/checknews/

68.Voir par exemple : https://bonpote.com/2e-rapport-du-giec-les-medias-encore-une-fois-pas-au-niveau/

69.Voir : https://bonpote.com/bikinis-enfants-qui-jouent-dans-leau-peut-on-mieux-illustrer-les-canicules/

70.Voir La Charte pour un Journalisme à la Hauteur de l’Urgence Écologique : https://chartejournalismeecologie.fr/

71.L’AFIS est l’Association Française pour l’Information Scientifique – https://www.afis.org/.

Note de l'éditeur : ce manuel comporte un ensemble d'hyperliens vers des pages de sites internet. Leur validité ainsi que l'accès aux informations correspondantes ont été contrôlés en date du 1er février 2023.