Accueil / Esprit critique / De la neutralité scientifique en terrain risqué

De la neutralité scientifique en terrain risqué

Publié en ligne le 20 août 2025 - Esprit critique et zététique -

Une idée autrefois consensuelle en philosophie est que les sciences devraient être neutres vis-à-vis des valeurs sociales. Leur but est de produire de la connaissance, elles visent le vrai et non pas le bien ou le souhaitable. Et donc les scientifiques devraient laisser leurs opinions morales et politiques au vestiaire du laboratoire pour se contenter d’y évaluer des faits : c’est uniquement à travers la confrontation au monde qu’on doit décider de ce qui est vrai ou faux. On parle à ce sujet d’idéal de neutralité axiologique [1].

Est-ce à dire, par exemple, qu’une scientifique qui décide de faire de la recherche contre le cancer parce qu’elle accorde de la valeur à la vie humaine est une mauvaise scientifique ? Et de même un chercheur qui, pour des raisons éthiques, refuse de faire souffrir des animaux pour tester un médicament ? Sûrement pas. En revanche, si l’on discrédite une théorie sous le seul prétexte qu’il s’agit de « science juive » ou de « science bourgeoise », comme on a pu le faire à une époque (sous les régimes nazi et stalinien respectivement), ou encore si l’on ignore délibérément des données parce qu’elles sont défavorables aux intérêts d’une entreprise commerciale ou d’une association militante, alors là, oui, on a affaire à une intrusion illégitime du contexte social dans la recherche. Voilà l’idée. Mais comment distinguer exactement les premiers cas des seconds ?

Constatons d’abord que les institutions scientifiques ne sont pas entièrement isolées du reste du monde. Quand il est question de recherche de financements, de mise en œuvre d’expériences, de collecte de données, d’applications technologiques ou de communication publique, le travail des scientifiques entre en interaction avec le monde extérieur, et il n’y a aucune raison qu’ils y soient exempts de toute responsabilité morale. Dans cette mesure, des jugements de valeur peuvent intervenir. Cependant, une part essentielle de l’activité des chercheurs est purement interne. Il s’agit notamment de proposer dans des revues spécialisées des hypothèses ou modèles qui semblent prometteurs et d’évaluer leur validité sur la base des données expérimentales disponibles. Et l’on pourrait avancer que c’est avec ce fonctionnement purement interne, le cœur de l’activité scientifique, qu’idéologies politiques, considérations morales et intérêts privés ne devraient pas interférer (pas même « pour la bonne cause »), sous peine de miner l’objectivité et l’impartialité de la connaissance produite (voir [2], même si l’auteure H. Longino ne défend pas elle-même l’idéal de neutralité).

Voilà qui peut sembler raisonnable. Et pourtant, l’idéal de neutralité axiologique, même ainsi cantonné, est très souvent contesté en philosophie des sciences contemporaine.

L’idéal de neutralité axiologique contesté : le risque épistémique

Écartons d’abord quelques mauvais procès en remarquant que l’on parle bien ici d’un idéal : il ne s’agit pas d’affirmer que cette activité interne à la science est parfaitement neutre, mais qu’elle devrait l’être. Ainsi, relever des biais sexistes en archéologie ou une influence de lobbys pharmaceutiques dans la recherche médicale, ce n’est pas critiquer l’idéal de neutralité, bien au contraire ! Si l’on pense que ces interférences sont problématiques pour la bonne marche de la science, c’est qu’on est d’accord, au fond, que la science devrait être neutre [3]. Pour vraiment critiquer cet idéal, il ne suffit pas de montrer que la neutralité fait parfois défaut : il faut montrer qu’elle n’est pas toujours souhaitable.

Les Œufs cassés (détail), Jean-Baptiste Greuze (1725-1805)

La raison fondamentale qui peut être avancée est que cette idée évoquée plus haut d’un cloisonnement strict entre activités internes et externes à la science est trop simpliste. Choisir un sujet d’intérêt dans lequel s’investir, par exemple l’étude de la biodiversité ou le changement climatique, serait une question externe sur laquelle les valeurs pourraient intervenir. Fort bien. Mais comment définir la biodiversité au moment de mettre en œuvre la recherche ? S’agit-il de compter les espèces, les individus, ou faut-il aussi prendre en compte leur variété et leur rôle dans l’écosystème ? Ou quels sont les meilleurs indicateurs pour mesurer le changement climatique ? Il y a fort à parier que les réponses à ces questions ne seront pas purement scientifiques : le concept de biodiversité étant intrinsèquement connoté comme « quelque chose à préserver », et le changement climatique comme « quelque chose à éviter », on ne peut faire l’économie de considérations morales ou politiques au moment de les rendre opérationnels, et ces considérations, inextricablement mêlées à d’autres plus théoriques ou factuelles, affecteront les conclusions obtenues [4].

Certes, mais une fois les concepts et indicateurs définis de manière transparente, on peut établir des conclusions sans faire appel aux valeurs sociales, et c’est cela qui compte, non ? Un argument central dans ce débat philosophique tend à remettre en question cette idée également : il s’agit de l’argument du risque épistémique. L’idée centrale est que si les valeurs ne devraient pas intervenir pour évaluer les hypothèses directement, elles pourraient toutefois entrer en jeu pour fixer les niveaux d’exigence à adopter dans cette évaluation. Imaginez qu’on vous demande de vérifier la solidité d’une sangle de sac à dos, puis celle d’un parachute. Prendrez-vous le même soin dans les deux cas ? Il semble légitime de redoubler de prudence au moment d’examiner la sangle de parachute, dans la mesure où des vies sont potentiellement en jeu. On parle ici de prendre en compte un type de risque particulier : celui de se tromper dans ses conclusions, que ce soit en jugeant vraie une hypothèse fausse (faux positifs) ou fausse une hypothèse vraie (faux négatifs). Notre tolérance à ces différents risques peut dépendre de jugements de valeurs, et certains auteurs pensent que de par sa nature, la gestion de ce type de risque serait intrinsèquement mêlée aux activités « internes » de la science.

La gestion du risque

Une réponse courante consiste à dire que les scientifiques peuvent et doivent déléguer la gestion du risque d’erreur au reste de la société, notamment en communiquant des degrés de certitude plutôt que des conclusions définitives, comme le fait par exemple le Giec [5], ou en demandant aux commanditaires des études de fixer les marges d’erreur acceptables quand il s’agit par exemple d’évaluer la toxicité d’une substance en vue de son interdiction éventuelle. À ceci, les défenseurs du risque épistémique répondent, de nouveau, que ces différents aspects ne peuvent être si facilement distingués des considérations scientifiques.

En effet, les prises de décisions potentiellement « risquées » peuvent avoir lieu à de multiples niveaux : non seulement au moment d’établir une conclusion sur la base des données disponibles en fixant un seuil statistique, mais aussi, en amont, au moment d’écarter des pistes de recherche jugées moins prometteuses, de choisir quelles données collecter, selon quelle méthode et avec quels instruments, de décider quand arrêter ou poursuivre la collecte, d’interpréter et classifier ces données (cette tumeur est-elle cancéreuse ? [6]) ou encore en aval, au moment de formuler ses conclusions (faut-il employer un langage sensationnaliste quand il y a des risques de récupération ? [7]). À tous ces niveaux, selon l’argument du risque épistémique, un scientifique responsable devrait prendre en considération les conséquences prévisibles d’une erreur éventuelle de sa part, et être plus prudent dans ses décisions si ces conséquences étaient graves [8]. Et pour certains, s’il est acquis que de tels jugements de valeur sont inévitables, il devient délétère de prétendre à une fausse neutralité des sciences. Au contraire, rendons explicite nos valeurs et débattons-en publiquement : voilà en quoi consisterait la bonne recherche.

Un argument problématique

Cet argument du risque épistémique est très influent aujourd’hui en philosophie des sciences. Notons que sa portée est relativement modeste : il ne concerne pas les recherches théoriques ou abstraites, mais seulement les contextes où la recherche informe directement la décision politique, avec des risques clairement prévisibles, mais où l’incertitude est importante et les ressources ou le temps trop limités pour la lever. Mais à mon sens, il reste problématique.

Ses défenseurs prétendent que l’argument est compatible avec une forme d’objectivité des sciences dans la mesure où les valeurs sociales impacteraient le niveau d’exigence des preuves plutôt que les hypothèses directement. Seulement c’est bien insuffisant : il suffit d’être démesurément exigeant envers les preuves qui vont à l’encontre de ses idées et excessivement permissif envers celles qui vont dans leur sens pour être virtuellement à l’abri de toute remise en question. Or une telle attitude ne peut être érigée en norme pour les sciences. À mon sens, le devoir du scientifique reste donc, au moins dans l’idéal, de maintenir des standards de preuve élevés en toute circonstance pour éviter d’avoir à émettre des jugements de valeur et d’externaliser ceux-ci autant que possible s’ils sont inévitables, en communiquant notamment des niveaux d’incertitude. Ce n’est pas d’adapter ses exigences au cas par cas en fonction de ses opinions politiques ou morales. C’est bien la crédibilité de la science comme institution impartiale qui est en jeu ici.

Cela étant dit, ces arguments ont au moins le mérite de montrer à quel point cet idéal est exigeant, dans la mesure où les questions de faits et de valeurs sont plus intriquées qu’on pourrait le penser de prime abord. Aussi, la prochaine fois que vous serez tenté de juger que vos interlocuteurs sont irrationnels à refuser de réviser leurs croyances face aux faits, peut-être pourriez-vous vous demander s’ils n’évaluent pas plutôt le risque de se tromper d’une manière différente de la vôtre.

Références


1 | Weber M, "The meaning of ‘ethical neutrality’ in sociology and economics", in Methodology of social sciences, Free Press, 1949
2 | Longino H, Science as social knowledge, Princeton University Press, 1990.
3 | Ruphy S, "Empiricism all the way down", Perspectives on Science, 2006, 14:189-214
4 | Ludwig D, "Ontological choices and the value-free ideal", Erkenntnis, 2016, 81:1253-72
5 | Betz G, "In defence of the value free ideal", European Journal for Philosophy of Science, 2013, 3:207-20
6 | Douglas H, "Inductive risk and values in science", Philosophy of Science, 2000, 67:559-79
7 | Havstad J, "Sensational science, archaic hominin genetics, and amplified inductive risk", Canadian Journal of Philosophy, 2022, 52:295-320
8 | Brown M, "For values in science : assessing recent arguments for the ideal of value-free science", Synthese, 2024, 204:112

Publié dans le n° 352 de la revue


Partager cet article


L'auteur

Quentin Ruyant

Chercheur post-doctorant en philosophie des sciences à l’université de Lisbonne. Il travaille sur le rapport entre (…)

Plus d'informations