Copyright Millennium Press, Inc. 2003. Provided by ProQuest LLC. For permission to reuse this article, contact Copyright Clearance Center

Dans le roman Contact de Carl Sagan, l'héroïne Ellie Arroway parvient à voyager à travers des trous de vers dans des régions inconnues de l'univers, rencontrer une vie extraterrestre intelligente, et revenir saine et sauve sur Terre pour raconter à ses collègues son incroyable voyage Sagan, C.: 1985. Contact. NewYork: Simon & Schuster.. Il y a juste un problème : personne ne la croit. L'ensemble de l'aventure d'Ellie est intervenu en l'espace de quelques instants, et les observateurs n'ont même pas vu son vaisseau spatial quitter le site de lancement. Incapables de documenter ses prétendues expériences, les collègues d'Ellie concluent qu'il n'y a simplement aucun élément probant prouvant que son aventure a bel et bien eu lieu.

Bien sûr, en tant que lecteurs du roman, nous savons que Ellie dit vrai et que ses collègues ont tort. Pourquoi ne la croient-ils pas alors ? Ils doutent de son histoire parce que, en bons scientifiques, les pairs d'Ellie examinent toutes les hypothèses en utilisant le principe honoré du Rasoir d'Ockham. C'est-à-dire que, toutes choses étant égales par ailleurs, l'hypothèse la plus simple est la plus susceptible d'être correcte. Ils passent en revue la déclaration élaborée d'Ellie, qui implique des excursions ahurissantes bien au-delà de la portée de la science établie, et trouvent l'histoire fantastiquement improbable. Ellie elle-même doit admettre que la lame finement aiguisée du Rasoir d'Ockham semble découper son histoire en morceaux.

Bien que Ellie et son sort soient fictifs, son harrowing brush with Rasoir d'Ockham soulève des questions intéressantes pour les sceptiques. Comme les collègues scientifiques de Ellie, nous avons appris à accepter le Raisoir d'Ockham comme un outil puissant pour éliminer les fausses théories. Mais comment savons-nous que la maxime honorée le plus simple est le mieux nous mènera toujours sur la voie royale de la vérité ? Comment pouvons-nous dire, avant d'autres investigations, que les théories simples sont automatiquement plus susceptibles d'être vraies que des théories complexes ? Ne se pourrait-il pas que le Rasoir d'Ockham, considéré par de nombreux sceptiques comme l'arme la plus sûre contre les pseudosciences, soit simplement une supposition philosophique non prouvée ? Si tel est le cas, peut-être partagerons-nous le sort des collègues d'Ellie et rejetterons-nous les réponses correctes simplement parce qu'elles ne se conforment pas aux attentes préalables.

Cet article présente un bref aperçu historique du principe, et cite des exemples de mauvaise utilisation du Rasoir d'Ockham pour soutenir des théories douteuses et comment cette mauvaise utilisation a mené au rejet d'une bonne science. Cette discussion débouche sur une tentative d'identifier les limites et les qualifications nécessaires pour appliquer le principe de manière adéquate lors d'un choix entre plusieurs théories. Je tente alors de déterminer quelle justification, s'il y en existe une, nous pouvons avoir pour utiliser le Rasoir d'Ockham, et argue que les sceptiques devraient apprendre à utiliser le principe avec précaution en conjunction avec d'autres critères de sélection de théorie. J'espère montrer que le Rasoir d'Ockham est une arme dangereuse lorsqu'elle est mal maniée, mais que ceux qui suivent les précautions de sécurité adaptées le trouveront être un outil précieux pour évaluer des théories.

L'histoire du Rasoir d'Ockham

Le principe du Rasoir d'Ockham est nommé d'après que William d'Ockham (1285-1349), un philosophe et théologien médiéval distingué. Contrairement aux idées reçues, Ockham n'a pas inventé le principe qui lui a été associé. L'idée que la simplicité et l'efficacité sont des avantages importants d'une théorie remonte au moins à Aristote, qui a déclaré que plus une nature est parfaite, moins elle nécessite de moyens pour se réaliser Ross, W. D. 1930. The Works of Aristotle, traduit en anglais, vol. II. Oxford: Clarendon.. Des siècles après l'époque d'Ockham, Isaac Newton citait aussi le principe de simplicité dans son Principia Mathematica : Nous ne devons admettre plus de causes aux choses naturelles que celles qui sont à la fois vraies et suffisantes pour expliquer leurs apparences Newton, I.: 1999. The Principia: Mathematical Principles of Natural Philosophy, Berkeley: University of California Press..

Ockham souligna le principe de parcimonie comme un antidote aux diverses suppositions injustifiées qu'il percevait dans la philosophie de son époque. Il utilisa un certain nombre de formulations différentes du principe dans ses écrits. Il déclara, par exemple, qu'il est futile de faire avec plus ce qui peut être fait avec moins, et peut-être de manière plus connue, que la pluralité ne doit pas être supposée sans nécessité Boehner, P.(ed.) 1957. Ockham: Philosophical Writings. Edinburgh: Nelson.. Un terme courant pour le concept est la parcimonie. Les formulations d'Ockham sont assez au niveau des définitions modernes de la parcimonie, qui indique que les modèles les plus parcimonieux sont ceux nécessitant le moins de suppositions Schick Jr, Theodore & Vaughn, Lewis (1999): How to Think About Weird Things. 2nd Ed. Mountain View, California: Mayfleld Publishing. Pour une revue excellente de la méthodologie utilisée pour évaluer les nouvelles théories scientifiques, consulter Friedlander, Michael W. 1995. At the Fringes of Science. Boulder, CO: Westview Press..

L'utilisation par Ockham du principe était spécifiquement destinée aux champions de l'école philosophique connue sous le nom de réalisme, qui défendait la réalité de traits appelés universels. Les universels sont des concepts touchant aux caractéristiques d'individus ou de groupes d'individus. Par exemple, supposez que nous parlions de la sagesse d'Aristote, ou de l'héroïsme de Socrate. Un réaliste déclarerait que ces idées de sagesse et d'héroïsme ne sont pas simplement des concepts créés par notre esprit, mais aussi des vérités éternelles sur la réalité. Des nominalistes comme Ockham et son mentor Duns Scotus rejetaient le concept d'universels comme étant une supposition non nécessaire qui n'apporte pas grand chose à notre compréhension, et apporte peut-être même plus de confusion McGrath, Allster: 2001. Christian Theology: An Introduction. Oxford: Blackwell.. Les universels pourraient être utiles pour visualiser et parler de nos perceptions du monde, mais ils n'existent pas nécessairement dans la réalité objective. Et si il y a vraiment un royaume caché d'universels immuables quelque part, nous n'avons pas besoin de suppose l'existence de ce royaume quand il s'agit d'expliquer complètement et entièrement le monde. Pourquoi ne pas simplement éviter les suppositions qui ne sont pas nécessaires ?

En tant que sceptiques, nous pourrions demander comment Ockham conciliait son soutien de la parcimonie philosophique et ses croyances théologiques. Après tout, la croyance en Dieu n'est-elle pas l'exemple ultime du type d'universel que Ockham rejetait ? Nous pouvons certainement arguer que le concept de Dieu représente simplement la synthèse de tous les concepts sur la vie qui nous importent le plus - l'amour, la justice et la compassion, par exemple. Nous pouvons décrire ces concepts et en discuter sans avoir à proposer l'existence d'une déité. Peut-être savons-nous aussi que nombre de cosmologistes pensent que l'univers a d'une certaine manière toujours existé, et nous pouvons voir qu'il n'y a pas de raisons scientifiquement ou logiquement nécessaires de croire en Dieu, Ockham, cependant, n'a pas utilisé le principe de parcimonie pour remettre en question l'existence d'une déité. Bien qu'il a toujours maintenu que la pluralité ne devrait pas être supposé sans nécessité, sa vie et ses habitudes de pensée personnelles lui convainquirent que la réalité de Dieu était en fait nécessaire. De la même manière, il trouva la religion révélée telle que racontée dans la Bible comme étant absolument essentielle à la compréhension de la nature de ce Dieu.

Bien sûr, rien de ceci ne vise à déprécier Ockham, ou à dire que l'usage adéquat du Rasoir d'Ockam nous oblige à croire en Dieu. Cependant, l'exemple précédent montre bien que reposer sur la parcimonie ne nous mènera pas tous aux mêmes conclusions. Certains d'entre nous pourraient considérer une certaine idée comme essentielle, tandis que d'autres penseront différemment. En fait, les supporters et ennemis d'une théorie donnée utilisent souvent le principe du Rasoir d'Ockham avec une passion égale. Les 2 parties ne pouvant avoir raison, it should go without saying that Ockam's Razor ne mène pas toujours à la meilleur théorie possible.

Bien que certains d'entre nous pourraient penser autrement, trop se reposer sur la "simplicité" mène à l'erreur plus souvent qu'elle mène à la vérité. En adoptant n'importe quelle théorie qui semble subjectivement plus simple que des théories rivales, nous risquons d'accorder trop d'attention à d'autres critères importants d'évaluation de théories. Et lorsque la simplicité perçue d'une théorie commande trop de notre attention, la porte est ouverte à rejeter n'importe laquelle et toutes les théories que nous trouvons personnellement trop complexes à comprendre.

Abus du Rasoir d'Ockham

Des exemples d'abus du Rasoir d'Ockham dans le soutien de théories qui ne le méritaient pas sont nombreux. Des pseudoscientifiques invoquent souvent le Rasoir d'Ockham pour défendre des théories apparemment simples discreditées par la science établie. Ils nous régalent d'histoires sur les fantômes, extraterrestres, monstres des forêts et autres phénomènes "inexpliqués", puis secouent leurs têtes avec impatience lorsque des scientifiques contestent la validité de leurs "preuves". Aren't scientists just grasping at straws when they refute the stories of the thousands of people who have experienced these strange happenings? L'explication la plus simple d'événements paranormaux, au moins pour les paranormalists, est que les événements sont exactement ce qu'il semblent être. Pourquoi avons-nous besoin d'explications complexes de photos de fantômes, par exemple, alors que nous pouvons simplement supposer que le bout de lumière non-identifié dans notre photo de Gettysburg est le spectre d'un soldat de la Guerre Civile ?

Les créationnistes sont particulièrement doués pour utiliser la simplicité apparente pour attaquer la science établie. Qui a besoin d'une théorie de l'évolution tirée par les cheveux, demandent-ils ? Nous n'avons pas besoin de passer en revue toute cette recherche issue de la géologie, la génétique, la biologie dévelopementale et l'anatomie prétendant démontre que toute vie sur terre a lentement évolué en descendant d'ancêtres communs. Il est bien plus simple de simplement dire Dieu l'a fait et de s'arrêter là. En prétendant adopter le principe du Rasoir d'Ockham, les créationistes donnent à leurs théories le veneer de la rigueur intellectuelle. Ils déclarent être plus scientifiques que les scientifiques, qui veulent simplement tout compliquer avec leurs théories alambiquées et contestations de la simple foi en l'autorité biblique.

Parfois, des abus de la simplicité renforce les stéréotypes sur certains groupes. Par exemple, certains scientifiques sociaux arguent que l'infériorité génétique est la plus simple et donc la plus probable explication aux capacités inférieures mesurées chez les personnes de couleur sur des tests d'intelligence standardisés Gould, Stephen Jay: 1996. The Mismeasure of Man. New York: W. W. Norton.. Après tout, il est plus "simple" de juste supposer que les personnes de couleur sont inférieures au lieu d'expliquer les effets complexes de la culture, l'histoire, l'économie et le racisme sur les performances de leurs tests. D'un autre côté, les généticiens comportementaux et psychologues évolutionnistes arguent que leur explication des différences de groupes sont plus complexes que les explication sociales et culturelles, et qu'ainsi la charge du Rasoir d'Ockham s'applique aux sociologues et non aux sociobiologistes.

Malheureusement, même des sceptiques sont connus pour enlist le Rasoir d'Ockham dans la défense de théories douteuses. Prétendant suivre la méthode scientifique, ces sceptiques maintiennent que le Rasoir d'Ockham est juste un exemple du principe de réductionnisme, qui tente d'expliquer les phénomènes complexes en termes de modèles plus simples. Ces sceptiques clament que le réductionnisme est à la base-même de l'investigation scientifique. Dans une certaine mesure, ils ont raison, puisqu'une théorie doit être plus simple que le phénomène qu'elle cherche à expliquer si elle veut être d'une utilité quelconque. Cependant, les sceptiques vont parfois un peu trop loin dans le réductionnisme.

Prenons les exemples de la psychologie évolutionniste et de sa cousine proche, la mémétique. Alors que de nombreux psychologues évolutionnistes sont modestes et responsables lorsqu'ils discutent de la portée de leur théorie, certains de leurs pairs ne sont pas si prudents. Des psychologues évolutionistes zélés cherchent à expliquer tout de la nature humaine, y compris la conscience, les attitudes sexuelles, les croyances religieuses et les sentiments moraux en termes de d'avantages évolutionnaires conférés par ces traits. A un certain point de notre environnement ancestral, les traits que nous associons à la nature humaine se sont développés et ont amené les personnes (ou proto-personnes) qui possédaient ces traits à se reproduire avec plus de succès que ceux qui manquaient de ces traits. Par conséquent, raisonnent les psychologues évolutionistes, chaque aspect de la nature humaine existe parce qu'il sert une fonction importante dans notre passé évolutionaire, et a contribué à la fitness sélective des espèces. Même quelque chose d'aussi apparement trivial que notre sweet tooth pourrait avoir évolué pour de bonnes raisons, puisqu'elle pourrait avoir conferré un avantage à nos ancêtres lorsque les fournitures en sucre étaient relativement rares Wright, Robert. 1995: The Moral Animal: Why We are the Way We Are. New York: Vintage Books.. Selon certains psychologues évolutionnistes, la sélection naturelle agit comme un "algorithme universel", déterminant pratiquement tout de la nature humaine Dennett, Daniel. 1995: Darwin's Dangerous Idea: Evolution and the Meanings of Life. New York: Touchstone Books..

La mémétique amène l'idée de la sélection naturelle comme algorithme universel encore plus loin en postulant l'existence d'entités appelée memes, définies comme d'hypothétiques unités d'information transférées de personne en personne. Un meme peut être n'importe quoi depuis un solo de guitare, un stanza de poésie, un dogme religieux ou un slogan politique Blackmore, Susan: 2000. The Meme Machine. Oxford: Oxford University Press.. Les memes survivent et se reproduisent ou disparaissent, de manière analogue à la sélection naturelle des gênes. Pour les méméteciens, cette théorie explique pourquoi des idées se répandent et s'établissent avec plus de succès que d'autres. Les idées religieuses, par exemple, se reproduiraient de la manière dont les virus se reproduisent dans le corps d'un organisme l'hébergeant : elles infectent une personne otherwise healthy and rational et remplissent sa tête d'absurdités plaisantes sur l'existence d'un Dieu et d'une vie après la mort. En fait, one of the main appeals of both evolutionary psychology and memetics to some skeptics is the simplistic materialism of both theories, and their usefulness in dispensing with religious claims.

Tous ces abuseurs du Rasoir d'Ockham ne comprennent pas que la simplicité n'est pas un critère à utiliser de manière isolée d'autres facteurs évaluateurs importants. Le principe du Rasoir d'Ockham ne nous dit pas que le plus simple est toujours le mieux, il dit simplement que la théorie la plus simple est meilleure si tous les autres facteurs sont égaux. Ainsi, la simplicité doit être considérée comme un facteur parmi d'autres. D'autres facteurs utilisés pour évaluer la valeur d'une théorie particulière incluent : Schick & Vaughn, 1999. Op. cit.:

  • Testabilité : Une hypothèse devrait idéalement prédire quelque chose d'autre que le phénomène qui amena son introduction, et ces prédictions devraient être ouvertes à la vérification ou la falsification. Par exemple, il y a une loi de la physique qui nous dit qu'une force est le produit de la masse d'un objet et de son accélération. Pour tester cette théorie, nous pouvons appliquer une force à un objet particulier puis mesurer son accélération. Si l'accélération a la valeur attendue, nous montrons que cette loi de la physique passe le critère de testabilité.
  • Fécondité : Une hypothèse devrait idéalement faire de nouvelles prédictions sur des phénomènes actuellement inconnus qui n'auraient pas pu être faites sans elle. La théorie de la relativité d'Einstein a prédit que la lumière d'une étoile passant près d'un grand corps comme le soleil devrait montrer une déviation apparente de sa position véritable. Le physicien Arthur Eddington mesura cette déviation lors d'une éclipse solaire en 1919 et découvrit qu'elle était égal au montant prédit par la théorie de la relativité. Einstein utilisa sa théorie pour prédire avec succès un phénomène que personne ne savait jusqu'alors exister, et démontra la fécondité de la relativité.
  • Portée : Idéalement, des hypothèses devraient expliquer ou prédire une large variété de phénomènes, et devrait organiser notre connaissance du monde mieux que des théories concurrentes. La théorie de la sélection naturelle de Charles Darwin n'explique pas seulement comment de nouvelles espèces se développent à partir d'autres espèces, mais révèle de nouvelles idées sur l'anatomie, la physiologie, l'embryologie, la pathologie microbienne et tout autre domaine des sciences biologiques. La théorie nous permet d'acquérir une compréhension plus profonde de la biologie qui est simplement inatteignable sans son utilisation. Comme le grand biologiste Theodosius Dobzhansky le fit une fois remarquer, rien dans la biologie n'a de sens sauf à la lumière de l'évolution. Par conséquent, nous disons que la théorie est préférable à d'autres théories en partie à cause de sa portée plus large.
  • Conservatisme : Une hypothèse ne devrait pas entrer en conflit avec la connaissance bien établie, ou savoir établi. Si un conflit semble intervenir, l'hypothèse devrait expliquer l'écart, et incorporer tous notre connaissance antérieure sur le phénomène investigué dans un modèle nouveau et meilleur. La théorie de la relativité pourrait sembler contredire certaines des prédictions d'un modèle purement Newtonien, mais Einstein a montré que la théorie de relativité incorpore en fait la physique Newtonienne, et fait des prédictions supplémentaires inatteignable sans utiliser la relativité. La relativité n'a pas réfuter la mécanique Newtonienne. Elle a conservé l'information contribuée par la théorie et lui a ajouté un pouvoir explicatoire et prédictif supplémentaire.

Il n'existe pas de règles rigides pour appliquer ou soupeser ces critères, mais les bonnes théories tendent à satisfaire l'un d'entre eux ou plus. Les théories inadéquates, au contraire, échouent de constamment à rencontrer la plupart de ces critères. Par exemple, considérons la proposition que le morceau de lumière flou sur ma photo de Gettysburg est un fantôme. Nous pouvons dire que cette théorie n'est certainement pas testable, puisqu'il n'y a aucune manière de confirmer la présence du fantôme. Le hypothèse du fantôme n'est également pas féconde, parce qu'il s'agit juste d'une hypothèse ad hoc inventée pour expliquer une anomalie unique dans notre photographie. La théorie n'ajoute pas quoi que ce soit à notre compréhension ou nos connaissances, et a donc un champ très médiocre. Il n'est pas conservatrice non plus parce qu'elle contredit beaucoup de connaissance établie. Cette connaissance établie nous dit, eutre autres choses, qu'une entité noncorporée hypothétique comme un fantôme ne pourrait apparaître sur une photographie, parce qu'elle devrait posséder de la matière pour réflechir la lumière vers l'objectif de notre appareil. Finalement, la notion de fantôme est loin d'être simple, puisqu'elle propose un eêtre avec des caractéristiques et pouvoirs supposés que même les paranormalistes semblent incapable de décrire de manière cohérente.

Maintenant, considérons l'hypothèse alternative que l'image dans notre photo est simplement une aberration causée par des problèmes techniques avec notre appareil. Cette théorie est testable, parce que nous pouvons essayer avec divers paramétrages de notre appareil de reproduire des images semblabels à celle de notre photo fantômatique Nickell, Joe. 2001: "Ghostly Photos." In Real-Life X-Files: lnvestigating the Paranormal. Lexington, KY: University Press of Kentucky, 128-132.. La théorie est aussi féconde, parce qu'elle nous permet de prédire que certains réglages de d'appareil provoqueront des types spécifiques d'"images spectrales", même si des chasseurs de fantômes n'ont pas encore rapporté ces types d'image. La théorie a aussi une bonne portée et un bon conservatisme, parce nous permettant d'expliquer une large varieté d'images photographiques "mystérieuses" d'une manière tout à fait cohérente avec notre connaissance établie du monde. Et oui, il s'agit d'une théorie plus simple parce qu'elle ne nous demande pas de faire des suppositions compliquées ou douteuses. Pas la peine de se demander pourquoi les sondages de scientifiques appartenant à l'Académie Nationale des Sciences (NAS), une organisation d'élite constituée des meilleurs scientifiques dans leur domaine, montre régulièrement que presque aucun membre de la NAS ne croit aux fantômes. Une familiarité avec les critères de bonne science engendre un mépris pour les explications ad hoc.

Mais ne soyons pas trop béats. Nous avons vu que même des scientifiques et des sceptiques peuvent trop soutenir la simplicité dans leurs efforts pour évaluer des théories, comme dans les cas de de psychologues évolutionaires et méméticiens trop ambitieux. Chacun de ces groupes de supposés sceptiques feraient bien de revoir un peu plus les critères de testabilité, fécondité, portée et conservatisme. Dans leur soutien extrême à la sélection naturelle, ces groupes ignorent le fait que la beaucoup du changement évolutionnaire n'est pas complètement adaptif, mais résulte d'une pluralité de facteurs tels que la dérive et la contingence génétiques Ridley, Mark. 1996: Evolution. Oxford: Blackwell. Gould, Stephen Jay. 1997. "Evolution: The Pleasures of Pluralism." The New York Review of Books, June 26.. Les 2 théories ne sont pas conservatrices, puisqu'elles contredisent une connaissance bien-établie, et elles ne sont pas fécondes parce qu'elles ne prédisent ou n'expliquent pas de phénomènes mieux que des théories concurrentes. La mémétique, par exemple, déforme et contredit parfois complètement le modèle complexe de transmission culturelle d'idées présenté par les sciences sociales établies Polichak, James W. 1998. "Memes: What are They Good For? A Critique of Memetic Approaches to Information Processing." Skeptic, Vol. 6, n° 3, pp. 45-53.. Lorsque des scientifiques oublient d'utiliser la parcimonie en prudente conjonction avec d'autres critères, ils ne sont pas beaucoup plus performants que des pseudoscientifiques dans la séparation de la bonne science de la mauvaise.

Par conséquent, nous pouvons voir que la parcimonie est un critère parmi plusieurs pour évaluer des théories, et aucun de ces critères n'a une priorité claire sur les autres. Mais nous n'avons toujours pas déterminé pourquoi la simplicité devrait être un critère pour évaluer les mérites d'une théorie. Pourquoi la simplicité est-elle une vertu lorsqu'il s'agit de de théories scientifiques ?

Justification du Rasoir d'Ockham

Avant que nous puissions déterminer pourquoi la parcimonie tend à être un attribut de bonnes théories scientifiques, nous devons déterminer notre but final dans la sélection d'une théorie. C'est-à-dire, qu'espérons-nous accomplir ? Clairement, nous devons savoir ce que nous voulons avant de pouvoir justifier les meilleures manières d'y parvenir. La réponse qui vient immédiatement à l'esprit est que nous souhaitons déterminer quelles théories sont vraies. Après tout, la recherche de la vérité semble être the whole point of doing science. Cependant, il y a des moments où la théorie vraie, au moins au sens le plus strict, pourrait ne pas être le meilleur choix.

Examinons un exemple adapté d'un article important du philosophe des sciences Elliot Sober Sober, E.: "Instrumentalism, Parsimony and the Akaike Framework", 2000. Proceedings of the Philosophy of Science Association. Supposez que nous soyons intéressés par la mesure des effets d'un nouveau fertilisant sur la pousse du maïs. Nous mesurons les hauteurs du maïs dans 2 grandes populations, consistant en une population cultivée avec le nouveau fertilisant et une cultivée avec l'ancien fertilisant. Puis, nous comparons les hauteurs moyennes des populations. Si u(f) et u(o) sont les hauteurs moyennes des populations de maïs avec et sans le nouveau fertilisant, respectivement, alors les 2 hypothèses à considérer sont

  1. Nulle : u(f) = u(o)
  2. Diff : u(f) Σ u(o)

L'hypothèse nulle dit qu'il n'y a pas de différence entre les hauteurs moyennes des 2 populations. Nous savons qu'il doit y avoir une différence dans les hauteurs moyennes de 2 populations contenant, disons, chacune des milliers d'épis de maïs. Cependant, les scientifiques, à raison, ne rejettent pas l'hypothèse nulle à moins que la différence entre les moyennes soit statistiquement significative. C'est-à-dire, que les scientifiques acceptent provisoirement une hypothèse qu'il savent être techniquement fausse.

Pourquoi les scientifiques feraient-ils une telle chose ? Ils refusent de rejeter l'hypothèse nulle dans ces circonstances parce qu'un objectif principal de la science est une exactitude des prédictions. Comme nous l'avons vu précédemment, les theories scientifiques devraient rendre testables et fécondes les prédictions afin qu'elles nous soient utiles. Afin de maximiser le pouvoir prédictif de leurs théories, les scientifiques souhaitent installer un degré de vérité moindre. Dans de nombreux cas, y compris les 2 populations de maïs de notre exemple actuel, les hypothèses nulles fonctionnent mieux pour prédire de nouvelles données que les hypothèses répondant à une définition plus rigide de la vérité.

Bien sûr, il faut souligner que la recherche du pouvoir prédictif ne veut pas dire abandonner la quête de vérité. Les théories prédisant le plus exactement doivent posséder un degré de vérité. Comme le philosophe des sciences Ernest Nagel l'a mis en avant, il y a peu ou pas de différences entre chercher activement des théories ayant une exactitude prédictive et celles prétendant au réalisme Nagel, Ernest: 1979. The Structure of Science. Indianapolis: Hackett.. Si les théories vraies font les précisions les plus exactes, alors maximiser la prédiction débouchera sur un certain degré de vérité. C'est juste que la meilleure théorie ne conviendra probablement pas parfaitement à nos observations empiriques. C'est-à-dire qu'il n'y aura probablement pas de parfait "ajustement" entre nos observations et les valeurs prédites par notre théorie. Les modèles avec une correspondance parfaite pourraient simplement être une reproduction de nos observations empiriques, et pourraient échouer à prédire de nouveaux ensembles de données.

Comme autre exemple, supposez que nous soyons intéressé par la détermination de la relation entre une variable indépendante (x) et une variable dependante (y). Nous réalisons une série de mesures de x et de y, et traçons les résultats sur un graphique de coordonnées. Le resultat de notre tracé est un groupe de points suivant grossièrement une ligne droite, comme montré en figure 1. Le modèle le plus exact de ces données serait une fonction complexe reliant tous les points. Cependant, la plupart des scientifiques diraient que nous pouvons modéliser les points comme une ligne droite avec une pnete m et une intersection c à y comme montré sur la figure.

Il y a au moins 2 raisons de faire ainsi. D'abord, même dans la meilleure des situations, une déviation entre la véritable valeur d'un paramètre et la valeur mesurée interviendra. Si la relation véritable entre x et y est représentée par la ligne droite, alors une courbe complexe et dentelée reliant les points sera incorrecte, même si elle correspond exactement aux données empiriques que nous avons recueillies ! Secundo, comme nous l'avons vu, un modèle devrait être sélectionné en partie sur la base de sa capacité à prédire de nouvelles données. Le processus de sélection de données est double : nous évaluons des données empiriques pour choisir les modèles les plus probables, puis soumettons ces modèles à des tests ultérieurs basés sur leurs prédictions Forster, Malcom: "The New Science of Simplicity", in A. Zellner, H.A. Keuzenkamp, & M. McAleer (eds.) 2001. Simplicity, Inference and Modeling. Cambridge: Cambridge University Press, 83-119.. Des modèles plus simples pourraient nous aider à faire de meilleures prédictions avec une plus grande facilité que des modèles plus complexes.

Ainsi, nous voulons des théories faisant une approximation de ce que nous nous représentons couramment comme la vérité, mais nous permettant aussi de faire des prédictions utiles et testables. Et it aims out que la simplicité d'une théorie a une influence sur ses capacités prédictives. La simplicité d'une théorie, mesurée en termes du nombre de variables ou de paramètres ajustables qu'elle contient, affecte l'exactitude et la portée de ses prédictions. Par exemple, l'hypothèse (1) ci-dessus est une théorie plus simple que (2), puisqu'il n'y a qu'un seul modèle qui montre que les hauteurs moyennes des populations sont les mêmes, et de nombreux modèles possibles montrant qu'elles sont différentes. Mais dans notre cas, l'hypothèse nulle plus simple fait un meilleur travail pour prédire de nouvelles données que l'hypothèse plus complexe (2). Under the range des ensembles de données under investigation, l'hypothèse plus simple est supérieure, parce qu'elle échange une perte de "vérité" statistiquement insignifiante contre un grand accroissement du pouvoir prédictif.

Une relation entre simplicité et prediction est démontrée en figure 2 ci-dessous. Supposez que nous ayons 2 modèles qui correspondent à nos données empiriques à peu près égaux : une hypothèse simple représentée par H1, et une hypothèse complexe représentée par H2. L'hypothèse simple H1 fait une série limitée de prédictions, mais elle prédit les données dans la région C1 plus exactement que l'hypothèse complexe H2. Ainsi, nous préférons H1 si notre ensemble de données tombe dans l'intervalle représenté par C1, mais nous pourrions préférer H2 si les données tombent hors de cet espace.

Ces exemples montrent que la sélection de modèle est un processus complexe impliquant la considération et la réconciliation de plusieurs critères évaluatifs. La manière dont nous pesons et appliquons ces critères dépend, en partie, de nos buts ultimes, par exemple, souhaitons-nous maximiser l'ajustement, l'exactitude prédictive ou la portée ? Notre choix déterminera l'importance relative que nous accorderons à la simplicité dans le choix de notre théorie. Par chance, des modèles mathematiques existent pour nous aider à quantifier exactement ce que nous gagnons et perdons dans nos trade-offs among different criteria. La figure 2 ci-dessus est un modèle dérivé utilisant une théorie statistique connue sous le nom de théorie Bayesienne qui récompense les modèles les plus simples pour leurs prédictions plus exactes dans certains intervalles de données. Comme nous l'avons déjà vu, ce modèle nous permet de déterminer la relation entre pouvoir prédictif, simplicité et portée. Un outil mathématique connu sous le nom de méthode Aikake nous permet également de quantifier le degré avec lequel la simplicité et l'ajustement contribuent toutes les 2 à l'exactitude prédictive attendue d'un modèle Forster, Malcolm & Sober, Elliot. 1994. "How to Tell When Simpler, More Unified, or Less Ad Hoc Theories Will Provide More Accurate Predictions", British Journal for the Philosophy of Science, vol. 45, 1-35. Aikake, H. 1973. "Information Theory as an Extension of the Maximum Likelihood Principle", in B. Petrov & F.Csaki (eds.) Second International Symposium on Information Theory. BudapestAkademia Kiado, 267-281.. Nous avons des choix dans la sélection d'une théorie, mais pas des choix arbitraires. L'utilisation de modèles mathématiques comme les méthodes Bayesienne et Aikake nous fournissent des estimations fiables des rôles relatifs de la simplicité et d'autres facteurs pour déterminer la valeur d'une théorie donnée.

Ces modèles nous permettent aussi de donner une réponse finale à la question de savoir si le Rasoir d'Ockham repose sur des suppositions philosophiques non prouvées. La réponse est un "non" résonnant. La simplicité n'est pas un critère arbitraire pour évaluer les théories, ou une lubie de sceptiques et scientifiques. Nous appliquons le Rasoir d'Ockham aux théories parce que nous voyons empirquement qu'il fonctionne, et nous avons les modèles mathématiques pour montrer comment et pourquoi il fonctionne. La simplicité a une pertinence définie et démontrable pour la valeur d'une théorie, et interragit de manières importantes avec d'autres critères évaluatifs. Et contrairement à certaines critiques du Rasoir d'Ockham, notre utilisation de la simplicité comme critère n'implique pas une croyance que le monde lui-même est simple. Plutôt, nous avons appris que les meilleures théories tendent à ne pas être plus compliquées que nécessaire pour expliquer le monde qui nous entoure, dans toute sa merveilleuse complexité. Même la théorie du chaos, avec toute son inhérente imprédictabilité, est exprimable en équations mathématiques comparativement simples Stewart, lan. 1991. "Portrait of Chaos." In Nina Hall (ed.), Exploring Chaos: A Guide to the New Science of Disorder. London: W. W. Norton..

Cela veut dire, bien sûr, que nous devons faire très attention quand nous appliquons le Rasoir d'Ockham. Nous ne devrions pas être des réductionnistes bornés, nous accrochant à des théories simples indépendamment de leur exactitude. Au lieu de cela, nous devrions utiliser des modèles mathématiques comme le théorème de Bayes et le réseau Aikake pour modéliser nos modèles, et déterminer dans quelle mesure la simplicité contribue à leur utilité. Alors nous serons bien équipés pour mesurer les forces et faiblesses de théories scientifiques, et pourrons utiliser le Rasoir d'Ockham sans endommager la fiabilité de notre connaissance.

Utiliser le Rasoir d'Ockham en toute sûreté

J'ai commencé cet article avec un exemple fictif de l'échec du Rasoir d'Ockham. Comment pouvons-nous être sûrs que notre propre utilisation du Rasoir d'Ockham ne nous obligera pas à rejeter des idées valides, ou à adopter des théories douteuses ?

La réponse courte est que nous ne pouvons pas être sûrs. Cependant, nous pouvons utiliser le Rasoir d'Ockham avec plus de précautions, en utilisant des modèles mathématiques pour déterminer les coûts et bénéfices de la simplicité dans nos théories, toujours conscients de nos objectifs finaux dans la sélection de théories. Nous pouvons aussi faire de notre mieux pour acquérir des données de plus haute qualité avec lesquelles former et évaluer ces théories.

Nous devrions aussi nous souvenir que la science est toujours provisoire. Les théories respectant actuellement tous nos critères de sélection pourraient être insatisfaisantes lors de futures applications. Pourtant, la science progresse à travers la prudente modification et acquisition de connaissances et l'utilisation de méthodes validées empiriquement. Le Rasoir d'Ockham est une méthode importante pour améliorer cette acquisition de connaissances. Même une utilisation "sûre" du Rasoir d'Ockham n'éliminera pas tout à fait les erreurs, mais elle minimisera au moins nos erreurs par rapport à d'autres méthodes moins fiables d'évaluation de théories.

MacKay, D.J.C. (1992): "Bayesian Interpolation", Neural Computation, 4(3), 415447 Jeffreys, William H. and Berger, James O. 1991. "Sharpening Ockham's Razor on a Bayesian Strop." Technical Report #91-44C, Purdue University Department of Physics Rasmussen, Carl Edward, & Zoubin, Ghahramani. 2001. "Occam's Razor", Advances in Neural Information Processing Systems n° 13, MIT Press - More discussion of both the advantages and limitations of simple theories using the Bayesian paradigm Huffman, Roald, Minkin, Vladimir I., and Carpenter, Barry K. 1997. "Ockham's Razor and Chemistry." HYLE-An International Journal for the Philosophy of Chemistry, Volume 3, 3-28 - Useful examples applying Ockham's Razor and Bayesian statistics to chemical reaction mechanisms