Pagina principale
Una pagina a caso
Ultime modifiche
Pagine speciali
Portale comunità
Preferenze
Informazioni su Masticationpedia
Avvertenze
Masticationpedia
Ricerca
Menu utente
discussioni
contributi
entra
Modifica di
Présentation
(sezione)
Attenzione:
non hai effettuato l'accesso. Se effettuerai delle modifiche il tuo indirizzo IP sarà visibile pubblicamente. Se
accedi
o
crei un'utenza
, le tue modifiche saranno attribuite al tuo nome utente, insieme ad altri benefici.
Controllo anti-spam.
NON
riempirlo!
=== '''P-value''' === En médecine, nous nous appuyons souvent sur l'inférence statistique pour valider les résultats expérimentaux. L'un des outils les plus connus est la 'P-value', ou valeur de probabilité, un indicateur utilisé dans les tests de significativité.{{Tooltip||2=Le P-value représente la probabilité que les résultats observés soient dus au hasard, en supposant vraie l'hypothèse nulle <math> H_0 </math>. Il ne devrait pas être utilisé comme critère binaire (par ex., <math> p < 0.05 </math>) pour les décisions scientifiques, car les valeurs proches du seuil nécessitent des vérifications supplémentaires, comme la validation croisée. Le ''P-hacking'' (répéter des tests pour obtenir une significativité) augmente les faux positifs. Des conceptions expérimentales rigoureuses et la transparence sur tous les tests effectués peuvent atténuer ce risque. L’erreur de type I augmente avec les tests multiples : pour <math> N </math> tests indépendants à seuil <math> \alpha </math>, le Family-Wise Error Rate (FWER) est <math> FWER = 1 - (1 - \alpha)^N </math>. La correction de Bonferroni divise le seuil par <math>N</math>, <math>p < \frac{\alpha}{N}</math>, mais peut augmenter les faux négatifs. Le False Discovery Rate (FDR) de Benjamini-Hochberg permet plus de découvertes avec une proportion acceptable de faux positifs. L’approche bayésienne utilise des connaissances antérieures pour équilibrer prior et données avec une distribution postérieure, offrant une alternative valable au P-value. Pour combiner les P-value de plusieurs études, la méta-analyse utilise des méthodes comme celle de Fisher : <math> \chi^2 = -2 \sum \ln(p_i) </math>. 🧠 En résumé, le p-value reste utile s'il est contextualisé et intégré avec d'autres mesures, comme les intervalles de confiance et les approches bayésiennes.}} Cependant, même le P-value, pendant des années critère fondamental dans la médecine basée sur les preuves, fait aujourd'hui l'objet d'une profonde révision. En 2019, une campagne publiée dans "Nature", signée par plus de 800 scientifiques, a remis en question l'utilisation rigide de la significativité statistique.{{Tooltip|<sup>[9]</sup>|<ref>{{cita libro | auteur = Amrhein V | auteur2 = Greenland S | auteur3 = McShane B | titre = Scientists rise up against statistical significance | url = https://www.ncbi.nlm.nih.gov/pubmed/30894741 | œuvre = Nature | année = 2019 | DOI = 10.1038/d41586-019-00857-9 }}</ref>|<small>📌 Dans l'édition de mars de Nature, plus de 800 scientifiques ont signé un commentaire demandant le retrait du terme “significativité statistique” [1]. Les principaux arguments des auteurs concernent le fait que la littérature scientifique est pleine d'interprétations erronées et potentiellement nuisibles d'associations basées sur une classification arbitraire et binaire, fondée sur une valeur de p de 0,05. Les auteurs illustrent les critiques de cette approche, fournissant des exemples concrets où elle a conduit à des conclusions erronées au sein et entre différentes études. 🧠 De plus, en analysant 791 articles publiés dans cinq revues académiques, ils ont constaté que 51 % d'entre eux ont interprété à tort un résultat statistiquement non significatif comme une indication de l'absence d'un effet.</small>}} Cette "révolution silencieuse" dans le domaine de l'inférence statistique promeut une approche plus réfléchie, contextuelle et scientifiquement honnête. Parmi les voix les plus autorisées dans ce débat, on trouve : * Rodgers JL – qui parle d'une “révolution méthodologique silencieuse”{{Tooltip|<sup>[10]</sup>|<ref>{{cita libro|auteur=Rodgers JL|titre=The epistemology of mathematical and statistical modeling: a quiet methodological revolution|url=https://www.ncbi.nlm.nih.gov/pubmed/20063905|œuvre=Am Psychol|année=2010|DOI=10.1037/a0018326}}</ref>|<small>📌 Au cours des dernières décennies, une révolution méthodologique silencieuse s'est produite, presque sans discussion : une révolution de la modélisation. En revanche, le XXe siècle s'est terminé par des débats animés sur l'utilité du test de significativité de l'hypothèse nulle (NHST). Cependant, cette controverse pourrait avoir été au moins en partie hors de propos, car de diverses manières, la révolution de la modélisation a rendu le débat sur le NHST superflu. Je commence par présenter une histoire du NHST et de la modélisation, et des relations entre les deux. Ensuite, je définis et illustre les principes qui guident le développement et l'évaluation des modèles mathématiques. Suit une discussion sur la différence entre l'utilisation de procédures statistiques dans un cadre basé sur des règles et la construction de modèles mathématiques dans une épistémologie scientifique. 🧠 Dans la formation post-universitaire en psychologie, seul le premier approche, basé sur les règles, est traité avec attention. Les implications pédagogiques de ce déséquilibre et la nécessité d'un enseignement révisé pour tenir compte de la révolution de la modélisation sont ensuite décrites. Enfin, il est discuté de la manière dont l'attention à la modélisation entraîne une évolution de la pratique statistique dans des directions plus progressistes. La base épistémologique de la statistique s'est déplacée : d'un ensemble de procédures appliquées de manière mécanique à la construction et à l'évaluation de modèles statistiques et scientifiques.</small>|}} * Meehl P – qui suggère de remplacer les tests de significativité par des 'intervalles de confiance' et des 'prédictions numériques vérifiables'{{Tooltip|<sup>[11]</sup>|<ref>{{cita libro | auteur = Meehl P | titre = The problem is epistemology, not statistics: replace significance tests by confidence intervals and quantify accuracy of risky numerical predictions | année = 1997}}</ref>|<small>📌 Les tests de significativité ont un rôle dans la recherche en sciences sociales, mais leur utilisation généralisée dans l'évaluation des théories est souvent nuisible. La cause de cela ne réside pas dans les mathématiques elles-mêmes, mais dans la mauvaise compréhension, par les scientifiques sociaux, de la relation logique entre théorie et faits, c'est-à-dire dans un manque de clarté méthodologique ou épistémologique.🧭 Les théories impliquent des observations, mais l'inverse n'est pas vrai. Bien que le succès d'une théorie à dériver un fait tende à la corroborer, cette confirmation est faible à moins que le fait n'ait une probabilité a priori très faible et qu'il y ait peu de théories alternatives plausibles. 🧭 La détection d'une différence ou corrélation différente de zéro — comme c'est le cas en rejetant l'hypothèse nulle — n'a généralement pas une probabilité a priori très faible, car en sciences sociales, pratiquement tout est corrélé avec tout le reste, indépendamment de la théorie. 🎯 Dans l'utilisation "forte" des tests de significativité, la théorie prédit une valeur numérique ponctuelle, ou un intervalle très restreint, de sorte que le test met la théorie face à un risque sérieux de falsification si elle était objectivement incorrecte. En général, il est préférable de construire un intervalle de confiance, qui fournit des informations plus riches et implique tout de même la réfutation de l'hypothèse nulle si une différence tombe en dehors de l'intervalle. 🧠 Les tests de significativité sont généralement plus justifiables dans des contextes technologiques (par exemple dans l'évaluation d'une intervention) que dans l'évaluation des théories. Il serait utile de disposer d'un indice quantitatif mesurant à quel point une théorie parvient à prévoir un fait risqué, et un exemple de tel indice est proposé. Contrairement aux pratiques actuelles les plus répandues, les manuels et les cours de statistique devraient clarifier et souligner le grand fossé sémantique (logique) qui sépare une théorie substantielle (causale, compositionnelle) d'une hypothèse statistique.</small>|}} * Sprenger & Hartmann – promoteurs de la 'philosophie bayésienne de la science'{{Tooltip|<sup>[12]</sup>|<ref>{{cita libro | auteur = Sprenger J | auteur2 = Hartmann S | titre = Bayesian Philosophy of Science. Variations on a Theme by the Reverend Thomas Bayes | année = 2019 | éditeur = Oxford University Press }}</ref>|<small>📌 Comment devrions-nous raisonner en science ? Jan Sprenger et Stephan Hartmann offrent une vision innovante sur des thèmes classiques de la philosophie de la science, utilisant un concept clé unique pour expliquer et clarifier de nombreux aspects du raisonnement scientifique. 🧭 Ils proposent que de bons arguments et de bonnes inférences soient caractérisés par leur effet sur nos degrés rationnels de croyance. 🧠 Contrairement à la vision selon laquelle il n'y aurait pas de place pour des attitudes subjectives dans la "science objective", Sprenger et Hartmann expliquent la valeur des preuves convaincantes à travers un cycle de variations sur le thème de la représentation des degrés rationnels de croyance par des probabilités subjectives (et de leur modification par la conditionnalisation bayésienne). Ce faisant, ils intègrent l'inférence bayésienne — la principale théorie de la rationalité dans les sciences sociales — avec la pratique scientifique du XXIe siècle. Bayesian Philosophy of Science montre ainsi comment modéliser de telles attitudes améliore notre compréhension des causes, des explications, des preuves confirmatives et des modèles scientifiques en général. Leur approche combine une perspective scientifiquement orientée et mathématiquement raffinée avec l'analyse conceptuelle et une attention particulière aux problèmes méthodologiques de la science moderne, en particulier dans l'inférence statistique, ce qui en fait une ressource précieuse tant pour les philosophes que pour les praticiens de la science.</small>}} L' 'American Statistical Association' a soutenu ce changement en publiant un numéro spécial de la revue 'The American Statistician', intitulé “Statistical Inference in the 21st Century: A World Beyond p < 0.05”.{{Tooltip|<sup>[13]</sup>|<ref name="wasser">{{cita libro | auteur = Wasserstein RL | auteur2 = Schirm AL | auteur3 = Lazar NA | titre = Moving to a World Beyond ''p'' < 0.05 | url = https://www.tandfonline.com/doi/full/10.1080/00031305.2019.1583913 | œuvre = Am Stat | année = 2019 | DOI = 10.1080/00031305.2019.1583913 }}</ref>|<small>🧠 Certains d'entre vous, explorant ce numéro spécial de The American Statistician, pourraient se demander s'il s'agit d'une leçon de morale de la part de statisticiens pédants cherchant à vous dire quoi ne pas faire avec les p-value, sans toutefois offrir de réelles solutions au difficile problème de séparer le signal du bruit dans les données et de prendre des décisions en conditions d'incertitude. Ne vous inquiétez pas. Dans ce numéro, grâce à 43 articles innovants et stimulants écrits par des statisticiens visionnaires, l'aide dont nous avons besoin arrive.</small>|}} Le volume propose de nouvelles modalités de représentation de l'incertitude et invite à dépasser la dépendance au P-value comme unique métrique de la vérité scientifique.
Oggetto:
Per favore tieni presente che tutti i contributi a Masticationpedia possono essere modificati, stravolti o cancellati da altri contributori. Se non vuoi che i tuoi testi possano essere alterati, allora non inserirli.
Inviando il testo dichiari inoltre, sotto tua responsabilità, che è stato scritto da te personalmente oppure è stato copiato da una fonte di pubblico dominio o similarmente libera (vedi
Masticationpedia:Copyright
per maggiori dettagli).
Non inviare materiale protetto da copyright senza autorizzazione!
Annulla
Guida
(si apre in una nuova finestra)