Test du rapport de vraisemblance

Page d’aide sur l’homonymie

Ne doit pas être confondu avec Rapport de vraisemblance.

Test du rapport de vraisemblance
Type
Test statistiqueVoir et modifier les données sur Wikidata
Inventeurs
Jerzy Neyman, Egon Sharpe PearsonVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

En statistiques, le test du rapport de vraisemblance est un test statistique qui permet de tester un modèle paramétrique contraint contre un non contraint.

Formalisation

Si on appelle θ {\displaystyle \theta } le vecteur des paramètres estimés par la méthode du maximum de vraisemblance, on considère un test du type[1] :

H 0 : θ Θ 0 {\displaystyle H_{0}:\theta \in \Theta _{0}}

contre

H a : θ Θ 0 {\displaystyle H_{a}:\theta \notin \Theta _{0}}

On définit alors θ ^ {\displaystyle {\hat {\theta }}} l'estimateur du maximum de vraisemblance et θ 0 ^ {\displaystyle {\widehat {\theta _{0}}}} l'estimateur du maximum de vraisemblance sous H 0 {\displaystyle H_{0}} . On définit enfin la statistique du test :

λ = 2 log ( L ( θ 0 ^ ) L ( θ ^ ) ) {\displaystyle \lambda =-2\log \left({\frac {{\mathcal {L}}({\hat {\theta _{0}}})}{{\mathcal {L}}({\widehat {\theta }})}}\right)}

On sait que sous l'hypothèse nulle, la statistique du test du rapport de vraisemblance suit une loi du χ 2 {\displaystyle \chi ^{2}} avec un nombre de degrés de liberté égal au nombre de contraintes imposées par l'hypothèse nulle (p) :

λ ( x 1 , , x n ) χ 2 ( p ) {\displaystyle \lambda (x_{1},\ldots ,x_{n})\sim \chi ^{2}(p)}

Par conséquent, on rejette le test au niveau α {\displaystyle \alpha } lorsque la statistique de test est supérieure au quantile d'ordre 1 α {\displaystyle 1-\alpha } de la loi du χ 2 {\displaystyle \chi ^{2}} à p degrés de libertés.

On peut donc définir la valeur limite (p-value)[note 1] de ce test :

p-value = 1 F χ p 2 ( λ ) {\displaystyle {\text{p-value}}=1-F_{\chi _{p}^{2}}(\lambda )}

Notes et références

Notes

  1. On rappelle que la p-value est définie comme la plus petite valeur du risque de première espèce ( α {\displaystyle \alpha } ) pour laquelle on rejette le test (Wasserman 2004, p. 156)

Références

  1. Wasserman 2004, p. 164

Bibliographie

  • (en) Larry Wasserman, All of Statistics : A Concise Course in Statistical Inference, New York, Springer-Verlag, , 461 p. (ISBN 978-0-387-40272-7, lire en ligne)
v · m
Tests statistiques
Tests de comparaison d'une seule variable
Pour un échantillon
Pour deux échantillons
Pour 3 échantillons ou plus
Tests de comparaison de deux variables
Deux variables quantitatives : Tests de corrélation
Deux variables qualitatives
Plus de deux variables
Tests d'adéquation à une loi
Tests d'appartenance à une famille de lois
Autres tests
  • Test du rapport de vraisemblance
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique