Quantité pivot - Pivotal quantity

En statistique , une quantité pivot ou pivot est une fonction d'observations et de paramètres inobservables tels que la distribution de probabilité de la fonction ne dépend pas des paramètres inconnus (y compris les paramètres de nuisance ). Une quantité pivot n'a pas besoin d'être une statistique — la fonction et sa valeur peuvent dépendre des paramètres du modèle, mais pas sa distribution . S'il s'agit d'une statistique, il s'agit d'une statistique auxiliaire .

Plus formellement, soit un échantillon aléatoire d'une distribution qui dépend d'un paramètre (ou vecteur de paramètres) . Soit une variable aléatoire dont la distribution est la même pour tous . On appelle alors une quantité pivot (ou simplement un pivot ).

Les quantités pivots sont couramment utilisées pour la normalisation afin de permettre la comparaison des données de différents ensembles de données. Il est relativement facile de construire des pivots pour les paramètres de localisation et d'échelle : pour les premiers, nous formons des différences pour que la localisation s'annule, pour les seconds rapports pour que l'échelle s'annule.

Les quantités pivots sont fondamentales pour la construction de statistiques de test , car elles permettent à la statistique de ne pas dépendre de paramètres - par exemple, la statistique t de Student correspond à une distribution normale avec une variance (et une moyenne) inconnue. Ils fournissent également une méthode de construction d' intervalles de confiance , et l'utilisation de quantités pivot améliore les performances du bootstrap . Sous forme de statistiques annexes, elles permettent de construire des intervalles de prédiction fréquentistes (intervalles de confiance prédictifs).

Exemples

Distribution normale

L'une des quantités pivots les plus simples est le z-score ; étant donné une distribution normale avec moyenne et variance , et une observation x, le z-score :

a une distribution - une distribution normale avec une moyenne 0 et une variance 1. De même, étant donné que la moyenne de l'échantillon à n échantillons a une distribution d'échantillonnage, le score z de la moyenne

a aussi une distribution Notez que si ces fonctions dépendent des paramètres – et donc on ne peut les calculer que si les paramètres sont connus (ce ne sont pas des statistiques) – la distribution est indépendante des paramètres.

Étant donné des observations indépendantes et identiquement distribuées (iid) de la distribution normale avec une moyenne et une variance inconnues , une quantité pivot peut être obtenue à partir de la fonction :

et

sont des estimations sans biais de et , respectivement. La fonction est la statistique t de Student pour une nouvelle valeur , à tirer de la même population que l'ensemble de valeurs déjà observé .

L'utilisation de la fonction devient une quantité pivot, qui est également distribuée par la loi t de Student avec degrés de liberté. Au besoin, même si apparaît comme un argument à la fonction , la distribution de ne dépend pas des paramètres ou de la distribution de probabilité normale qui régit les observations .

Cela peut être utilisé pour calculer un intervalle de prédiction pour la prochaine observation voir Intervalle de prédiction : distribution normale .

Distribution normale bivariée

Dans les cas plus compliqués, il est impossible de construire des pivots exacts. Cependant, avoir des pivots approximatifs améliore la convergence vers la normalité asymptotique .

Supposons qu'un échantillon de taille de vecteurs soit tiré d'une distribution normale bivariée avec une corrélation inconnue .

Un estimateur de la corrélation de l'échantillon (Pearson, moment)

où sont les variances d'échantillon de et . La statistique de l'échantillon a une distribution asymptotiquement normale :

.

Cependant, une transformation stabilisant la variance

connue sous le nom de transformation en z de Fisher du coefficient de corrélation permet de créer la distribution de paramètres asymptotiquement indépendants des paramètres inconnus :

où est le paramètre de distribution correspondant. Pour des tailles d'échantillons finies , la variable aléatoire aura une distribution plus proche de la normale que celle de . Une approximation encore plus proche de la distribution normale standard est obtenue en utilisant une meilleure approximation de la variance exacte : la forme habituelle est

Robustesse

Du point de vue des statistiques robustes , les grandeurs pivots sont robustes aux changements des paramètres - en effet, indépendants des paramètres - mais pas en général robustes aux changements du modèle, comme les violations de l'hypothèse de normalité. Ceci est fondamental pour la critique robuste des statistiques non robustes, souvent dérivées de quantités pivots : de telles statistiques peuvent être robustes au sein de la famille, mais ne le sont pas en dehors de celle-ci.

Voir également

Les références