Entropie de Rényi - Rényi entropy

En théorie de l'information , l' entropie de Rényi généralise l' entropie de Hartley , l' entropie de Shannon , l' entropie de collision et la min-entropie . Les entropies quantifient la diversité, l'incertitude ou le caractère aléatoire d'un système. L'entropie porte le nom d' Alfréd Rényi . Dans le cadre de l' estimation de dimension fractale , l'entropie de Rényi est à la base du concept de dimensions généralisées .

L'entropie Rényi est importante en écologie et en statistique comme indice de diversité . L'entropie de Rényi est également importante dans l'information quantique , où elle peut être utilisée comme mesure d' intrication . Dans le modèle de chaîne de spin Heisenberg XY, le Rényi entropie en fonction de α peut être calculé explicitement en vertu du fait qu'il est une fonction automorphic par rapport à un sous - groupe particulier du groupe modulaire . En informatique théorique , la min-entropie est utilisée dans le cadre des extracteurs d'aléatoire .

Définition

L'entropie d'ordre Rényi , où et , est définie comme

.

Ici, est une variable aléatoire discrète avec des résultats possibles dans l'ensemble et des probabilités correspondantes pour . Le logarithme est classiquement pris en base 2, notamment dans le contexte de la théorie de l' information où l' on utilise des bits . Si les probabilités sont pour tout , alors toutes les entropies de Rényi de la distribution sont égales : . En général, pour toutes les variables aléatoires discrètes , est une fonction non croissante dans .

Les applications exploitent souvent la relation suivante entre l'entropie de Rényi et la p -norme du vecteur de probabilités :

.

Ici, la distribution de probabilité discrète est interprétée comme un vecteur dans avec et .

L'entropie de Rényi pour tout est Schur concave .

Cas spéciaux

Entropie de Rényi d'une variable aléatoire avec deux issues possibles contre p 1 , où P = ( p 1 , 1 − p 1 ) . Sont représentés H 0 , H 1 , H 2 et H , en unités de Shannons .

À mesure que α se rapproche de zéro, l'entropie de Rényi pèse de plus en plus tous les événements avec une probabilité non nulle de manière plus égale, quelles que soient leurs probabilités. A la limite pour α → 0, l'entropie de Rényi est juste le logarithme de la taille du support de X . La limite pour α → 1 est l' entropie de Shannon . À mesure que α tend vers l'infini, l'entropie de Rényi est de plus en plus déterminée par les événements de probabilité la plus élevée.

Hartley ou max-entropie

A condition que les probabilités soient différentes de zéro, est le logarithme de la cardinalité de l'alphabet ( ) de , parfois appelée l' entropie de Hartley de ,

Entropie de Shannon

La valeur limite de as α → 1 est l' entropie de Shannon :

Entropie de collision

L'entropie de collision , parfois simplement appelée « entropie de Rényi », fait référence au cas α = 2,

X et Y sont indépendants et identiquement distribués . L'entropie de collision est liée à l' indice de coïncidence .

Min-entropie

A la limite as , l'entropie de Rényi converge vers la min-entropie :

De manière équivalente, la min-entropie est le plus grand nombre réel b tel que tous les événements se produisent avec une probabilité d'au plus .

Le nom min-entropie vient du fait qu'il s'agit de la plus petite mesure d'entropie de la famille des entropies de Rényi. En ce sens, c'est le moyen le plus efficace de mesurer le contenu informationnel d'une variable aléatoire discrète. En particulier, la min-entropie n'est jamais plus grande que l' entropie de Shannon .

La min-entropie a des applications importantes pour les extracteurs d'aléatoire en informatique théorique : les extracteurs sont capables d'extraire l'aléatoire à partir de sources aléatoires qui ont une grande min-entropie ; le simple fait d'avoir une grande entropie de Shannon ne suffit pas pour cette tâche.

Les inégalités entre les différentes valeurs de α

C'est non croissant pour une distribution donnée de probabilités , qui peut être prouvée par différentiation, comme

qui est proportionnel à la divergence de Kullback-Leibler (qui est toujours non négative), où .

Dans des cas particuliers, les inégalités peuvent aussi être prouvées par l'inégalité de Jensen :

Pour les valeurs de , les inégalités dans l'autre sens sont également valables. En particulier, nous avons

D'autre part, l'entropie de Shannon peut être arbitrairement élevée pour une variable aléatoire qui a une min-entropie donnée.

Divergence de Rényi

En plus des entropies absolues de Rényi, Rényi a également défini un spectre de mesures de divergence généralisant la divergence de Kullback-Leibler .

La divergence de Rényi d'ordre α ou alpha-divergence d'une distribution P à partir d'une distribution Q est définie comme étant

lorsque 0 < α < ∞ et α ≠ 1 . On peut définir la divergence de Rényi pour les valeurs spéciales α = 0, 1, ∞ en prenant une limite, et en particulier la limite α → 1 donne la divergence de Kullback–Leibler.

Quelques cas particuliers :

 : moins le log de probabilité sous Q que p i > 0 ;
 : moins deux fois le logarithme du coefficient de Bhattacharyya ; ( Nielsen et Boltz (2010) )
 : la divergence Kullback–Leibler ;
 : le log du rapport attendu des probabilités ;
 : le log du rapport maximum des probabilités.

La divergence de Rényi est bien une divergence , c'est-à-dire simplement supérieure ou égale à zéro, et nulle uniquement lorsque P = Q . Pour toutes distributions fixes P et Q , la divergence de Rényi est non décroissante en fonction de son ordre α , et elle est continue sur l'ensemble de α pour lequel elle est finie.

Interprétation financière

Une paire de distributions de probabilités peut être considérée comme un jeu de hasard dans lequel l'une des distributions définit les cotes officielles et l'autre contient les probabilités réelles. La connaissance des probabilités réelles permet à un joueur de tirer profit du jeu. Le taux de profit attendu est lié à la divergence de Rényi comme suit

où est la distribution définissant les cotes officielles (c'est-à-dire le "marché") pour le jeu, est la distribution que l'investisseur croit et est l'aversion au risque de l'investisseur (l'aversion au risque relative d'Arrow-Pratt).

Si la vraie distribution est (pas nécessairement coïncidant avec la croyance de l'investisseur ), le taux réalisé à long terme converge vers la vraie attente qui a une structure mathématique similaire

Pourquoi α = 1 est spécial

La valeur α = 1 , qui donne l' entropie de Shannon et la divergence de Kullback-Leibler , est particulière car ce n'est qu'à α = 1 que la règle de la chaîne de probabilité conditionnelle tient exactement :

pour les entropies absolues, et

pour les entropies relatives.

Ce dernier en particulier signifie que si nous recherchons une distribution p ( x , a ) qui minimise la divergence par rapport à une mesure a priori sous - jacente m ( x , a ) , et que nous acquérons de nouvelles informations qui n'affectent que la distribution de a , alors la distribution de p ( x | a ) reste m ( x | a ) , inchangé.

Les autres divergences Rényi satisfont aux critères d'être positifs et continus ; être invariant sous des transformations de coordonnées 1 à 1 ; et de combiner additivement lorsque A et X sont indépendants, de sorte que si p ( A , X ) = p ( A ) p ( X ) , alors

et

Les propriétés des plus fortes alpha = 1 quantités qui permettent la définition de l' information conditionnelle et information mutuelle de la théorie de la communication, peut être très important dans d' autres applications, ou tout à fait sans importance, selon les exigences de ces applications.

Familles exponentielles

Les entropies et divergences de Rényi pour une famille exponentielle admettent des expressions simples

et

est une divergence par différence de Jensen.

Signification physique

L'entropie de Rényi en physique quantique n'est pas considérée comme observable , en raison de sa dépendance non linéaire à la matrice densité. (Cette dépendance non linéaire s'applique même dans le cas particulier de l'entropie de Shannon.) On peut cependant lui donner un sens opérationnel grâce aux mesures en deux temps (également appelées statistiques de comptage complet) des transferts d'énergie.

La limite de l'entropie de Rényi est l' entropie de von Neumann .

Voir également

Remarques

Les références