Taux d'entropie - Entropy rate

Dans la théorie mathématique des probabilités , le taux d'entropie ou le taux d'information source d'un processus stochastique est, de manière informelle, la densité temporelle de l'information moyenne dans un processus stochastique. Pour les processus stochastiques avec un indice dénombrable , le taux d' entropie est la limite de l' entropie conjointe des membres du processus divisée par , comme tend vers l' infini :

lorsque la limite existe. Une autre quantité associée est:

Pour fortement stationnaires processus stochastiques, . Le taux d'entropie peut être considéré comme une propriété générale des sources stochastiques; c'est la propriété d'équipartition asymptotique . Le taux d'entropie peut être utilisé pour estimer la complexité des processus stochastiques. Il est utilisé dans diverses applications allant de la caractérisation de la complexité des langages, de la séparation aveugle des sources, à l'optimisation des quantificateurs et des algorithmes de compression de données. Par exemple, un critère de taux d'entropie maximal peut être utilisé pour la sélection de caractéristiques dans l'apprentissage automatique .

Taux d'entropie des chaînes de Markov

Depuis un processus stochastique défini par une chaîne de Markov qui est irréductible , apériodique et récurrente positive a une distribution stationnaire , le taux d' entropie est indépendante de la distribution initiale.

Par exemple, pour une telle chaîne de Markov définie sur un nombre dénombrable d'états, étant donné la matrice de transition , est donnée par:

où est la distribution asymptotique de la chaîne.

Une conséquence simple de cette définition est qu'un processus stochastique iid a un taux d'entropie qui est le même que l' entropie de n'importe quel membre individuel du processus.

Voir également

Les références

  • Cover, T. et Thomas, J. (1991) Elements of Information Theory, John Wiley and Sons, Inc., ISBN  0-471-06259-6 [1]