Filtre à particule - Particle filter

Les filtres à particules ou méthodes de Monte Carlo séquentiel sont un ensemble d' algorithmes de Monte Carlo utilisés pour résoudre les problèmes de filtrage survenant dans le traitement du signal et l'inférence statistique bayésienne . Le problème de filtrage consiste à estimer les états internes dans les systèmes dynamiques lorsque des observations partielles sont faites, et des perturbations aléatoires sont présentes dans les capteurs ainsi que dans le système dynamique. L'objectif est de calculer les distributions a posteriori des états de certains processus de Markov , compte tenu de quelques observations bruitées et partielles. Le terme "filtres à particules" a été inventé pour la première fois en 1996 par Del Moral en référence aux méthodes de particules interagissant en champ moyen utilisées en mécanique des fluides depuis le début des années 1960. Le terme « Monte Carlo séquentiel » a été inventé par Liu et Chen en 1998.

Le filtrage particulaire utilise un ensemble de particules (également appelées échantillons) pour représenter la distribution a posteriori d'un processus stochastique compte tenu d'observations bruitées et/ou partielles. Le modèle d'espace d'état peut être non linéaire et les distributions initiales d'état et de bruit peuvent prendre n'importe quelle forme requise. Les techniques de filtrage de particules fournissent une méthodologie bien établie pour générer des échantillons à partir de la distribution requise sans nécessiter d'hypothèses sur le modèle d'espace d'état ou les distributions d'état. Cependant, ces méthodes ne fonctionnent pas bien lorsqu'elles sont appliquées à des systèmes de très grande dimension.

Les filtres à particules mettent à jour leur prédiction de manière approximative (statistique). Les échantillons de la distribution sont représentés par un ensemble de particules ; chaque particule se voit attribuer un poids de probabilité qui représente la probabilité que cette particule soit échantillonnée à partir de la fonction de densité de probabilité. La disparité de poids conduisant à l'effondrement du poids est un problème courant rencontré dans ces algorithmes de filtrage ; cependant, il peut être atténué en incluant une étape de rééchantillonnage avant que les poids ne deviennent trop inégaux. Plusieurs critères de rééchantillonnage adaptatif peuvent être utilisés, dont la variance des poids et l'entropie relative par rapport à la distribution uniforme. Dans l'étape de rééchantillonnage, les particules de poids négligeables sont remplacées par de nouvelles particules à proximité des particules de poids plus élevé.

Du point de vue statistique et probabiliste, filtres à particules peuvent être interprétées comme des particules de champ moyen interprétations de Feynman-Kac mesures de probabilité. Ces techniques d'intégration de particules ont été développées en chimie moléculaire et en physique informatique par Theodore E. Harris et Herman Kahn en 1951, Marshall N. Rosenbluth et Arianna W. Rosenbluth en 1955 et plus récemment par Jack H. Hetherington en 1984. En physique informatique, ces Les méthodes d'intégration de particules de chemin de type Feynman-Kac sont également utilisées en Monte Carlo quantique , et plus particulièrement les méthodes de Monte Carlo en diffusion . Les méthodes de particules en interaction Feynman-Kac sont également fortement liées aux algorithmes génétiques de sélection de mutations actuellement utilisés en informatique évolutive pour résoudre des problèmes d'optimisation complexes.

La méthodologie du filtre à particules est utilisée pour résoudre les problèmes de modèle de Markov caché (HMM) et de filtrage non linéaire . A l'exception notable des modèles linéaires-gaussiens d'observation du signal ( filtre de Kalman ) ou de classes de modèles plus larges (filtre de Benes) Mireille Chaleyat-Maurel et Dominique Michel ont prouvé en 1984 que la séquence des distributions postérieures des états aléatoires du signal étant donné la les observations (alias filtre optimal) n'ont pas de récursivité récursive finie. Diverses autres méthodes numériques basées sur des approximations de grille fixe, les techniques de Markov Chain Monte Carlo , la linéarisation conventionnelle, les filtres de Kalman étendus ou la détermination du meilleur système linéaire (au sens coût-erreur attendu) sont incapables de faire face aux systèmes à grande échelle, aux processus instables, ou lorsque les non-linéarités ne sont pas suffisamment lisses.

Les filtres à particules et les méthodologies de particules Feynman-Kac trouvent une application dans le traitement du signal et des images , l'inférence bayésienne , l'apprentissage automatique , l'analyse des risques et l'échantillonnage d'événements rares , l' ingénierie et la robotique , l' intelligence artificielle , la bioinformatique , la phylogénétique , la science informatique , l' économie et la finance mathématique , la chimie moléculaire , physique computationnelle , pharmacocinétique et autres domaines.

Histoire

Heuristique comme des algorithmes

Du point de vue statistique et probabiliste, les filtres particulaires appartiennent à la classe des algorithmes de type branchage / génétique , et des méthodologies particulaires en interaction de type champ moyen. L'interprétation de ces méthodes particulaires dépend de la discipline scientifique. En informatique évolutive , les méthodologies de particules de type génétique à champ moyen sont souvent utilisées comme algorithmes de recherche heuristique et naturelle (alias Metaheuristic ). En physique numérique et en chimie moléculaire, ils sont utilisés pour résoudre des problèmes d'intégration de chemin de Feynman-Kac, ou ils calculent des mesures de Boltzmann-Gibbs, des valeurs propres supérieures et des états fondamentaux des opérateurs de Schrödinger . En biologie et en génétique, ils représentent également l'évolution d'une population d'individus ou de gènes dans un environnement.

Les origines des techniques de calcul évolutives de type champ moyen remontent à 1950 et 1954 avec les travaux fondateurs d' Alan Turing sur les machines d'apprentissage par sélection de mutations de type génétique et les articles de Nils Aall Barricelli à l' Institute for Advanced Study de Princeton, New Jersey. . La première trace de filtres à particules en méthodologie statistique remonte au milieu des années 50 ; le « Monte Carlo du pauvre », qui a été proposé par Hammersley et al., en 1954, contenait des indices sur les méthodes de filtrage des particules de type génétique utilisées aujourd'hui. En 1963, Nils Aall Barricelli a simulé un algorithme de type génétique pour imiter la capacité des individus à jouer à un jeu simple. Dans la littérature informatique évolutionniste , les algorithmes de sélection de mutation de type génétique sont devenus populaires grâce aux travaux fondateurs de John Holland au début des années 1970, et en particulier à son livre publié en 1975.

Dans Biology and Genetics , le généticien australien Alex Fraser a également publié en 1957 une série d'articles sur la simulation de type génétique de la sélection artificielle d'organismes. La simulation informatique de l'évolution par les biologistes est devenue plus courante au début des années 1960, et les méthodes ont été décrites dans les livres de Fraser et Burnell (1970) et Crosby (1973). Les simulations de Fraser comprenaient tous les éléments essentiels des algorithmes modernes de particules génétiques de sélection de mutation.

Du point de vue mathématique, la distribution conditionnelle des états aléatoires d'un signal compte tenu de quelques observations partielles et bruitées est décrite par une probabilité de Feynman-Kac sur les trajectoires aléatoires du signal pondérée par une séquence de fonctions potentielles de vraisemblance. Les méthodes de Monte Carlo quantique , et plus spécifiquement de Monte Carlo de diffusion, peuvent également être interprétées comme une approximation particulaire de type génétique à champ moyen des intégrales de chemin de Feynman-Kac. Les origines des méthodes Quantum Monte Carlo sont souvent attribuées à Enrico Fermi et Robert Richtmyer qui ont développé en 1948 une interprétation particulaire en champ moyen des réactions en chaîne de neutrons, mais le premier algorithme de particules de type heuristique et de type génétique (alias Resampled ou Reconfiguration Monte Carlo méthodes) pour estimer les énergies de l'état fondamental des systèmes quantiques (dans les modèles matriciels réduits) est due à Jack H. Hetherington en 1984. On peut également citer les premiers travaux fondateurs de Theodore E. Harris et Herman Kahn en physique des particules, publiés en 1951, en utilisant des méthodes génétiques à champ moyen mais de type heuristique pour estimer les énergies de transmission des particules. En chimie moléculaire, l'utilisation de méthodologies de particules de type heuristique génétique (alias stratégies d'élagage et d'enrichissement) remonte à 1955 avec les travaux fondateurs de Marshall. N. Rosenbluth et Arianna. W. Rosenbluth.

L'utilisation d' algorithmes de particules génétiques dans le traitement avancé du signal et l'inférence bayésienne est plus récente. En janvier 1993, Genshiro Kitagawa développa un "filtre Monte Carlo", une version légèrement modifiée de cet article paru en 1996. En avril 1993, Gordon et al., publièrent dans leur ouvrage fondateur une application de l'algorithme de type génétique à l'inférence statistique bayésienne. Les auteurs ont nommé leur algorithme « le filtre d'amorçage » et ont démontré que, comparé à d'autres méthodes de filtrage, leur algorithme d'amorçage ne nécessite aucune hypothèse sur cet espace d'état ou le bruit du système. Indépendamment, ceux de Pierre Del Moral et Himilcon Carvalho, Pierre Del Moral, André Monin et Gérard Salut sur les filtres à particules publiés au milieu des années 1990. Les filtres à particules ont également été développés en traitement du signal au début de 1989-1992 par P. Del Moral, JC Noyer, G. Rigal et G. Salut au LAAS-CNRS dans une série de rapports de recherche restreints et classifiés avec le STCAN (Service Technique des Constructions et Armes Navales), la société informatique DIGILOG et le LAAS-CNRS (Laboratoire d'Analyse et d'Architecture des Systèmes) sur les problèmes de traitement du signal RADAR/SONAR et GPS.

Fondements mathématiques

De 1950 à 1996, toutes les publications sur les filtres à particules, les algorithmes génétiques, y compris les méthodes d'élagage et de rééchantillonnage de Monte Carlo introduites en physique numérique et en chimie moléculaire, présentent des algorithmes naturels et de type heuristique appliqués à différentes situations sans une seule preuve de leur cohérence, ni une discussion sur le biais des estimations et sur les algorithmes généalogiques et ancestraux basés sur les arbres.

Les fondements mathématiques et la première analyse rigoureuse de ces algorithmes particulaires sont dus à Pierre Del Moral en 1996. L'article contient également une preuve des propriétés non biaisées d'une particule d'approximations de fonctions de vraisemblance et de mesures de probabilité conditionnelles non normalisées . L'estimateur de particules sans biais des fonctions de vraisemblance présenté dans cet article est utilisé aujourd'hui dans l'inférence statistique bayésienne.

Des méthodologies de particules de type ramifié avec différentes tailles de population ont également été développées vers la fin des années 1990 par Dan Crisan, Jessica Gaines et Terry Lyons, et par Dan Crisan, Pierre Del Moral et Terry Lyons. D'autres développements dans ce domaine ont été développés en 2000 par P. Del Moral, A. Guionnet et L. Miclo. Les premiers théorèmes centraux limites sont dus à Pierre Del Moral et Alice Guionnet en 1999 et à Pierre Del Moral et Laurent Miclo en 2000. Les premiers résultats de convergence uniforme par rapport au paramètre temporel des filtres à particules ont été développés à la fin des années 1990 par Pierre Del Moral et Alice Guionnet. La première analyse rigoureuse des lisseurs de filtres à particules à base d'arbres généalogiques est due à P. Del Moral et L. Miclo en 2001

La théorie sur les méthodologies de particules Feynman-Kac et les algorithmes de filtres à particules associés a été développée en 2000 et 2004 dans les livres. Ces modèles probabilistes abstraits encapsulent des algorithmes de type génétique, des filtres de particules et d'amorçage, des filtres de Kalman en interaction (alias filtre de particules Rao-Blackwellized), des techniques de filtrage de particules de style d'échantillonnage et de rééchantillonnage, y compris des méthodologies basées sur l'arbre généalogique et les particules en arrière pour résoudre les problèmes de filtrage et de lissage. D'autres classes de méthodologies de filtrage de particules comprennent des modèles basés sur des arbres généalogiques, des modèles de particules de Markov en arrière, des modèles de particules de champ moyen adaptatifs, des modèles de particules de type îlot et des méthodologies de Monte Carlo à chaîne de Markov de particules.

Le problème du filtrage

Objectif

L'objectif d'un filtre particulaire est d'estimer la densité a posteriori des variables d'état compte tenu des variables d'observation. Le filtre à particules est conçu pour un modèle de Markov caché , où le système se compose à la fois de variables cachées et observables. Les variables observables (processus d'observation) sont liées aux variables cachées (processus d'état) par une forme fonctionnelle connue. De même le système dynamique décrivant l'évolution des variables d'état est également connu de manière probabiliste.

Un filtre à particules générique estime la distribution postérieure des états cachés en utilisant le processus de mesure d'observation. Considérons un espace d'état montré dans le diagramme ci-dessous.

Le problème du filtrage est d'estimer séquentiellement les valeurs des états cachés , étant donné les valeurs du processus d'observation à tout pas de temps k .

Toutes les estimations bayésiennes de découlent de la densité postérieure . La méthodologie du filtre particulaire fournit une approximation de ces probabilités conditionnelles en utilisant la mesure empirique associée à un algorithme particulaire de type génétique. En revanche, la chaîne de Markov Monte Carlo ou l' approche d' échantillonnage par importance modéliseraient le postérieur complet .

Le modèle Signal-Observation

Les méthodes particulaires supposent souvent et les observations peuvent être modélisées sous cette forme :

  • est un processus de Markov sur (pour certains ) qui évolue en fonction de la densité de probabilité de transition . Ce modèle est aussi souvent écrit de manière synthétique comme
avec une densité de probabilité initiale .
  • Les observations prennent des valeurs dans un espace d'état sur (pour certains ) et sont conditionnellement indépendantes à condition qu'elles soient connues. En d'autres termes, chacun ne dépend que de . De plus, nous supposons que les distributions conditionnelles pour donné sont absolument continues, et de manière synthétique nous avons

Un exemple de système avec ces propriétés est :

où les deux et sont des séquences mutuellement indépendantes avec des fonctions de densité de probabilité connues et g et h sont des fonctions connues. Ces deux équations peuvent être considérées comme des équations d' espace d'état et ressemblent aux équations d'espace d'état pour le filtre de Kalman. Si les fonctions g et h dans l'exemple ci-dessus sont linéaires, et si les deux et sont gaussiennes , le filtre de Kalman trouve la distribution de filtrage bayésienne exacte. Sinon, les méthodes basées sur le filtre de Kalman sont une approximation du premier ordre ( EKF ) ou une approximation du deuxième ordre ( UKF en général, mais si la distribution de probabilité est gaussienne, une approximation du troisième ordre est possible).

L'hypothèse selon laquelle la distribution initiale et les transitions de la chaîne de Markov sont absolument continues par rapport à la mesure de Lebesgue peut être relâchée. Pour concevoir un filtre à particules, nous devons simplement supposer que nous pouvons échantillonner les transitions de la chaîne de Markov et calculer la fonction de vraisemblance (voir par exemple la description de la mutation de sélection génétique du filtre à particules donnée ci-dessous). Les hypothèses absolument continues sur les transitions de Markov ne sont utilisées que pour dériver de manière informelle (et plutôt abusive) différentes formules entre distributions postérieures en utilisant la règle de Bayes pour les densités conditionnelles.

Modèles de calcul bayésiens approximatifs

Dans certains problèmes, la distribution conditionnelle des observations compte tenu des états aléatoires du signal peut ne pas avoir de densité ou peut être impossible ou trop complexe à calculer. Dans cette situation, nous devons recourir à un niveau d'approximation supplémentaire. Une stratégie consiste à remplacer le signal par la chaîne de Markov et à introduire une observation virtuelle de la forme

pour une séquence de séquences indépendantes avec des fonctions de densité de probabilité connues . L'idée centrale est d'observer que

Le filtre particulaire associé au processus de Markov étant donné les observations partielles est défini en termes de particules évoluant en avec une fonction de vraisemblance donnée avec une notation manifestement abusive par . Ces techniques probabilistes sont étroitement liées au calcul bayésien approximatif (ABC). Dans le cadre des filtres particulaires, ces techniques de filtrage particulaire ABC ont été introduites en 1998 par P. Del Moral, J. Jacod et P. Protter. Ils ont été développés par P. Del Moral, A. Doucet et A. Jasra.

L'équation de filtrage non linéaire

La règle de Bayes pour la probabilité conditionnelle donne :

Les filtres à particules sont également une approximation, mais avec suffisamment de particules, ils peuvent être beaucoup plus précis. L'équation de filtrage non linéaire est donnée par la récursivité

 

 

 

 

(Équation 1)

avec la convention pour k = 0. Le problème du filtrage non linéaire consiste à calculer séquentiellement ces distributions conditionnelles.

Formulation Feynman-Kac

On fixe un horizon temporel n et une séquence d'observations , et pour chaque k = 0, ..., n on pose :

Dans cette notation, pour toute fonction bornée F sur l'ensemble des trajectoires de depuis l'origine k = 0 jusqu'au temps k = n , on a la formule de Feynman-Kac

Ces modèles d'intégration de chemin Feynman-Kac surviennent dans une variété de disciplines scientifiques, notamment en physique numérique, en biologie, en théorie de l'information et en informatique. Leurs interprétations dépendent du domaine d'application. Par exemple, si nous choisissons la fonction indicatrice d'un sous-ensemble de l'espace d'état, elles représentent la distribution conditionnelle d'une chaîne de Markov étant donné qu'elle reste dans un tube donné ; c'est-à-dire que nous avons :

et

dès que la constante de normalisation est strictement positive.

Filtres à particules

Un algorithme de particules de type génétique

Initialement, nous commençons avec N variables aléatoires indépendantes avec une densité de probabilité commune . Les transitions sélection-mutation des algorithmes génétiques

imiter/approximer les transitions de mise à jour-prédiction de l'évolution optimale du filtre ( Eq. 1 ) :

  • Au cours de la transition de mise à jour de la sélection, nous échantillonnons N variables aléatoires indépendantes (conditionnellement) avec une distribution (conditionnelle) commune

où représente la mesure de Dirac à un état donné a.

  • Au cours de la transition mutation-prédiction, à partir de chaque particule sélectionnée, nous échantillonnons indépendamment une transition

Dans les formules affichées ci-dessus représente la fonction de vraisemblance évaluée à , et représente la densité conditionnelle évaluée à .

A chaque instant k , on a les approximations particulaires

et

Dans la communauté des algorithmes génétiques et de l' informatique évolutive , la chaîne de Markov de sélection de mutation décrite ci-dessus est souvent appelée algorithme génétique avec sélection proportionnelle. Plusieurs variantes de branchement, y compris avec des tailles de population aléatoires ont également été proposées dans les articles.

Principes de Monte-Carlo

Les méthodes de particules, comme toutes les approches basées sur l'échantillonnage (par exemple, la chaîne de Markov Monte Carlo), génèrent un ensemble d'échantillons qui se rapprochent de la densité de filtrage

Par exemple, nous pouvons avoir N échantillons de la distribution postérieure approximative de , où les échantillons sont étiquetés avec des exposants comme

Ensuite, les attentes par rapport à la distribution de filtrage sont approximées par

 

 

 

 

(Équation 2)

avec

où représente la mesure de Dirac à un état donné a. La fonction f , de la manière habituelle pour Monte Carlo, peut donner tous les moments etc. de la distribution jusqu'à une certaine erreur d'approximation. Lorsque l'équation d'approximation ( Eq. 2 ) est satisfaite pour toute fonction bornée f, nous écrivons

Les filtres à particules peuvent être interprétés comme un algorithme de particules de type génétique évoluant avec des transitions de mutation et de sélection. Nous pouvons garder une trace des lignées ancestrales

des particules . Les états aléatoires , avec les indices inférieurs l=0,...,k, représentent l'ancêtre de l'individu au niveau l=0,...,k. Dans cette situation, on a la formule d'approximation

 

 

 

 

(Équation 3)

avec la mesure empirique

Ici, F représente toute fonction fondée sur l'espace de chemin du signal. Sous une forme plus synthétique ( Eq. 3 ) équivaut à

Les filtres à particules peuvent être interprétés de différentes manières. Du point de vue probabiliste, elles coïncident avec une interprétation particulaire à champ moyen de l'équation de filtrage non linéaire. Les transitions de mise à jour-prédiction de l'évolution optimale du filtre peuvent également être interprétées comme les transitions de sélection-mutation de type génétique classiques des individus. La technique de rééchantillonnage d'importance séquentielle fournit une autre interprétation des transitions de filtrage couplant l'échantillonnage d'importance avec l'étape de rééchantillonnage bootstrap. Enfin et surtout, les filtres à particules peuvent être considérés comme une méthodologie d'acceptation-rejet dotée d'un mécanisme de recyclage.

Simulation de particules de champ moyen

Le principe général des probabilités

L'évolution du filtrage non linéaire peut être interprétée comme un système dynamique dans l'ensemble de mesures de probabilité de la forme suivante où représente un mappage de l'ensemble de distribution de probabilité vers lui-même. Par exemple, l'évolution du prédicteur optimal en une étape

satisfait une évolution non linéaire à partir de la distribution de probabilité . L'un des moyens les plus simples d'approximer ces mesures de probabilité est de commencer avec N variables aléatoires indépendantes avec une distribution de probabilité commune . Supposons que nous ayons défini une séquence de N variables aléatoires telle que

À l'étape suivante, nous échantillonnons N variables aléatoires (conditionnellement) indépendantes de common law .

Une interprétation particulaire de l'équation de filtrage

Nous illustrons ce principe de particules de champ moyen dans le contexte de l'évolution des prédicteurs optimaux à une étape

 

 

 

 

(Équation 4)

Pour k = 0 nous utilisons la convention .

Par la loi des grands nombres, on a

dans le sens où

pour toute fonction bornée . Nous supposons en outre que nous avons construit une séquence de particules à un certain rang k tel que

en ce sens que pour toute fonction bornée on a

Dans cette situation, en remplaçant par la mesure empirique dans l'équation d'évolution du filtre optimal à une étape indiqué dans ( Eq. 4 ), nous trouvons que

Notez que le côté droit de la formule ci-dessus est un mélange de probabilités pondérées

où représente la densité évaluée à , et représente la densité évaluée à pour

Ensuite, nous échantillonnons N variables aléatoires indépendantes avec une densité de probabilité commune de sorte que

En itérant cette procédure, nous concevons une chaîne de Markov telle que

Notez que le filtre optimal est approximé à chaque pas de temps k en utilisant les formules de Bayes

La terminologie "approximation de champ moyen" vient du fait que l'on remplace à chaque pas de temps la mesure de probabilité par l'approximation empirique . L'approximation particulaire en champ moyen du problème de filtrage est loin d'être unique. Plusieurs stratégies sont développées dans les livres.

Quelques résultats de convergence

L'analyse de la convergence des filtres à particules a débuté en 1996 et en 2000 dans le livre et la série d'articles. Des développements plus récents peuvent être trouvés dans les livres, Lorsque l'équation de filtrage est stable (au sens où elle corrige toute condition initiale erronée), le biais et la variance des estimations de particule particule

sont contrôlés par les estimations uniformes non asymptotiques

pour toute fonction f bornée par 1, et pour certaines constantes finies De plus, pour toute :

pour certaines constantes finies liées au biais asymptotique et à la variance de l'estimation des particules, et pour une constante finie c . Les mêmes résultats sont satisfaits si nous remplaçons le prédicteur optimal à une étape par l'approximation optimale du filtre.

Arbres généalogiques et propriétés d'impartialité

Lissage des particules basé sur l'arbre généalogique

Remonter dans le temps les lignes ancestrales

des individus et à chaque pas de temps k , on a aussi les approximations particulaires

Ces approximations empiriques sont équivalentes aux approximations intégrales de particules

pour toute fonction bornée F sur les trajectoires aléatoires du signal. Comme le montre l'évolution de l'arbre généalogique coïncide avec une interprétation particulaire à champ moyen des équations d'évolution associées aux densités postérieures des trajectoires des signaux. Pour plus de détails sur ces modèles d'espace de chemin, nous nous référons aux livres.

Estimations de particules non biaisées des fonctions de vraisemblance

Nous utilisons la formule du produit

avec

et les conventions et pour k = 0. Remplacement par l' approximation empirique

dans la formule affichée ci-dessus, nous concevons l'approximation de particules impartiale suivante de la fonction de vraisemblance

avec

où représente la densité évaluée à . La conception de cette estimation de particules et la propriété d'impartialité ont été prouvées en 1996 dans l'article. Des estimations de variance affinées peuvent être trouvées dans et.

Lisseurs de particules en arrière

En utilisant la règle de Bayes, on a la formule

Remarquerez que

Cela implique que

Remplacement des prédicteurs optimaux en une étape par les mesures empiriques des particules

on trouve que

Nous concluons que

avec l'approximation particulaire en arrière

La mesure de probabilité

est la probabilité que les chemins aléatoires d'une chaîne de Markov remontant dans le temps du temps k=n au temps k=0, et évoluant à chaque pas de temps k dans l'espace d'état associé à la population de particules

  • Initialement (au temps k=n) la chaîne choisit aléatoirement un état avec la distribution
  • Du temps k au temps (k-1), la chaîne commençant à un certain état pour un certain temps au temps k se déplace au temps (k-1) vers un état aléatoire choisi avec la probabilité pondérée discrète

Dans la formule affichée ci-dessus, représente la distribution conditionnelle évaluée à . Dans la même veine, et représentent les densités conditionnelles et évaluées à et Ces modèles permettent de réduire l'intégration par rapport aux densités en termes d'opérations matricielles par rapport aux transitions de Markov de la chaîne décrite ci-dessus. Par exemple, pour toute fonction, nous avons les estimations de particules

Cela montre aussi que si

ensuite

Quelques résultats de convergence

On supposera que l'équation de filtrage est stable, au sens où elle corrige toute condition initiale erronée.

Dans cette situation, les approximations particulaires des fonctions de vraisemblance ne sont pas biaisées et la variance relative est contrôlée par

pour une constante finie c . De plus, pour tout :

pour certaines constantes finies liées au biais asymptotique et à la variance de l'estimation des particules, et pour une constante finie c .

Le biais et la variance des estimations de particules particulaires basées sur les lignées ancestrales des arbres généalogiques

sont contrôlés par les estimations uniformes non asymptotiques

pour toute fonction F bornée par 1, et pour certaines constantes finies De plus, pour toute :

pour certaines constantes finies liées au biais asymptotique et à la variance de l'estimation des particules, et pour une constante finie c . Le même type d'estimations de biais et de variance est valable pour les lisseurs de particules en arrière. Pour les fonctionnelles additives de la forme

avec

avec des fonctions bornées par 1, on a

et

pour certaines constantes finies Des estimations plus raffinées incluant une probabilité d'erreurs exponentiellement faible sont développées dans.

Rééchantillonnage d'importance séquentielle (SIR)

Filtre Monte Carlo et filtre bootstrap

Le rééchantillonnage d' importance séquentielle (SIR) , le filtrage Monte Carlo (Kitagawa 1993) et l'algorithme de filtrage bootstrap (Gordon et al. 1993) sont également des algorithmes de filtrage couramment appliqués, qui approximent la densité de probabilité de filtrage par un ensemble pondéré de N échantillons.

Les poids d'importance sont des approximations des probabilités (ou densités) postérieures relatives des échantillons telles que

L'échantillonnage d'importance séquentielle (SIS) est une version séquentielle (c'est-à-dire récursive) de l' échantillonnage d'importance . Comme dans l'échantillonnage d'importance, l'espérance d'une fonction f peut être approchée comme une moyenne pondérée

Pour un ensemble fini d'échantillons, la performance de l'algorithme dépend du choix de la distribution de la proposition

.

La distribution " optimale" de la proposition est donnée comme distribution cible

Ce choix particulier de proposition de transition a été proposé par P. Del Moral en 1996 et 1998. Lorsqu'il est difficile d'échantillonner des transitions selon la distribution, une stratégie naturelle consiste à utiliser l'approximation particulaire suivante

avec l'approximation empirique

associé à N (ou à tout autre grand nombre d'échantillons) échantillons aléatoires indépendants avec la distribution conditionnelle de l'état aléatoire donnée . La cohérence du filtre à particules résultant de cette approximation et d'autres extensions sont développées dans. Dans l'affichage ci-dessus, la mesure de Dirac à un état donné a.

Cependant, la distribution de probabilité a priori de transition est souvent utilisée comme fonction d'importance, car il est plus facile de dessiner des particules (ou des échantillons) et d'effectuer des calculs de poids d'importance ultérieurs :

Les filtres de rééchantillonnage d'importance séquentielle (SIR) avec une distribution de probabilité a priori de transition comme fonction d'importance sont communément appelés filtre d'amorçage et algorithme de condensation .

Le rééchantillonnage est utilisé pour éviter le problème de dégénérescence de l'algorithme, c'est-à-dire éviter la situation où tous les poids d'importance sauf un sont proches de zéro. Les performances de l'algorithme peuvent également être affectées par le bon choix de la méthode de rééchantillonnage. L' échantillonnage stratifié proposé par Kitagawa (1993) est optimal en termes de variance.

Une seule étape de rééchantillonnage d'importance séquentielle est la suivante :

1) Pour tirer des échantillons de la distribution de la proposition
2) Pour mettre à jour les poids d'importance jusqu'à une constante de normalisation :
Notez que lorsque nous utilisons la distribution de probabilité a priori de transition comme fonction d'importance,
cela se simplifie comme suit :
3) Pour calculer les poids d'importance normalisés :
4) Calculer une estimation du nombre effectif de particules comme
Ce critère reflète la variance des poids, d'autres critères peuvent être trouvés dans l'article, notamment leur analyse rigoureuse et leurs théorèmes limites centraux.
5) Si le nombre effectif de particules est inférieur à un seuil donné , alors effectuer un rééchantillonnage :
a) Dessinez N particules de l'ensemble de particules actuel avec des probabilités proportionnelles à leurs poids. Remplacez le jeu de particules actuel par ce nouveau.
b) Pour l' ensemble

Le terme "Sampling Importance Resampling" est également parfois utilisé pour désigner les filtres SIR, mais le terme Importance Resampling est plus précis car le mot "resampling" implique que l'échantillonnage initial a déjà été effectué.

Échantillonnage d'importance séquentielle (SIS)

  • Identique au rééchantillonnage d'importance séquentielle, mais sans l'étape de rééchantillonnage.

Algorithme de "version directe"

L'algorithme de "version directe" est assez simple (comparé à d'autres algorithmes de filtrage de particules) et il utilise la composition et le rejet. Pour générer un seul échantillon x en k à partir de :

1) Définir n=0 (cela comptera le nombre de particules générées jusqu'à présent)
2) Choisir uniformément un indice i dans la gamme
3) Générer un test à partir de la distribution avec
4) Générer la probabilité d' utiliser d' où est la valeur mesurée
5) Générer un autre u uniforme d' où
6) Comparez-vous et
6a) Si u est plus grand, recommencez à partir de l'étape 2
6b) Si u est plus petit, enregistrez sous et incrémentez n
7) Si n == N alors quittez

Le but est de générer P "particules" en k en utilisant uniquement les particules de . Cela nécessite qu'une équation de Markov puisse être écrite (et calculée) pour générer un basé uniquement sur . Cet algorithme utilise la composition des particules P à partir de pour générer une particule en k et se répète (étapes 2 à 6) jusqu'à ce que les particules P soient générées en k .

Cela peut être plus facilement visualisé si x est considéré comme un tableau à deux dimensions. Une dimension est k et les autres dimensions sont le nombre de particules. Par exemple, serait la i ème particule à et peut également être écrite (comme fait ci-dessus dans l'algorithme). L'étape 3 génère un potentiel basé sur une particule choisie au hasard ( ) à un moment donné et le rejette ou l'accepte à l'étape 6. En d'autres termes, les valeurs sont générées à l'aide du .

Autres filtres à particules

Voir également

Les références

Bibliographie

Liens externes