Processus stochastique - Stochastic process

Une réalisation simulée par ordinateur d'un processus de mouvement de Wiener ou brownien à la surface d'une sphère. Le processus de Wiener est largement considéré comme le processus stochastique le plus étudié et le plus central de la théorie des probabilités.

Dans la théorie des probabilités et des domaines connexes, un stochastique ( / s t k æ s t ɪ k / ) ou processus aléatoire est un objet mathématique généralement défini comme une famille de variables aléatoires . Les processus stochastiques sont largement utilisés comme modèles mathématiques de systèmes et de phénomènes qui semblent varier de manière aléatoire. Les exemples incluent la croissance d'une population bactérienne , un courant électrique fluctuant en raison du bruit thermique ou le mouvement d'une molécule de gaz . Les processus stochastiques ont des applications dans de nombreuses disciplines telles que la biologie , la chimie , l' écologie , les neurosciences , la physique , le traitement de l'image , le traitement du signal , la théorie du contrôle , la théorie de l'information , l' informatique , la cryptographie et les télécommunications . En outre, des changements apparemment aléatoires sur les marchés financiers ont motivé l'utilisation intensive de processus stochastiques en finance .

Les applications et l'étude des phénomènes ont à leur tour inspiré la proposition de nouveaux processus stochastiques. Des exemples de tels processus stochastiques incluent le processus de Wiener ou processus de mouvement brownien, utilisé par Louis Bachelier pour étudier les changements de prix à la Bourse de Paris , et le processus de Poisson , utilisé par AK Erlang pour étudier le nombre d'appels téléphoniques se produisant dans une certaine période de temps. . Ces deux processus stochastiques sont considérés comme les plus importants et centraux dans la théorie des processus stochastiques, et ont été découverts à plusieurs reprises et indépendamment, avant et après Bachelier et Erlang, dans différents contextes et pays.

Le terme fonction aléatoire est également utilisé pour désigner un processus stochastique ou aléatoire, car un processus stochastique peut également être interprété comme un élément aléatoire dans un espace de fonctions . Les termes processus stochastique et processus aléatoire sont utilisés de manière interchangeable, souvent sans espace mathématique spécifique pour l'ensemble qui indexe les variables aléatoires. Mais souvent ces deux termes sont utilisés lorsque les variables aléatoires sont indexées par les entiers ou un intervalle de la ligne réelle . Si les variables aléatoires sont indexées par le plan cartésien ou un espace euclidien de dimension supérieure , alors la collection de variables aléatoires est généralement appelée champ aléatoire . Les valeurs d'un processus stochastique ne sont pas toujours des nombres et peuvent être des vecteurs ou d'autres objets mathématiques.

Sur la base de leurs propriétés mathématiques, les processus stochastiques peuvent être regroupés en différentes catégories, qui comprennent des promenades aléatoires , martingales , processus de Markov , processus de Lévy , processus gaussiennes , champs aléatoires, processus de renouvellement , et les processus de branchement . L'étude des processus stochastiques utilise des connaissances mathématiques et des techniques de probabilité , de calcul , d'algèbre linéaire , de théorie des ensembles et de topologie ainsi que des branches de l'analyse mathématique telles que l'analyse réelle , la théorie de la mesure , l'analyse de Fourier et l'analyse fonctionnelle . La théorie des processus stochastiques est considérée comme une contribution importante aux mathématiques et continue d'être un sujet de recherche actif pour des raisons à la fois théoriques et applicatives.

introduction

Un processus stochastique ou aléatoire peut être défini comme une collection de variables aléatoires indexées par un ensemble mathématique, ce qui signifie que chaque variable aléatoire du processus stochastique est associée de manière unique à un élément de l'ensemble. L'ensemble utilisé pour indexer les variables aléatoires est appelé ensemble d'index . Historiquement, l'ensemble d'indices était un sous - ensemble de la ligne réelle , comme les nombres naturels , donnant à l'ensemble d'indices l'interprétation du temps. Chaque variable aléatoire de la collection prend des valeurs dans le même espace mathématique appelé espace d' état . Cet espace d'état peut être, par exemple, les entiers, la ligne réelle ou l' espace euclidien -dimensionnel. Un incrément est la quantité qu'un processus stochastique change entre deux valeurs d'indice, souvent interprétées comme deux points dans le temps. Un processus stochastique peut avoir de nombreux résultats , en raison de son caractère aléatoire, et un seul résultat d'un processus stochastique est appelé, entre autres noms, une fonction d'échantillon ou une réalisation .

Une seule fonction d'échantillon simulée par ordinateur ou réalisation , entre autres termes, d'un processus de mouvement de Wiener ou brownien tridimensionnel pour le temps 0 t ≤ 2. L'ensemble d'indices de ce processus stochastique est constitué des nombres non négatifs, tandis que son espace d'état est l'espace euclidien à trois dimensions.

Classements

Un processus stochastique peut être classé de différentes manières, par exemple, par son espace d'état, son ensemble d'indices ou la dépendance entre les variables aléatoires. Une méthode courante de classification est la cardinalité de l'ensemble d'index et l'espace d'état.

Lorsqu'il est interprété comme le temps, si l'ensemble d'indices d'un processus stochastique a un nombre fini ou dénombrable d'éléments, tel qu'un ensemble fini de nombres, l'ensemble d'entiers ou les nombres naturels, alors le processus stochastique est dit en discret temps . Si l'indice défini est un intervalle de la ligne réelle, alors le temps est dit continu . Les deux types de processus stochastiques sont respectivement appelés processus stochastiques à temps discret et à temps continu . Les processus stochastiques à temps discret sont considérés comme plus faciles à étudier car les processus à temps continu nécessitent des techniques et des connaissances mathématiques plus avancées, en particulier en raison du fait que l'ensemble d'indices est indénombrable. Si l'ensemble d'indices est constitué d'entiers ou d'un sous-ensemble d'entre eux, le processus stochastique peut également être appelé séquence aléatoire .

Si l'espace d'état est constitué d'entiers ou de nombres naturels, alors le processus stochastique est appelé processus stochastique discret ou à valeur entière . Si l'espace d'état est la ligne réelle, alors le processus stochastique est appelé processus stochastique à valeur réelle ou processus avec espace d'état continu . Si l'espace d'état est l' espace euclidien de dimension, le processus stochastique est appelé - processus vectoriel de dimension ou - processus vectoriel .

Étymologie

Le mot stochastique en anglais était à l'origine utilisé comme adjectif avec la définition "concernant la conjecture", et provenant d'un mot grec signifiant "viser une marque, deviner", et l' Oxford English Dictionary donne l'année 1662 comme sa première occurrence . Dans son ouvrage sur les probabilités Ars Conjectandi , publié à l'origine en latin en 1713, Jakob Bernoulli a utilisé l'expression « Ars Conjectandi sive Stochastice », qui a été traduite par « l'art de conjecturer ou stochastique ». Cette phrase a été utilisée, en référence à Bernoulli, par Ladislas Bortkiewicz qui en 1917 écrivit en allemand le mot stochastik avec un sens signifiant aléatoire. Le terme processus stochastique est apparu pour la première fois en anglais dans un article de 1934 de Joseph Doob . Pour le terme et une définition mathématique spécifique, Doob a cité un autre article de 1934, où le terme stochastischer Prozeß était utilisé en allemand par Aleksandr Khinchin , bien que le terme allemand ait été utilisé plus tôt, par exemple, par Andrei Kolmogorov en 1931.

Selon l'Oxford English Dictionary, les premières occurrences du mot random en anglais avec son sens actuel, qui se rapporte au hasard ou à la chance, remontent au 16ème siècle, tandis que les usages antérieurs enregistrés ont commencé au 14ème siècle comme un nom signifiant « impétuosité, grande vitesse, force ou violence (en chevauchant, en courant, en frappant, etc.)". Le mot lui-même vient d'un mot français moyen signifiant « vitesse, hâte », et il est probablement dérivé d'un verbe français signifiant « courir » ou « galoper ». La première apparition écrite du terme processus aléatoire est antérieure au processus stochastique , que le dictionnaire anglais Oxford donne également comme synonyme, et a été utilisé dans un article de Francis Edgeworth publié en 1888.

Terminologie

La définition d'un processus stochastique varie, mais un processus stochastique est traditionnellement défini comme une collection de variables aléatoires indexées par un ensemble. Les termes processus aléatoire et processus stochastique sont considérés comme des synonymes et sont utilisés de manière interchangeable, sans que l'ensemble d'indices ne soit spécifié avec précision. Les deux "collection" ou "famille" sont utilisés alors qu'au lieu de "jeu d'index", parfois les termes "jeu de paramètres" ou "espace de paramètres" sont utilisés.

Le terme fonction aléatoire est également utilisé pour désigner un processus stochastique ou aléatoire, bien que parfois il ne soit utilisé que lorsque le processus stochastique prend des valeurs réelles. Ce terme est également utilisé lorsque les ensembles d'index sont des espaces mathématiques autres que la ligne réelle, tandis que les termes processus stochastique et processus aléatoire sont généralement utilisés lorsque l'ensemble d'index est interprété comme le temps, et d'autres termes sont utilisés tels que champ aléatoire lorsque l'index l'ensemble est un espace euclidien de dimension ou une variété .

Notation

Un processus stochastique peut être noté, entre autres, par , , ou simplement par ou , bien qu'il soit considéré comme une notation d'abus de fonction . Par exemple, ou sont utilisés pour désigner la variable aléatoire avec l'indice , et non l'ensemble du processus stochastique. Si l'ensemble d'indices est , alors on peut écrire, par exemple, pour désigner le processus stochastique.

Exemples

procédé Bernoulli

L'un des processus stochastiques les plus simples est le processus de Bernoulli , qui est une séquence de variables aléatoires indépendantes et identiquement distribuées (iid), où chaque variable aléatoire prend la valeur un ou zéro, disons un avec probabilité et zéro avec probabilité . Ce processus peut être lié au lancer répété d'une pièce, où la probabilité d'obtenir une face est et sa valeur est de un, tandis que la valeur d'une face est de zéro. En d'autres termes, un processus de Bernoulli est une séquence de variables aléatoires de Bernoulli iid, où chaque tirage au sort est un exemple d' essai de Bernoulli .

Marche aléatoire

Les marches aléatoires sont des processus stochastiques qui sont généralement définis comme des sommes de variables aléatoires iid ou de vecteurs aléatoires dans l'espace euclidien, ce sont donc des processus qui changent en temps discret. Mais certains utilisent également le terme pour désigner des processus qui changent en temps continu, notamment le processus de Wiener utilisé en finance, qui a suscité une certaine confusion, d'où sa critique. Il existe d'autres types de marches aléatoires, définies de manière à ce que leurs espaces d'états puissent être d'autres objets mathématiques, tels que des réseaux et des groupes, et en général, elles sont très étudiées et ont de nombreuses applications dans différentes disciplines.

Un exemple classique de marche aléatoire est connu sous le nom de marche aléatoire simple , qui est un processus stochastique en temps discret avec les entiers comme espace d'état, et est basé sur un processus de Bernoulli, où chaque variable de Bernoulli prend soit la valeur positive, soit un négatif. En d'autres termes, la marche aléatoire simple a lieu sur les entiers, et sa valeur augmente de un avec probabilité, disons, , ou diminue de un avec probabilité , donc l'ensemble d'indices de cette marche aléatoire est les nombres naturels, tandis que son espace d'état est les entiers. Si le , cette marche aléatoire est appelée marche aléatoire symétrique.

Processus de viennoiserie

Le processus de Wiener est un processus stochastique avec des incréments stationnaires et indépendants qui sont normalement distribués en fonction de la taille des incréments. Le processus de Wiener porte le nom de Norbert Wiener , qui a prouvé son existence mathématique, mais le processus est également appelé processus de mouvement brownien ou simplement mouvement brownien en raison de sa connexion historique en tant que modèle de mouvement brownien dans les liquides.

Réalisations de processus de Wiener (ou processus de mouvement brownien) avec dérive ( bleu ) et sans dérive ( rouge ).

Jouant un rôle central dans la théorie des probabilités, le processus de Wiener est souvent considéré comme le processus stochastique le plus important et le plus étudié, avec des liens avec d'autres processus stochastiques. Son jeu d'index et son espace d'état sont respectivement les nombres non négatifs et les nombres réels, il a donc à la fois un jeu d'index continu et un espace d'état. Mais le processus peut être défini de manière plus générale de sorte que son espace d'état peut être un espace euclidien de dimension. Si la moyenne de n'importe quel incrément est zéro, alors le processus de mouvement de Wiener ou brownien résultant est dit avoir une dérive nulle. Si la moyenne de l'incrément pour deux moments quelconques est égale à la différence de temps multipliée par une constante , qui est un nombre réel, alors le processus stochastique résultant est dit avoir une dérive .

Presque sûrement , un chemin d'échantillonnage d'un processus de Wiener est continu partout mais nulle part différentiable . Elle peut être considérée comme une version continue de la marche aléatoire simple. Le processus se présente comme la limite mathématique d'autres processus stochastiques tels que certaines marches aléatoires redimensionnées, qui font l'objet du théorème de Donsker ou principe d'invariance, également connu sous le nom de théorème central limite fonctionnel.

Le processus de Wiener fait partie de certaines familles importantes de processus stochastiques, notamment les processus de Markov, les processus de Lévy et les processus gaussiens. Le processus a également de nombreuses applications et est le principal processus stochastique utilisé dans le calcul stochastique. Il joue un rôle central dans la finance quantitative, où il est utilisé, par exemple, dans le modèle Black-Scholes-Merton. Le processus est également utilisé dans différents domaines, y compris la majorité des sciences naturelles ainsi que certaines branches des sciences sociales, comme modèle mathématique pour divers phénomènes aléatoires.

Processus de Poisson

Le processus de Poisson est un processus stochastique qui a différentes formes et définitions. Il peut être défini comme un processus de comptage, qui est un processus stochastique qui représente le nombre aléatoire de points ou d'événements jusqu'à un certain temps. Le nombre de points du processus situés dans l'intervalle de zéro à un temps donné est une variable aléatoire de Poisson qui dépend de ce temps et d'un paramètre. Ce processus a les nombres naturels comme espace d'état et les nombres non négatifs comme ensemble d'indices. Ce processus est également appelé processus de comptage de Poisson, car il peut être interprété comme un exemple de processus de comptage.

Si un processus de Poisson est défini avec une seule constante positive, alors le processus est appelé un processus de Poisson homogène. Le processus de Poisson homogène est membre d'importantes classes de processus stochastiques tels que les processus de Markov et les processus de Lévy.

Le processus de Poisson homogène peut être défini et généralisé de différentes manières. Il peut être défini de telle sorte que son jeu d'indices soit la droite réelle, et ce processus stochastique est également appelé processus de Poisson stationnaire. Si le paramètre constant du processus de Poisson est remplacé par une fonction intégrable non négative de , le processus résultant est appelé un processus de Poisson inhomogène ou non homogène, où la densité moyenne de points du processus n'est plus constante. Servant de processus fondamental dans la théorie des files d'attente, le processus de Poisson est un processus important pour les modèles mathématiques, où il trouve des applications pour les modèles d'événements se produisant de manière aléatoire dans certaines fenêtres temporelles.

Défini sur la droite réelle, le processus de Poisson peut être interprété comme un processus stochastique, parmi d'autres objets aléatoires. Mais alors il peut être défini sur l' espace euclidien -dimensionnel ou d'autres espaces mathématiques, où il est souvent interprété comme un ensemble aléatoire ou une mesure de comptage aléatoire, au lieu d'un processus stochastique. Dans ce contexte, le processus de Poisson, également appelé processus ponctuel de Poisson, est l'un des objets les plus importants de la théorie des probabilités, à la fois pour des applications et pour des raisons théoriques. Mais il a été remarqué que le processus de Poisson ne reçoit pas autant d'attention qu'il le devrait, en partie parce qu'il est souvent considéré uniquement sur la ligne réelle, et non sur d'autres espaces mathématiques.

Définitions

Processus stochastique

Un procédé stochastique est défini comme un ensemble de variables aléatoires définies sur un commun espace de probabilité , où est un espace d'échantillon , est une - algèbre , et est une mesure de probabilité ; et les variables aléatoires, indexées par un certain ensemble , prennent toutes des valeurs dans le même espace mathématique , qui doit être mesurable par rapport à une certaine -algèbre .

En d'autres termes, pour un espace de probabilité donné et un espace mesurable , un processus stochastique est un ensemble de variables aléatoires à valeurs, qui peuvent s'écrire sous la forme :

Historiquement, dans de nombreux problèmes des sciences naturelles, un point avait le sens du temps, de même qu'une variable aléatoire représentant une valeur observée au temps . Un processus stochastique peut également être écrit pour refléter le fait qu'il est en fait une fonction de deux variables, et .

Il existe d'autres façons de considérer un processus stochastique, la définition ci-dessus étant considérée comme la définition traditionnelle. Par exemple, un processus stochastique peut être interprété ou défini comme une variable aléatoire valorisée, où est l'espace de toutes les fonctions valorisées possibles de cette carte de l'ensemble dans l'espace .

Jeu d'index

L'ensemble est appelé ensemble d'indices ou ensemble de paramètres du processus stochastique. Souvent, cet ensemble est un sous-ensemble de la ligne réelle , comme les nombres naturels ou un intervalle, donnant à l'ensemble l'interprétation du temps. En plus de ces ensembles, l'ensemble d'indices peut être un autre ensemble d' ordre total ou un ensemble plus général, comme le plan cartésien ou l' espace euclidien -dimensionnel, où un élément peut représenter un point de l'espace. Cela dit, de nombreux résultats et théorèmes ne sont possibles que pour des processus stochastiques avec un ensemble d'indices totalement ordonné.

Territoire de l'État

L' espace mathématique d'un processus stochastique est appelé son espace d'état . Cet espace mathématique peut être défini à l'aide d' entiers , de lignes réelles , d' espaces euclidiens de dimension , de plans complexes ou d'espaces mathématiques plus abstraits. L'espace d'état est défini à l'aide d'éléments qui reflètent les différentes valeurs que peut prendre le processus stochastique.

Exemple de fonction

Une fonction d'échantillon est un résultat unique d'un processus stochastique, elle est donc formée en prenant une seule valeur possible de chaque variable aléatoire du processus stochastique. Plus précisément, si est un processus stochastique, alors pour tout point , l' application

est appelée une fonction d'échantillon, une réalisation , ou, en particulier lorsqu'elle est interprétée comme le temps, un chemin d'échantillonnage du processus stochastique . Cela signifie que pour un fixe , il existe un exemple de fonction qui mappe l'ensemble d'index à l'espace d'état . D'autres noms pour une fonction d'échantillon d'un processus stochastique incluent la trajectoire , la fonction de chemin ou le chemin .

Incrément

Un incrément d'un processus stochastique est la différence entre deux variables aléatoires du même processus stochastique. Pour un processus stochastique avec un ensemble d'indices pouvant être interprété comme du temps, un incrément correspond à la variation du processus stochastique sur une certaine période de temps. Par exemple, si est un processus stochastique avec un espace d'état et un ensemble d'indices , alors pour deux nombres non négatifs et tels que , la différence est une variable aléatoire de valeur connue sous le nom d'incrément. Lorsqu'on s'intéresse aux incréments, l'espace d'état est souvent la ligne réelle ou les nombres naturels, mais il peut s'agir d'un espace euclidien de dimension ou d'espaces plus abstraits tels que les espaces de Banach .

Autres définitions

Loi

Pour un processus stochastique défini sur l' espace de probabilité , la loi du processus stochastique est définie comme la mesure image :

où est une mesure de probabilité, le symbole dénote la composition de la fonction et est la pré-image de la fonction mesurable ou, de manière équivalente, la variable aléatoire à valeurs , où est l'espace de toutes les fonctions à valeurs possibles de , donc la loi d'un stochastique processus est une mesure de probabilité.

Pour un sous - ensemble mesurable de , la pré-image de donne

donc la loi de a peut s'écrire :

La loi d'un processus stochastique ou une variable aléatoire est aussi appelée la loi de probabilité , la distribution de probabilité ou la répartition .

Distributions de probabilité de dimension finie

Pour un processus stochastique de loi , sa distribution de dimension finie pour est définie comme :

Cette mesure est la distribution conjointe du vecteur aléatoire ; il peut être considéré comme une "projection" de la loi sur un sous-ensemble fini de .

Pour tout sous - ensemble mesurable de la puissance cartésienne -fold , les distributions de dimension finie d'un processus stochastique peuvent être écrites comme :

Les distributions de dimension finie d'un processus stochastique satisfont à deux conditions mathématiques appelées conditions de cohérence.

Stationnarité

La stationnarité est une propriété mathématique d'un processus stochastique lorsque toutes les variables aléatoires de ce processus stochastique sont distribuées de manière identique. En d'autres termes, si est un processus stochastique stationnaire, alors pour tout la variable aléatoire a la même distribution, ce qui signifie que pour tout ensemble de valeurs d'ensemble d' indices , les variables aléatoires correspondantes

ont tous la même distribution de probabilité . L'ensemble d'indices d'un processus stochastique stationnaire est généralement interprété comme le temps, il peut donc s'agir des nombres entiers ou de la ligne réelle. Mais le concept de stationnarité existe également pour les processus ponctuels et les champs aléatoires, où l'ensemble d'indices n'est pas interprété comme le temps.

Lorsque l'ensemble d'indices peut être interprété comme le temps, un processus stochastique est dit stationnaire si ses distributions de dimension finie sont invariantes sous les translations du temps. Ce type de processus stochastique peut être utilisé pour décrire un système physique qui est en régime permanent, mais connaît toujours des fluctuations aléatoires. L'intuition derrière la stationnarité est qu'à mesure que le temps passe, la distribution du processus stochastique stationnaire reste la même. Une séquence de variables aléatoires ne forme un processus stochastique stationnaire que si les variables aléatoires sont distribuées de manière identique.

Un processus stochastique avec la définition ci-dessus de la stationnarité est parfois dit strictement stationnaire, mais il existe d'autres formes de stationnarité. Un exemple est lorsqu'un processus stochastique à temps discret ou continu est dit stationnaire au sens large, alors le processus a un second moment fini pour tous et la covariance des deux variables aléatoires et ne dépend que du nombre pour tous . Khinchin a introduit le concept connexe de stationnarité au sens large , qui a d'autres noms, notamment la stationnarité de covariance ou la stationnarité au sens large .

Filtration

Un filtrage est une séquence croissante d'algèbres sigma définies par rapport à un espace de probabilité et un ensemble d'indices qui a une relation d' ordre total , comme dans le cas où l'ensemble d'indices est un sous-ensemble des nombres réels. Plus formellement, si un processus stochastique a un ensemble d'indices avec un ordre total, alors une filtration , sur un espace de probabilité est une famille de sigma-algèbres telle que pour tout , où et désigne l'ordre total de l'ensemble d'indices . Avec le concept de filtrage, il est possible d'étudier la quantité d'informations contenues dans un processus stochastique à , qui peut être interprété comme le temps . L'intuition derrière une filtration est qu'au fil du temps , de plus en plus d'informations sur sont connues ou disponibles, qui sont capturées dans , ce qui donne des partitions de plus en plus fines de .

Modification

Une modification d'un processus stochastique est un autre processus stochastique, qui est étroitement lié au processus stochastique d'origine. Plus précisément, un processus stochastique qui a le même ensemble d'indices , espace d'ensembles et espace de probabilité qu'un autre processus stochastique est dit être une modification de si pour tous les éléments suivants

tient. Deux processus stochastiques qui sont des modifications l'un de l'autre ont la même loi de dimension finie et sont dits stochastiquement équivalents ou équivalents .

Au lieu de modification, le terme version est également utilisé, cependant certains auteurs utilisent le terme version lorsque deux processus stochastiques ont les mêmes distributions de dimension finie, mais ils peuvent être définis sur des espaces de probabilité différents, donc deux processus qui sont des modifications l'un de l'autre, sont aussi des versions l'une de l'autre, dans ce dernier sens, mais pas l'inverse.

Si un processus stochastique à valeur réelle en temps continu répond à certaines conditions de moment sur ses incréments, alors le théorème de continuité de Kolmogorov dit qu'il existe une modification de ce processus qui a des chemins d'échantillons continus avec une probabilité de un, donc le processus stochastique a une modification continue ou version. Le théorème peut également être généralisé aux champs aléatoires de sorte que l'ensemble d'indices est un espace euclidien -dimensionnel ainsi qu'aux processus stochastiques avec des espaces métriques comme espaces d'état.

Indiscernable

Deux processus stochastiques et définis sur le même espace de probabilité avec le même ensemble d'indices et le même espace d'ensembles sont dits indiscernables si ce qui suit

tient. Si deux et sont des modifications l'un de l'autre et sont presque sûrement continus, alors et sont indiscernables.

Séparabilité

La séparabilité est une propriété d'un processus stochastique basé sur son ensemble d'indices par rapport à la mesure de probabilité. La propriété est supposée telle que les fonctionnelles des processus stochastiques ou des champs aléatoires avec des ensembles d'indices indénombrables peuvent former des variables aléatoires. Pour qu'un processus stochastique soit séparable, en plus d'autres conditions, son ensemble d'indices doit être un espace séparable , ce qui signifie que l'ensemble d'indices a un sous-ensemble dénombrable dense.

Plus précisément, un processus stochastique en temps continu à valeur réelle avec un espace de probabilité est séparable si son ensemble d'indices a un sous-ensemble dénombrable dense et qu'il existe un ensemble de probabilité zéro, donc , tel que pour chaque ensemble ouvert et chaque ensemble fermé , le deux événements et diffèrent les uns des autres au plus sur un sous-ensemble de . La définition de séparabilité peut également être énoncée pour d'autres ensembles d'indices et espaces d'états, comme dans le cas des champs aléatoires, où l'ensemble d'indices ainsi que l'espace d'états peuvent être un espace euclidien de dimension.

Le concept de séparabilité d'un processus stochastique a été introduit par Joseph Doob ,. L'idée sous-jacente de la séparabilité est de faire en sorte qu'un ensemble dénombrable de points de l'ensemble d'indices détermine les propriétés du processus stochastique. Tout processus stochastique avec un ensemble d'indices dénombrables remplit déjà les conditions de séparabilité, de sorte que les processus stochastiques à temps discret sont toujours séparables. Un théorème de Doob, parfois appelé théorème de séparabilité de Doob, dit que tout processus stochastique en temps continu à valeur réelle a une modification séparable. Des versions de ce théorème existent également pour des processus stochastiques plus généraux avec des ensembles d'indices et des espaces d'états autres que la ligne réelle.

Indépendance

Deux processus stochastiques et définis sur le même espace de probabilité avec le même ensemble d'indices sont dits indépendants si pour tout et pour tout choix d'époques , les vecteurs aléatoires et sont indépendants.

Non-corrélation

Deux processus stochastiques et sont appelés non corrélés si leur covariance croisée est nulle pour tous les temps. Officiellement:

.

L'indépendance implique la non-corrélation

Si deux processus stochastiques et sont indépendants, alors ils sont également non corrélés.

Orthogonalité

Deux processus stochastiques et sont dits orthogonaux si leur corrélation croisée est nulle pour tous les temps. Officiellement:

.

Espace Skorokhod

Un espace Skorokhod , également écrit espace Skorohod , est un espace mathématique de toutes les fonctions qui sont continues à droite avec des limites gauches, définies sur un intervalle de la ligne réelle tel que ou , et prennent des valeurs sur la ligne réelle ou sur une métrique espacer. De telles fonctions sont connues sous le nom de fonctions càdlàg ou cadlag, basées sur l'acronyme de l'expression française continue à droite, limite à gauche . Un espace fonctionnel de Skorokhod, introduit par Anatoliy Skorokhod , est souvent désigné par la lettre , de sorte que l'espace fonctionnel est également appelé espace . La notation de cet espace de fonctions peut également comprendre l'intervalle sur lequel toutes les fonctions càdlàg sont définies, ainsi, par exemple, désigne l'espace des fonctions càdlàg définies sur l' intervalle unitaire .

Les espaces de fonctions de Skorokhod sont fréquemment utilisés dans la théorie des processus stochastiques car on suppose souvent que les fonctions d'échantillon des processus stochastiques en temps continu appartiennent à un espace de Skorokhod. De tels espaces contiennent des fonctions continues, qui correspondent à des exemples de fonctions du processus de Wiener. Mais l'espace a aussi des fonctions avec des discontinuités, ce qui signifie que les fonctions d'échantillon de processus stochastiques avec des sauts, comme le processus de Poisson (sur la droite réelle), sont également membres de cet espace.

Régularité

Dans le contexte de la construction mathématique des processus stochastiques, le terme régularité est utilisé pour discuter et supposer certaines conditions pour qu'un processus stochastique résolve d'éventuels problèmes de construction. Par exemple, pour étudier les processus stochastiques avec des ensembles d'indices indénombrables, on suppose que le processus stochastique adhère à un certain type de condition de régularité telle que les fonctions d'échantillon étant continues.

Autres exemples

Processus et chaînes de Markov

Les processus de Markov sont des processus stochastiques, traditionnellement en temps discret ou continu , qui ont la propriété de Markov, ce qui signifie que la valeur suivante du processus de Markov dépend de la valeur actuelle, mais elle est conditionnellement indépendante des valeurs précédentes du processus stochastique. En d'autres termes, le comportement du processus dans le futur est stochastiquement indépendant de son comportement dans le passé, étant donné l'état actuel du processus.

Le processus de mouvement brownien et le processus de Poisson (en une dimension) sont tous deux des exemples de processus de Markov en temps continu, tandis que les marches aléatoires sur les entiers et le problème de la ruine du joueur sont des exemples de processus de Markov en temps discret.

Une chaîne de Markov est un type de processus de Markov qui a soit un espace d'état discret , soit un ensemble d'indices discrets (représentant souvent le temps), mais la définition précise d'une chaîne de Markov varie. Par exemple, il est courant de définir une chaîne de Markov comme un processus de Markov en temps discret ou continu avec un espace d'état dénombrable (donc quelle que soit la nature du temps), mais il est également courant de définir une chaîne de Markov comme ayant un temps dans l'espace d'état dénombrable ou continu (donc quel que soit l'espace d'état). Il a été avancé que la première définition d'une chaîne de Markov, où elle a un temps discret, a maintenant tendance à être utilisée, bien que la deuxième définition ait été utilisée par des chercheurs comme Joseph Doob et Kai Lai Chung .

Les processus de Markov forment une classe importante de processus stochastiques et ont des applications dans de nombreux domaines. Par exemple, ils sont à la base d'une méthode de simulation stochastique générale connue sous le nom de chaîne de Markov Monte Carlo , qui est utilisée pour simuler des objets aléatoires avec des distributions de probabilité spécifiques, et a trouvé une application dans les statistiques bayésiennes .

Le concept de la propriété de Markov était à l'origine pour les processus stochastiques en temps continu et discret, mais la propriété a été adaptée pour d'autres ensembles d'indices tels que l' espace euclidien -dimensionnel, qui se traduit par des collections de variables aléatoires connues sous le nom de champs aléatoires de Markov.

Martingale

Une martingale est un processus stochastique en temps discret ou en temps continu avec la propriété qu'à chaque instant, étant donné la valeur actuelle et toutes les valeurs passées du processus, l'espérance conditionnelle de chaque valeur future est égale à la valeur actuelle. En temps discret, si cette propriété est valable pour la valeur suivante, elle est valable pour toutes les valeurs futures. La définition mathématique exacte d'une martingale nécessite deux autres conditions couplées au concept mathématique d'une filtration, qui est liée à l'intuition d'augmenter l'information disponible au fur et à mesure que le temps passe. Les martingales sont généralement définies comme étant à valeur réelle, mais elles peuvent également être à valeur complexe ou même plus générales.

Une marche aléatoire symétrique et un processus de Wiener (avec dérive nulle) sont tous deux des exemples de martingales, respectivement, en temps discret et continu. Pour une suite de variables aléatoires indépendantes et identiquement distribuées de moyenne nulle, le processus stochastique formé à partir des sommes partielles successives est une martingale à temps discret. Dans cet aspect, les martingales à temps discret généralisent l'idée de sommes partielles de variables aléatoires indépendantes.

Les martingales peuvent également être créées à partir de processus stochastiques en appliquant des transformations appropriées, ce qui est le cas pour le processus de Poisson homogène (sur la ligne réelle) résultant en une martingale appelée processus de Poisson compensé . Les martingales peuvent également être construites à partir d'autres martingales. Par exemple, il existe des martingales basées sur la martingale du procédé de Wiener, formant des martingales à temps continu.

Les martingales formalisent mathématiquement l'idée d'un jeu équitable, et elles ont été développées à l'origine pour montrer qu'il n'est pas possible de gagner un jeu équitable. Mais maintenant, ils sont utilisés dans de nombreux domaines de probabilité, ce qui est l'une des principales raisons de les étudier. De nombreux problèmes de probabilité ont été résolus en trouvant une martingale dans le problème et en l'étudiant. Les martingales convergeront, étant donné certaines conditions sur leurs moments, elles sont donc souvent utilisées pour dériver des résultats de convergence, en grande partie en raison des théorèmes de convergence des martingales .

Les martingales ont de nombreuses applications en statistique, mais il a été remarqué que son utilisation et son application ne sont pas aussi répandues qu'elles pourraient l'être dans le domaine des statistiques, en particulier l'inférence statistique. Ils ont trouvé des applications dans des domaines de la théorie des probabilités tels que la théorie des files d'attente et le calcul de Palm et d'autres domaines tels que l'économie et la finance.

Procédé Lévy

Les processus de Lévy sont des types de processus stochastiques qui peuvent être considérés comme des généralisations de marches aléatoires en temps continu. Ces procédés ont de nombreuses applications dans des domaines tels que la finance, la mécanique des fluides, la physique et la biologie. Les principales caractéristiques qui définissent ces processus sont leurs propriétés de stationnarité et d'indépendance, ils étaient donc connus sous le nom de processus avec des incréments stationnaires et indépendants . En d'autres termes, un processus stochastique est un processus de Lévy si pour des nombres non négatifs, , les incréments correspondants

sont tous indépendants les uns des autres, et la distribution de chaque incrément ne dépend que de la différence de temps.

Un processus de Lévy peut être défini de telle sorte que son espace d'état soit un espace mathématique abstrait, tel qu'un espace de Banach , mais les processus sont souvent définis de telle sorte qu'ils prennent des valeurs dans l'espace euclidien. L'ensemble d'indices est constitué des nombres non négatifs, donc , qui donne l'interprétation du temps. Les processus stochastiques importants tels que le processus de Wiener, le processus de Poisson homogène (en une dimension) et les subordonnés sont tous des processus de Lévy.

Champ aléatoire

Un champ aléatoire est une collection de variables aléatoires indexées par un espace euclidien de dimension ou une variété. En général, un champ aléatoire peut être considéré comme un exemple de processus stochastique ou aléatoire, où l'ensemble d'indices n'est pas nécessairement un sous-ensemble de la ligne réelle. Mais il existe une convention selon laquelle une collection indexée de variables aléatoires est appelée champ aléatoire lorsque l'index a deux dimensions ou plus. Si la définition spécifique d'un processus stochastique nécessite que l'ensemble d'indices soit un sous-ensemble de la ligne réelle, alors le champ aléatoire peut être considéré comme une généralisation du processus stochastique.

Processus de points

Un processus ponctuel est une collection de points situés de manière aléatoire sur un espace mathématique tel que la ligne réelle, l' espace euclidien -dimensionnel ou des espaces plus abstraits. Parfois, le terme processus ponctuel n'est pas préféré, car historiquement, le processus verbal désignait une évolution d'un système dans le temps, de sorte qu'un processus ponctuel est également appelé champ ponctuel aléatoire . Il existe différentes interprétations d'un processus ponctuel, comme une mesure de comptage aléatoire ou un ensemble aléatoire. Certains auteurs considèrent un processus ponctuel et un processus stochastique comme deux objets différents, de sorte qu'un processus ponctuel est un objet aléatoire qui découle d'un processus stochastique ou y est associé, bien qu'il ait été remarqué que la différence entre les processus ponctuels et les processus stochastiques n'est pas claire. .

D'autres auteurs considèrent un processus ponctuel comme un processus stochastique, où le processus est indexé par des ensembles de l'espace sous-jacent sur lequel il est défini, comme la ligne réelle ou l' espace euclidien -dimensionnel. D'autres processus stochastiques tels que les processus de renouvellement et de comptage sont étudiés dans la théorie des processus ponctuels.

Histoire

Début de la théorie des probabilités

La théorie des probabilités trouve ses origines dans les jeux de hasard, qui ont une longue histoire, certains jeux ayant été joués il y a des milliers d'années, mais très peu d'analyses ont été faites à leur sujet en termes de probabilité. L'année 1654 est souvent considérée comme la naissance de la théorie des probabilités lorsque les mathématiciens français Pierre Fermat et Blaise Pascal ont eu une correspondance écrite sur les probabilités, motivée par un problème de jeu . Mais des travaux mathématiques antérieurs ont été effectués sur la probabilité des jeux de hasard tels que Liber de Ludo Aleae de Gerolamo Cardano , écrit au XVIe siècle mais publié à titre posthume plus tard en 1663.

Après Cardano, Jakob Bernoulli a écrit Ars Conjectandi , qui est considéré comme un événement important dans l'histoire de la théorie des probabilités. Le livre de Bernoulli a été publié, également à titre posthume, en 1713 et a inspiré de nombreux mathématiciens à étudier les probabilités. Mais malgré certains mathématiciens renommés contribuant à la théorie des probabilités, tels que Pierre-Simon Laplace , Abraham de Moivre , Carl Gauss , Siméon Poisson et Pafnuty Chebyshev , la plupart de la communauté mathématique n'a pas considéré la théorie des probabilités comme faisant partie des mathématiques jusqu'au 20ème siècle.

Mécanique statistique

Dans les sciences physiques, les scientifiques ont développé au 19ème siècle la discipline de la mécanique statistique , où les systèmes physiques, tels que les conteneurs remplis de gaz, peuvent être considérés ou traités mathématiquement comme des collections de nombreuses particules en mouvement. Bien qu'il y ait eu des tentatives d'incorporer le hasard dans la physique statistique par certains scientifiques, tels que Rudolf Clausius , la plupart des travaux avaient peu ou pas de hasard. Cela a changé en 1859 lorsque James Clerk Maxwell a contribué de manière significative au domaine, plus spécifiquement, à la théorie cinétique des gaz, en présentant des travaux où il supposait que les particules de gaz se déplacent dans des directions aléatoires à des vitesses aléatoires. La théorie cinétique des gaz et la physique statistique ont continué à se développer dans la seconde moitié du 19ème siècle, avec des travaux effectués principalement par Clausius, Ludwig Boltzmann et Josiah Gibbs , qui auraient plus tard une influence sur le modèle mathématique d' Albert Einstein pour le mouvement brownien. .

Théorie de la mesure et théorie des probabilités

Au Congrès international des mathématiciens à Paris en 1900, David Hilbert a présenté une liste de problèmes mathématiques , où son sixième problème a demandé un traitement mathématique de la physique et des probabilités impliquant des axiomes . Vers le début du 20ème siècle, les mathématiciens ont développé la théorie de la mesure, une branche des mathématiques pour étudier les intégrales des fonctions mathématiques, dont deux des fondateurs étaient des mathématiciens français, Henri Lebesgue et Émile Borel . En 1925, un autre mathématicien français, Paul Lévy, publia le premier livre sur les probabilités utilisant des idées de la théorie de la mesure.

Dans les années 1920, des contributions fondamentales à la théorie des probabilités ont été apportées en Union soviétique par des mathématiciens tels que Sergei Bernstein , Aleksandr Khinchin et Andrei Kolmogorov . Kolmogorov a publié en 1929 sa première tentative de présentation d'un fondement mathématique, basé sur la théorie de la mesure, pour la théorie des probabilités. Au début des années 1930, Khinchin et Kolmogorov ont organisé des séminaires sur les probabilités, auxquels ont participé des chercheurs tels qu'Eugene Slutsky et Nikolai Smirnov , et Khinchin a donné la première définition mathématique d'un processus stochastique comme un ensemble de variables aléatoires indexées par la ligne réelle.

Naissance de la théorie moderne des probabilités

En 1933, Andrei Kolmogorov a publié en allemand son livre sur les fondements de la théorie des probabilités intitulé Grundbegriffe der Wahrscheinlichkeitsrechnung , où Kolmogorov a utilisé la théorie de la mesure pour développer un cadre axiomatique pour la théorie des probabilités. La publication de ce livre est maintenant largement considérée comme la naissance de la théorie moderne des probabilités, lorsque les théories des probabilités et des processus stochastiques sont devenues des éléments des mathématiques.

Après la publication du livre de Kolmogorov, d'autres travaux fondamentaux sur la théorie des probabilités et les processus stochastiques ont été effectués par Khinchin et Kolmogorov ainsi que par d'autres mathématiciens tels que Joseph Doob , William Feller , Maurice Fréchet , Paul Lévy , Wolfgang Doeblin et Harald Cramér . Des décennies plus tard, Cramér a qualifié les années 1930 de « période héroïque de la théorie mathématique des probabilités ». La Seconde Guerre mondiale a fortement interrompu le développement de la théorie des probabilités, provoquant, par exemple, la migration de Feller de Suède vers les États-Unis d'Amérique et la mort de Doeblin, considéré désormais comme un pionnier des processus stochastiques.

Le mathématicien Joseph Doob a fait des premiers travaux sur la théorie des processus stochastiques, apportant des contributions fondamentales, en particulier dans la théorie des martingales. Son livre Stochastic Processes est considéré comme très influent dans le domaine de la théorie des probabilités.

Processus stochastiques après la Seconde Guerre mondiale

Après la Seconde Guerre mondiale, l'étude de la théorie des probabilités et des processus stochastiques a attiré davantage l'attention des mathématiciens, avec des contributions importantes apportées dans de nombreux domaines des probabilités et des mathématiques ainsi que la création de nouveaux domaines. À partir des années 1940, Kiyosi Itô a publié des articles développant le domaine du calcul stochastique , qui implique des intégrales stochastiques et des équations différentielles stochastiques basées sur le processus de mouvement de Wiener ou brownien.

À partir des années 1940 également, des liens ont été établis entre les processus stochastiques, en particulier les martingales, et le domaine mathématique de la théorie du potentiel , avec les premières idées de Shizuo Kakutani puis les travaux ultérieurs de Joseph Doob. D'autres travaux, considérés comme pionniers, ont été réalisés par Gilbert Hunt dans les années 1950, reliant les processus de Markov et la théorie du potentiel, qui ont eu un effet significatif sur la théorie des processus de Lévy et ont conduit à un plus grand intérêt pour l'étude des processus de Markov avec les méthodes développées par Itô.

En 1953, Doob a publié son livre Processus stochastiques , qui a eu une forte influence sur la théorie des processus stochastiques et a souligné l'importance de la théorie de la mesure en probabilité. Doob a également développé principalement la théorie des martingales, avec des contributions substantielles plus tard par Paul-André Meyer . Des travaux antérieurs avaient été menés par Sergueï Bernstein , Paul Lévy et Jean Ville , ce dernier adoptant le terme de martingale pour le processus stochastique. Les méthodes de la théorie des martingales sont devenues populaires pour résoudre divers problèmes de probabilité. Des techniques et une théorie ont été développées pour étudier les processus de Markov puis appliquées aux martingales. A l'inverse, des méthodes issues de la théorie des martingales ont été établies pour traiter les processus de Markov.

D'autres domaines de probabilité ont été développés et utilisés pour étudier les processus stochastiques, une approche principale étant la théorie des grandes déviations. La théorie a de nombreuses applications en physique statistique, entre autres domaines, et ses idées fondamentales remontent au moins aux années 1930. Plus tard dans les années 1960 et 1970, Alexander Wentzell en Union soviétique et Monroe D. Donsker et Srinivasa Varadhan aux États-Unis ont effectué des travaux fondamentaux, ce qui a permis plus tard à Varadhan de remporter le prix Abel 2007. Dans les années 1990 et 2000, les théories de l' évolution de Schramm-Loewner et des chemins approximatifs ont été introduites et développées pour étudier les processus stochastiques et d'autres objets mathématiques en théorie des probabilités, qui ont respectivement abouti à la remise des médailles Fields à Wendelin Werner en 2008 et à Martin Hairer en 2014. .

La théorie des processus stochastiques continue d'être au centre de la recherche, avec des conférences internationales annuelles sur le thème des processus stochastiques.

Découvertes de processus stochastiques spécifiques

Bien que Khinchin ait donné des définitions mathématiques des processus stochastiques dans les années 1930, des processus stochastiques spécifiques avaient déjà été découverts dans différents contextes, tels que le processus de mouvement brownien et le processus de Poisson. Certaines familles de processus stochastiques tels que les processus ponctuels ou les processus de renouvellement ont des histoires longues et complexes, remontant à des siècles.

procédé Bernoulli

Le processus de Bernoulli, qui peut servir de modèle mathématique pour lancer une pièce biaisée, est peut-être le premier processus stochastique à avoir été étudié. Le processus est une séquence d'essais indépendants de Bernoulli, qui portent le nom de Jackob Bernoulli qui les a utilisés pour étudier les jeux de hasard, y compris les problèmes de probabilité proposés et étudiés précédemment par Christiaan Huygens. Les travaux de Bernoulli, y compris le processus de Bernoulli, ont été publiés dans son livre Ars Conjectandi en 1713.

Balades au hasard

En 1905, Karl Pearson a inventé le terme marche aléatoire en posant un problème décrivant une marche aléatoire dans le plan, qui était motivé par une application en biologie, mais de tels problèmes impliquant des marches aléatoires avaient déjà été étudiés dans d'autres domaines. Certains problèmes de jeu qui ont été étudiés des siècles plus tôt peuvent être considérés comme des problèmes impliquant des marches aléatoires. Par exemple, le problème connu sous le nom de la ruine du joueur est basé sur une simple marche aléatoire et est un exemple de marche aléatoire avec des barrières absorbantes. Pascal, Fermat et Huyens ont tous donné des solutions numériques à ce problème sans détailler leurs méthodes, puis des solutions plus détaillées ont été présentées par Jakob Bernoulli et Abraham de Moivre .

Pour les marches aléatoires dans les réseaux entiers de dimension , George Pólya a publié en 1919 et 1921 des travaux, où il a étudié la probabilité d'une marche aléatoire symétrique revenant à une position précédente dans le réseau. Pólya a montré qu'une marche aléatoire symétrique, qui a une probabilité égale d'avancer dans n'importe quelle direction dans le réseau, reviendra à une position précédente dans le réseau un nombre infini de fois avec une probabilité une en une et deux dimensions, mais avec une probabilité zéro en trois dimensions ou plus.

Processus de viennoiserie

Le processus de Wiener ou processus de mouvement brownien a ses origines dans différents domaines, notamment les statistiques, la finance et la physique. En 1880, Thorvald Thiele a écrit un article sur la méthode des moindres carrés, où il a utilisé le processus pour étudier les erreurs d'un modèle dans l'analyse de séries chronologiques. Le travail est maintenant considéré comme une première découverte de la méthode statistique connue sous le nom de filtrage de Kalman , mais le travail a été largement négligé. On pense que les idées de l'article de Thiele étaient trop avancées pour avoir été comprises par la communauté mathématique et statistique au sens large de l'époque.

Norbert Wiener a donné la première preuve mathématique de l'existence du processus de Wiener. Cet objet mathématique était déjà apparu dans les travaux de Thorvald Thiele , Louis Bachelier et Albert Einstein .

Le mathématicien français Louis Bachelier a utilisé un procédé de Wiener dans sa thèse de 1900 afin de modéliser les variations de prix à la Bourse de Paris , une bourse , sans connaître les travaux de Thiele. Il a été supposé que Bachelier a tiré des idées du modèle de marche aléatoire de Jules Regnault , mais Bachelier ne l'a pas cité, et la thèse de Bachelier est maintenant considérée comme pionnière dans le domaine des mathématiques financières.

On pense généralement que le travail de Bachelier a attiré peu d'attention et a été oublié pendant des décennies jusqu'à ce qu'il soit redécouvert dans les années 1950 par Leonard Savage , puis qu'il soit devenu plus populaire après que la thèse de Bachelier a été traduite en anglais en 1964. Mais le travail n'a jamais été oublié dans le communauté mathématique, comme Bachelier a publié un livre en 1912 détaillant ses idées, qui a été cité par des mathématiciens dont Doob, Feller et Kolmogorov. Le livre a continué à être cité, mais à partir des années 1960, la thèse originale de Bachelier a commencé à être plus citée que son livre lorsque les économistes ont commencé à citer les travaux de Bachelier.

En 1905, Albert Einstein publia un article dans lequel il étudiait l'observation physique du mouvement ou mouvement brownien pour expliquer les mouvements apparemment aléatoires des particules dans les liquides en utilisant des idées de la théorie cinétique des gaz . Einstein a dérivé une équation différentielle , connue sous le nom d' équation de diffusion , pour décrire la probabilité de trouver une particule dans une certaine région de l'espace. Peu de temps après le premier article d'Einstein sur le mouvement brownien, Marian Smoluchowski a publié un ouvrage où il a cité Einstein, mais a écrit qu'il avait dérivé indépendamment les résultats équivalents en utilisant une méthode différente.

Les travaux d'Einstein, ainsi que les résultats expérimentaux obtenus par Jean Perrin , ont inspiré plus tard Norbert Wiener dans les années 1920 à utiliser un type de théorie de la mesure, développé par Percy Daniell , et l'analyse de Fourier pour prouver l'existence du processus de Wiener en tant qu'objet mathématique.

Processus de Poisson

Le processus de Poisson est nommé d'après Siméon Poisson , en raison de sa définition impliquant la distribution de Poisson , mais Poisson n'a jamais étudié le processus. Il existe un certain nombre de revendications pour les premières utilisations ou découvertes du processus de Poisson. Au début du 20e siècle, le processus de Poisson apparaîtrait indépendamment dans différentes situations. En Suède 1903, Filip Lundberg publie une thèse contenant des travaux, désormais considérés comme fondamentaux et pionniers, où il propose de modéliser les réclamations d'assurance avec un processus de Poisson homogène.

Une autre découverte a eu lieu au Danemark en 1909 lorsque AK Erlang a dérivé la distribution de Poisson lors du développement d'un modèle mathématique pour le nombre d'appels téléphoniques entrants dans un intervalle de temps fini. Erlang n'était pas au courant des travaux antérieurs de Poisson à l'époque et supposait que le nombre d'appels téléphoniques arrivant dans chaque intervalle de temps était indépendant les uns des autres. Il a ensuite trouvé le cas limite, qui consiste effectivement à refondre la distribution de Poisson comme limite de la distribution binomiale.

En 1910, Ernest Rutherford et Hans Geiger ont publié des résultats expérimentaux sur le comptage des particules alpha. Motivé par leur travail, Harry Bateman a étudié le problème de comptage et dérivé les probabilités de Poisson comme solution à une famille d'équations différentielles, aboutissant à la découverte indépendante du processus de Poisson. Après cette époque, il y a eu de nombreuses études et applications du processus de Poisson, mais ses débuts sont compliqués, ce qui a été expliqué par les diverses applications du processus dans de nombreux domaines par des biologistes, des écologistes, des ingénieurs et divers physiciens.

Processus de Markov

Les processus de Markov et les chaînes de Markov portent le nom d' Andrey Markov qui a étudié les chaînes de Markov au début du 20e siècle. Markov s'intéressait à l'étude d'une extension de séquences aléatoires indépendantes. Dans son premier article sur les chaînes de Markov, publié en 1906, Markov montra que, dans certaines conditions, les résultats moyens de la chaîne de Markov convergeraient vers un vecteur fixe de valeurs, prouvant ainsi une loi faible des grands nombres sans l'hypothèse d'indépendance, qui avait été communément considéré comme une exigence pour que de telles lois mathématiques soient valables. Markov a ensuite utilisé des chaînes de Markov pour étudier la distribution des voyelles dans Eugène Onéguine , écrit par Alexandre Pouchkine , et a prouvé un théorème central limite pour de telles chaînes.

En 1912, Poincaré a étudié les chaînes de Markov sur des groupes finis dans le but d'étudier le brassage de cartes. Parmi les autres premières utilisations des chaînes de Markov, citons un modèle de diffusion, introduit par Paul et Tatyana Ehrenfest en 1907, et un processus de branchement, introduit par Francis Galton et Henry William Watson en 1873, précédant les travaux de Markov. Après les travaux de Galton et Watson, il a été révélé plus tard que leur processus de ramification avait été indépendamment découvert et étudié environ trois décennies plus tôt par Irénée-Jules Bienaymé . À partir de 1928, Maurice Fréchet s'intéresse aux chaînes de Markov, ce qui l'amène finalement à publier en 1938 une étude détaillée sur les chaînes de Markov.

Andrei Kolmogorov a développé dans un article de 1931 une grande partie de la première théorie des processus de Markov en temps continu. Kolmogorov s'est en partie inspiré des travaux de Louis Bachelier de 1900 sur les fluctuations du marché boursier ainsi que des travaux de Norbert Wiener sur le modèle d'Einstein du mouvement brownien. Il a introduit et étudié un ensemble particulier de processus de Markov connus sous le nom de processus de diffusion, où il a dérivé un ensemble d'équations différentielles décrivant les processus. Indépendamment des travaux de Kolmogorov, Sydney Chapman a dérivé dans un article de 1928 une équation, maintenant appelée équation de Chapman-Kolmogorov , d'une manière moins rigoureuse sur le plan mathématique que Kolmogorov, tout en étudiant le mouvement brownien. Les équations différentielles sont maintenant appelées équations de Kolmogorov ou équations de Kolmogorov-Chapman. Parmi les autres mathématiciens qui ont contribué de manière significative aux fondements des processus de Markov, citons William Feller, à partir des années 1930, puis plus tard Eugene Dynkin, à partir des années 1950.

Processus Lévy

Les processus de Lévy tels que le processus de Wiener et le processus de Poisson (sur la ligne réelle) portent le nom de Paul Lévy qui a commencé à les étudier dans les années 1930, mais ils ont des liens avec des distributions infiniment divisibles remontant aux années 1920. Dans un article de 1932, Kolmogorov a dérivé une fonction caractéristique pour les variables aléatoires associées aux processus de Lévy. Ce résultat a ensuite été dérivé dans des conditions plus générales par Lévy en 1934, puis Khinchin a indépendamment donné une forme alternative pour cette fonction caractéristique en 1937. En plus de Lévy, Khinchin et Kolomogrov, les premières contributions fondamentales à la théorie des processus de Lévy ont été apportées par Bruno de Finetti et Kiyosi Itô .

Construction mathématique

En mathématiques, des constructions d'objets mathématiques sont nécessaires, ce qui est également le cas pour les processus stochastiques, pour prouver qu'ils existent mathématiquement. Il existe deux approches principales pour construire un processus stochastique. Une approche consiste à considérer un espace mesurable de fonctions, à définir un mappage mesurable approprié d'un espace de probabilité à cet espace mesurable de fonctions, puis à dériver les distributions de dimension finie correspondantes.

Une autre approche consiste à définir une collection de variables aléatoires pour avoir des distributions de dimension finie spécifiques, puis à utiliser le théorème d'existence de Kolmogorov pour prouver qu'un processus stochastique correspondant existe. Ce théorème, qui est un théorème d'existence pour les mesures sur des espaces produits infinis, dit que si des distributions de dimension finie satisfont à deux conditions, appelées conditions de cohérence , alors il existe un processus stochastique avec ces distributions de dimension finie.

Problèmes de construction

Lors de la construction de processus stochastiques en temps continu, certaines difficultés mathématiques surviennent, en raison des ensembles d'indices indénombrables, qui ne se produisent pas avec les processus en temps discret. Un problème est qu'il est possible d'avoir plus d'un processus stochastique avec les mêmes distributions de dimension finie. Par exemple, la modification continue à gauche et la modification continue à droite d'un processus de Poisson ont les mêmes distributions de dimension finie. Cela signifie que la distribution du processus stochastique ne spécifie pas nécessairement de manière unique les propriétés des fonctions d'échantillonnage du processus stochastique.

Un autre problème est que les fonctionnelles du processus en temps continu qui reposent sur un nombre incalculable de points de l'ensemble d'indices peuvent ne pas être mesurables, de sorte que les probabilités de certains événements peuvent ne pas être bien définies. Par exemple, le supremum d'un processus stochastique ou d'un champ aléatoire n'est pas nécessairement une variable aléatoire bien définie. Pour un processus stochastique en temps continu , d'autres caractéristiques qui dépendent d'un nombre incalculable de points de l'ensemble d'indices comprennent :

  • une fonction échantillon d'un processus stochastique est une fonction continue de ;
  • une fonction échantillon d'un processus stochastique est une fonction bornée de ; et
  • une fonction d'échantillon d'un processus stochastique est une fonction croissante de .

Pour surmonter ces deux difficultés, différentes hypothèses et approches sont possibles.

Résoudre les problèmes de construction

Une approche pour éviter les problèmes de construction mathématique des processus stochastiques, proposée par Joseph Doob , consiste à supposer que le processus stochastique est séparable. La séparabilité garantit que les distributions de dimension infinie déterminent les propriétés des fonctions d'échantillon en exigeant que les fonctions d'échantillon soient essentiellement déterminées par leurs valeurs sur un ensemble dense de points dénombrables dans l'ensemble d'indices. De plus, si un processus stochastique est séparable, alors les fonctionnelles d'un nombre indénombrable de points de l'ensemble d'indices sont mesurables et leurs probabilités peuvent être étudiées.

Une autre approche est possible, développée à l'origine par Anatoliy Skorokhod et Andrei Kolmogorov , pour un processus stochastique en temps continu avec n'importe quel espace métrique comme espace d'état. Pour la construction d'un tel processus stochastique, on suppose que les fonctions d'échantillon du processus stochastique appartiennent à un espace de fonctions approprié, qui est généralement l'espace de Skorokhod composé de toutes les fonctions continues à droite avec des limites à gauche. Cette approche est maintenant plus utilisée que l'hypothèse de séparabilité, mais un tel processus stochastique basé sur cette approche sera automatiquement séparable.

Bien que moins utilisée, l'hypothèse de séparabilité est considérée comme plus générale car chaque processus stochastique a une version séparable. Il est également utilisé lorsqu'il n'est pas possible de construire un processus stochastique dans un espace de Skorokhod. Par exemple, la séparabilité est supposée lors de la construction et de l'étude des champs aléatoires, où la collection de variables aléatoires est maintenant indexée par des ensembles autres que la ligne réelle tels que l' espace euclidien -dimensionnel.

Voir également

Remarques

Les références

Lectures complémentaires

Des articles

  • Applebaum, David (2004). « Les processus de Lévy : des probabilités à la finance et aux groupes quantiques ». Avis de l'AMS . 51 (11) : 1336-1347.
  • Cramer, Harald (1976). "Un demi-siècle avec la théorie des probabilités : quelques souvenirs personnels" . Les Annales des Probabilités . 4 (4) : 509-546. doi : 10.1214/aop/1176996025 . ISSN  0091-1798 .
  • Guttorp, Pierre ; Thorarinsdottir, Thordis L. (2012). « Qu'est-il arrivé au chaos discret, au processus de Quenouille et à la propriété de Sharp Markov ? Un peu d'histoire des processus ponctuels stochastiques ». Revue statistique internationale . 80 (2) : 253-268. doi : 10.1111/j.1751-5823.2012.00181.x . ISSN  0306-7734 .
  • Jarrow, Robert ; Protter, Philippe (2004). « Une brève histoire de l'intégration stochastique et de la finance mathématique : les premières années, 1880–1970 ». Un Festschrift pour Herman Rubin . Notes de cours de l'Institut de statistique mathématique - Série de monographies. p. 75-91. doi : 10.1214/lnms/1196285381 . ISBN 978-0-940600-61-4. ISSN  0749-2170 .
  • Meyer, Paul-André (2009). « Les processus stochastiques de 1950 à nos jours ». Journal électronique pour l'histoire des probabilités et des statistiques . 5 (1) : 1–42.

Livres

Liens externes