Processus de Markov
Définition : Processus de Markov
Les processus de Markov sont des processus ayant la propriété de Markov.
C'est à dire que l'information sur les états passés du processus, qui seront nécessaires pour le calcul des probabilités futures, est résumée par l'information sur l'état du processus à la date la plus récente.