Les Chaînes de Markov en Temps Discret

Processus de Markov

DéfinitionProcessus de Markov

Les processus de Markov sont des processus ayant la propriété de Markov.

C'est à dire que l'information sur les états passés du processus, qui seront nécessaires pour le calcul des probabilités futures, est résumée par l'information sur l'état du processus à la date la plus récente.

PrécédentPrécédentSuivantSuivant
AccueilAccueilImprimerImprimerRéalisé avec Scenari (nouvelle fenêtre)