Soit
Il y a
Donc
Par conséquent,
En forme matricielle
où
Donc
Il est facile de vérifier que ceci donne la même expression que
La
Sot
Évolution de l'état régie par
où
Si
On normalise souvent le temps de telle manière que
Les CMTD vivent à la frontière du monde des probabilistes, qui aiment penser à
et des algébristes linéaires, qui préfèrent les vecteur colonnes et les matrices de transition colonne-stochastiques
Assurez-vous de la direction utilisée: votre source parle-t-elle de
En tant que personne qui enseigne la modélisation: la théorie des CMTD utilise beaucoup d'algèbre linéaire et matricielle et de théorie des graphes, elle est en général bien comprise et appréciée par les étudiants
Une très bonne référence sur le sujet est le livre de Kemeny & Snell
Soit
En itérant, on obtient que pour tout
Par conséquent
si bien sur cette limite existe
On a vu que
si cette limite existe
Un bon signe:
Soient
Donc en tout cas,
Une chaîne de Markov régulière est une CMTD dans laquelle
Une matrice non-négative
Une CMTD est régulière
Si
Donc, si la chaîne de Markov est régulière
Soit
alors
Le vecteur
En effet, si
et l'on résoud pour
On peut aussi chercher
Pour rappel: si
L'expression obtenue pour
Si ce n'est pas le cas, on considère
Une matrice
Cela se vérifie directement sur le graphe de transition
Un état
Une chaîne de Markov est absorbante si elle a au moins un état absorbant, et qu'il est possible d'aller de n'importe quel état vers un état absorbant (en un nombre fini de pas)
Dans une chaîne de Markov absorbante, un état qui n'est pas absorbant est dit transient
Supposons que l'on ait une chaîne absorbante, e.g.,
Dans une chaîne de Markov absorbante, la probabilité d'atteindre un état absorbant est 1
La matrice de transition d'une chaîne absorbante avec
États absorbants | États transients | |
---|---|---|
États absorbants | ||
États transients |
La matrice
Réponses aux autres questions que nous posions:
On montre relativement facilement que
On doit résoudre
Exprimons tout en fonction de
Donc on obtient
On a
Puisque
pour avoir un vecteur de probabilité, il nous faut prendre
Donc
Supposons par exemple une condition initiale avec
donc
Les états absorbants sont
1 | 0 | 0 | 0 | 0 | 0 | 0 | ||
0 | 1 | 0 | 0 | 0 | 0 | 0 | ||
1/2 | 0 | 0 | 1/2 | 0 | 0 | 0 | ||
0 | 0 | 1/2 | 0 | 1/2 | 0 | 0 | ||
0 | 0 | 0 | 0 | 0 | 0 | 1/2 | ||
0 | 1/2 | 0 | 0 | 0 | 1/2 | 0 |
On trouve donc
où
et
Ceci est une matrice de Toeplitz tridiagonale symmétrique
(symmétrique: évident; tridiagonale: il y a 3 bandes diagonales; Toeplitz: chaque bande diagonale est constante)
On peut donc inverser explicitement.. pour illustrer, voici comment on s'y prendrait
Gérard Meurant (1992): si
alors on a le résultat sur le transparent suivant
L'inverse d'une matrice tridiagonale symétrique
Ici,
Écrivons
On a
En inspectant quelques termes de la suite, on développe le sentiment que
Une petite récurrence devrait confirmer ça. Hypothèse de récurrent (en changeant les indices pour
Donc
En fait, on peut aller plus loin, en exprimant
en termes de
tandis que si
Mais cette dernière expression donne
donc cette formule vaut pour tous les
Pour les
Donc
L'expression
est également utile
En résumé
1 |
Dans
On a,
CMTC sont similaires aux CMTD à part dans leur façon de gérer le temps entre évènements (transitions)
CMTD: transitions (ou absence de transitions) ont lieu chaque
CMTC:
CMTC sont globalement équivalentes aux EDO
Poids | Transition | Effet |
---|---|---|
nouvelle infection d'un susceptible | ||
guérison d'un infectieux |
Une chaîne de Markov en temps continu peut être formulée en termes de
Ici, le temps est dans
Considérons un processus de naissance et mort. Pour
avec
Supposons connu
Calculons
Ceci constitue les équations de Kolmogorov avancées associées à la CMTC
Écrivons le système précédent sous la forme
avec
CMTD:
avec matrice de transition
où