Tout pour apprendre mieux...

Accueil

Mathématiques

Graphes

Matrices : chaînes de Markov

Matrices : chaînes de Markov

Choisir une leçon

Mon livre

Select an option

Vidéo Explicative

Loading...
Enseignant: Lomàn

Résumés

Matrices : chaînes de Markov

Graphes probabilistes

Définition

Un graphe pondéré est un graphe où chaque arête est associée à un nombre réel, appelé poids de l’arête. Un graphe probabiliste est un graphe orienté et pondéré, où le poids de chaque arrête est positif et où la somme des arêtes partant d’un sommet est toujours égale à 1.


Exemple

Graphe probabiliste

Mathématiques; Graphes; Tle générale; Matrices : chaînes de Markov



Matrice de transition

Chaque ligne et chaque colonne de la matrice de transition représente un sommet du graphe probabiliste. 


La valeur du coefficient ai,ja_{i,j} est égal au poids de l’arête partant du sommet II (ligne) et allant au sommet jj (colonne).


Exemple

Sommet

AA​​

BB​​

CC​​

Ligne/colonne

11​​

22​​

33​​

(0010,200,80,40,60)\left(\begin{matrix}0&0&1\\0,2&0&0,8\\0,4&0,6&0\\\end{matrix}\right)​​

Mathématiques; Graphes; Tle générale; Matrices : chaînes de Markov

NoteLa somme des coefficients d’une ligne est toujours égale à 1.



Chaîne de Markov

Imagine une expérience que tu répètes plusieurs fois. La variable aléatoire XnX_n associe à chaque élément de l’univers Ω\Omega la valeur qu’il prend dans ERE\subseteq\mathbb{R} à la n-ième répétition. On peut ainsi construire une suite X0, X1, X2,X_0,\ X_1,\ X_2,\ldots de variables aléatoires.


NoteL’ensemble EE s’appelle l’espace des états.


Une chaîne de Markov est une suite de variables aléatoires XnX_n telle que chaque événement XnX_n dépend uniquement de l’état de Xn1X_{n-1}, c’est-à-dire qu’il dépend de l’état antérieur mais pas des états qui précèdent et pas de l’étape nn à laquelle on se trouve.


Exemple

Dans un village, chaque famille part tous les étés en vacances, soit à la mer, soit à la montagne. La décision du lieu de vacances dépend uniquement de l’endroit où la famille est allée l’année précédente. L’ensemble des états est {mer(1), montagne (2)}\left\{mer\left(1\right),\ montagne\ \left(2\right)\right\} (on associe arbitrairement mermer​​ au nombre 1 et montagnemontagne au nombre 2).


Si une famille est allée à la mer l’année précédente, il y a 25%25\% de chance qu’elle y retourne, et  de chance qu’elle choisisse la montagne.


Si une famille est allée à la montagne l’année précédente, il y a 60%60\% de chance qu’elle y retourne, et 40%40\% de chance qu’elle aille au bord de la mer à la place.


Chaque  représente la destination choisie par la famille l’année . Il s’agit d’une chaîne de Markov puisque la décision ne dépend que de la valeur prise par Xn1X_{n-1}. Le graphe suivant représente cette situation :

Mathématiques; Graphes; Tle générale; Matrices : chaînes de Markov

Tu peux aussi construire la matrice de transition de ce graphe :

(0,250,750,40,6)\left(\begin{matrix}0,25&0,75\\0,4&0,6\\\end{matrix}\right)​​


Note : On appelle ce graphe le graphe probabiliste associé et cette matrice la matrice de transition de la chaîne de Markov.


Distribution initiale

La loi de probabilité de  est appelée la distribution initiale de la chaîne de Markov. Elle est généralement représentée par une matrice ligne notée .

AVEC DEUX ÉTATS

π0=(p(X0=1)p(X0=2))\pi_0=\left(\begin{matrix}p\left(X_0=1\right)&p(X_0=2)\\\end{matrix}\right)​​

AVEC TROIS ÉTATS

π0=(p(X0=1)p(X0=2)p(X0=3))\pi_0=\left(\begin{matrix}p\left(X_0=1\right)&p\left(X_0=2\right)&p\left(X_0=3\right)\\\end{matrix}\right)​​


De manière analogue, la loi de probabilité de XnX_n est appelée la distribution après nn transitions de la chaîne de Markov. Elle est généralement représentée par une matrice ligne notée πn\pi_n.



AVEC DEUX ÉTATS

πn=(p(Xn=1)p(Xn=2))\pi_n=\left(\begin{matrix}p\left(X_n=1\right)&p(X_n=2)\\\end{matrix}\right)​​

AVEC TROIS ÉTATS

πn=(p(Xn=1)p(Xn=2)p(Xn=3))\pi_n=\left(\begin{matrix}p\left(X_n=1\right)&p\left(X_n=2\right)&p\left(X_n=3\right)\\\end{matrix}\right)​​


On dit que la distribution est invariante si tous les πn\pi_n sont les mêmes.


PROPRIÉTÉ

Une propriété des distributions d’une chaîne de Markov est que :

πn=π0×Tn\pi_n=\pi_0\times T^n​​

 TT est la matrice de transition de la chaîne de Markov.


Exemple

Reprends l’exemple précédent. Imagine que l’an 0,30%0, 30\%​ des familles sont allées à la mer et 70%70\% à la montagne. Calcule la distribution après 2 ans :

π2=π0×(0,250,750,40,6)2\pi_2=\pi_0\times\left(\begin{matrix}0,25&0,75\\0,4&0,6\\\end{matrix}\right)^2​​

=(0,3   0,7)×(0,250,750,40,6)×(0,250,750,40,6)=(0,355   0,645)×(0,250,750,40,6)=(0,34675   0,65325)=\left(0,3\ \ \ 0,7\right)\times\left(\begin{matrix}0,25&0,75\\0,4&0,6\\\end{matrix}\right)\times\left(\begin{matrix}0,25&0,75\\0,4&0,6\\\end{matrix}\right)=\left(0,355\ \ \ 0,645\right)\times\left(\begin{matrix}0,25&0,75\\0,4&0,6\\\end{matrix}\right)=(0,34675\ \ \ 0,65325)​​

Après deux ans, environ 35%\underline{35\%} des familles partiront à la mer et 65%\underline{65\%} iront à la montagne.



Créer un compte pour lire le résumé

Exercices

Créer un compte pour commencer les exercices

Questions fréquemment posées sur les crédits

Qu'est-ce qu'une chaîne de Morkov ?

Qu'est qu'une matrice de transition ?

Qu'est-ce qu'un graphe pondéré ?

Beta

Je suis Vulpy, ton compagnon de révision IA ! Apprenons ensemble.