Voir aussi : chaine de Markov

Français modifier

Étymologie modifier

D’après Andreï Markov.

Locution nominale modifier

Singulier Pluriel
chaîne de Markov chaînes de Markov
\ʃɛn də maʁ.kɔf\
 
Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d’un état à un autre.

chaîne de Markov \ʃɛn də maʁ.kɔf\ féminin (orthographe traditionnelle)

  1. (Probabilités) Représentation de la prédiction du futur grâce à l’état présent du processus.

Variantes orthographiques modifier

Dérivés modifier

Traductions modifier

Prononciation modifier

Voir aussi modifier