20
jui

Couple? (selon un wiki)

Information mutuelle

Entropies individuelles (H(X),H(Y)), jointes (H(X,Y)), d'une paire de sous-systèmes (X, Y), avec l'information mutuelle I(X; Y).

 

Dans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit.

 

L'information mutuelle d'un couple (X,Y) de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.

 

Informellement, on dit que deux variables sont indépendantes si la réalisation de l'une n'apporte aucune information sur la réalisation de l'autre. La corrélation est un cas particulier de dépendance dans lequel la relation entre les deux variables est strictement linéaire.

 

L'information mutuelle est nulle si et seulement si les variables sont indépendantes, et croit lorsque la dépendance augmente.

10:38 20/07/2013 | Lien permanent | Tags : humoeurs |  Facebook

Les commentaires sont fermés.