fbpx
Wikipedia

Información mutua

En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación de dos variables aleatorias es una cantidad que mide la dependencia mutua de las dos variables, es decir, mide la reducción de la incertidumbre (entropía) de una variable aleatoria, X, debido al conocimiento del valor de otra variable aleatoria Y.[1]

Definición

Consideremos dos variables aleatorias X e Y con posibles valores xi, i=1,2,...,n, yj, j=1,2,...,m respectivamente. Podemos usar la notación   y  

Podemos definir la información mutua   entre   y   como:[2]

 

La unidad del concepto está determinado por la base del logaritmo usado. Se suelen usar logaritmos base dos, por tanto, la unidad de medida más común es el bit.

De la propia definición podemos concluir que   ya que:

 

Información mutua media

La información mutua media mide la información mutua media que se produce entre los distintos valores de dos variables aleatorias. Para ello proporcionamos un peso a los valores de   sobre la base de la probabilidad de ocurrencia. Por tanto, la información mutua media de dos variables aleatorias discretas X e Y puede definirse como:[2]

 

En el caso continuo, reemplazamos la suma con una integral doble definida:

 

Como en el caso de  , la unidad del concepto está determinado por la base del logaritmo usado Se suele usar el logaritmo con base dos y por tanto la unidad más común es el bit.

Concepto intuitivo

Intuitivamente, la información mutua media mide la información que X e Y comparten: mide en cuánto el conocimiento de una variable reduce nuestra incertidumbre sobre la otra. Por ejemplo, si X e Y son independientes, entonces conocer X no da información sobre Y y viceversa, por lo que su información mutua es cero. En el otro extremo, si X e Y son idénticas entonces toda información proporcionada por X es compartida por Y: saber X determina el valor de Y y viceversa. Por ello, la información mutua media es igual a la información contenida en Y (o X) por sí sola, también llamada la entropía de Y (o X: claramente si X e Y son idénticas tienen idéntica entropía).

La información mutua media cuantifica la dependencia entre la distribución conjunta de X e Y y la que tendrían si X e Y fuesen independientes. La información mutua media es una medida de dependencia en el siguiente sentido: I(X; Y) = 0 si y sólo si X e Y son variables aleatorias independientes. Esto es fácil de ver en una dirección: si X e Y son independientes, entonces p(x,y) = p(x) p(y), y por tanto:

 

Propiedades

La información mutua media cumple las siguientes propiedades:[2][3]

  1. min(H(X),H(Y)) ≥ I(X;Y) ≥ 0 cumpliéndose la igualdad a 0 cuando X e Y son independientes.
  2. I(X;Y) = I(Y;X).

Relación con entropía

 
Relación entre entropías e información mutua media[2]

El valor de la información mutua media se puede obtener a partir del concepto de entropía. usando las definiciones matemáticas de las [entropía (información)|entropías]] H(X), H(X,Y) y H(X|Y)

 

 

 

obtenemos

 

De lo anterior y de la propiedad de las entropías

 

obtenemos

 

Por tanto,

 

lo que indica que la entropía es un tipo especial de información mutua media

Véase también

Referencias

  1. Dan C. Marinescu, Gabriela M. Marinescu, "Classical and Quantum Information",Academic Press 2012
  2. Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008
  3. R.M.Gray,"Entropy and Information Theory", Springer 2011.Second Edition
  •   Datos: Q252973

información, mutua, teoría, probabilidad, teoría, información, información, mutua, transinformación, variables, aleatorias, cantidad, mide, dependencia, mutua, variables, decir, mide, reducción, incertidumbre, entropía, variable, aleatoria, debido, conocimient. En teoria de la probabilidad y en teoria de la informacion la informacion mutua o transinformacion de dos variables aleatorias es una cantidad que mide la dependencia mutua de las dos variables es decir mide la reduccion de la incertidumbre entropia de una variable aleatoria X debido al conocimiento del valor de otra variable aleatoria Y 1 Indice 1 Definicion 2 Informacion mutua media 2 1 Concepto intuitivo 2 2 Propiedades 2 3 Relacion con entropia 3 Vease tambien 4 ReferenciasDefinicion EditarConsideremos dos variables aleatorias X e Y con posibles valores xi i 1 2 n yj j 1 2 m respectivamente Podemos usar la notacion P X x i Y y i P x i y j displaystyle P X x i Y y i P x i y j y P X x i P x i displaystyle P X x i P x i Podemos definir la informacion mutua I x i y j displaystyle I x i y j entre x i displaystyle x i y y j displaystyle y j como 2 I x i y j log P x i y j P x i displaystyle I x i y j log frac P x i y j P x i dd La unidad del concepto esta determinado por la base del logaritmo usado Se suelen usar logaritmos base dos por tanto la unidad de medida mas comun es el bit De la propia definicion podemos concluir que I x i y j I y j x i displaystyle I x i y j I y j x i ya que P x i y j P x i P x i y j P y j P x i P y j P x i y j P x i P y j P y j x i P y j displaystyle frac P x i y j P x i frac P x i y j P y j P x i P y j frac P x i y j P x i P y j frac P y j x i P y j Informacion mutua media EditarLa informacion mutua media mide la informacion mutua media que se produce entre los distintos valores de dos variables aleatorias Para ello proporcionamos un peso a los valores de I x i y j displaystyle I x i y j sobre la base de la probabilidad de ocurrencia Por tanto la informacion mutua media de dos variables aleatorias discretas X e Y puede definirse como 2 I X Y i 1 n j 1 m P x i y j I x i y j i 1 n j 1 m P x i y j log P x i y j P x i i 1 n j 1 m P x i y j log P x i y j P x i P y j displaystyle I X Y sum i 1 n sum j 1 m P x i y j I x i y j sum i 1 n sum j 1 m P x i y j log frac P x i y j P x i sum i 1 n sum j 1 m P x i y j log frac P x i y j P x i P y j En el caso continuo reemplazamos la suma con una integral doble definida I X Y Y X p x y log p x y p x p y d x d y displaystyle I X Y int Y int X p x y log left frac p x y p x p y right dx dy Como en el caso de I x i y j displaystyle I x i y j la unidad del concepto esta determinado por la base del logaritmo usado Se suele usar el logaritmo con base dos y por tanto la unidad mas comun es el bit Concepto intuitivo Editar Intuitivamente la informacion mutua media mide la informacion que X e Y comparten mide en cuanto el conocimiento de una variable reduce nuestra incertidumbre sobre la otra Por ejemplo si X e Y son independientes entonces conocer X no da informacion sobre Y y viceversa por lo que su informacion mutua es cero En el otro extremo si X e Y son identicas entonces toda informacion proporcionada por X es compartida por Y saber X determina el valor de Y y viceversa Por ello la informacion mutua media es igual a la informacion contenida en Y o X por si sola tambien llamada la entropia de Y o X claramente si X e Y son identicas tienen identica entropia La informacion mutua media cuantifica la dependencia entre la distribucion conjunta de X e Y y la que tendrian si X e Y fuesen independientes La informacion mutua media es una medida de dependencia en el siguiente sentido I X Y 0 si y solo si X e Y son variables aleatorias independientes Esto es facil de ver en una direccion si X e Y son independientes entonces p x y p x p y y por tanto log p x y p x p y log 1 0 displaystyle log left frac p x y p x p y right log 1 0 Propiedades Editar La informacion mutua media cumple las siguientes propiedades 2 3 min H X H Y I X Y 0 cumpliendose la igualdad a 0 cuando X e Y son independientes I X Y I Y X Relacion con entropia Editar Relacion entre entropias e informacion mutua media 2 El valor de la informacion mutua media se puede obtener a partir del concepto de entropia usando las definiciones matematicas de las entropia informacion entropias H X H X Y y H X Y H X i p x i log 2 p x i displaystyle H X sum i p x i log 2 p x i H X Y x y p x y log 2 p x y displaystyle H X Y sum x y p x y log 2 p x y H X Y y p y x p x y log 2 p x y displaystyle H X Y sum y p y sum x p x y log 2 p x y obtenemos I X Y H X H X Y H Y H Y X displaystyle I X Y H X H X Y H Y H Y X De lo anterior y de la propiedad de las entropias H X Y H X H Y X H Y H X Y displaystyle H X Y H X H Y X H Y H X Y obtenemos I X Y H X H Y H X Y displaystyle I X Y H X H Y H X Y Por tanto I X X H X H X H X X H X displaystyle I X X H X H X H X X H X lo que indica que la entropia es un tipo especial de informacion mutua mediaVease tambien EditarDivergencia de Kullback Leibler Prueba x de PearsonReferencias Editar Dan C Marinescu Gabriela M Marinescu Classical and Quantum Information Academic Press 2012 a b c d Ranajan M Bose Information Theory Coding And Cryptography Tata McGraw Hill 2008 R M Gray Entropy and Information Theory Springer 2011 Second Edition Datos Q252973Obtenido de https es wikipedia org w index php title Informacion mutua amp oldid 133619855, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos