Información mutua
[gL.edu] Este artículo recoge contribuciones de Rubén Guzmán, elaboradas en el contexto de la Clarificación conceptual en torno a la "teoría de la información", bajo la supervisión de José María Díaz Nafría.
Definición
Dentro del contexto de la teoría de la información (o de la teoría matemáticamente de comunicación, inicialmente propuesta por C. Shannon) se define la información mutua entre dos variables aleatorias discretas e como:[1]
Siendo la entropía de y la entropía condicional de dada .
Si la entropía es una medida de la incertidumbre de y la entropía condicional mide la incertidumbre de conociendo , podemos considerar que la información mutua entre e es la información que el conocimiento de nos aporta sobre .
Propiedades
Simetría: [1]
Es decir, la información que nos aporta sobre es igual a la información que nos aporta sobre .
Esta propiedad se puede demostrar aplicando la regla de la cadena que relaciona la entropía condicional con la entropía conjunta:
No negatividad: , siendo si y sólo si e son independientes entre sí [1].
Propiedad que puede deducirse por la definición de información mutua, y por la consideración de que la incertidumbre de conociendo será menor o igual que la incertidumbre de sin condicionantes, . Además, dichas incertidumbres serán iguales si las variables son independientes, por tanto
Mínimo de entropías individuales: [1]
A lo que se puede llegar partiendo de las desigualdades: