Draft:Información mutua condicional
| Clarification activity | Sistemas e información |
| Author(s) | Francisco Manuel Gómez García |
| Creation date | 7 nov 2025 |
| Status | 🟢 Necesita mejoras |
| Reviews | Rev.1 |
|
Observaciones de revisión: Este artículo requiere las mejoras indicadas a continuación:
|
Definición
La información mutua condicional[1] de X e Y establecida una tercera variable Z, cuantifica de manera residual cuanta incertidumbre sobre X se reduce al conocer Y en función del valor de Z conocido. El hecho de conocer una tercera variable aleatoria Z puede hacer variar la distribución marginal o conjunta de dos variables aleatorias dadas, X e Y.
Sean X, Y y Z tres variables aleatorias discretas. Se dice que X e Y son condicionalmente independientes dado Z si la distribución condicional de Y , cuando se conoce Z, es independiente de la de X:
Notación de la definición de información mutua condicional de las variables aleatorias X e Y , dada la variable Z:
Definición:
La diferencia entre la entropía condicional de X dado Z y la entropía condicional de X dado tanto Y como Z.
Se puede verificar fácilmente que la información mutua condicional conserva todas las propiedades de la información mutua.[2]
En particular, se cumple el siguiente teorema:
con igualdad estricta si y solamente si, dada Z, las variables X e Y son condicionalmente independientes.
Además, la información mutua satisface también una regla de la cadena:
Demostración:
Propiedades
Según A.D.Wyner:[3]
- No Negatividad (Nunca es negativa, y si es cero, entonces X e Y son independientes dado Z.)
- Descomposición (Kolmogórov) ( La información total puede dividirse en la parte que Z aporta sobre Y, más la parte adicional que X aporta tras conocer Z).
- Regla de la cadena (La información puede sumarse paso a paso, cada variable añade su contribución una vez que se conocen las anteriores. Permite analizar sistemas complejos dividiéndolos por partes).
- Procesamiento de datos (Al pasar por un canal o proceso, la información no puede aumentar. El ruido o las transformaciones solo pueden mantener o reducirla).
- Simetría (La información mutua condicional es la misma en ambos sentidos, y no depende del orden de X e Y).
- Equivalencia con Dobrushin (con la ventaja de ser más intuitiva, compatible con la teoría de Shannon)
Referencias
- ↑ Lizier, Joseph (20 Agosto 2020). What is information? Part 4 - Conditional mutual information. Recuperado 20/01/2026 de: [https://www.youtube.com/watch?v=lxpS8GAprVQ&t=1s YouTube video]
- ↑ López García, C. y Fernández Veiga, M. (2002). Teoría de la Información y Codificación. Universidades de Vigo.
- ↑ Wyner, A. D. (1978). A definition of conditional mutual information for arbitrary ensembles. Information and Control, 38 (1): 51–59.