Entropía conjunta
[gL.edu] Este artículo recoge contribuciones de Julio Garvía Honrado, Irene Salinero, Rubén Guzmán, elaboradas en el contexto de la Clarificación conceptual en torno a la "teoría de la información", bajo la supervisión de José María Díaz Nafría.
Definición
Dentro del contexto de la teoría de la información (o de la teoría matemática de la comunicación, inicialmente propuesta por C. Shannon), la entropía conjunta describe la incertidumbre asociada con dos o más variables aleatorias. Se trata de una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias.[1]
Dadas dos variables aleatorias discretas e de rango discreto y finito e con funciones de probabilidad y , se define la entropía conjunta de e como la entropía de la variable aleatoria bidimensional , con rango discreto y finito y función de probabilidad [1].
Relaciones con otras entropías
Relación con las entropías individuales
Se verifica, en general, que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado[1].
Siendo condición necesaria y suficiente que las variables aleatorias e sean independientes entre sí para que se cumpla que
Relación con la entropía condicional
La entropía condicional , entendida como la incertidumbre de cuando es conocida, se relaciona con la entropía conjunta mediante la siguiente expresión, conocida como regla de la cadena[1]:
Si las variables e son independientes, tenemos que y , corroborando la igualdad citada en el teorema anterior.
Código
A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.[2]
% Definir dos variables aleatorias discretas
X = [1, 2, 3]; % Valores posibles para la variable X
Y = [4, 5, 6]; % Valores posibles para la variable Y
% Definir las probabilidades conjuntas P(X, Y)
P = [0.1, 0.2, 0.1; 0.2, 0.1, 0.1; 0.1, 0.1, 0.1];
% Calcular la entropía conjunta H(X, Y)
H = -sum(sum(P .* log2(P + eps))); % 'eps' se agrega para evitar el logaritmo de cero
% Mostrar los resultados
disp('Probabilidades conjuntas:');
disp(P);
disp(['Entropía conjunta H(X, Y): ', num2str(H)]);
Utilizando la expresión matemática definida anteriormente, este código calcula la entropía conjunta utilizando como parámetros de entrada: (i) dos variables aleatorias discretas, e , con valores posibles y , respectivamente, y (ii) las probabilidades conjuntas en la matriz .