Jump to content

Entropía conjunta: Difference between revisions

no edit summary
No edit summary
 
Line 6: Line 6:
Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>.
Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>.


<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math>
:<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math>


== Relaciones con otras entropías ==
== Relaciones con otras entropías ==
Line 13: Line 13:
Se verifica, en general, que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las [[Entropía o cantidad de información|entropías]] de dichas variables aleatorias consideradas por separado<ref name=":0" />.
Se verifica, en general, que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las [[Entropía o cantidad de información|entropías]] de dichas variables aleatorias consideradas por separado<ref name=":0" />.


<math>H(X,Y) \leq H(X) + H(Y)</math>
:<math>H(X,Y) \leq H(X) + H(Y)</math>


Siendo condición necesaria y suficiente que las variables aleatorias  <math>X</math> e <math>Y</math> sean independientes entre sí para que se cumpla que
Siendo condición necesaria y suficiente que las variables aleatorias  <math>X</math> e <math>Y</math> sean independientes entre sí para que se cumpla que


<math>H(X,Y) = H(X) + H(Y)</math>
:<math>H(X,Y) = H(X) + H(Y)</math>


=== Relación con la entropía condicional ===
=== Relación con la entropía condicional ===
La [[Draft:Entropía condicional|entropía condicional]] <math>H(X|Y)  </math>, entendida como la incertidumbre de <math>X</math> cuando <math>Y</math> es conocida, se relaciona con la entropía conjunta mediante la siguiente expresión, conocida como ''regla de la cadena''<ref name=":0" />:
La [[Draft:Entropía condicional|entropía condicional]] <math>H(X|Y)  </math>, entendida como la incertidumbre de <math>X</math> cuando <math>Y</math> es conocida, se relaciona con la entropía conjunta mediante la siguiente expresión, conocida como ''regla de la cadena''<ref name=":0" />:


<math>H(X,Y) = H(X) + H(Y|X)= H(Y) + H(X|Y)  </math>
:<math>H(X,Y) = H(X) + H(Y|X)= H(Y) + H(X|Y)  </math>


Si las variables <math>X</math> e <math>Y</math> son independientes, tenemos que <math>H(Y|X)=H(Y)  </math> y <math>H(X|Y)=H(X)  </math>, corroborando la igualdad citada en el teorema anterior.
Si las variables <math>X</math> e <math>Y</math> son independientes, tenemos que <math>H(Y|X)=H(Y)  </math> y <math>H(X|Y)=H(X)  </math>, corroborando la igualdad citada en el teorema anterior.


==Código==
==Código==
A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.<ref>The MathWorks Inc. (2022).''Floating-point relative accuracy''. Natick, Massachusetts: The MathWorks Inc. Recuperado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/eps.html]</ref><syntaxhighlight lang="matlab">
A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.<ref>The MathWorks Inc. (2022).''Floating-point relative accuracy''. Natick, Massachusetts: The MathWorks Inc. Recuperado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/eps.html]</ref>
<syntaxhighlight lang="matlab">
% Definir dos variables aleatorias discretas
% Definir dos variables aleatorias discretas
X = [1, 2, 3]; % Valores posibles para la variable X
X = [1, 2, 3]; % Valores posibles para la variable X
Line 47: Line 48:
==Referencias ==
==Referencias ==
<references />
<references />
[[Category:GlossaLAB.edu]]
[[Category:Teoría de la información]]