Jump to content

Entropía conjunta: Difference between revisions

no edit summary
(Ajuste de formato, eliminación de información redundante y referencias no válidas.)
No edit summary
Line 5: Line 5:
Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>.
Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>.


<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math>  
<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math> {{anclar|FomulaEntropiaConjunta}}


===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta<ref name=":0" />===
===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta===
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado<ref name=":0" />.


<math>H(X,Y) \leq H(X) + H(Y)</math>
<math>H(X,Y) \leq H(X) + H(Y)</math>
Line 16: Line 16:
<math>H(X,Y) = H(X) + H(Y)</math>
<math>H(X,Y) = H(X) + H(Y)</math>


== Código ==
==Código==
Vamos a mostrar un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables discretas.<syntaxhighlight lang="matlab">
Vamos a mostrar un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables discretas.<syntaxhighlight lang="matlab">
% Definir dos variables aleatorias discretas
% Definir dos variables aleatorias discretas
Line 33: Line 33:
disp(['Entropía conjunta H(X, Y): ', num2str(H)]);
disp(['Entropía conjunta H(X, Y): ', num2str(H)]);


</syntaxhighlight>Este código define dos variables aleatorias discretas, x e y, con valores posibles [1, 2, 3] y [4, 5, 6], respectivamente. Luego, define las probabilidades conjuntas en la matriz P. La entropía conjunta se calcula utilizando la fórmula de entropía:
</syntaxhighlight>Este código define dos variables aleatorias discretas, x e y, con valores posibles [1, 2, 3] y [4, 5, 6], respectivamente. Luego, define las probabilidades conjuntas en la matriz P. La entropía conjunta se calcula utilizando la fórmula de entropía definida en [[#FomulaEntropiaConjunta|enlace]]


<math>
<math>
Line 42: Line 42:
==Referencias==
==Referencias==
<references />
<references />
[[Category:GlossaLAB.edu]]
[[Category:Teoría de la información]]