Bureaucrats, curator, Interface administrators, Administrators (Semantic MediaWiki), Curators (Semantic MediaWiki), Editors (Semantic MediaWiki), Suppressors, Administrators
1,923
edits
m (JDíaz moved page Draft:Entropía conjunta to Entropía conjunta) |
No edit summary |
||
Line 6: | Line 6: | ||
Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>. | Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>. | ||
<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math> | :<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math> | ||
== Relaciones con otras entropías == | == Relaciones con otras entropías == | ||
Line 13: | Line 13: | ||
Se verifica, en general, que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las [[Entropía o cantidad de información|entropías]] de dichas variables aleatorias consideradas por separado<ref name=":0" />. | Se verifica, en general, que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las [[Entropía o cantidad de información|entropías]] de dichas variables aleatorias consideradas por separado<ref name=":0" />. | ||
<math>H(X,Y) \leq H(X) + H(Y)</math> | :<math>H(X,Y) \leq H(X) + H(Y)</math> | ||
Siendo condición necesaria y suficiente que las variables aleatorias <math>X</math> e <math>Y</math> sean independientes entre sí para que se cumpla que | Siendo condición necesaria y suficiente que las variables aleatorias <math>X</math> e <math>Y</math> sean independientes entre sí para que se cumpla que | ||
<math>H(X,Y) = H(X) + H(Y)</math> | :<math>H(X,Y) = H(X) + H(Y)</math> | ||
=== Relación con la entropía condicional === | === Relación con la entropía condicional === | ||
La [[Draft:Entropía condicional|entropía condicional]] <math>H(X|Y) </math>, entendida como la incertidumbre de <math>X</math> cuando <math>Y</math> es conocida, se relaciona con la entropía conjunta mediante la siguiente expresión, conocida como ''regla de la cadena''<ref name=":0" />: | La [[Draft:Entropía condicional|entropía condicional]] <math>H(X|Y) </math>, entendida como la incertidumbre de <math>X</math> cuando <math>Y</math> es conocida, se relaciona con la entropía conjunta mediante la siguiente expresión, conocida como ''regla de la cadena''<ref name=":0" />: | ||
<math>H(X,Y) = H(X) + H(Y|X)= H(Y) + H(X|Y) </math> | :<math>H(X,Y) = H(X) + H(Y|X)= H(Y) + H(X|Y) </math> | ||
Si las variables <math>X</math> e <math>Y</math> son independientes, tenemos que <math>H(Y|X)=H(Y) </math> y <math>H(X|Y)=H(X) </math>, corroborando la igualdad citada en el teorema anterior. | Si las variables <math>X</math> e <math>Y</math> son independientes, tenemos que <math>H(Y|X)=H(Y) </math> y <math>H(X|Y)=H(X) </math>, corroborando la igualdad citada en el teorema anterior. | ||
==Código== | ==Código== | ||
A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.<ref>The MathWorks Inc. (2022).''Floating-point relative accuracy''. Natick, Massachusetts: The MathWorks Inc. Recuperado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/eps.html]</ref><syntaxhighlight lang="matlab"> | A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.<ref>The MathWorks Inc. (2022).''Floating-point relative accuracy''. Natick, Massachusetts: The MathWorks Inc. Recuperado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/eps.html]</ref> | ||
<syntaxhighlight lang="matlab"> | |||
% Definir dos variables aleatorias discretas | % Definir dos variables aleatorias discretas | ||
X = [1, 2, 3]; % Valores posibles para la variable X | X = [1, 2, 3]; % Valores posibles para la variable X | ||
Line 47: | Line 48: | ||
==Referencias == | ==Referencias == | ||
<references /> | <references /> | ||
[[Category:GlossaLAB.edu]] | |||
[[Category:Teoría de la información]] |