Jump to content

Entropía conjunta: Difference between revisions

Modificaciones para no repetir expresiones matemáticas.
No edit summary
(Modificaciones para no repetir expresiones matemáticas.)
Line 1: Line 1:
==Definición==
==Definición==
La '''entropía conjunta''' es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias.   
La '''entropía conjunta''' es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias.   


Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>.
Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>.


<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math> {{anclar|FomulaEntropiaConjunta}}
<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math>


===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta===
===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta===
Line 17: Line 16:


==Código==
==Código==
Vamos a mostrar un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables discretas.<syntaxhighlight lang="matlab">
A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.<syntaxhighlight lang="matlab">
% Definir dos variables aleatorias discretas
% Definir dos variables aleatorias discretas
X = [1, 2, 3]; % Valores posibles para la variable X
X = [1, 2, 3]; % Valores posibles para la variable X
Line 33: Line 32:
disp(['Entropía conjunta H(X, Y): ', num2str(H)]);
disp(['Entropía conjunta H(X, Y): ', num2str(H)]);


</syntaxhighlight>Este código define dos variables aleatorias discretas, x e y, con valores posibles [1, 2, 3] y [4, 5, 6], respectivamente. Luego, define las probabilidades conjuntas en la matriz P. La entropía conjunta se calcula utilizando la fórmula de entropía definida en [[#FomulaEntropiaConjunta|enlace]]
</syntaxhighlight>Utilizando la expresión matemática definida anteriormente, este código calcula la entropía conjunta utilizando como parámetros de entrada:
 
<math>
H(X,Y)= -(\sum)x(\sum)y*P(x,y)*\log2(P(x,y))</math>


Donde P(x,y) es la probabilidad conjunta de los valores x e y de las variables X e Y.  
* dos variables aleatorias discretas, <math>X</math> e <math>Y</math>, con valores posibles <math>[1, 2, 3]</math> y <math>[4, 5, 6]</math>, respectivamente, y
* las probabilidades conjuntas en la matriz <math>P</math>.


==Referencias==
==Referencias ==
<references />
<references />