Jump to content

Entropía conjunta: Difference between revisions

Hola, en esta edición he ampliado la definición ya que estaba expuesta directamente la formulación matemática. Además, añadiendo su respectiva referencia.
(Hola, en esta edición he ampliado la definición ya que estaba expuesta directamente la formulación matemática. Además, añadiendo su respectiva referencia.)
Line 1: Line 1:
==Definición<ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>==
==Definición<ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>==
<big>La <u>entropía conjunta</u> es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias. Si X e Y son independientes, la entropía conjunta es igual al producto de sus entropías individuales. Sin embargo, si X e Y están correlacionadas, será menor que la suma de las entropías individuales, ya que parte de la información se comparte entre ellas.</big>   
<small>La <u>entropía conjunta</u> es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias. Si X e Y son independientes, la entropía conjunta es igual al producto de sus entropías individuales. Sin embargo, si X e Y están correlacionadas, será menor que la suma de las entropías individuales, ya que parte de la información se comparte entre ellas.</small><ref>Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.</ref>   


<big>Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math>.</big>
<small>Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math>.</small>


<big><math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math></big>  
<small><math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math></small>  


=== <big>Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta<ref name=":0" /></big> ===
=== <small>Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta<ref name=":0" /></small> ===
<big>Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.</big>
<small>Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.</small>


<big><math>H(X,Y) \leq H(X) + H(Y)</math></big>
<small><math>H(X,Y) \leq H(X) + H(Y)</math></small>


<big>Siendo condición necesaria y suficiente que las variables aleatorias  <math>X</math> e <math>Y</math> sean independientes entre sí para que se cumpla que</big>
<small>Siendo condición necesaria y suficiente que las variables aleatorias  <math>X</math> e <math>Y</math> sean independientes entre sí para que se cumpla que</small>


<big><math>H(X,Y) = H(X) + H(Y)</math></big>
<small><math>H(X,Y) = H(X) + H(Y)</math></small>


== Referencias ==
== <big>Referencias</big> ==
<references />
<references />
<references group="Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA." />
[[Category:GlossaLAB.edu]]
[[Category:GlossaLAB.edu]]
[[Category:Teoría de la información]]
[[Category:Teoría de la información]]