Entropía conjunta: Difference between revisions
Actualización de las referencias
(Modificaciones para no repetir expresiones matemáticas.) |
(Actualización de las referencias) |
||
Line 1: | Line 1: | ||
==Definición== | ==Definición== | ||
La '''entropía conjunta''' es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias. | La '''entropía conjunta''' es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias.<ref>Díaz Nafría, J.M. (2020). Unidad 2:Entropía de una fuente discreta . PDF disponible en el aula virtual de la asignatura “''Teoría de la Información''.” de la UDIMA. Consultado el 19/12/2023 en Aula virtual[https://aula.udima.es/course/view.php?id=48605]</ref> | ||
Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>. | Dadas dos variables aleatorias discretas <math>X</math> e <math>Y</math> de rango discreto y finito <math display="inline">X=\{x_1, x_2 ... x_n\}</math> e <math display="inline">Y=\{y_1, y_2 ... y_m\}</math> con funciones de probabilidad <math>p_x(x) = P(X=x)</math> y <math>p_y(y) = P(Y=y)</math>, se define la '''entropía conjunta''' de <math>X</math> e <math>Y</math> como la entropía de la variable aleatoria bidimensional <math>(X, Y)</math>, con rango discreto y finito <math>X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} </math> y función de probabilidad <math>p(x,y) = P(X=x, Y=y)</math><ref name=":0">López-García, C.; Fernández-Veiga, M. (2013). ''Teoría de la información y codificación.'' Santiago de Compostela: Andavira. </ref>. | ||
Line 16: | Line 16: | ||
==Código== | ==Código== | ||
A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.<syntaxhighlight lang="matlab"> | A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.<ref>The MathWorks Inc. (2022).''Floating-point relative accuracy''. Natick, Massachusetts: The MathWorks Inc. Recuperado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/eps.html]</ref><syntaxhighlight lang="matlab"> | ||
% Definir dos variables aleatorias discretas | % Definir dos variables aleatorias discretas | ||
X = [1, 2, 3]; % Valores posibles para la variable X | X = [1, 2, 3]; % Valores posibles para la variable X |