Jump to content

Entropía conjunta: Difference between revisions

no edit summary
(Actualización de las referencias)
No edit summary
Line 6: Line 6:
<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math>
<math>H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}</math>


===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta===
===Teorema de relación entre las entropías individuales y la conjunta===
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado<ref name=":0" />.
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las [[Entropía o cantidad de información|entropías]] de dichas variables aleatorias consideradas por separado<ref name=":0" />.


<math>H(X,Y) \leq H(X) + H(Y)</math>
<math>H(X,Y) \leq H(X) + H(Y)</math>