<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Rmedina</id>
	<title>glossaLAB - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Rmedina"/>
	<link rel="alternate" type="text/html" href="https://www.glossalab.org/wiki/Special:Contributions/Rmedina"/>
	<updated>2026-04-30T21:14:59Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.43.6</generator>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Codificaci%C3%B3n_de_fuente&amp;diff=26388</id>
		<title>Codificación de fuente</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Codificaci%C3%B3n_de_fuente&amp;diff=26388"/>
		<updated>2025-10-30T18:34:16Z</updated>

		<summary type="html">&lt;p&gt;Rmedina: Añadido un ejemplo en Python&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_TSC&lt;br /&gt;
|Autores=[[user:JDíaz|J.M. Díaz Nafría]], [[User:Mario José Ruiz Asenjo]]&lt;br /&gt;
|Docentes=[[user:JDíaz|J.M. Díaz Nafría]]&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
La &#039;&#039;&#039;codificación de fuente&#039;&#039;&#039; trata de lograr la forma más conveniente de representar los mensajes de la fuente, adaptándose a las características de la misma, utilizando el menor número posible de símbolos que sea posible para su transmisión a través del canal e ignorando los posibles errores que puedan darse en la transmisión por el canal. De esta última cuestión se encarga la [[codificación de canal]], que no debe confundirse con la de fuente, cumpliendo estas dos codificaciones funciones complementarias.&lt;br /&gt;
&lt;br /&gt;
Así, el codificador de fuente convierte una secuencia de símbolos generados por la fuente (o tras el muestreo de la [[señal]] si esta fuera analógica en origen) en otra secuencia distinta, empleando símbolos de un [[alfabeto]] distinto llamado alfabeto de codificación, que será igual al alfabeto de entrada del canal.&lt;br /&gt;
&lt;br /&gt;
La codificación de fuente asigna a cada elemento del alfabeto finito &amp;lt;math&amp;gt;F&amp;lt;/math&amp;gt;, al que representamos por &amp;lt;math&amp;gt;F^n&amp;lt;/math&amp;gt; (para un determinado valor de &#039;&#039;n&#039;&#039;), una palabra del código, esto es, una secuencia de elementos del alfabeto de codificación finito &amp;lt;math&amp;gt;D&amp;lt;/math&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;F^n, n \text{ dado}\longrightarrow\text{ palabra del código}=\{\text{secuencia de elementos de }D\}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dependiendo de si la asignación de &amp;lt;math&amp;gt;F^n&amp;lt;/math&amp;gt; sobre &amp;lt;math&amp;gt;D&amp;lt;/math&amp;gt; es o no unívoca, la codificación de fuente se denomina &#039;&#039;&#039;sin pérdidas&#039;&#039;&#039; o &#039;&#039;&#039;con pérdidas&#039;&#039;&#039;. Es evidente que si la aplicación  &amp;lt;math&amp;gt;F^n\rightarrow D&amp;lt;/math&amp;gt;  no es inyectiva, el código &#039;&#039;&amp;lt;math&amp;gt;D&amp;lt;/math&amp;gt;&#039;&#039; es insuficiente para determinar el código original y esto causa pérdidas. Los del primer tipo se basan generalmente en &#039;&#039;&#039;codificación estadística&#039;&#039;&#039;, buscando códigos cuya longitud promedio sea inferior, como hicieron Samuel Morse y Alfred Vail al desarrollar el famoso código que adoptó el nombre del primero.&amp;lt;ref&amp;gt;Pierce, John R.; Noll, A. Michael (1995). &#039;&#039;Señales. La ciencia de las Telecomunicaciones&#039;&#039;. Barcelona: Reverté.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los del segundo tipo son los que logran las mayores capacidades de comprensión y se basan en dos técnicas básicas: 1) la &#039;&#039;&#039;codificación predictiva&#039;&#039;&#039;, que trata de prever los códigos de fuente siguientes a partir de los previos y se centra en codificar para su transmisión solo aquello que no puede predecir; 2) &#039;&#039;&#039;transformacional&#039;&#039;&#039;, basado en una representación alternativa de la señal (normalmente transformadas de Fourier o derivadas) que haga más eficiente la codificación de la información relevante.&amp;lt;ref&amp;gt;Díaz Nafría, J.M. (2020). Unidad 2: Caracterización de la señal. Presentación disponible en el aula virtual de la asignatura “&#039;&#039;Sistemas de transmisión. Comunicaciones ópticas&#039;&#039;.” de la UDIMA. Consultado el 10/06/2023 en [https://aula.udima.es/course/view.php?id=46860 Aula virtual]. &amp;lt;/ref&amp;gt; Otro elemento fundamental de la codificación de fuente con pérdidas radica en un estudio detallado de las características de los destinatarios de la información, que en el caso de las señales analógicas de sonido e imagen son los sentidos de la audición y la visión. La idea es sencilla: si algo no va a percibirse, no es necesario transmitirlo (v. artículo [[señal de audio]]).&lt;br /&gt;
&lt;br /&gt;
Puede también considerarse que la [[cuantificación no uniforme]] en la que se logra una calidad percibida que es equivalente a la que se lograría mediante una [[Cuantificación|cuantificación uniforme]] que emplea un mayor número de dígitos binarios, es una técnica de codificación de fuente en la medida que responde al concepto y objetivo inicialmente planteado. Sin embargo, si bien estas técnicas se basan en una cuantificación escalar, es decir muestra a muestra, las otras técnicas recurren a la cuantificación vectorial a la que nos hemos referido en el artículo de [[Codificación de bloque (cuantificación vectorial)|codificación de bloque]].&lt;br /&gt;
&lt;br /&gt;
== Tipos de codificación de fuente ==&lt;br /&gt;
&lt;br /&gt;
=== Codificación estadística ===&lt;br /&gt;
De acuerdo a la teoría matemática de la comunicación, propuesta por [[Shannon, Claude Elwood|Shannon]], la cantidad de información que aporta una fuente viene determinada por su [[Entropía o cantidad de información|entropía]], y esta a su vez por las probabilidades de emisión de los mensajes que genera la fuente, como se discute en el artículo [[entropía o cantidad de información]]. El objetivo de la codificación estadística es la de considerar las características estadísticas para lograr que los códigos empleados &amp;lt;math&amp;gt;D&amp;lt;/math&amp;gt; hagan que el flujo binario resultante –tras la codificación– tienda al valor de entropía de la fuente. Es decir, si llamamos &amp;lt;math&amp;gt;L_b\{D\}&amp;lt;/math&amp;gt; a la longitud binaria de los códigos &amp;lt;math&amp;gt;D&amp;lt;/math&amp;gt; entonces &amp;lt;math&amp;gt;E[L_b\{D\}]\rightarrow H\{F\}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Un tipo de codificación de fuente sencillo es el conocido &#039;&#039;&#039;Algoritmo de Huffmann&#039;&#039;&#039;.&amp;lt;ref&amp;gt;Sklar, B.; Harris, F. (2020). &#039;&#039;Digital Communications. Fundamentals and Applications&#039;&#039;. London: Pearson.&amp;lt;/ref&amp;gt; Éste nos permite construir un código óptimo en el sentido anterior, cuya longitud es variable sin requerir prefijo, y que para determinadas distribuciones de probabilidad puede lograr el objetivo &amp;lt;math&amp;gt;E[L_b\{D\}]= H\{F\}&amp;lt;/math&amp;gt;. El algoritmo básico consiste en primero ordenar los símbolos de mayor a menor probabilidad, a continuación se juntan las parejas de menor probabilidad en un punto de bifurcación caracterizado por una probabilidad conjunta que se considera para una nueva reordenación de los símbolos o grupos de símbolos en orden de probabilidad decreciente para el siguiente reagrupamiento. De esta manera, se conforma progresivamente un árbol hasta llegar a un tronco común, que es el que servirá para la decisión de los códigos originales en el decodificador. Para garantizar una decodificación biunívoca, en las bifurcaciones del árbol se atribuyen los 0 y 1 en el mismo orden. Los códigos Huffman resultantes serán así de longitud variable, haciendo que los mensajes o códigos originales más frecuentes les corresponda un código Huffman de longitud menor y los más raros tendrán longitudes mayores, y que en promedio se encuentren máximamente próximos a la entropía de la fuente.&lt;br /&gt;
&lt;br /&gt;
=== Codificación predictiva ===&lt;br /&gt;
[[File:Codificador predictivo.png|thumbnail|&#039;&#039;&#039;Figura 1&#039;&#039;&#039;: Codificador y decodificador predictivo.]]&lt;br /&gt;
En la codificación predictiva, tanto el &#039;&#039;codificador&#039;&#039; como el &#039;&#039;decodificador&#039;&#039; (representados en la fig.1) hacen una predicción de la muestra actual &amp;lt;math&amp;gt;\tilde{x}(n)&amp;lt;/math&amp;gt;, basada en las muestras previas de la señal reconstruida, &amp;lt;math&amp;gt;\hat{x}(n)&amp;lt;/math&amp;gt; y solo se codifica y transmite por el canal la parte de la señal que no se logra predecir, &amp;lt;math&amp;gt;d(n)=x(n)-\hat{x}(n)&amp;lt;/math&amp;gt;, o mejor dicho, su valor re-cuantificado &amp;lt;math&amp;gt;q(n)&amp;lt;/math&amp;gt;. Obsérvese que cuanto menor sea el error de predicción, &amp;lt;math&amp;gt;d(n)&amp;lt;/math&amp;gt;, menos intervalos de cuantificación será necesario emplear para codificar dicho error y, por tanto, tanto mayor será la capacidad del código de reducir el régimen binario de codificación. Por esa razón se denomina ganancia de codificación a la relación entre la varianza de la señal original y la del error:&lt;br /&gt;
:&amp;lt;math&amp;gt;G_p=\frac{\sigma_x^2}{\sigma_d^2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En los &#039;&#039;&#039;esquemas adaptativos&#039;&#039;&#039;, tanto el predictor como el cuantificador y&amp;lt;sub&amp;gt;,&amp;lt;/sub&amp;gt; por tanto, también el reconstructor pueden cambiar dinámicamente dependiendo de la capacidad de lograr predicciones más o menos precisas. Dependiendo de si los parámetros del predictor y de la cuantificación son transmitidos o no al decodificador, se habla de &#039;&#039;&#039;adaptación hacia adelante&#039;&#039;&#039; o &#039;&#039;&#039;hacia atrás&#039;&#039;&#039; respectivamente. En este último caso, los parámetros se determinan en base a las muestras reconstruidas, teniendo el decodificador la capacidad autónoma de determinarlos.&lt;br /&gt;
&lt;br /&gt;
=== Codificación transformacional ===&lt;br /&gt;
[[File:Codificación transformacional.png|thumbnail|&#039;&#039;&#039;Figura 2&#039;&#039;&#039;: Codificador transformacional.]]&lt;br /&gt;
En la codificación transformacional se busca representar la señal de un espacio alternativo en el que la energía esté concentrada en unos pocos coeficientes, lo que permite dedicar una cuantificación de mayor orden (precisión) para los coeficientes con mayor energía, o incluso hacerlo en función del efecto que estos coeficientes puedan tener en el destino (por ejemplo, el que vayan a tener un efecto perceptivo en el caso de señales de audio o video, como se hace en la aplicación de los patrones de enmascaramiento a los que nos hemos referido en el artículo de [[señal de audio]]). Entre las transformaciones lineales más usuales se encuentra la directa de coseno, que a diferencia de la de Fourier sus coeficientes son siempre reales y por tanto un bloque de N muestras se puede representar por otro bloque de &#039;&#039;N&#039;&#039; coeficientes. &lt;br /&gt;
[[File:Codificación de subbandas.png|thumbnail|&#039;&#039;&#039;Figura 3&#039;&#039;&#039;: Codificador y decodificador de subbandas.]]&lt;br /&gt;
La &#039;&#039;&#039;codificación por sub-bandas&#039;&#039;&#039; puede considerarse un caso especial de codificación transformacional en la que se emplea un banco de filtros FIR contiguos, &amp;lt;math&amp;gt;H_1(\omega), H_2(\omega),...H_M(\omega)&amp;lt;/math&amp;gt; que subdividen la banda de interés en varias subbandas, a cada una de las cuales se aplica una precisión de cuantificación diferente, normalmente en función de la capacidad perceptiva de las mismas. Como se ilustra en la figura 3, después de cada filtro la frecuencia de muestreo se reduce –en virtud del [[teorema de muestreo]]– mediante un diezmado de factor correspondiente a la razón entre el ancho de banda de la señal &#039;&#039;x(n)&#039;&#039; y el de &amp;lt;math&amp;gt;H_i(\omega)&amp;lt;/math&amp;gt;, operación que se invierte –mediante interpolación– en la decodificación. La elección del banco de filtros de entrada y salida es un aspecto delicado del diseño de la codificación para garantizar que la combinación de los efectos de filtrado minimice la distorsión de la señal.&amp;lt;ref&amp;gt;Proakis, J. G.; Manolakis, D. G. (2007). &#039;&#039;Tratamiento digital de señales&#039;&#039;. Madrid: Pearson.&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
El siguiente código de MATLAB, propuesto en la documentación de ayuda,&amp;lt;ref&amp;gt; Mathworks (2006). huffmandict. En &#039;&#039;Help Center&#039;&#039; [ayuda en línea]. Consultado el 10/06/2023 de: [https://es.mathworks.com/help/comm/ref/huffmandict.html Help Center].&amp;lt;/ref&amp;gt; muestra el uso de la función integrada &amp;lt;code&amp;gt;huffmandict&amp;lt;/code&amp;gt; para la obtención del alfabeto de un código Huffman de cinco símbolos cuyas probabilidades se indican al principio, a la vez que presenta el resultado generado. Los código obtenidos en la variable &amp;lt;code&amp;gt;dict&amp;lt;/code&amp;gt; se transforman en cadenas de caracteres para su visualización en el espacio de comandos mediante la función &amp;lt;code&amp;gt;cellfun&amp;lt;/code&amp;gt; que aplica elemento a elemento la función &amp;lt;code&amp;gt;num2str&amp;lt;/code&amp;gt; a cada código.&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
symbols = (1:5);           % Alfabeto (vector)&lt;br /&gt;
prob = [.3 .3 .2 .1 .1];   % Probabilidad de los símbolo (vector)&lt;br /&gt;
[dict, L_med] = huffmandict(symbols, prob);&lt;br /&gt;
dict(:, 2) = cellfun(@num2str, dict(:, 2), &#039;UniformOutput&#039;, false)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
Lo que devuelve en el espacio de comandos el código Huffman del alfabeto:&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
dict=5×2 cell&lt;br /&gt;
    {[1]}    {&#039;0  1&#039;   }&lt;br /&gt;
    {[2]}    {&#039;0  0&#039;   }&lt;br /&gt;
    {[3]}    {&#039;1  0&#039;   }&lt;br /&gt;
    {[4]}    {&#039;1  1  1&#039;}&lt;br /&gt;
    {[5]}    {&#039;1  1  0&#039;}&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
Podemos determinar la  eficiencia del código comparandolo con la entropía de la fuente:&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
&amp;gt;&amp;gt; Efic = sum(prob.*log2(1./prob))/L_med&lt;br /&gt;
ans =&lt;br /&gt;
    0.9868&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;br /&gt;
[[Category:Teoría de la señal y la comunicación]]&lt;br /&gt;
&lt;br /&gt;
=== Ejemplo adicional en Python ===&lt;br /&gt;
&lt;br /&gt;
A continuación se presenta un ejemplo complementario que ilustra la relación entre la entropía de una fuente y la longitud media de un código de longitud variable. Se asignan códigos más cortos a los símbolos más probables, y se compara el resultado con la entropía teórica de la fuente.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;python&amp;quot;&amp;gt;&lt;br /&gt;
import math&lt;br /&gt;
&lt;br /&gt;
# Probabilidades de la fuente&lt;br /&gt;
symbols = [&#039;A&#039;, &#039;B&#039;, &#039;C&#039;, &#039;D&#039;]&lt;br /&gt;
probs = [0.5, 0.25, 0.15, 0.10]&lt;br /&gt;
&lt;br /&gt;
# Asignación de códigos sencilla: prefijos más cortos a símbolos más probables&lt;br /&gt;
codebook = {&#039;A&#039;: &#039;0&#039;, &#039;B&#039;: &#039;10&#039;, &#039;C&#039;: &#039;110&#039;, &#039;D&#039;: &#039;111&#039;}&lt;br /&gt;
&lt;br /&gt;
# Cálculo de la longitud media del código&lt;br /&gt;
avg_length = sum(probs[i] * len(codebook[symbols[i]]) for i in range(len(symbols)))&lt;br /&gt;
&lt;br /&gt;
# Cálculo de la entropía de la fuente&lt;br /&gt;
entropy = -sum(p * math.log2(p) for p in probs)&lt;br /&gt;
&lt;br /&gt;
print(&amp;quot;Código asignado:&amp;quot;, codebook)&lt;br /&gt;
print(f&amp;quot;Longitud media del código: {avg_length:.3f} bits/símbolo&amp;quot;)&lt;br /&gt;
print(f&amp;quot;Entropía de la fuente: {entropy:.3f} bits/símbolo&amp;quot;)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Salida esperada:&#039;&#039;&#039;&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Código asignado: {&#039;A&#039;: &#039;0&#039;, &#039;B&#039;: &#039;10&#039;, &#039;C&#039;: &#039;110&#039;, &#039;D&#039;: &#039;111&#039;}&lt;br /&gt;
Longitud media del código: 1.650 bits/símbolo&lt;br /&gt;
Entropía de la fuente: 1.742 bits/símbolo&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El resultado muestra que la longitud media del código se aproxima al valor de la entropía de la fuente, cumpliendo el principio de la codificación eficiente.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:Teoría de la señal y la comunicación]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Rmedina</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa&amp;diff=26384</id>
		<title>Draft:Entropía</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa&amp;diff=26384"/>
		<updated>2025-10-30T07:37:09Z</updated>

		<summary type="html">&lt;p&gt;Rmedina: Created page with &amp;quot;= Entropía (Teoría de la Información) =  La entropía, en el contexto de la Teoría de la Información, mide la incertidumbre asociada a una fuente de datos. El concepto fue introducido por Claude Shannon en 1948 y sirve como base para cuantificar la cantidad media de información que aporta un mensaje antes de ser recibido. Dicho de otro modo, la entropía nos indica cuánta sorpresa o imprevisibilidad hay en los resultados producidos por una fuente aleatoria.  Cuand...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Entropía (Teoría de la Información) =&lt;br /&gt;
&lt;br /&gt;
La entropía, en el contexto de la Teoría de la Información, mide la incertidumbre asociada a una fuente de datos. El concepto fue introducido por Claude Shannon en 1948 y sirve como base para cuantificar la cantidad media de información que aporta un mensaje antes de ser recibido. Dicho de otro modo, la entropía nos indica cuánta sorpresa o imprevisibilidad hay en los resultados producidos por una fuente aleatoria.&lt;br /&gt;
&lt;br /&gt;
Cuando una fuente siempre produce el mismo símbolo, no obtenemos información nueva (entropía cero). En cambio, si los símbolos aparecen con probabilidades similares, resulta mucho más difícil anticiparlos, y la entropía aumenta.&lt;br /&gt;
&lt;br /&gt;
== Interpretación intuitiva ==&lt;br /&gt;
&lt;br /&gt;
La entropía puede verse como el promedio de información que recibimos cada vez que la fuente genera un símbolo. Si los resultados son previsibles, apenas hay información. Por el contrario, cuando todos los eventos son igualmente probables, cada observación aporta nueva información y la entropía es máxima.&lt;br /&gt;
&lt;br /&gt;
Esta idea está conectada con la noción de “sorpresa”: un evento poco probable aporta más información cuando ocurre, mientras que un evento muy probable aporta menos.&lt;br /&gt;
&lt;br /&gt;
== Definición matemática ==&lt;br /&gt;
&lt;br /&gt;
Sea una variable aleatoria discreta X, que toma valores {x1, x2, ..., xn} con probabilidades P(xi). La entropía se define como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
H(X) = -\sum_{i=1}^{n} P(x_i)\log_2(P(x_i))&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El logaritmo se toma en base 2 porque la unidad habitual de información en este contexto es el bit.&lt;br /&gt;
&lt;br /&gt;
Un caso particular ocurre cuando todos los valores posibles tienen la misma probabilidad n. En ese caso:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
H(X) = \log_2(n)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
lo que indica que la entropía máxima se alcanza cuando todos los resultados son igualmente probables.&lt;br /&gt;
&lt;br /&gt;
== Ejemplo práctico ==&lt;br /&gt;
&lt;br /&gt;
Supongamos una fuente que genera dos símbolos, A y B, con probabilidades:&lt;br /&gt;
&lt;br /&gt;
* P(A)=0.75&lt;br /&gt;
*P(B)=0.25&lt;br /&gt;
&lt;br /&gt;
Entonces:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
H(X)= -\left[0.75\log_2(0.75) + 0.25\log_2(0.25)\right] \approx 0.811 \text{ bits}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Si ambos símbolos tuvieran probabilidad 0.5, la entropía sería:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
H(X)=1 \text{ bit}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Este resultado refleja que cuanto más equilibradas están las probabilidades, mayor es la incertidumbre y, por tanto, la entropía.&lt;br /&gt;
&lt;br /&gt;
== Ejemplo en Python ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;python&amp;quot;&amp;gt;&lt;br /&gt;
import math&lt;br /&gt;
&lt;br /&gt;
def entropy(probabilities):&lt;br /&gt;
    return -sum(p * math.log2(p) for p in probabilities if p &amp;gt; 0)&lt;br /&gt;
&lt;br /&gt;
print(entropy([0.75, 0.25]))  # ≈ 0.811 bits&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Conceptos relacionados ==&lt;br /&gt;
&lt;br /&gt;
* [[Información]]&lt;br /&gt;
* [[Fuente de información]]&lt;br /&gt;
* [[Ruido]]&lt;br /&gt;
* [[Redundancia]]&lt;br /&gt;
* [[Codificación]]&lt;br /&gt;
* [[Capacidad del canal]]&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Shannon, C. E. (1948). &#039;&#039;A Mathematical Theory of Communication&#039;&#039;. Bell System Technical Journal, 27(3), 379–423. https://archive.org/details/bstj27-3-379&lt;br /&gt;
&lt;br /&gt;
* MacKay, D. J. C. (2003). &#039;&#039;Information Theory, Inference, and Learning Algorithms&#039;&#039;. Cambridge University Press. https://www.inference.org.uk/itprnn/book.pdf&lt;/div&gt;</summary>
		<author><name>Rmedina</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=User:Rmedina&amp;diff=26383</id>
		<title>User:Rmedina</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=User:Rmedina&amp;diff=26383"/>
		<updated>2025-10-29T20:55:37Z</updated>

		<summary type="html">&lt;p&gt;Rmedina: create user page&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Person}}[[Category:Person]]&lt;/div&gt;</summary>
		<author><name>Rmedina</name></author>
	</entry>
</feed>