<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Julio+Garv%C3%ADa+Honrado</id>
	<title>glossaLAB - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Julio+Garv%C3%ADa+Honrado"/>
	<link rel="alternate" type="text/html" href="https://www.glossalab.org/wiki/Special:Contributions/Julio_Garv%C3%ADa_Honrado"/>
	<updated>2026-04-30T22:26:17Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.43.6</generator>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Bobina_h%C3%ADbrida&amp;diff=10257</id>
		<title>Draft:Bobina híbrida</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Bobina_h%C3%ADbrida&amp;diff=10257"/>
		<updated>2024-05-21T07:57:15Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Incorporación de fuentes a las imágenes.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
Una bobina híbrida&amp;lt;ref&amp;gt;Híbrida (circuito). (2023, 14 de enero). &#039;&#039;Wikipedia, La enciclopedia libre&#039;&#039;. Fecha de consulta: 10:18, marzo 4, 2024 desde: [https://es.wikipedia.org/wiki/H%C3%ADbrida_(circuito) enlace al artículo de Wikipedia]&amp;lt;/ref&amp;gt;, también conocida como transformador híbrido, es un dispositivo utilizado en sistemas de transmisión y telecomunicaciones para separar las señales de transmisión y recepción. Este componente es esencial en los sistemas dúplex, donde la transmisión y recepción se realizan al mismo tiempo y frecuentemente sobre el mismo medio o canal. La bobina híbrida permite que estos sistemas funcionen correctamente sin interferencia entre las señales de entrada y salida.&lt;br /&gt;
&lt;br /&gt;
=== Características y funciones clave de las bobinas híbridas&amp;lt;ref&amp;gt;OpenAI. (2024). &#039;&#039;gpt-4-0125-preview&#039;&#039; (versión del 4 de marzo) [Sistemas de transmisión: Bobina híbrida]. https://chat.lmsys.org/&amp;lt;/ref&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Separación de señales&#039;&#039;&#039;: Su función principal es separar o distinguir entre las señales de entrada y salida. Esto permite que un sistema pueda enviar y recibir información simultáneamente, una característica crucial para las telecomunicaciones modernas.&lt;br /&gt;
# &#039;&#039;&#039;Minimización de interferencias&#039;&#039;&#039;: Al separar eficientemente las señales de transmisión y recepción, la bobina híbrida ayuda a minimizar las interferencias, lo que mejora la calidad de la comunicación.&lt;br /&gt;
# &#039;&#039;&#039;Compatibilidad con varios medios&#039;&#039;&#039;: Pueden ser utilizadas en diferentes tipos de sistemas de transmisión, incluyendo cableado (como en redes telefónicas) y sistemas inalámbricos.&lt;br /&gt;
# &#039;&#039;&#039;Transformación de impedancia&#039;&#039;&#039;: Además de separar señales, algunas bobinas híbridas están diseñadas para realizar transformaciones de impedancia, adaptando las señales para que coincidan con la impedancia óptima del sistema y maximizar así la transferencia de energía.&lt;br /&gt;
# &#039;&#039;&#039;Uso en circuitos de cancelación de eco&#039;&#039;&#039;: En telecomunicaciones, la bobina híbrida también juega un papel importante en los circuitos de cancelación de eco, ayudando a eliminar las señales reflejadas que pueden interferir con la comunicación clara.&lt;br /&gt;
&lt;br /&gt;
=== &#039;&#039;&#039;Aplicaciones&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Telefonía&#039;&#039;&#039;: Son muy usadas en las redes telefónicas para permitir que las líneas telefónicas manejen tanto las señales de entrada como de salida al mismo tiempo.&lt;br /&gt;
* &#039;&#039;&#039;Redes de datos&#039;&#039;&#039;: En dispositivos como modems y routers, para manejar adecuadamente las señales bidireccionales.&lt;br /&gt;
* &#039;&#039;&#039;Radiocomunicación&#039;&#039;&#039;: En sistemas de radiocomunicación, ayudando a separar las señales transmitidas y recibidas por las antenas.&lt;br /&gt;
&lt;br /&gt;
== La bobina híbrida dentro del circuito de conversación telefónico&amp;lt;ref&amp;gt;Herrera, F. (26 de octubre de 2002). &#039;&#039;Formulación de una Estrategia de Digitalización de Redes para una Empresa Privada de Telecomunicaciones&#039;&#039;. https://www.geocities.ws/fhgmbb/Tesis-Postgrado-FH/Tesis-FH-1.htm&amp;lt;/ref&amp;gt; ==&lt;br /&gt;
[[File:Conversión 2-4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales)..jpg|alt=Figura 1: Conversión 2/4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales).|thumb|Figura 1: Conversión 2/4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales) (Herrera, 2002).]]&lt;br /&gt;
En el circuito de conversación telefónico se efectúa la conversión de [[Bidireccionalidad a 2 hilos|2 hilos]] a [[Bidireccionalidad a 4 hilos|4 hilos]] (véase Figura 1), haciendo posible el funcionamiento bidireccional y el acoplamiento de las impedancias del micrófono, auricular y línea. A través de la bobina híbrida se divide la potencia a partes iguales entre &amp;quot;puertas adyacentes&amp;quot;, impidiendo el paso de potencia a la &amp;quot;puerta opuesta&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
El circuito de conversación telefónico (véase Figura 2) está constituído por cuatro componentes principales:&lt;br /&gt;
&lt;br /&gt;
# La bobina híbrida&lt;br /&gt;
# El auricular&lt;br /&gt;
# El micrófono de carbón&lt;br /&gt;
# Impedancia de 600 &amp;lt;math&amp;gt;\Omega&amp;lt;/math&amp;gt; para equilibrar la híbrida&lt;br /&gt;
&lt;br /&gt;
[[File:Circuito de conversación telefónico (bobina híbrida).jpg|alt=Figura 2: Esquema de Circuito de conversación telefónico (bobina híbrida)|thumb|Figura 2: Esquema de Circuito de conversación telefónico (bobina híbrida) (OpenAI, 2024).]]&lt;br /&gt;
La bobina híbrida consiste en un transformador con tres bobinados (véase Figura 3) con la función de evitar que las señales que entran por el micrófono se escuchen por el auricular y las que llegan por el auricular no retornen por el micrófono, cuando sucede este escenario se genera un efecto eco.&lt;br /&gt;
[[File:Circuito transformado hibrido de 2 a 4 hilos.jpg|alt=Figura 3: Circuito transformado híbrido de 2 a 4 hilos|thumb|Figura 3: Circuito transformado híbrido de 2 a 4 hilos (OpenAI, 2024).]]&lt;br /&gt;
&lt;br /&gt;
== Conclusión ==&lt;br /&gt;
La efectividad de una bobina híbrida depende de su diseño y de cómo está adaptada a las características específicas del sistema en el que se utiliza. Un diseño adecuado asegura una mínima pérdida de señal y una clara separación entre las señales de transmisión y recepción, lo cual es crítico para el rendimiento general del sistema.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references responsive=&amp;quot;0&amp;quot; /&amp;gt;&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Diezmado_e_interpolaci%C3%B3n&amp;diff=10242</id>
		<title>Draft:Diezmado e interpolación</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Diezmado_e_interpolaci%C3%B3n&amp;diff=10242"/>
		<updated>2024-05-12T23:21:38Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Corrección en cuanto a las dimensiones de la señal generada tras el diezmado.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_TDS&lt;br /&gt;
|Autores=Benson Nketia Bennewa y [[user:JDíaz|J.M. Díaz Nafría]]&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Supongamos que disponemos de una señal &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt; cuyo ancho de banda es limitado (&amp;lt;math&amp;gt;f_{max}&amp;lt;/math&amp;gt;). De acuerdo al teorema de muestreo (v. artículo [[muestreo]]), esta señal se puede determinar unívocamente mediante sus muestras &amp;lt;math&amp;gt;x(n)=x(nT)&amp;lt;/math&amp;gt; donde &amp;lt;math&amp;gt;n \in \{... -2, -1, 0, 1, 2, ...\}&amp;lt;/math&amp;gt; y &#039;&#039;T&#039;&#039; es el periodo de muestreo que debe cumplir las condiciones que establece dicho teorema: &amp;lt;math&amp;gt;T&amp;lt;2/f_{max}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
En determinadas circunstancia podríamos necesitar cambiar la frecuencia de muestreo, lo que supondrá reducir o aumentar el número de muestras de la señal original por unidad de tiempo, o lo que es lo mismo, el tiempo entre muestras consecutivas &amp;lt;math&amp;gt;T&#039;&amp;lt;/math&amp;gt; donde &amp;lt;math&amp;gt;T&#039;=kT&amp;lt;/math&amp;gt;. En tal caso la secuencia discreta de muestras será diferente que la muestreada originalmente: &amp;lt;math&amp;gt;x&#039;(n)=x(nT&#039;)&amp;lt;/math&amp;gt;. Según el valor que tome &#039;&#039;k&#039;&#039; estaremos hablando de diezmado o interpolación:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Diezmado&#039;&#039;&#039; si &amp;lt;math&amp;gt;k = M &amp;gt; 1&amp;lt;/math&amp;gt;: es decir por cada &#039;&#039;M&#039;&#039; muestras, se preserva una única muestra de la secuencia muestreada original. Así el periodo de muestreo será M veces mayor &amp;lt;math&amp;gt;T&#039;=MT&amp;lt;/math&amp;gt; y la frecuencia de muestreo &amp;lt;math&amp;gt;Fm&#039; = Fm /M&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Interpolación&#039;&#039;&#039; si &amp;lt;math&amp;gt;k=1/M &amp;lt; 1&amp;lt;/math&amp;gt;: es decir, se deben añadir &#039;&#039;M&#039;&#039; muestras por cada muestra disponible de la secuencia muestreada original. Así el periodo de muestreo, &#039;&#039;T&#039;&#039;, será &#039;&#039;M&#039;&#039; veces menor &amp;lt;math&amp;gt;T&#039;=T/M&amp;lt;/math&amp;gt; y la frecuencia de muestreo &amp;lt;math&amp;gt;F_m&#039; = F_m M&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
Para el diezmado puede recurrirse a la función &amp;lt;code&amp;gt;decimate(x,r)&amp;lt;/code&amp;gt; (del paquete de procesado de señal de Matlab), la cual devuelve como salida la secuencia &amp;lt;code&amp;gt;y&amp;lt;/code&amp;gt; diezmada en un factor &amp;lt;code&amp;gt;r&amp;lt;/code&amp;gt;. Por tanto ocurrirá que &amp;lt;code&amp;gt;numel(y)&amp;lt;/code&amp;gt; será igual a &amp;lt;code&amp;gt;numel(x)/r&amp;lt;/code&amp;gt;. La señal &amp;lt;code&amp;gt;x&amp;lt;/code&amp;gt; se filtra previamente para evitar que se produzca aliasing con las frecuencias normalizadas superiores a 1/2r.&amp;lt;ref&amp;gt;&lt;br /&gt;
Mathwoks (2021). Remuestreo. Documentación de Mathworks. Recuperado el 18/04/2012 de: https://uk.mathworks.com/help/signal/ug/resampling.html&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para la interpolación, el paquete de procesado de señal de Matlab ofrece la función &amp;lt;code&amp;gt;interp(x,r)&amp;lt;/code&amp;gt; que introduce ceros entre muestras consecutivas y a continuación realiza un filtrado paso bajo.&amp;lt;ref&amp;gt;&lt;br /&gt;
IEEE-ASSPS (1979). &#039;&#039;Programs for Digital Signal Processing&#039;&#039;. Editado por Digital Signal Processing Committee of the IEEE Acoustics, Speech, and Signal Processing Society. New York: IEEE Press, 1979.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:Diezmado e interpolación.jpg|thumbnail|&#039;&#039;&#039;Figura&#039;&#039;&#039;: Operaciones de diezmado e interpolación]]El siguiente ejemplo hace uso de estas funciones sobre una señal sinusoidal de 400 Hz muestreada a 8 KHz que es diezmada así como interpolada, en ambos casos por un factor 4. El código genera además la representación mostrada en la figura.&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot; style=&amp;quot;font-size:90%&amp;quot;&amp;gt;&lt;br /&gt;
f = 400;                % Frecuencia de señal original&lt;br /&gt;
A = 2;                  % Amplitud de la señal&lt;br /&gt;
phi = pi/4;             % Fase de señal&lt;br /&gt;
Fm = 8000;              % frecuencia de muestreo&lt;br /&gt;
t = -0.002:1/Fm:0.002;  % Base de tiempos&lt;br /&gt;
x = A*cos(2*pi*f*t+phi);% Señal original&lt;br /&gt;
y1 = decimate(x,4);     % Aplicar diezmado por un factor de 4&lt;br /&gt;
y2 = interp(x,4);       % Aplicar interpolacion por un factor de 4&lt;br /&gt;
subplot(3,1,1),    stem(t,x)   &lt;br /&gt;
title(&#039;Señal discreta original&#039;); &lt;br /&gt;
xlabel(&#039;t [s]&#039;);   ylabel(&#039;Señal x(n)&#039;);&lt;br /&gt;
subplot(3,1,2),    stem((0:numel(y1)-1),y1),   xlim([0 numel(y1)-1]),&lt;br /&gt;
title(&#039;Señal diezmada por un factor 4&#039;);&lt;br /&gt;
xlabel(&#039;n&#039;);       ylabel(&#039;Señal diezmada&#039;);&lt;br /&gt;
subplot(3,1,3),    stem((0:numel(y2)-1),y2),   xlim([0 numel(y2)-1]),&lt;br /&gt;
title(&#039;Señal intepolada por un factor 4&#039;);&lt;br /&gt;
xlabel(&#039;n&#039;);       ylabel(&#039;Señal interpolada&#039;);&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
==Referencias==&lt;br /&gt;
&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=ComLAB/Requerimientos_de_sincronizaci%C3%B3n&amp;diff=10204</id>
		<title>ComLAB/Requerimientos de sincronización</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=ComLAB/Requerimientos_de_sincronizaci%C3%B3n&amp;diff=10204"/>
		<updated>2024-04-30T11:11:41Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Aplicación práctica para el cálculo del retardo en la señal de entrada del modulador a los meros efectos de visualización sincronizada con respecto a la señal de salida del demodulador&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;◀ [[ComLAB/Simulación por tramas|sección anterior]]  |  [[ComLAB/Simulación de canales con perturbación|sección siguiente]] ▶ &lt;br /&gt;
&lt;br /&gt;
Es importante resaltar que para el correcto funcionamiento del sistema de transmisión debemos garantizar una sincronización de la señal a nivel de símbolo (bit) y a nivel de palabras de código (byte). Para su logro en sistemas reales se cuenta, en general, con procedimientos síncronos y asíncronos. En el primer caso se garantiza una misma temporización en los equipos de un lado y otro de la cadena de transmisión, que es la situación que recreamos actualmente en comLAB para la sincronización de bit (empleando una temporización única para todos los módulos). En las soluciones &#039;&#039;asíncronas&#039;&#039;, bien puede introducirse una señalización que permita identificar instantes de sincronización (por ejemplo, a nivel de tramas de bits, o tramas de multiplexación), o bien mecanismos que permitan establecer una sincronización automática mediante subsistemas adaptativos que maximizan la calidad de la recepción a nivel de símbolo, palabra de código (byte), trama multiplexada, etc.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A efectos prácticos, como soporte a la evaluación y/o comprobación de los retardos introducidos de forma intencionada o por el propio sistema de transmisión, se puede utilizar el bloque nativo de Simulink &#039;&#039;Find Delay&#039;&#039; (véase la figura &amp;quot;Detección de retardo en Simulink [...]&amp;quot;) o el propio osciloscopio (bloque nativo &#039;&#039;Scope&#039;&#039;) para consultar la sincronización entre dos señales dadas de forma cuantitativa o gráfica, respectivamente.&lt;br /&gt;
[[File:Detección de retardo en Simulink con bloque nativo &amp;quot;Find Delay&amp;quot;.jpg|alt=Detección de retardo en Simulink con bloque nativo &amp;quot;Find Delay&amp;quot; y visualización a través del bloque &amp;quot;Display&amp;quot;|thumb|Detección de retardo en Simulink con bloque nativo &amp;quot;Find Delay&amp;quot; y visualización a través del bloque &amp;quot;Display&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
== Sincronismo de palabra de código (byte) ==&lt;br /&gt;
__FORCETOC__&lt;br /&gt;
En la configuración actual del comLAB, que carece de tales medios de sincronización a nivel de palabra de código (byte), recurriremos a ajustar el &#039;&#039;&#039;retardo que introduce el canal ideal&#039;&#039;&#039; para garantizar que se produzca sincronismo a este nivel. Para ello se debe tener en cuenta que el codificador de línea introduce –por sí mismo– un retardo que, tras la recepción digital, equivale a Ns bits (donde &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; coincide con la extensión de los pulsos básicos empleados en la modulación/codificación de línea en número de periodos de símbolo, ver el artículo [https://www.glossalab.org/wiki/Filtrado_en_coseno_alzado &#039;&#039;Filtrado en coseno alzado&#039;&#039;] en glossaLAB). Si las palabras de código (byte) son de &#039;&#039;b&#039;&#039; dígitos binarios y el proceso de modulación/demodulación introduce un retraso de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; bits (donde &#039;&#039;M&#039;&#039; es el orden de la modulación), será necesario agregar un retraso &#039;&#039;r&#039;&#039; en la transmisión de la señal (adelantarla no sería causal), de modo que al combinar ambos el retraso total sea equivalente a &#039;&#039;b&#039;&#039; y de ese modo pueda reconstruirse las palabras de código (bytes) y, en consecuencia, las muestras de la señal. Es decir, si &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; &amp;lt; &#039;&#039;b&#039;&#039;, entonces &#039;&#039;r&#039;&#039; = &#039;&#039;b - N&amp;lt;sub&amp;gt;s&#039;&#039;&amp;lt;/sub&amp;gt;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; [dígitos binarios] que en la señal continua de línea (muestreada a razón de &#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; muestras por periodo de símbolo o dígito binario) se traduce en un retraso de &#039;&#039;r &#039;&#039;= (&#039;&#039;b&#039;&#039; - &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039;) &#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;  [muestras].&lt;br /&gt;
&lt;br /&gt;
En lo que concierne a este retardo, obsérvese que si &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M = b&#039;&#039;, la palabra de código quedará bien ordenada sin necesidad de añadir ningún retardo adicional, pero si es mayor, la diferencia con un múltiplo de &#039;&#039;b&#039;&#039; deberá de compensarse del mismo modo. Es decir, llamando &#039;&#039;E&#039;&#039; al resto de la división de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; por &#039;&#039;b&#039;&#039;, &#039;&#039;E&#039;&#039; = mod(&#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M,b)&#039;&#039;, el retardo de la línea que habría que introducir sería de &#039;&#039;r&#039;&#039; = (&#039;&#039;b - R&#039;&#039;)&#039;&#039;⋅M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;  [muestras].&lt;br /&gt;
&lt;br /&gt;
== Sincronismo para la comparación de señales en el dominios del tiempo ==&lt;br /&gt;
Otro requerimiento de sincronización, al que nos hemos referido en el apartado &#039;&#039;Comparación de señales en puntos diferentes de la cadena de transmisión&#039;&#039; de la sección [[comLAB/Visualización y medida de las señales|Visualización y medida de las señales]], ocurre en el ámbito de la visualización temporal y comparación de señales en dos puntos diferentes de la cadena de transmisión (P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; y P&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;), cuando los bloques que separan ambos puntos introducen un retardo, τ. Una comparación adecuada de las distorsiones ocurridas al atravesar los subsistemas intermedios mediante un osciloscopio o un medidor de error requiere un alineamiento de las señales de modo que la señal en P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; se retrase –antes de la entrada en el osciloscopio– lo mismo que la señal al pasar de P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; a P&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;, es decir, τ. El ajuste de esos tiempos puede hacerse teniendo en cuenta las operaciones realizadas en los bloques. Por ejemplo,&lt;br /&gt;
* Un filtro FIR de orden &#039;&#039;N&#039;&#039; como el empleado para evitar aliasing introduce un retardo de grupo (&#039;&#039;N&#039;&#039;-1)/2.&lt;br /&gt;
* El modulador/demodulador para códigos basado en pulsos en raíz cuadrada de coseno alzado introduce un retardo de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; [bits] si la modulación es binaria (donde &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; es la duración en tiempos de símbolo de los pulsos en raíz cuadrada de coseno alzado), o  &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;∙log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; [bits] (donde &#039;&#039;M&#039;&#039; es el orden de la modulación). &lt;br /&gt;
* La combinación de las operaciones de cuantificación-modulación-demodulación-reconstrucción, teniendo en cuenta que la de modulación/demodulación es a nivel de bits y la de antes y después de la cuantificación/reconstrucción es a nivel de muestra, ya que los bits se reagrupan en el reconstructor, el retraso acumulado entre la entrada del cuantificador y a la salida de su reconstrucción será de &#039;&#039;R/b&#039;&#039;, donde &#039;&#039;R&#039;&#039; representa el retardo que teníamos a nivel de bit y &#039;&#039;b&#039;&#039; el número de bits que se agrupan por cada palabra de código para reconstruir el valor de las muestras.&lt;br /&gt;
&lt;br /&gt;
[[File:Introduccion comLAB-Fig10.png|thumb|alt=Ejemplo de retraso introducido para poder comparar la señal en dos puntos cruciales de la cadena|&#039;&#039;&#039;Figura 10:&#039;&#039;&#039; Ejemplo de retraso introducido para poder comparar la señal en dos puntos cruciales de la cadena: la secuencia digital antes de introducirla en el modulador y después del receptor digital. Al alinear temporalmente las señales se puede observar directamente la coincidencia o no de los dígitos binarios.]]&lt;br /&gt;
&lt;br /&gt;
La Figura 10 ilustra la comparación realizada a la salida del receptor digital respecto a la entrada del modulador en virtud del retraso introducido. En este ejemplo la modulación es de órden &#039;&#039;M&#039;&#039; = 4, &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; = 10 y contamos con una canal de transmisión en el que no se está aplicando ningún retardo, en consecuencia se introduce un retraso de 10∙log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;4 = 20 bits. Como puede observarse la comparación produce un alineamiento perfecto entre la señal a la entrada del modulador y a la salida, lo que nos permite apreciar que en todos los casos visualizados se produce una coincidencia exacta del código a la entrada y salida del canal digital.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En el caso de uso en que se contara con un retardo en el propio canal, éste debería de ser incluido convenientemente en la relación mostrada con anterioridad, a saber:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;Retardo_{\text{antes del modulador}}=N_{s}\cdot\log _{2}(M)+\frac{Retardo_{\text{canal}}}{M_{s}}\cdot log _{2}(M)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Donde:&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;: Duración del pulso básico en número de períodos de símbolo&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;: Número de muestras por período de símbolo&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;M: Orden de la modulación (e.g., 2 para binaria, 4 para cuaternaria, etc)&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;NOTA&#039;&#039;&#039;: log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;(M) representa el número de bits por símbolo&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Así, a modo de ejemplo, si contamos con una modulación de orden &#039;&#039;M&#039;&#039; = 4, &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; = 5,  &#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; = 20 y un retardo en el canal de 60 bits, deberíamos de configurar un retraso de 16 bits en la señal de entrada del modulador para conseguir visualizarla de forma sincronizada con respecto a la señal de salida del demodulador.&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=ComLAB/Requerimientos_de_sincronizaci%C3%B3n&amp;diff=10203</id>
		<title>ComLAB/Requerimientos de sincronización</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=ComLAB/Requerimientos_de_sincronizaci%C3%B3n&amp;diff=10203"/>
		<updated>2024-04-30T10:18:14Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Consejo práctico para consulta de retardos y sincronización entre señales en Simulink&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;◀ [[ComLAB/Simulación por tramas|sección anterior]]  |  [[ComLAB/Simulación de canales con perturbación|sección siguiente]] ▶ &lt;br /&gt;
&lt;br /&gt;
Es importante resaltar que para el correcto funcionamiento del sistema de transmisión debemos garantizar una sincronización de la señal a nivel de símbolo (bit) y a nivel de palabras de código (byte). Para su logro en sistemas reales se cuenta, en general, con procedimientos síncronos y asíncronos. En el primer caso se garantiza una misma temporización en los equipos de un lado y otro de la cadena de transmisión, que es la situación que recreamos actualmente en comLAB para la sincronización de bit (empleando una temporización única para todos los módulos). En las soluciones &#039;&#039;asíncronas&#039;&#039;, bien puede introducirse una señalización que permita identificar instantes de sincronización (por ejemplo, a nivel de tramas de bits, o tramas de multiplexación), o bien mecanismos que permitan establecer una sincronización automática mediante subsistemas adaptativos que maximizan la calidad de la recepción a nivel de símbolo, palabra de código (byte), trama multiplexada, etc.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A efectos prácticos, como soporte a la evaluación y/o comprobación de los retardos introducidos de forma intencionada o por el propio sistema de transmisión, se puede utilizar el bloque nativo de Simulink &#039;&#039;Find Delay&#039;&#039; (véase la figura &amp;quot;Detección de retardo en Simulink [...]&amp;quot;) o el propio osciloscopio (bloque nativo &#039;&#039;Scope&#039;&#039;) para consultar la sincronización entre dos señales dadas de forma cuantitativa o gráfica, respectivamente.&lt;br /&gt;
[[File:Detección de retardo en Simulink con bloque nativo &amp;quot;Find Delay&amp;quot;.jpg|alt=Detección de retardo en Simulink con bloque nativo &amp;quot;Find Delay&amp;quot; y visualización a través del bloque &amp;quot;Display&amp;quot;|thumb|Detección de retardo en Simulink con bloque nativo &amp;quot;Find Delay&amp;quot; y visualización a través del bloque &amp;quot;Display&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
== Sincronismo de palabra de código (byte) ==&lt;br /&gt;
__FORCETOC__&lt;br /&gt;
En la configuración actual del comLAB, que carece de tales medios de sincronización a nivel de palabra de código (byte), recurriremos a ajustar el &#039;&#039;&#039;retardo que introduce el canal ideal&#039;&#039;&#039; para garantizar que se produzca sincronismo a este nivel. Para ello se debe tener en cuenta que el codificador de línea introduce –por sí mismo– un retardo que, tras la recepción digital, equivale a Ns bits (donde &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; coincide con la extensión de los pulsos básicos empleados en la modulación/codificación de línea en número de periodos de símbolo, ver el artículo [https://www.glossalab.org/wiki/Filtrado_en_coseno_alzado &#039;&#039;Filtrado en coseno alzado&#039;&#039;] en glossaLAB). Si las palabras de código (byte) son de &#039;&#039;b&#039;&#039; dígitos binarios y el proceso de modulación/demodulación introduce un retraso de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; bits (donde &#039;&#039;M&#039;&#039; es el orden de la modulación), será necesario agregar un retraso &#039;&#039;r&#039;&#039; en la transmisión de la señal (adelantarla no sería causal), de modo que al combinar ambos el retraso total sea equivalente a &#039;&#039;b&#039;&#039; y de ese modo pueda reconstruirse las palabras de código (bytes) y, en consecuencia, las muestras de la señal. Es decir, si &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; &amp;lt; &#039;&#039;b&#039;&#039;, entonces &#039;&#039;r&#039;&#039; = &#039;&#039;b - N&amp;lt;sub&amp;gt;s&#039;&#039;&amp;lt;/sub&amp;gt;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; [dígitos binarios] que en la señal continua de línea (muestreada a razón de &#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; muestras por periodo de símbolo o dígito binario) se traduce en un retraso de &#039;&#039;r &#039;&#039;= (&#039;&#039;b&#039;&#039; - &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039;) &#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;  [muestras].&lt;br /&gt;
&lt;br /&gt;
En lo que concierne a este retardo, obsérvese que si &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M = b&#039;&#039;, la palabra de código quedará bien ordenada sin necesidad de añadir ningún retardo adicional, pero si es mayor, la diferencia con un múltiplo de &#039;&#039;b&#039;&#039; deberá de compensarse del mismo modo. Es decir, llamando &#039;&#039;E&#039;&#039; al resto de la división de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; por &#039;&#039;b&#039;&#039;, &#039;&#039;E&#039;&#039; = mod(&#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M,b)&#039;&#039;, el retardo de la línea que habría que introducir sería de &#039;&#039;r&#039;&#039; = (&#039;&#039;b - R&#039;&#039;)&#039;&#039;⋅M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;  [muestras].&lt;br /&gt;
&lt;br /&gt;
== Sincronismo para la comparación de señales en el dominios del tiempo ==&lt;br /&gt;
Otro requerimiento de sincronización, al que nos hemos referido en el apartado &#039;&#039;Comparación de señales en puntos diferentes de la cadena de transmisión&#039;&#039; de la sección [[comLAB/Visualización y medida de las señales|Visualización y medida de las señales]], ocurre en el ámbito de la visualización temporal y comparación de señales en dos puntos diferentes de la cadena de transmisión (P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; y P&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;), cuando los bloques que separan ambos puntos introducen un retardo, τ. Una comparación adecuada de las distorsiones ocurridas al atravesar los subsistemas intermedios mediante un osciloscopio o un medidor de error requiere un alineamiento de las señales de modo que la señal en P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; se retrase –antes de la entrada en el osciloscopio– lo mismo que la señal al pasar de P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; a P&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;, es decir, τ. El ajuste de esos tiempos puede hacerse teniendo en cuenta las operaciones realizadas en los bloques. Por ejemplo,&lt;br /&gt;
* Un filtro FIR de orden &#039;&#039;N&#039;&#039; como el empleado para evitar aliasing introduce un retardo de grupo (&#039;&#039;N&#039;&#039;-1)/2.&lt;br /&gt;
* El modulador/demodulador para códigos basado en pulsos en raíz cuadrada de coseno alzado introduce un retardo de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; [bits] si la modulación es binaria (donde &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; es la duración en tiempos de símbolo de los pulsos en raíz cuadrada de coseno alzado), o  &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;∙log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; [bits] (donde &#039;&#039;M&#039;&#039; es el orden de la modulación). &lt;br /&gt;
* La combinación de las operaciones de cuantificación-modulación-demodulación-reconstrucción, teniendo en cuenta que la de modulación/demodulación es a nivel de bits y la de antes y después de la cuantificación/reconstrucción es a nivel de muestra, ya que los bits se reagrupan en el reconstructor, el retraso acumulado entre la entrada del cuantificador y a la salida de su reconstrucción será de &#039;&#039;R/b&#039;&#039;, donde &#039;&#039;R&#039;&#039; representa el retardo que teníamos a nivel de bit y &#039;&#039;b&#039;&#039; el número de bits que se agrupan por cada palabra de código para reconstruir el valor de las muestras.&lt;br /&gt;
&lt;br /&gt;
[[File:Introduccion comLAB-Fig10.png|thumb|alt=Ejemplo de retraso introducido para poder comparar la señal en dos puntos cruciales de la cadena|&#039;&#039;&#039;Figura 10:&#039;&#039;&#039; Ejemplo de retraso introducido para poder comparar la señal en dos puntos cruciales de la cadena: la secuencia digital antes de introducirla en el modulador y después del receptor digital. Al alinear temporalmente las señales se puede observar directamente la coincidencia o no de los dígitos binarios.]]&lt;br /&gt;
&lt;br /&gt;
La Figura 10 ilustra la comparación realizada a la salida del receptor digital respecto a la entrada del modulador en virtud del retraso introducido. En este ejemplo la modulación es de órden &#039;&#039;M&#039;&#039; = 4, &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; = 10 y contamos con una canal de transmisión en el que no se está aplicando ningún retardo, en consecuencia se introduce un retraso de 10∙log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;4 = 20 bits. Como puede observarse la comparación produce un alineamiento perfecto entre la señal a la entrada del modulador y a la salida, lo que nos permite apreciar que en todos los casos visualizados se produce una coincidencia exacta del código a la entrada y salida del canal digital.&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Detecci%C3%B3n_de_retardo_en_Simulink_con_bloque_nativo_%22Find_Delay%22.jpg&amp;diff=10202</id>
		<title>File:Detección de retardo en Simulink con bloque nativo &quot;Find Delay&quot;.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Detecci%C3%B3n_de_retardo_en_Simulink_con_bloque_nativo_%22Find_Delay%22.jpg&amp;diff=10202"/>
		<updated>2024-04-30T10:05:37Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Detección de retardo en Simulink con bloque nativo &amp;quot;Find Delay&amp;quot; y su visualización a través del bloque &amp;quot;Display&amp;quot;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=ComLAB/Requerimientos_de_sincronizaci%C3%B3n&amp;diff=10201</id>
		<title>ComLAB/Requerimientos de sincronización</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=ComLAB/Requerimientos_de_sincronizaci%C3%B3n&amp;diff=10201"/>
		<updated>2024-04-30T09:44:53Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Clarificación del ejemplo ilustrado por la Figura 10 para indicar explícitamente que se está trabajando sobre un canal sin retardo aplicado.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;◀ [[ComLAB/Simulación por tramas|sección anterior]]  |  [[ComLAB/Simulación de canales con perturbación|sección siguiente]] ▶ &lt;br /&gt;
__FORCETOC__&lt;br /&gt;
Es importante resaltar que para el correcto funcionamiento del sistema de transmisión debemos garantizar una sincronización de la señal a nivel de símbolo (bit) y a nivel de palabras de código (byte). Para su logro en sistemas reales se cuenta, en general, con procedimientos síncronos y asíncronos. En el primer caso se garantiza una misma temporización en los equipos de un lado y otro de la cadena de transmisión, que es la situación que recreamos actualmente en comLAB para la sincronización de bit (empleando una temporización única para todos los módulos). En las soluciones &#039;&#039;asíncronas&#039;&#039;, bien puede introducirse una señalización que permita identificar instantes de sincronización (por ejemplo, a nivel de tramas de bits, o tramas de multiplexación), o bien mecanismos que permitan establecer una sincronización automática mediante subsistemas adaptativos que maximizan la calidad de la recepción a nivel de símbolo, palabra de código (byte), trama multiplexada, etc.&lt;br /&gt;
&lt;br /&gt;
== Sincronismo de palabra de código (byte) ==&lt;br /&gt;
En la configuración actual del comLAB, que carece de tales medios de sincronización a nivel de palabra de código (byte), recurriremos a ajustar el &#039;&#039;&#039;retardo que introduce el canal ideal&#039;&#039;&#039; para garantizar que se produzca sincronismo a este nivel. Para ello se debe tener en cuenta que el codificador de línea introduce –por sí mismo– un retardo que, tras la recepción digital, equivale a Ns bits (donde &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; coincide con la extensión de los pulsos básicos empleados en la modulación/codificación de línea en número de periodos de símbolo, ver el artículo [https://www.glossalab.org/wiki/Filtrado_en_coseno_alzado &#039;&#039;Filtrado en coseno alzado&#039;&#039;] en glossaLAB). Si las palabras de código (byte) son de &#039;&#039;b&#039;&#039; dígitos binarios y el proceso de modulación/demodulación introduce un retraso de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; bits (donde &#039;&#039;M&#039;&#039; es el orden de la modulación), será necesario agregar un retraso &#039;&#039;r&#039;&#039; en la transmisión de la señal (adelantarla no sería causal), de modo que al combinar ambos el retraso total sea equivalente a &#039;&#039;b&#039;&#039; y de ese modo pueda reconstruirse las palabras de código (bytes) y, en consecuencia, las muestras de la señal. Es decir, si &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; &amp;lt; &#039;&#039;b&#039;&#039;, entonces &#039;&#039;r&#039;&#039; = &#039;&#039;b - N&amp;lt;sub&amp;gt;s&#039;&#039;&amp;lt;/sub&amp;gt;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; [dígitos binarios] que en la señal continua de línea (muestreada a razón de &#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; muestras por periodo de símbolo o dígito binario) se traduce en un retraso de &#039;&#039;r &#039;&#039;= (&#039;&#039;b&#039;&#039; - &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039;) &#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;  [muestras].&lt;br /&gt;
&lt;br /&gt;
En lo que concierne a este retardo, obsérvese que si &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M = b&#039;&#039;, la palabra de código quedará bien ordenada sin necesidad de añadir ningún retardo adicional, pero si es mayor, la diferencia con un múltiplo de &#039;&#039;b&#039;&#039; deberá de compensarse del mismo modo. Es decir, llamando &#039;&#039;E&#039;&#039; al resto de la división de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; por &#039;&#039;b&#039;&#039;, &#039;&#039;E&#039;&#039; = mod(&#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;⋅log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M,b)&#039;&#039;, el retardo de la línea que habría que introducir sería de &#039;&#039;r&#039;&#039; = (&#039;&#039;b - R&#039;&#039;)&#039;&#039;⋅M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;  [muestras].&lt;br /&gt;
&lt;br /&gt;
== Sincronismo para la comparación de señales en el dominios del tiempo ==&lt;br /&gt;
Otro requerimiento de sincronización, al que nos hemos referido en el apartado &#039;&#039;Comparación de señales en puntos diferentes de la cadena de transmisión&#039;&#039; de la sección [[comLAB/Visualización y medida de las señales|Visualización y medida de las señales]], ocurre en el ámbito de la visualización temporal y comparación de señales en dos puntos diferentes de la cadena de transmisión (P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; y P&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;), cuando los bloques que separan ambos puntos introducen un retardo, τ. Una comparación adecuada de las distorsiones ocurridas al atravesar los subsistemas intermedios mediante un osciloscopio o un medidor de error requiere un alineamiento de las señales de modo que la señal en P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; se retrase –antes de la entrada en el osciloscopio– lo mismo que la señal al pasar de P&amp;lt;sub&amp;gt;1&amp;lt;/sub&amp;gt; a P&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;, es decir, τ. El ajuste de esos tiempos puede hacerse teniendo en cuenta las operaciones realizadas en los bloques. Por ejemplo,&lt;br /&gt;
* Un filtro FIR de orden &#039;&#039;N&#039;&#039; como el empleado para evitar aliasing introduce un retardo de grupo (&#039;&#039;N&#039;&#039;-1)/2.&lt;br /&gt;
* El modulador/demodulador para códigos basado en pulsos en raíz cuadrada de coseno alzado introduce un retardo de &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; [bits] si la modulación es binaria (donde &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; es la duración en tiempos de símbolo de los pulsos en raíz cuadrada de coseno alzado), o  &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039;∙log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&#039;&#039;M&#039;&#039; [bits] (donde &#039;&#039;M&#039;&#039; es el orden de la modulación). &lt;br /&gt;
* La combinación de las operaciones de cuantificación-modulación-demodulación-reconstrucción, teniendo en cuenta que la de modulación/demodulación es a nivel de bits y la de antes y después de la cuantificación/reconstrucción es a nivel de muestra, ya que los bits se reagrupan en el reconstructor, el retraso acumulado entre la entrada del cuantificador y a la salida de su reconstrucción será de &#039;&#039;R/b&#039;&#039;, donde &#039;&#039;R&#039;&#039; representa el retardo que teníamos a nivel de bit y &#039;&#039;b&#039;&#039; el número de bits que se agrupan por cada palabra de código para reconstruir el valor de las muestras.&lt;br /&gt;
&lt;br /&gt;
[[File:Introduccion comLAB-Fig10.png|thumb|alt=Ejemplo de retraso introducido para poder comparar la señal en dos puntos cruciales de la cadena|&#039;&#039;&#039;Figura 10:&#039;&#039;&#039; Ejemplo de retraso introducido para poder comparar la señal en dos puntos cruciales de la cadena: la secuencia digital antes de introducirla en el modulador y después del receptor digital. Al alinear temporalmente las señales se puede observar directamente la coincidencia o no de los dígitos binarios.]]&lt;br /&gt;
&lt;br /&gt;
La Figura 10 ilustra la comparación realizada a la salida del receptor digital respecto a la entrada del modulador en virtud del retraso introducido. En este ejemplo la modulación es de órden &#039;&#039;M&#039;&#039; = 4, &#039;&#039;N&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; = 10 y contamos con una canal de transmisión en el que no se está aplicando ningún retardo, en consecuencia se introduce un retraso de 10∙log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;4 = 20 bits. Como puede observarse la comparación produce un alineamiento perfecto entre la señal a la entrada del modulador y a la salida, lo que nos permite apreciar que en todos los casos visualizados se produce una coincidencia exacta del código a la entrada y salida del canal digital.&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=ComLAB/Simulaci%C3%B3n_de_canales_con_perturbaci%C3%B3n&amp;diff=10200</id>
		<title>ComLAB/Simulación de canales con perturbación</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=ComLAB/Simulaci%C3%B3n_de_canales_con_perturbaci%C3%B3n&amp;diff=10200"/>
		<updated>2024-04-30T09:33:15Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Clarificación sobre bloque de Simulink a utilizar en la generación de las señales de diafonía (Compare To Zero).&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;◀ [[ComLAB/Requerimientos de sincronización|sección anterior]]  |  [[ComLAB/Códigos de MATLAB|sección siguiente]] ▶ &lt;br /&gt;
__FORCETOC__&lt;br /&gt;
Para poder trabajar con canales que introducen perturbación, contamos con varias herramientas cuyo dimensionamiento adecuado es crucial para poder hacer simulaciones efectivas, debiendo cumplir dos criterios fundamentales: (i) que las tramas de las señales de perturbación tengan la misma dimensión que las de las señales de información y por tanto podamos combinarlas, así como que la longitud total de las secuencias sea la misma, (ii) hacer que la temporización asociada a estas sea idéntica y así se entreguen en el tiempo adecuado. Veamos cómo cumplir con estos requisitos si modelamos dos perturbaciones fundamentales, el ruido y la diafonía.&lt;br /&gt;
&lt;br /&gt;
== Modelado de canales ruidosos ==&lt;br /&gt;
La contaminación por ruido en la mayor parte de los casos de interés puede modelarse como un efecto aditivo en el que la señal de información se combina con una señal de ruido (ver [[Ruido|&#039;&#039;Ruido&#039;&#039;]] en glossaLAB). Éste, al igual que la señal de información, tiene un carácter estocástico que podemos modelar por medio de una variable aleatoria o pseudoaleatoria cuyas características se adecúen a las del ruido bajo estudio (que normalmente es suficiente caracterizar mediante su varianza y su distribución espectral de potencia). Para la generación de estas secuencias contamos con un bloque propio de Simulink, denominado &#039;&#039;colored noise&#039;&#039; (ruido coloreado), que nos permite elegir entre varias distribuciones espectrales de potencia designadas por colores, donde &#039;&#039;white&#039;&#039; permite generar un ruido blanco gaussiano aditivo de varianza unitaria y media nula. El resto de los modelos de ruido se basan en la aplicación de un filtrado a la secuencia aleatoria que corresponde al ruido blanco (que emplea el mismo generador que el comando de MATLAB &amp;lt;code&amp;gt;randn&amp;lt;/code&amp;gt;) al que se le puede dar una semilla (&amp;lt;math&amp;gt;\in \mathbb{N}&amp;lt;/math&amp;gt;) para que empiece en un lugar determinado de su secuencia pseudoaleatoria.&lt;br /&gt;
&lt;br /&gt;
Dadas estas características, un modelo de canal ruidoso en el que podamos modular el nivel de ruido introducido, como ilustra la Figura 11, supone emplear: 1) el generador, 2) un regulador de nivel (ganancia variable que puede ir desde 0 –para canales sin ruido– al valor deseado) y 3) el sumador de señales.&lt;br /&gt;
&lt;br /&gt;
[[File:Introduccion comLAB-Fig11.png|thumb|alt=Modelo para la simulación de un canal con ruido gaussiano aditivo, destacando en color el modelo de ruido.|&#039;&#039;&#039;Figura 11:&#039;&#039;&#039; Modelo para la simulación de un canal con ruido gaussiano aditivo, destacando en color el modelo de ruido.]]&lt;br /&gt;
Como se indicaba antes, para hacer que nuestras señales de ruido y de información puedan combinarse aditivamente resulta crítico cumplir con los criterios (i) y (ii) antes referidos. Para ello debe hacerse: (i) que el &#039;&#039;&#039;tamaño de las tramas de ruido&#039;&#039;&#039; generadas sean del mismo tamaño como es el caso de la Figura 11 donde podemos ver que el tamaño de las tramas de la señal y del ruido son idénticos. Dicho parámetro como puede verse en la Figura 12 se ajusta en la máscara del generador como &#039;&#039;Number of samples per output channel&#039;&#039;. (ii) Debemos ajustar el &#039;&#039;&#039;tiempo de muestreo de la secuencia de ruido&#039;&#039;&#039; para que sea coincidente con el de la señal, revisando las operaciones que hace nuestra cadena de transmisión. Veamos un ejemplo cuya generalización es inmediata: en el caso de la figura la señal transmitida es la de música, cuya frecuencia de muestreo es &#039;&#039;f&amp;lt;sub&amp;gt;m&amp;lt;/sub&amp;gt;&#039;&#039; = 44100 Hz y consta de &#039;&#039;c&#039;&#039; = 2 canales. A continuación, se submuestrea con un factor &#039;&#039;S&#039;&#039;, se cuantifica usando &#039;&#039;b&#039;&#039; bits, se multiplexan los dos canales, se codifica con una modulación de orden &#039;&#039;M&#039;&#039; y la señal de línea se muestrea empleando &#039;&#039;M&amp;lt;sub&amp;gt;s&amp;lt;/sub&amp;gt;&#039;&#039; puntos por periodo de símbolo. Por tanto la frecuencia de muestreo de la señal en el canal será:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;f_{mc} = f_m \dfrac{1}{s} \cdot b \cdot c \cdot \dfrac{M_S}{\log_2 M} = 44100 \dfrac{1}{s} \cdot 10 \cdot 2 \cdot \dfrac{20}{log_2 4} = 44100 \cdot 100  [Hz] \rightarrow T_{mc} = \dfrac{1}{f_{mc}} = 4,41 \cdot 10^{-2} [s]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Mientras que la relación entre las tramas originales y finales estarán ligadas por el mismo factor:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;T_c = T_0 \dfrac{1}{s} \cdot b \cdot c \cdot \dfrac{M_s}{\log_2 M} = T_0 \cdot 100 = 2014 \cdot 100&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Como puede verse en la Figura 11, una vez generado un modelo compatible (verificable mediante la opción de menú &#039;&#039;Model Update&#039;&#039;) las tramas de la señal y el ruido son de igual longitud y por eso pueden sumarse, mientras que el hecho de que los tiempos de muestreo sean coincidentes se manifiesta porque el color de ambos circuitos es el mismo (en este caso rojo, si no fuera el caso se representarían con colores diferentes). &lt;br /&gt;
&lt;br /&gt;
[[File:Introduccion comLAB-Fig12.png|thumb|alt=Ajuste de los parámetros del generador de ruido.|&#039;&#039;&#039;Figura 12:&#039;&#039;&#039; Ajuste de los parámetros del generador de ruido.]]&lt;br /&gt;
En la Figura 12 se destaca el ajuste de esos parámetros que permiten la generación de canales ruidosos con los que podemos, por ejemplo, analizar el rendimiento de una modulación como se veía en la [[:File:Introduccion_comLAB-Fig10.png|Figura 10]].&lt;br /&gt;
&lt;br /&gt;
== Modelado de canales con diafonía ==&lt;br /&gt;
Sin duda el análisis de los canales con ruido con características como las referidas en la sección anterior son de gran importancia, ya que las condiciones reales de cualquier comunicación suponen siempre la presencia de ruido. Sin embargo, la diafonía puede suponer un problema a pesar de que sus niveles sean bajos, en especial si procede de otras comunicaciones que pueden ser síncronas y utilizar el mismo esquema de modulación al compartir circuitos comunes que facilitan estos procesos. Por una simple razón, los filtros adaptados de los receptores digitales están adaptados a las formas características de las señales y por tanto, llegan con nivel máximo a las etapas de muestreo en las que se basa la decisión y, en definitiva, la decodificación. Por esta razón su efecto sobre la tasa de errores puede ser importante y hay que tenerlo en cuenta.&lt;br /&gt;
&lt;br /&gt;
Para simularlo podemos recurrir a un modelo computacionalmente liviano para el tiempo de ejecución de las simulaciones de nuestra propia comunicación, pero que exigen una preparación previa consistente en generar señales de línea con las características de ruido de diafonía que almacenaremos en nuestro espacio trabajo para luego recuperarlo en la simulación del sistema en comLAB.&lt;br /&gt;
&lt;br /&gt;
[[File:Introduccion comLAB-Fig13.png|thumb|alt=Modelo para la generación de una señal de línea de diafonía que se almacena en el espacio de trabajo.|&#039;&#039;&#039;Figura 13:&#039;&#039;&#039; Modelo para la generación de una señal de línea de diafonía que se almacena en el espacio de trabajo.]]&lt;br /&gt;
La Figura 13 muestra el esquema del modelo circuital para la generación de una señal de diafonía que, de nuevo, debemos ajustar en sus dimensiones para poderlo combinar con nuestras señales en la cadena de comunicación. El mismo esquema nos servirá para generar varias secuencias de diafonía (dependiendo del número de canales que comparten conductos comunes). Como puede verse en la figura:&lt;br /&gt;
* El primer elemento genera una secuencia aleatoria (basado en el bloque nativo de Simulink &#039;&#039;uniform random number&#039;&#039;) de distribución uniforme entre un valor máximo y mínimo, caracterizada por dichos valores extremos (que podemos ajustar a 1 y -1 respectivamente); la semilla (que tendrá que ser diferente para la simulación de cada señal de diafonía); y el tiempo de muestreo que debemos ajustar como se indicó para el caso del ruido.&lt;br /&gt;
* El siguiente elemento convierte la secuencia numérica en booleana (basado en el bloque nativo de Simulink &#039;&#039;Compare To Zero&#039;&#039;) que podemos considerar una señal binaria de autocorrelación &amp;lt;math&amp;gt;R_{xx}(\tau) \simeq 0&amp;lt;/math&amp;gt; en &amp;lt;math&amp;gt;\tau \neq 0&amp;lt;/math&amp;gt;, equivalente a una comunicación a la que somos ajenos.&lt;br /&gt;
* Seguidamente, una &#039;&#039;&#039;memoria intermedia&#039;&#039;&#039; (buffer) nos permitirá agrupar la secuencia en tramas del mismo tamaño que la señal binaria de información antes de entrar en el modulador, ajustando para ello el único parámetro relevante, que es el tamaño de la memoria.&lt;br /&gt;
* nuestra señal de línea, y que configuraremos para reproducir la situación más desventajosa, esto es, que la modulación perturbadora y perturbada sean idénticas.&lt;br /&gt;
* Finalmente las señales de línea diafónicas se volcarán en el espacio de trabajo con nombres adecuados para su correcta identificación a la hora de llevarlos al lienzo de comLAB&amp;lt;ref group=&amp;quot;notas&amp;quot;&amp;gt;Resulta interesante comparar el espectro de la señal de línea correspondiente a información (en el lienzo del sistema de transmisión) con el de las señales de línea diafónicas obtenidas del modo indicado y cuyas características estadísticas son diferentes, puesto que la señal de información no tiene autocorrelación nula fuera del orígen. Podrá así comprobarse que el espectro de las señales de diafonía, como puede predecirse desde consideraciones teóricas, se aproxima a la transformada de Fourier del símbolo básico (v. Sklar, B., Harris, F. (2020). &#039;&#039;Digital Communications&#039;&#039;. London: Pearson: p.22ss)&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[File:Introduccion comLAB-Fig14.png|thumb|alt=Modelo para la generación de una señal de línea de diafonía que se almacena en el espacio de trabajo.|&#039;&#039;&#039;Figura 14:&#039;&#039;&#039; Modelo para la generación de una señal de línea de diafonía que se almacena en el espacio de trabajo.]]&lt;br /&gt;
Una vez que se disponen de las señales de diafonía en el espacio de trabajo pueden reintegrarse en el lienzo del sistema de transmisión, combinándolas mediante un modelo como el de la Figura 14, en el cual se agregan además otros efectos perturbadores del canal. Para la integración de las variables del espacio de trabajo al espacio de simulación se puede recurrir al bloque &#039;&#039;From Workspace&#039;&#039;, en el que se debe  indicar la variable que se desea cargar en cada caso.&lt;br /&gt;
&lt;br /&gt;
== Notas ==&lt;br /&gt;
&amp;lt;references group=&amp;quot;notas&amp;quot; /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft_talk:Codificaci%C3%B3n_de_video_MPEG&amp;diff=9802</id>
		<title>Draft talk:Codificación de video MPEG</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft_talk:Codificaci%C3%B3n_de_video_MPEG&amp;diff=9802"/>
		<updated>2024-03-05T18:32:12Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Sugerencias para ampliar contenido con nuevas variantes de MPEG y técnica de compresión utilizada por MPEG.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== A/A Diego Villegas Villacreces ==&lt;br /&gt;
Estimado Diego,&lt;br /&gt;
&lt;br /&gt;
Me gustaría compartir contigo un par de sugerencias que creo que podrían aportar un valor añadido a tu aportación inicial.&lt;br /&gt;
&lt;br /&gt;
=== Sugerencias para ampliar contenido con nuevas variantes de MPEG ===&lt;br /&gt;
¿Cómo verías el ampliar el contenido de tu aportación con algo más de información sobre los siguientes estándares (aún en desarrollo)?&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|&#039;&#039;&#039;MPEG-7&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;(en desarrollo)&#039;&#039;&#039;&lt;br /&gt;
|Descripción de contenido multimedia.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;No define un nuevo algoritmo de compresión.&#039;&#039;&#039;&lt;br /&gt;
|-&lt;br /&gt;
|&#039;&#039;&#039;MPEG-21&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;(en desarrollo)&#039;&#039;&#039;&lt;br /&gt;
|Marco de trabajo multimedia.&lt;br /&gt;
&lt;br /&gt;
Uso transparente de contenido multimedia entre redes y  usuarios heterogéneos.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=== Sugerencia para ampliar contenido con la técnica de compresión utilizada por MPEG ===&lt;br /&gt;
¿Qué te parecería incorporar a tu aportación que MPEF utiliza &#039;&#039;&#039;Inter-frame o redundancia espacial&#039;&#039;&#039; como técnica de compresión y que se trata de un &#039;&#039;&#039;algoritmo de compresión con pérdidas&#039;&#039;&#039;?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Espero que las encuentres de utilidad.&lt;br /&gt;
&lt;br /&gt;
Atentamente,&lt;br /&gt;
&lt;br /&gt;
[[User:Julio Garvía Honrado|Julio Garvía Honrado]] ([[User talk:Julio Garvía Honrado|talk]]) 19:32, 5 March 2024 (CET)&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_video_MPEG&amp;diff=9801</id>
		<title>Draft:Codificación de video MPEG</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_video_MPEG&amp;diff=9801"/>
		<updated>2024-03-05T18:16:18Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: /* MPEG-1 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;En 1988, la Organización Internacional de Normalización (ISO) formó el Grupo de Expertos en Imágenes en Movimiento (MPEG) para desarrollar estándares para la codificación digital de imágenes en movimiento (vídeo) y audio asociado.&lt;br /&gt;
&lt;br /&gt;
== Definición ==&lt;br /&gt;
La codificación de video MPEG (Moving Picture Experts Group) es un estándar de compresión de video utilizado para almacenamiento y transmisión de medios digitales. Utiliza técnicas de compresión para reducir el tamaño del archivo, manteniendo una calidad visual aceptable. Este sistema surgió como una respuesta a las necesidades de transmitir señales de televisión y vídeo por redes digitales, y está pensado para funcionar con aparatos diseñados específicamente para esta misión, que permitan comprimir y descomprimir las imágenes a gran velocidad. La codificación MPEG se divide en diferentes estándares, como MPEG-1, MPEG-2 y MPEG-4, cada uno con sus propias características y aplicaciones específicas.&lt;br /&gt;
&lt;br /&gt;
== Tipos de codificación MPEG ==&lt;br /&gt;
&lt;br /&gt;
==== MPEG-1 ====&lt;br /&gt;
En 1992, el comité MPEG completó su primer estándar internacional, MPEG-1, formalmente ISO/IEC 11172. Como especificación genérica de codificación de vídeo, MPEG-1 soporta múltiples formatos de imagen, incluyendo CIF, SIF y QCIF. Se admiten tamaños de imagen de hasta 4.095 x 4.095. Sin embargo, solo se admiten el escaneo progresivo y el muestreo de color 4:2:0. Aunque MPEG-1 resultó exitoso en la industria del entretenimiento informático, su falta de soporte para el escaneo entrelazado impidió su uso en la televisión digital.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== MPEG-2&amp;lt;br&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
En 1995, el comité MPEG comenzó a trabajar en MPEG-2, formalmente ISO/IEC 13818.9. MPEG-2 es una extensión de MPEG-1 que remedia varias deficiencias importantes de MPEG-1 al agregar soporte para vídeo entrelazado, más formatos de submuestreo de color y otras características avanzadas de codificación. El estándar MPEG-2 mantiene la compatibilidad hacia atrás con MPEG-1.&lt;br /&gt;
Este estándar ha sido adoptado para su uso por el Comité de Sistemas de Televisión Avanzada (ATSC) como el motor de compresión de vídeo para televisión digital en los Estados Unidos. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== MPEG-4 o H.264 ====&lt;br /&gt;
&lt;br /&gt;
Este estándar fue desarrollado a finales del 1998 por el mismo comité que desarrollaron las anteriores versiones y revolucionó la compresión de audio y vídeo ya que permitía una compresión eficiente sin sacrificar la calidad, siendo adaptable a diversas velocidades de bits.  Su versatilidad permite la transmisión de contenido multimedia interactivo, incluyendo vídeo, audio, gráficos y animaciones. Puede ser implementado en una amplia gama de dispositivos y plataformas, desde televisores digitales hasta dispositivos móviles e internet. Además, soporta la creación de contenido interactivo como juegos y aplicaciones educativas. Esto lo convierte en una opción preferida para una variedad de aplicaciones multimedia, incluyendo transmisiones en tiempo real, almacenamiento de medios de alta calidad y desarrollo de contenido para dispositivos móviles&lt;br /&gt;
&lt;br /&gt;
[[File:Diferentes codificaciones MPEG.png|thumb]]&lt;br /&gt;
&lt;br /&gt;
== Tipos de imágenes o cuadros en MPEG&amp;lt;ref&amp;gt;Molina Robles, F. J. y Polo Ortega, E. (2015). &#039;&#039;Servicios de red e Internet:&#039;&#039; (ed.). RA-MA Editorial. &amp;lt;nowiki&amp;gt;https://elibro.net/es/ereader/udima/62478?page=272&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Imágenes I&#039;&#039;&#039; (intra-codificadas / &#039;&#039;intraframe-coded&#039;&#039;): imágenes codificadas de manera independiente, sin referencia a ninguna otra.&lt;br /&gt;
* &#039;&#039;&#039;Imágenes P&#039;&#039;&#039; (predecible posterior / &#039;&#039;predictive-coded&#039;&#039;): imágenes comprimidas como resultado de la codificación de las diferencias entre la imagen predicha y una referencia.&lt;br /&gt;
* &#039;&#039;&#039;Imágenes B&#039;&#039;&#039; (predecible bidireccional / &#039;&#039;bidirectionally predictive-coded&#039;&#039;): imágenes comprimidas como resultado de la codificación de las diferencias entre la imagen predicha y una imagen de referencia I o P.&lt;br /&gt;
&lt;br /&gt;
== Técnicas de compresión MPEG&amp;lt;ref&amp;gt;Pérez Vega, C. (2012). &#039;&#039;Fundamentos de televisión analógica y digital:&#039;&#039; (2 ed.). Editorial de la Universidad de Cantabria. &amp;lt;nowiki&amp;gt;https://elibro.net/es/ereader/udima/53366?page=229&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; ==&lt;br /&gt;
La imagen del vídeo es separada en dos partes: &#039;&#039;&#039;luminancia (Y) y croma&#039;&#039;&#039; (también llamada señales de diferencia de color &#039;&#039;&#039;U&#039;&#039;&#039; o Cb y &#039;&#039;&#039;V&#039;&#039;&#039; o Cr) a su vez, son divididos en &amp;quot;macro bloques&amp;quot; los cuales son la unidad básica dentro de una imagen. Cada macro bloque es dividido en cuatro 8 X 8 bloques de luminancia (véase Figura 2).&lt;br /&gt;
[[File:Técnicas de compresión MPEG.png|alt=Figura 2: Técnicas de compresión MPEG|thumb|Figura 2: Técnicas de compresión MPEG]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;ref&amp;gt;Dzung Tien Hoang y Jeffrey Scott Vitter (2002). Efficient Algorithms for MPEG Video Compression. Wiley&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref&amp;gt;K. R. Rao, Do Nyeon Kim, Jae Jeong Hwang (2014). Video Conding Standards. Springer&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref&amp;gt;Lora Moreno, JM. IMPLEMENTACIÓN DE DECODIFICACIÓN JPEG PARA CLIENTE RECEPTOR DE IMÁGENES EN J2ME. [Proyecto fin de carrera de ingeniería de Telecomunicación, Universidad de Sevilla]. https://biblus.us.es/bibing/proyectos/abreproy/11210/fichero/Memoria+por+Cap%C3%ADtulos+%252F6+Est%C3%A1ndares+de+compresi%C3%B3n+de+video.pdf+&amp;lt;/ref&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_video_MPEG&amp;diff=9800</id>
		<title>Draft:Codificación de video MPEG</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_video_MPEG&amp;diff=9800"/>
		<updated>2024-03-05T18:14:25Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: 1. Incorporación de H.264 al estándar MPEG-4. / 2. Tipos de imágenes o cuadros en MPEG / 3. Técnicas de compresión MPEG y diagrama de bloques. / 4. Referencias bibliográficas&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;En 1988, la Organización Internacional de Normalización (ISO) formó el Grupo de Expertos en Imágenes en Movimiento (MPEG) para desarrollar estándares para la codificación digital de imágenes en movimiento (vídeo) y audio asociado.&lt;br /&gt;
&lt;br /&gt;
== Definición ==&lt;br /&gt;
La codificación de video MPEG (Moving Picture Experts Group) es un estándar de compresión de video utilizado para almacenamiento y transmisión de medios digitales. Utiliza técnicas de compresión para reducir el tamaño del archivo, manteniendo una calidad visual aceptable. Este sistema surgió como una respuesta a las necesidades de transmitir señales de televisión y vídeo por redes digitales, y está pensado para funcionar con aparatos diseñados específicamente para esta misión, que permitan comprimir y descomprimir las imágenes a gran velocidad. La codificación MPEG se divide en diferentes estándares, como MPEG-1, MPEG-2 y MPEG-4, cada uno con sus propias características y aplicaciones específicas.&lt;br /&gt;
&lt;br /&gt;
== Tipos de codificación MPEG ==&lt;br /&gt;
&lt;br /&gt;
=== MPEG-1 ===&lt;br /&gt;
En 1992, el comité MPEG completó su primer estándar internacional, MPEG-1, formalmente ISO/IEC 11172. Como especificación genérica de codificación de vídeo, MPEG-1 soporta múltiples formatos de imagen, incluyendo CIF, SIF y QCIF. Se admiten tamaños de imagen de hasta 4.095 x 4.095. Sin embargo, solo se admiten el escaneo progresivo y el muestreo de color 4:2:0. Aunque MPEG-1 resultó exitoso en la industria del entretenimiento informático, su falta de soporte para el escaneo entrelazado impidió su uso en la televisión digital.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== MPEG-2&amp;lt;br&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
En 1995, el comité MPEG comenzó a trabajar en MPEG-2, formalmente ISO/IEC 13818.9. MPEG-2 es una extensión de MPEG-1 que remedia varias deficiencias importantes de MPEG-1 al agregar soporte para vídeo entrelazado, más formatos de submuestreo de color y otras características avanzadas de codificación. El estándar MPEG-2 mantiene la compatibilidad hacia atrás con MPEG-1.&lt;br /&gt;
Este estándar ha sido adoptado para su uso por el Comité de Sistemas de Televisión Avanzada (ATSC) como el motor de compresión de vídeo para televisión digital en los Estados Unidos. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== MPEG-4 o H.264 ====&lt;br /&gt;
&lt;br /&gt;
Este estándar fue desarrollado a finales del 1998 por el mismo comité que desarrollaron las anteriores versiones y revolucionó la compresión de audio y vídeo ya que permitía una compresión eficiente sin sacrificar la calidad, siendo adaptable a diversas velocidades de bits.  Su versatilidad permite la transmisión de contenido multimedia interactivo, incluyendo vídeo, audio, gráficos y animaciones. Puede ser implementado en una amplia gama de dispositivos y plataformas, desde televisores digitales hasta dispositivos móviles e internet. Además, soporta la creación de contenido interactivo como juegos y aplicaciones educativas. Esto lo convierte en una opción preferida para una variedad de aplicaciones multimedia, incluyendo transmisiones en tiempo real, almacenamiento de medios de alta calidad y desarrollo de contenido para dispositivos móviles&lt;br /&gt;
&lt;br /&gt;
[[File:Diferentes codificaciones MPEG.png|thumb]]&lt;br /&gt;
&lt;br /&gt;
== Tipos de imágenes o cuadros en MPEG&amp;lt;ref&amp;gt;Molina Robles, F. J. y Polo Ortega, E. (2015). &#039;&#039;Servicios de red e Internet:&#039;&#039; (ed.). RA-MA Editorial. &amp;lt;nowiki&amp;gt;https://elibro.net/es/ereader/udima/62478?page=272&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Imágenes I&#039;&#039;&#039; (intra-codificadas / &#039;&#039;intraframe-coded&#039;&#039;): imágenes codificadas de manera independiente, sin referencia a ninguna otra.&lt;br /&gt;
* &#039;&#039;&#039;Imágenes P&#039;&#039;&#039; (predecible posterior / &#039;&#039;predictive-coded&#039;&#039;): imágenes comprimidas como resultado de la codificación de las diferencias entre la imagen predicha y una referencia.&lt;br /&gt;
* &#039;&#039;&#039;Imágenes B&#039;&#039;&#039; (predecible bidireccional / &#039;&#039;bidirectionally predictive-coded&#039;&#039;): imágenes comprimidas como resultado de la codificación de las diferencias entre la imagen predicha y una imagen de referencia I o P.&lt;br /&gt;
&lt;br /&gt;
== Técnicas de compresión MPEG&amp;lt;ref&amp;gt;Pérez Vega, C. (2012). &#039;&#039;Fundamentos de televisión analógica y digital:&#039;&#039; (2 ed.). Editorial de la Universidad de Cantabria. &amp;lt;nowiki&amp;gt;https://elibro.net/es/ereader/udima/53366?page=229&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; ==&lt;br /&gt;
La imagen del vídeo es separada en dos partes: &#039;&#039;&#039;luminancia (Y) y croma&#039;&#039;&#039; (también llamada señales de diferencia de color &#039;&#039;&#039;U&#039;&#039;&#039; o Cb y &#039;&#039;&#039;V&#039;&#039;&#039; o Cr) a su vez, son divididos en &amp;quot;macro bloques&amp;quot; los cuales son la unidad básica dentro de una imagen. Cada macro bloque es dividido en cuatro 8 X 8 bloques de luminancia (véase Figura 2).&lt;br /&gt;
[[File:Técnicas de compresión MPEG.png|alt=Figura 2: Técnicas de compresión MPEG|thumb|Figura 2: Técnicas de compresión MPEG]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;ref&amp;gt;Dzung Tien Hoang y Jeffrey Scott Vitter (2002). Efficient Algorithms for MPEG Video Compression. Wiley&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref&amp;gt;K. R. Rao, Do Nyeon Kim, Jae Jeong Hwang (2014). Video Conding Standards. Springer&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref&amp;gt;Lora Moreno, JM. IMPLEMENTACIÓN DE DECODIFICACIÓN JPEG PARA CLIENTE RECEPTOR DE IMÁGENES EN J2ME. [Proyecto fin de carrera de ingeniería de Telecomunicación, Universidad de Sevilla]. https://biblus.us.es/bibing/proyectos/abreproy/11210/fichero/Memoria+por+Cap%C3%ADtulos+%252F6+Est%C3%A1ndares+de+compresi%C3%B3n+de+video.pdf+&amp;lt;/ref&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:T%C3%A9cnicas_de_compresi%C3%B3n_MPEG.png&amp;diff=9799</id>
		<title>File:Técnicas de compresión MPEG.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:T%C3%A9cnicas_de_compresi%C3%B3n_MPEG.png&amp;diff=9799"/>
		<updated>2024-03-05T18:10:21Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Técnicas de compresión MPEG&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:C%C3%B3digo_NRZ-I_(Rechazado)&amp;diff=9798</id>
		<title>Draft:Código NRZ-I (Rechazado)</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:C%C3%B3digo_NRZ-I_(Rechazado)&amp;diff=9798"/>
		<updated>2024-03-04T12:09:56Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Actualización de categorías&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
[[File:Codificación NRZ-I.jpg|alt=Figura 1: Codificación NRZ-I|thumb|Figura 1: Codificación NRZ-I]]&lt;br /&gt;
Los códigos &#039;&#039;&#039;NRZ-I&#039;&#039;&#039; (véase Figura 1) son un tipo de &#039;&#039;&#039;[[Código NRZ|códigos sin retorno a cero]]&#039;&#039;&#039; (&#039;&#039;&#039;NRZ&#039;&#039;&#039; – &#039;&#039;Non Return to Zero&#039;&#039;, en inglés) donde &amp;quot;I&amp;quot; designa &amp;quot;inversión&amp;quot; o &amp;quot;inhibición&amp;quot;. En este tipo de codificación, un nivel lógico 1 se representa con una inversión del nivel de voltaje, y un nivel lógico 0 se representa sin ningún cambio de polaridad&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Santos, González, Manuel. &#039;&#039;Sistemas telemáticos&#039;&#039; (p. 65), RA-MA Editorial, 2014. ProQuest Ebook Central, &amp;lt;nowiki&amp;gt;http://ebookcentral.proquest.com/lib/udima-ebooks/detail.action?docID=3228770&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=== Mejoras con respecto a la codificación [[Código NRZ-L|NRZ-L]]&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;u&amp;gt;Reducción del valor de la componente continua&amp;lt;/u&amp;gt;, característica común en todas las codificaciones polares.&lt;br /&gt;
* &amp;lt;u&amp;gt;Reducción del problema de sincronismo&amp;lt;/u&amp;gt; ya que éste sólo afecta a las secuencias largas de ceros.&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
El siguiente código de MATLAB codifica una secuencia ejemplo de datos usando un código NRZ-I y lo representa gráficamente.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot; line=&amp;quot;1&amp;quot; start=&amp;quot;1&amp;quot;&amp;gt;&lt;br /&gt;
% Secuencia de datos&lt;br /&gt;
m = [0 1 0 0 1 1 1 0 1 1];&lt;br /&gt;
&lt;br /&gt;
% No Retorno a Cero - Inversión&lt;br /&gt;
n = length(m);&lt;br /&gt;
x = [];&lt;br /&gt;
y = [];&lt;br /&gt;
a=1;&lt;br /&gt;
for i=1:n&lt;br /&gt;
    x=[x i-1 i];&lt;br /&gt;
    if(m(i)==1)&lt;br /&gt;
        y=[y -a -a];&lt;br /&gt;
    else&lt;br /&gt;
        y=[y a a];&lt;br /&gt;
    end&lt;br /&gt;
    a=y(length(y));&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Representación gráfica de la codificación&lt;br /&gt;
plot(x,y),axis([0,n,-2,2]);&lt;br /&gt;
title(&#039;Polar NRZ I&#039;);&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;La ejecución del anterior código fuente en MATLAB ofrece como resultado la representación gráfica de la codificación NRZ-I para la secuencia de datos &amp;lt;math&amp;gt;0 1 0 0 1 1 1 0 1 1&amp;lt;/math&amp;gt;, tal y como se muestra en la Figura 2. &lt;br /&gt;
[[File:Representación gráfica codificación Polar NRZ-I.png|alt=Figura 2: Representación gráfica de la codificación Polar NRZ-I para la secuencia de datos  0100111011|thumb|Figura 2: Representación gráfica de la codificación Polar NRZ-I para la secuencia de datos &amp;lt;math&amp;gt;0 1 0 0 1 1 1 0 1 1&amp;lt;/math&amp;gt;]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:C%C3%B3digo_NRZ-I_(Rechazado)&amp;diff=9797</id>
		<title>Draft:Código NRZ-I (Rechazado)</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:C%C3%B3digo_NRZ-I_(Rechazado)&amp;diff=9797"/>
		<updated>2024-03-04T12:00:31Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Codificación Polar NRZ-I (primera versión)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
[[File:Codificación NRZ-I.jpg|alt=Figura 1: Codificación NRZ-I|thumb|Figura 1: Codificación NRZ-I]]&lt;br /&gt;
Los códigos &#039;&#039;&#039;NRZ-I&#039;&#039;&#039; (véase Figura 1) son un tipo de &#039;&#039;&#039;[[Código NRZ|códigos sin retorno a cero]]&#039;&#039;&#039; (&#039;&#039;&#039;NRZ&#039;&#039;&#039; – &#039;&#039;Non Return to Zero&#039;&#039;, en inglés) donde &amp;quot;I&amp;quot; designa &amp;quot;inversión&amp;quot; o &amp;quot;inhibición&amp;quot;. En este tipo de codificación, un nivel lógico 1 se representa con una inversión del nivel de voltaje, y un nivel lógico 0 se representa sin ningún cambio de polaridad&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;Santos, González, Manuel. &#039;&#039;Sistemas telemáticos&#039;&#039; (p. 65), RA-MA Editorial, 2014. ProQuest Ebook Central, &amp;lt;nowiki&amp;gt;http://ebookcentral.proquest.com/lib/udima-ebooks/detail.action?docID=3228770&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=== Mejoras con respecto a la codificación [[Código NRZ-L|NRZ-L]]&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;u&amp;gt;Reducción del valor de la componente continua&amp;lt;/u&amp;gt;, característica común en todas las codificaciones polares.&lt;br /&gt;
* &amp;lt;u&amp;gt;Reducción del problema de sincronismo&amp;lt;/u&amp;gt; ya que éste sólo afecta a las secuencias largas de ceros.&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
El siguiente código de MATLAB codifica una secuencia ejemplo de datos usando un código NRZ-I y lo representa gráficamente.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot; line=&amp;quot;1&amp;quot; start=&amp;quot;1&amp;quot;&amp;gt;&lt;br /&gt;
% Secuencia de datos&lt;br /&gt;
m = [0 1 0 0 1 1 1 0 1 1];&lt;br /&gt;
&lt;br /&gt;
% No Retorno a Cero - Inversión&lt;br /&gt;
n = length(m);&lt;br /&gt;
x = [];&lt;br /&gt;
y = [];&lt;br /&gt;
a=1;&lt;br /&gt;
for i=1:n&lt;br /&gt;
    x=[x i-1 i];&lt;br /&gt;
    if(m(i)==1)&lt;br /&gt;
        y=[y -a -a];&lt;br /&gt;
    else&lt;br /&gt;
        y=[y a a];&lt;br /&gt;
    end&lt;br /&gt;
    a=y(length(y));&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Representación gráfica de la codificación&lt;br /&gt;
plot(x,y),axis([0,n,-2,2]);&lt;br /&gt;
title(&#039;Polar NRZ I&#039;);&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;La ejecución del anterior código fuente en MATLAB ofrece como resultado la representación gráfica de la codificación NRZ-I para la secuencia de datos &amp;lt;math&amp;gt;0 1 0 0 1 1 1 0 1 1&amp;lt;/math&amp;gt;, tal y como se muestra en la Figura 2. &lt;br /&gt;
[[File:Representación gráfica codificación Polar NRZ-I.png|alt=Figura 2: Representación gráfica de la codificación Polar NRZ-I para la secuencia de datos  0100111011|thumb|Figura 2: Representación gráfica de la codificación Polar NRZ-I para la secuencia de datos &amp;lt;math&amp;gt;0 1 0 0 1 1 1 0 1 1&amp;lt;/math&amp;gt;]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Representaci%C3%B3n_gr%C3%A1fica_codificaci%C3%B3n_Polar_NRZ-I.png&amp;diff=9796</id>
		<title>File:Representación gráfica codificación Polar NRZ-I.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Representaci%C3%B3n_gr%C3%A1fica_codificaci%C3%B3n_Polar_NRZ-I.png&amp;diff=9796"/>
		<updated>2024-03-04T11:58:25Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Representación gráfica codificación Polar NRZ-I&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Codificaci%C3%B3n_NRZ-I.jpg&amp;diff=9795</id>
		<title>File:Codificación NRZ-I.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Codificaci%C3%B3n_NRZ-I.jpg&amp;diff=9795"/>
		<updated>2024-03-04T11:43:09Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Codificación NRZ-I&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Bobina_h%C3%ADbrida&amp;diff=9794</id>
		<title>Draft:Bobina híbrida</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Bobina_h%C3%ADbrida&amp;diff=9794"/>
		<updated>2024-03-04T10:08:37Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Actualización de categorías&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
Una bobina híbrida&amp;lt;ref&amp;gt;Híbrida (circuito). (2023, 14 de enero). &#039;&#039;Wikipedia, La enciclopedia libre&#039;&#039;. Fecha de consulta: 10:18, marzo 4, 2024 desde: [https://es.wikipedia.org/wiki/H%C3%ADbrida_(circuito) enlace al artículo de Wikipedia]&amp;lt;/ref&amp;gt;, también conocida como transformador híbrido, es un dispositivo utilizado en sistemas de transmisión y telecomunicaciones para separar las señales de transmisión y recepción. Este componente es esencial en los sistemas dúplex, donde la transmisión y recepción se realizan al mismo tiempo y frecuentemente sobre el mismo medio o canal. La bobina híbrida permite que estos sistemas funcionen correctamente sin interferencia entre las señales de entrada y salida.&lt;br /&gt;
&lt;br /&gt;
=== Características y funciones clave de las bobinas híbridas&amp;lt;ref&amp;gt;OpenAI. (2024). &#039;&#039;gpt-4-0125-preview&#039;&#039; (versión del 4 de marzo) [Sistemas de transmisión: Bobina híbrida]. https://chat.lmsys.org/&amp;lt;/ref&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Separación de señales&#039;&#039;&#039;: Su función principal es separar o distinguir entre las señales de entrada y salida. Esto permite que un sistema pueda enviar y recibir información simultáneamente, una característica crucial para las telecomunicaciones modernas.&lt;br /&gt;
# &#039;&#039;&#039;Minimización de interferencias&#039;&#039;&#039;: Al separar eficientemente las señales de transmisión y recepción, la bobina híbrida ayuda a minimizar las interferencias, lo que mejora la calidad de la comunicación.&lt;br /&gt;
# &#039;&#039;&#039;Compatibilidad con varios medios&#039;&#039;&#039;: Pueden ser utilizadas en diferentes tipos de sistemas de transmisión, incluyendo cableado (como en redes telefónicas) y sistemas inalámbricos.&lt;br /&gt;
# &#039;&#039;&#039;Transformación de impedancia&#039;&#039;&#039;: Además de separar señales, algunas bobinas híbridas están diseñadas para realizar transformaciones de impedancia, adaptando las señales para que coincidan con la impedancia óptima del sistema y maximizar así la transferencia de energía.&lt;br /&gt;
# &#039;&#039;&#039;Uso en circuitos de cancelación de eco&#039;&#039;&#039;: En telecomunicaciones, la bobina híbrida también juega un papel importante en los circuitos de cancelación de eco, ayudando a eliminar las señales reflejadas que pueden interferir con la comunicación clara.&lt;br /&gt;
&lt;br /&gt;
=== &#039;&#039;&#039;Aplicaciones&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Telefonía&#039;&#039;&#039;: Son muy usadas en las redes telefónicas para permitir que las líneas telefónicas manejen tanto las señales de entrada como de salida al mismo tiempo.&lt;br /&gt;
* &#039;&#039;&#039;Redes de datos&#039;&#039;&#039;: En dispositivos como modems y routers, para manejar adecuadamente las señales bidireccionales.&lt;br /&gt;
* &#039;&#039;&#039;Radiocomunicación&#039;&#039;&#039;: En sistemas de radiocomunicación, ayudando a separar las señales transmitidas y recibidas por las antenas.&lt;br /&gt;
&lt;br /&gt;
== La bobina híbrida dentro del circuito de conversación telefónico&amp;lt;ref&amp;gt;Herrera, F. (26 de octubre de 2002). &#039;&#039;Formulación de una Estrategia de Digitalización de Redes para una Empresa Privada de Telecomunicaciones&#039;&#039;. https://www.geocities.ws/fhgmbb/Tesis-Postgrado-FH/Tesis-FH-1.htm&amp;lt;/ref&amp;gt; ==&lt;br /&gt;
[[File:Conversión 2-4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales)..jpg|alt=Figura 1: Conversión 2/4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales).|thumb|Figura 1: Conversión 2/4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales).]]&lt;br /&gt;
En el circuito de conversación telefónico se efectúa la conversión de [[Bidireccionalidad a 2 hilos|2 hilos]] a [[Bidireccionalidad a 4 hilos|4 hilos]] (véase Figura 1), haciendo posible el funcionamiento bidireccional y el acoplamiento de las impedancias del micrófono, auricular y línea. A través de la bobina híbrida se divide la potencia a partes iguales entre &amp;quot;puertas adyacentes&amp;quot;, impidiendo el paso de potencia a la &amp;quot;puerta opuesta&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
El circuito de conversación telefónico (véase Figura 2) está constituído por cuatro componentes principales:&lt;br /&gt;
&lt;br /&gt;
# La bobina híbrida&lt;br /&gt;
# El auricular&lt;br /&gt;
# El micrófono de carbón&lt;br /&gt;
# Impedancia de 600 &amp;lt;math&amp;gt;\Omega&amp;lt;/math&amp;gt; para equilibrar la híbrida&lt;br /&gt;
&lt;br /&gt;
[[File:Circuito de conversación telefónico (bobina híbrida).jpg|alt=Figura 2: Esquema de Circuito de conversación telefónico (bobina híbrida)|thumb|Figura 2: Esquema de Circuito de conversación telefónico (bobina híbrida)]]&lt;br /&gt;
La bobina híbrida consiste en un transformador con tres bobinados (véase Figura 3) con la función de evitar que las señales que entran por el micrófono se escuchen por el auricular y las que llegan por el auricular no retornen por el micrófono, cuando sucede este escenario se genera un efecto eco.&lt;br /&gt;
[[File:Circuito transformado hibrido de 2 a 4 hilos.jpg|alt=Figura 3: Circuito transformado híbrido de 2 a 4 hilos|thumb|Figura 3: Circuito transformado híbrido de 2 a 4 hilos]]&lt;br /&gt;
&lt;br /&gt;
== Conclusión ==&lt;br /&gt;
La efectividad de una bobina híbrida depende de su diseño y de cómo está adaptada a las características específicas del sistema en el que se utiliza. Un diseño adecuado asegura una mínima pérdida de señal y una clara separación entre las señales de transmisión y recepción, lo cual es crítico para el rendimiento general del sistema.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references responsive=&amp;quot;0&amp;quot; /&amp;gt;&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Bobina_h%C3%ADbrida&amp;diff=9793</id>
		<title>Draft:Bobina híbrida</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Bobina_h%C3%ADbrida&amp;diff=9793"/>
		<updated>2024-03-04T09:41:45Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Bobina híbrida y su papel dentro del circuito de conversación telefónico (primera versión)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
Una bobina híbrida&amp;lt;ref&amp;gt;Híbrida (circuito). (2023, 14 de enero). &#039;&#039;Wikipedia, La enciclopedia libre&#039;&#039;. Fecha de consulta: 10:18, marzo 4, 2024 desde: [https://es.wikipedia.org/wiki/H%C3%ADbrida_(circuito) enlace al artículo de Wikipedia]&amp;lt;/ref&amp;gt;, también conocida como transformador híbrido, es un dispositivo utilizado en sistemas de transmisión y telecomunicaciones para separar las señales de transmisión y recepción. Este componente es esencial en los sistemas dúplex, donde la transmisión y recepción se realizan al mismo tiempo y frecuentemente sobre el mismo medio o canal. La bobina híbrida permite que estos sistemas funcionen correctamente sin interferencia entre las señales de entrada y salida.&lt;br /&gt;
&lt;br /&gt;
=== Características y funciones clave de las bobinas híbridas&amp;lt;ref&amp;gt;OpenAI. (2024). &#039;&#039;gpt-4-0125-preview&#039;&#039; (versión del 4 de marzo) [Sistemas de transmisión: Bobina híbrida]. https://chat.lmsys.org/&amp;lt;/ref&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Separación de señales&#039;&#039;&#039;: Su función principal es separar o distinguir entre las señales de entrada y salida. Esto permite que un sistema pueda enviar y recibir información simultáneamente, una característica crucial para las telecomunicaciones modernas.&lt;br /&gt;
# &#039;&#039;&#039;Minimización de interferencias&#039;&#039;&#039;: Al separar eficientemente las señales de transmisión y recepción, la bobina híbrida ayuda a minimizar las interferencias, lo que mejora la calidad de la comunicación.&lt;br /&gt;
# &#039;&#039;&#039;Compatibilidad con varios medios&#039;&#039;&#039;: Pueden ser utilizadas en diferentes tipos de sistemas de transmisión, incluyendo cableado (como en redes telefónicas) y sistemas inalámbricos.&lt;br /&gt;
# &#039;&#039;&#039;Transformación de impedancia&#039;&#039;&#039;: Además de separar señales, algunas bobinas híbridas están diseñadas para realizar transformaciones de impedancia, adaptando las señales para que coincidan con la impedancia óptima del sistema y maximizar así la transferencia de energía.&lt;br /&gt;
# &#039;&#039;&#039;Uso en circuitos de cancelación de eco&#039;&#039;&#039;: En telecomunicaciones, la bobina híbrida también juega un papel importante en los circuitos de cancelación de eco, ayudando a eliminar las señales reflejadas que pueden interferir con la comunicación clara.&lt;br /&gt;
&lt;br /&gt;
=== &#039;&#039;&#039;Aplicaciones&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Telefonía&#039;&#039;&#039;: Son muy usadas en las redes telefónicas para permitir que las líneas telefónicas manejen tanto las señales de entrada como de salida al mismo tiempo.&lt;br /&gt;
* &#039;&#039;&#039;Redes de datos&#039;&#039;&#039;: En dispositivos como modems y routers, para manejar adecuadamente las señales bidireccionales.&lt;br /&gt;
* &#039;&#039;&#039;Radiocomunicación&#039;&#039;&#039;: En sistemas de radiocomunicación, ayudando a separar las señales transmitidas y recibidas por las antenas.&lt;br /&gt;
&lt;br /&gt;
== La bobina híbrida dentro del circuito de conversación telefónico&amp;lt;ref&amp;gt;Herrera, F. (26 de octubre de 2002). &#039;&#039;Formulación de una Estrategia de Digitalización de Redes para una Empresa Privada de Telecomunicaciones&#039;&#039;. https://www.geocities.ws/fhgmbb/Tesis-Postgrado-FH/Tesis-FH-1.htm&amp;lt;/ref&amp;gt; ==&lt;br /&gt;
[[File:Conversión 2-4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales)..jpg|alt=Figura 1: Conversión 2/4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales).|thumb|Figura 1: Conversión 2/4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales).]]&lt;br /&gt;
En el circuito de conversación telefónico se efectúa la conversión de [[Bidireccionalidad a 2 hilos|2 hilos]] a [[Bidireccionalidad a 4 hilos|4 hilos]] (véase Figura 1), haciendo posible el funcionamiento bidireccional y el acoplamiento de las impedancias del micrófono, auricular y línea. A través de la bobina híbrida se divide la potencia a partes iguales entre &amp;quot;puertas adyacentes&amp;quot;, impidiendo el paso de potencia a la &amp;quot;puerta opuesta&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
El circuito de conversación telefónico (véase Figura 2) está constituído por cuatro componentes principales:&lt;br /&gt;
&lt;br /&gt;
# La bobina híbrida&lt;br /&gt;
# El auricular&lt;br /&gt;
# El micrófono de carbón&lt;br /&gt;
# Impedancia de 600 &amp;lt;math&amp;gt;\Omega&amp;lt;/math&amp;gt; para equilibrar la híbrida&lt;br /&gt;
&lt;br /&gt;
[[File:Circuito de conversación telefónico (bobina híbrida).jpg|alt=Figura 2: Esquema de Circuito de conversación telefónico (bobina híbrida)|thumb|Figura 2: Esquema de Circuito de conversación telefónico (bobina híbrida)]]&lt;br /&gt;
La bobina híbrida consiste en un transformador con tres bobinados (véase Figura 3) con la función de evitar que las señales que entran por el micrófono se escuchen por el auricular y las que llegan por el auricular no retornen por el micrófono, cuando sucede este escenario se genera un efecto eco.&lt;br /&gt;
[[File:Circuito transformado hibrido de 2 a 4 hilos.jpg|alt=Figura 3: Circuito transformado híbrido de 2 a 4 hilos|thumb|Figura 3: Circuito transformado híbrido de 2 a 4 hilos]]&lt;br /&gt;
&lt;br /&gt;
== Conclusión ==&lt;br /&gt;
La efectividad de una bobina híbrida depende de su diseño y de cómo está adaptada a las características específicas del sistema en el que se utiliza. Un diseño adecuado asegura una mínima pérdida de señal y una clara separación entre las señales de transmisión y recepción, lo cual es crítico para el rendimiento general del sistema.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references responsive=&amp;quot;0&amp;quot; /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Conversi%C3%B3n_2-4_hilos_con_bobinas_h%C3%ADbridas._Gracias_a_las_bobinas_h%C3%ADbridas_se_pasa_de_una_comunicaci%C3%B3n_a_dos_hilos_(usuario_con_la_central)_a_otra_a_cuatro_hilos_(entre_centrales)..jpg&amp;diff=9792</id>
		<title>File:Conversión 2-4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales)..jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Conversi%C3%B3n_2-4_hilos_con_bobinas_h%C3%ADbridas._Gracias_a_las_bobinas_h%C3%ADbridas_se_pasa_de_una_comunicaci%C3%B3n_a_dos_hilos_(usuario_con_la_central)_a_otra_a_cuatro_hilos_(entre_centrales)..jpg&amp;diff=9792"/>
		<updated>2024-03-04T09:07:41Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Conversión 2/4 hilos con bobinas híbridas. Gracias a las bobinas híbridas se pasa de una comunicación a dos hilos (usuario con la central) a otra a cuatro hilos (entre centrales).&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Circuito_transformado_hibrido_de_2_a_4_hilos.jpg&amp;diff=9791</id>
		<title>File:Circuito transformado hibrido de 2 a 4 hilos.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Circuito_transformado_hibrido_de_2_a_4_hilos.jpg&amp;diff=9791"/>
		<updated>2024-03-04T08:46:25Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Circuito transformado hibrido de 2 a 4 hilos&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Circuito_de_conversaci%C3%B3n_telef%C3%B3nico_(bobina_h%C3%ADbrida).jpg&amp;diff=9790</id>
		<title>File:Circuito de conversación telefónico (bobina híbrida).jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Circuito_de_conversaci%C3%B3n_telef%C3%B3nico_(bobina_h%C3%ADbrida).jpg&amp;diff=9790"/>
		<updated>2024-03-04T08:25:18Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Esquema de circuito de conversación telefónico (bobina híbrida)&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:C%C3%B3digo_BCH&amp;diff=9262</id>
		<title>Draft:Código BCH</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:C%C3%B3digo_BCH&amp;diff=9262"/>
		<updated>2023-12-29T14:35:32Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Aplicación de formato al código Matlab.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Los códigos Bose-Chaudhuri-Hocquenghem ( códigos BCH ) forman una clase de códigos cíclicos de corrección de errores que se construyen utilizando polinomios sobre un campo finito (también llamado campo de Galois ). Los códigos BCH fueron inventados en 1959 por el matemático francés Alexis Hocquenghem , y de forma independiente en 1960 por Raj Chandra Bose y DK Ray-Chaudhuri. El nombre Bose–Chaudhuri–Hocquenghem (y el acrónimo BCH ) surge de las iniciales de los apellidos de los inventores (erróneamente, en el caso de Ray-Chaudhuri).&lt;br /&gt;
&lt;br /&gt;
Una de las características clave de los códigos BCH es que durante el diseño del código, existe un control preciso sobre la cantidad de errores de símbolos que el código puede corregir. En particular, es posible diseñar códigos BCH binarios que puedan corregir errores de múltiples bits. Otra ventaja de los códigos BCH es la facilidad con la que se pueden decodificar, concretamente, mediante un método algebraico conocido como decodificación de síndrome . Esto simplifica el diseño del decodificador de estos códigos, utilizando un pequeño hardware electrónico de bajo consumo.&lt;br /&gt;
&lt;br /&gt;
Los códigos BCH se utilizan en aplicaciones como comunicaciones por satélite, reproductores de discos compactos , DVD , unidades de disco , unidades flash USB , unidades de estado sólido, criptografía resistente a los cuánticos [6] y códigos de barras bidimensionales.&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot; line=&amp;quot;1&amp;quot; start=&amp;quot;1&amp;quot;&amp;gt;&lt;br /&gt;
Function code = bchenc(msg,N,K)&lt;br /&gt;
&lt;br /&gt;
% Codifica el mensaje de entrada empleando (N,K) BCH encoder que emplea un generador polinomial de sensor estrecho.&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&lt;br /&gt;
https://en.wikipedia.org/wiki/BCH_code&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Entrop%C3%ADa_o_cantidad_de_informaci%C3%B3n&amp;diff=9201</id>
		<title>gB:Entropía o cantidad de información</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Entrop%C3%ADa_o_cantidad_de_informaci%C3%B3n&amp;diff=9201"/>
		<updated>2023-12-23T23:13:39Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Ejemplo de código en Matlab para el cálculo de la entropía de una variable aleatoria discreta.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Colección&lt;br /&gt;
| Colección = [[:glossariumBITri]] &lt;br /&gt;
| Curador = [[User:JDíaz]]&lt;br /&gt;
| Autores = [[User:JDíaz]]&lt;br /&gt;
| Publicación = 2016&lt;br /&gt;
| Número = 2&lt;br /&gt;
| ID =  30&lt;br /&gt;
| Tipo de artículo = concepto&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Definiciones ==&lt;br /&gt;
Según la definición aportada por [[Shannon, Claude Elwood | C.E.Shannon]] en 1948,&amp;lt;ref name=&amp;quot;R1&amp;quot;/&amp;gt; en la [[Teoría Matemática de la Información]] (TMC), la &#039;&#039;entropía&#039;&#039; o &#039;&#039;cantidad de información&#039;&#039; de una fuente discreta de información, caracterizada por la probabilidad &#039;&#039;p&amp;lt;sub&amp;gt;j&amp;lt;/sub&amp;gt;&#039;&#039; de enviar cada uno de sus [[símbolo |símbolos]], &#039;&#039;j&#039;&#039;, es el promedio estadístico:&lt;br /&gt;
:&amp;lt;math&amp;gt; H = -\sum _i p_i \log_2p_i &amp;lt;/math&amp;gt; [bits]&lt;br /&gt;
estando acotado entre los límites:&lt;br /&gt;
:&amp;lt;math&amp;gt; 0 \leq H \leq log_2 N &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde &amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt; es el número de símbolos diferentes que puede producir la fuente.&lt;br /&gt;
&lt;br /&gt;
En caso de que la fuente pueda adoptar varios estados &#039;&#039;i&#039;&#039;, siendo &#039;&#039;P&amp;lt;sub&amp;gt;i&amp;lt;/sub&amp;gt;&#039;&#039; el estado de probabilidad, y estando cada uno de ellos caracterizado por una probabilidad &#039;&#039;p&amp;lt;sub&amp;gt;i&amp;lt;/sub&amp;gt;(j)&#039;&#039; de producir los símbolos &#039;&#039;i&#039;&#039;, entonces la entropía se define como el promedio de las entropías de cada estado:&lt;br /&gt;
:&amp;lt;math&amp;gt; H=\sum_i P_i H_i=-\sum_{i,j}P_ip_i(j)\log_2 p_i(j) \text{  [bits]}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Interpretaciones ==&lt;br /&gt;
Según Floridi,&amp;lt;ref name=&amp;quot;R2&amp;quot;/&amp;gt; la entropía &amp;lt;i&amp;gt;H&amp;lt;/i&amp;gt; puede designar tres cantidades equivalentes en el caso ideal de un canal sin ruido: 1) “el promedio de la cantidad de información producida por el agente informante (por cada símbolo)&amp;quot;; 2) el &amp;quot;promedio de la cantidad de déficit de datos (incertidumbre shannoniana) por parte del agente informado antes de que éste inspeccione la salida del informante&amp;quot;; 3) la &amp;quot;potencialidad informativa&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Puesto que las dos primeras interpretaciones suponen que a cada símbolo le corresponde una incertidumbre definida (ya sea en la emisión o en la recepción), esto a su vez implica un cierto acuerdo tácito del [[alfabeto]] o juego informacional en el que los agentes están inmersos. En ambos casos la información puede cuantificarse bajo la condición de que pueda especificarse la distribución de probabilidad dentro de un juego comunicativo.&lt;br /&gt;
&lt;br /&gt;
Según la tercera acepción se puede entender la entropía en términos de una magnitud física referida a la cantidad de desorden en procesos o sistemas portadores de energía o información. Cuanto mayor es la entropía, mayor será el número de estados físicos en los que el sistema puede encontrarse, y por consiguiente mayor la información a la que puede referirse, o de otro modo, la especificación del estado en el cual un determinado sistema se encuentra, requerirá tanta más información cuanto mayor sea su entropía, y ésta equivaldrá numéricamente a la cantidad de información o datos que es necesario aportar para especificar el estado. La entropía es así una característica del macroestado de un sistema (como puede ser la presión o la temperatura de un gas) al que corresponde un número de microestados mayor o menor según dicho valor. Para determinar el microestado en el que se encuentra el sistema e necesario extraer información adicional.&lt;br /&gt;
&lt;br /&gt;
Esta vía nos permite observar el estrecho paralelismo que, en última instancia, existe entre la interpretación de Boltzmann de la entropía y la medida shannoniana de la información que justificaría su homonimia sin necesidad de caer en contradicción ninguna, como se ha señalado a menudo, incluso por los propios autores de la TMC (Shannon, Weaver).&amp;lt;ref name=&amp;quot;R3&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
A continuación, se ilustra a través de un sencillo ejemplo el cálculo de la entropía de una variable aleatoria discreta en Matlab.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot; line=&amp;quot;1&amp;quot; start=&amp;quot;1&amp;quot;&amp;gt;&lt;br /&gt;
clc&lt;br /&gt;
clear&lt;br /&gt;
close all&lt;br /&gt;
&lt;br /&gt;
% Definición de las probabilidades de la variable aletoria &#039;y&#039; &lt;br /&gt;
% para 4 valores supuestos&lt;br /&gt;
prob_y = [5/16, 7/32, 3/16, 9/32];&lt;br /&gt;
&lt;br /&gt;
% Cálculo de la entropía en base 2&lt;br /&gt;
entropy = -sum(prob_y.*log2(prob_y));&lt;br /&gt;
&lt;br /&gt;
% Muestra de resultados&lt;br /&gt;
disp([&#039;Entropía en base 2 de y: &#039;, num2str(entropy), &#039; bits&#039;]);&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
  &amp;lt;ref name=&amp;quot;R1&amp;quot;&amp;gt;&lt;br /&gt;
    Shannon, C. (1948). A Mathematical Theory of Communication. &#039;&#039;Bell System Technical Journal&#039;&#039; 27: 379–423, 623–656.&amp;lt;/ref&amp;gt;&lt;br /&gt;
  &amp;lt;ref name=&amp;quot;R2&amp;quot;&amp;gt;&lt;br /&gt;
    Floridi, L. (2005). Semantic Conceptions of Information. En E. N. Zahlta (ed.) &#039;&#039;Stanford Encyclopedia of Philisophy&#039;&#039;. &lt;br /&gt;
    Stanford: The Metaphysics Research Lab [online] Consultado el 18/05/2023 en  &lt;br /&gt;
    [http://plato.stanford.edu/entries/information-semantic/ &#039;&#039;Stanford Encyclopedia of Philosophy&#039;&#039;].&amp;lt;/ref&amp;gt;&lt;br /&gt;
  &amp;lt;ref name=&amp;quot;R3&amp;quot;&amp;gt;&lt;br /&gt;
    Shannon, C., Weaver, W. (1949). &#039;&#039;The Mathematical Theory of Communication&#039;&#039;. Urbana: University of Illinois Press.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:06) Teoría de la comunicación en general (incl. teoría de la información)]]&lt;br /&gt;
[[Category:GlossariumBITri]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Talk:Codificaci%C3%B3n_de_bloque&amp;diff=9188</id>
		<title>Talk:Codificación de bloque</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Talk:Codificaci%C3%B3n_de_bloque&amp;diff=9188"/>
		<updated>2023-12-22T17:59:46Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: /* A/A Óscar Montalvo: Supresión de mensajes de &amp;quot;Discusión&amp;quot; */ new section&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Buenas tardes,&lt;br /&gt;
&lt;br /&gt;
Me gustaría proponer una entrada haciendo referencia a la matriz de paridad, una vez que se ha hablado de la matriz generadora:&lt;br /&gt;
&lt;br /&gt;
La matriz de paridad es una herramienta esencial en la teoría de códigos de corrección de errores. Se utiliza para verificar si un mensaje recibido es una palabra de código válida.&lt;br /&gt;
&lt;br /&gt;
Para calcular la matriz de paridad, primero necesitamos tener una matriz generadora de un código. Supongamos que tenemos una matriz generadora G de un código binario. Si G es una matriz k x n, entonces su forma estándar es G = [Ik | A], donde Ik es la matriz identidad de tamaño k x k y A es una matriz k x (n-k).&lt;br /&gt;
&lt;br /&gt;
La matriz de paridad H asociada a G es una matriz (n-k) x n y se calcula como H = [A^T | In-k], donde A^T es la transposición de A e In-k es la matriz identidad de tamaño (n-k) x (n-k).&lt;br /&gt;
&lt;br /&gt;
Por lo tanto, una vez que tenemos la matriz generadora, podemos calcular la matriz de paridad utilizando la fórmula anterior.&lt;br /&gt;
&lt;br /&gt;
Es importante mencionar que la matriz de paridad se puede usar para verificar si un mensaje que recibimos es una palabra de código válida: un vector de columna x es una palabra clave si y solo si Hx = 0.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Fuente:&lt;br /&gt;
&lt;br /&gt;
= Libro: Teoría de la Información y Codificación. 2ª Ed. =&lt;br /&gt;
ISBN: 978-84-8408-732-8&lt;br /&gt;
&lt;br /&gt;
== A/A Óscar Montalvo: Supresión de mensajes de &amp;quot;Discusión&amp;quot; ==&lt;br /&gt;
&lt;br /&gt;
Buenas tardes Óscar,&lt;br /&gt;
&lt;br /&gt;
Revisando los mensajes de esta página de &amp;quot;Discusión&amp;quot; he percibido que el pasado 21 de diciembre eliminaste todo el histórico de mensajes hasta la fecha.&lt;br /&gt;
Entiendo que ha sido por algún error, por favor, ¿podrías confirmar si se produjo el borrado por error o si lo hiciste de forma justificada?&lt;br /&gt;
&lt;br /&gt;
PS: No creo que pase nada si se ha borrado por error, pues la propia plataforma guarda los cambios y no creo que nos cueste mucho el recuperarlos.&lt;br /&gt;
&lt;br /&gt;
Atentamente,&lt;br /&gt;
&lt;br /&gt;
--[[User:Julio Garvía Honrado|Julio Garvía Honrado]] ([[User talk:Julio Garvía Honrado|talk]]) 18:59, 22 December 2023 (CET)&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft_talk:Entrop%C3%ADa_condicional&amp;diff=9187</id>
		<title>Draft talk:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft_talk:Entrop%C3%ADa_condicional&amp;diff=9187"/>
		<updated>2023-12-22T17:02:39Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: /* Respuesta a José María Díaz Nafría */ new section&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Estimado Julio:&lt;br /&gt;
&lt;br /&gt;
Muchas gracias por tu contribución, con la que se puede completar lo que se refiere en los otros artículos relativos a la entropía o cantidad de información. No obstante, sería importante establecer relación con ellas, cosa que te es fácil porque haces uso de ambas definiciones.&lt;br /&gt;
&lt;br /&gt;
En cuanto a las relaciones de la regla de la cadena como al diagrama que presentas observa que no son correctos. En el diagrama de Venn se ve claramente que no se trata de una desiguadad sino una igualdad. Por otra parte, cuando se introduce una figura es importante usar referencias en el texto. Por ejemplo, como se puede ver en la figura 1 (no te preocupe que solo haya una).&lt;br /&gt;
&lt;br /&gt;
Creo que se podría dar una explicación que aclararse el significado práctico (observa como en el artículo sobre entropía se da una interpretación más amplia).&lt;br /&gt;
&lt;br /&gt;
Un saludo,&lt;br /&gt;
&lt;br /&gt;
[[User:JDíaz|JDíaz]] ([[User talk:JDíaz|talk]]) 13:06, 20 December 2023 (CET)&lt;br /&gt;
&lt;br /&gt;
== Respuesta a José María Díaz Nafría ==&lt;br /&gt;
&lt;br /&gt;
Buenas tardes José María,&lt;br /&gt;
&lt;br /&gt;
Muchas gracias por tus correcciones y sugerencias para mejorar el artículo, tras implementarlas, el artículo parece más completo.&lt;br /&gt;
&lt;br /&gt;
Atentamente,&lt;br /&gt;
&lt;br /&gt;
--[[User:Julio Garvía Honrado|Julio Garvía Honrado]] ([[User talk:Julio Garvía Honrado|talk]]) 18:02, 22 December 2023 (CET)&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9186</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9186"/>
		<updated>2023-12-22T16:59:58Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: /* Referencias */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt; [1] &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|&#039;&#039;&#039;Figura 1:&#039;&#039;&#039; Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;, en general&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes (véase, &#039;&#039;Figura 1&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Interpretaciones ==&lt;br /&gt;
Según Cuevas&amp;lt;ref&amp;gt;Cuevas Agustín, G (1975). &#039;&#039;Teoría de la información, codificación y lenguajes&#039;&#039;. Servicio de Publicaciones del Ministerio de Educación y Ciencia.&amp;lt;/ref&amp;gt;, si la información a la salida de un canal de transmisión es conocida, subyace una cierta incertidumbre sobre la información en la entrada que la ha originado, debido al ruido. El valor medio de esta incertidumbre se conoce como entropía del campo &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; condicionado por el campo &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, y la representamos como &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Para determinar la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; se puede considerar que:&lt;br /&gt;
* si el símbolo &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; aparece a la salida del canal, existe una incertidumbre sobre el símbolo emitido a la entrada. Esto es, éste puede ser &amp;lt;math&amp;gt;x_1, x_2, x_3, ..., x_i&amp;lt;/math&amp;gt;, entonces&lt;br /&gt;
* la probabilidad de que se haya transmitido el símbolo &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; a la entrada del canal cuando a la salida aparece &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; es &amp;lt;math&amp;gt;p(x_i|y_j) = \frac{p(x_i,y_j)}{p(y_j)}&amp;lt;/math&amp;gt;, es decir, la probabilidad que existe de que se transmita &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; y se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; [ &amp;lt;math&amp;gt;p(x_i,y_j)&amp;lt;/math&amp;gt;] es igual a la probabilidad de que se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; por la probabilidad de que habiendo recibido &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; sea &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; el símbolo transmitido.&lt;br /&gt;
&lt;br /&gt;
La entropía existente a la recepción del símbolo &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; se expresa como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y = y_j) = \sum_{i=1}^n p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Y el valor medio de esta entropía para todos los valores posibles de &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; quedaría representada matemáticamente como la fórmula [1] descrita en la definición de la entropía condicional.&lt;br /&gt;
&lt;br /&gt;
Podríamos denominar a la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; como &#039;&#039;ambigüedad&#039;&#039; o &#039;&#039;equívoco&#039;&#039;, al tratarse de una medida de la incertidumbre sobre la información a la entrada del canal cuando a la salida ésta es conocida. &lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9185</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9185"/>
		<updated>2023-12-22T16:58:36Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Referencia bibliográfica a Gonzalo Cuevas Agustín y modificaciones menores de formato.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt; [1] &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|&#039;&#039;&#039;Figura 1:&#039;&#039;&#039; Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;, en general&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes (véase, &#039;&#039;Figura 1&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Interpretaciones ==&lt;br /&gt;
Según Cuevas&amp;lt;ref&amp;gt;Cuevas Agustín, G (1975). &#039;&#039;Teoría de la información, codificación y lenguajes&#039;&#039;. Servicio de Publicaciones del Ministerio de Educación y Ciencia.&amp;lt;/ref&amp;gt;, si la información a la salida de un canal de transmisión es conocida, subyace una cierta incertidumbre sobre la información en la entrada que la ha originado, debido al ruido. El valor medio de esta incertidumbre se conoce como entropía del campo &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; condicionado por el campo &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, y la representamos como &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Para determinar la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; se puede considerar que:&lt;br /&gt;
* si el símbolo &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; aparece a la salida del canal, existe una incertidumbre sobre el símbolo emitido a la entrada. Esto es, éste puede ser &amp;lt;math&amp;gt;x_1, x_2, x_3, ..., x_i&amp;lt;/math&amp;gt;, entonces&lt;br /&gt;
* la probabilidad de que se haya transmitido el símbolo &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; a la entrada del canal cuando a la salida aparece &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; es: &amp;lt;math&amp;gt;p(x_i|y_j) = \frac{p(x_i,y_j)}{p(y_j)}&amp;lt;/math&amp;gt;, es decir, la probabilidad que existe de que se transmita &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; y se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; [ &amp;lt;math&amp;gt;p(x_i,y_j)&amp;lt;/math&amp;gt;] es igual a la probabilidad de que se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; por la probabilidad de que habiendo recibido &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; sea &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; el símbolo transmitido.&lt;br /&gt;
&lt;br /&gt;
La entropía existente a la recepción del símbolo &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; se expresa como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y = y_j) = \sum_{i=1}^n p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Y el valor medio de esta entropía para todos los valores posibles de &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; quedaría representada matemáticamente como la fórmula [1] descrita en la definición de la entropía condicional.&lt;br /&gt;
&lt;br /&gt;
Podríamos denominar a la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; como &#039;&#039;ambigüedad&#039;&#039; o &#039;&#039;equívoco&#039;&#039;, al tratarse de una medida de la incertidumbre sobre la información a la entrada del canal cuando a la salida ésta es conocida. &lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9184</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9184"/>
		<updated>2023-12-22T16:47:01Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Interpretación del concepto de entropía condicional basada en bibliografía de Gonzalo Cuevas Agustín (ISBN: 84-369-0434-6)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt; [1] &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|&#039;&#039;&#039;Figura 1:&#039;&#039;&#039; Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;, en general&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes (véase, &#039;&#039;Figura 1&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Interpretaciones ==&lt;br /&gt;
Según Cuevas, si la información a la salida de un canal de transmisión es conocida, subyace una cierta incertidumbre sobre la información en la entrada que la ha originado, debido al ruido. El valor medio de esta incertidumbre se conoce como entropía del campo &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; condicionado por el campo &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, y la representamos como &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Para determinar la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; se puede considerar que:&lt;br /&gt;
* si el símbolo &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; aparece a la salida del canal, existe una incertidumbre sobre el símbolo emitido a la entrada. Esto es, éste puede ser &amp;lt;math&amp;gt;x_1, x_2, x_3, ..., x_i&amp;lt;/math&amp;gt;, entonces &lt;br /&gt;
* la probabilidad de que se haya transmitido el símbolo &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; a la entrada del canal cuando a la salida aparece &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; es:&lt;br /&gt;
&amp;lt;math&amp;gt;p(x_i|y_j) = \frac{p(x_i,y_j)}{p(y_j)}&amp;lt;/math&amp;gt;&lt;br /&gt;
es decir, la probabilidad que existe de que se transmita &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; y se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; - &amp;lt;math&amp;gt;p(x_i,y_j)&amp;lt;/math&amp;gt; - es igual a la probabilidad de que se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; por la probabilidad de que habiendo recibido &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; sea &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; el símbolo transmitido.  &lt;br /&gt;
&lt;br /&gt;
La entropía existente a la recepción del símbolo &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; se expresa como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y = y_j) = \sum_{i=1}^n p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
el valor medio de esta entropía para todos los valores posibles de &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; quedaría representada matemáticamente como la fórmula [1] descrita en la definición de la entropía condicional.&lt;br /&gt;
&lt;br /&gt;
Podríamos denominar a la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; como &#039;&#039;ambigüedad&#039;&#039; o &#039;&#039;equívoco&#039;&#039;, al tratarse de una medida de la incertidumbre sobre la información a la entrada del canal cuando a la salida ésta es conocida. &lt;br /&gt;
&lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9183</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9183"/>
		<updated>2023-12-22T15:58:21Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|&#039;&#039;&#039;Figura 1:&#039;&#039;&#039; Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;, en general&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes (véase, &#039;&#039;Figura 1&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Venn-r_cadena-ent_conjunta_condicional.png&amp;diff=9182</id>
		<title>File:Venn-r cadena-ent conjunta condicional.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Venn-r_cadena-ent_conjunta_condicional.png&amp;diff=9182"/>
		<updated>2023-12-22T15:54:55Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Julio Garvía Honrado uploaded a new version of File:Venn-r cadena-ent conjunta condicional.png&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9181</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9181"/>
		<updated>2023-12-22T15:51:46Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Correcciones en desigualdades de regla de la cadena.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|&#039;&#039;&#039;Figura 1:&#039;&#039;&#039; Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;, en general&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes (véase, &#039;&#039;Figura 1&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9169</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9169"/>
		<updated>2023-12-21T13:10:40Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Incorporación de enlaces a los conceptos de entropía individual y conjunta.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|&#039;&#039;&#039;Figura 1:&#039;&#039;&#039; Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Venn-r_cadena-ent_conjunta_condicional.png&amp;diff=9168</id>
		<title>File:Venn-r cadena-ent conjunta condicional.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Venn-r_cadena-ent_conjunta_condicional.png&amp;diff=9168"/>
		<updated>2023-12-21T13:08:23Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Incorporación de enlaces a los conceptos de entropía individual y conjunta.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9139</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9139"/>
		<updated>2023-12-20T00:09:27Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9138</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9138"/>
		<updated>2023-12-20T00:06:23Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9137</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9137"/>
		<updated>2023-12-20T00:00:18Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* [[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&amp;lt;math&amp;gt;H(X,Y) \leq H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Venn-r_cadena-ent_conjunta_condicional.png&amp;diff=9136</id>
		<title>File:Venn-r cadena-ent conjunta condicional.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Venn-r_cadena-ent_conjunta_condicional.png&amp;diff=9136"/>
		<updated>2023-12-19T23:59:26Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Representaci%C3%B3n_gr%C3%A1fica_de_la_entrop%C3%ADa_conjunta_a_partir_de_la_entrop%C3%ADa_condicional_por_la_regla_de_la_cadena.png&amp;diff=9135</id>
		<title>File:Representación gráfica de la entropía conjunta a partir de la entropía condicional por la regla de la cadena.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Representaci%C3%B3n_gr%C3%A1fica_de_la_entrop%C3%ADa_conjunta_a_partir_de_la_entrop%C3%ADa_condicional_por_la_regla_de_la_cadena.png&amp;diff=9135"/>
		<updated>2023-12-19T23:53:28Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Representación gráfica a través de diagramas de Venn de la entropía conjunta a partir de la entropía condicional por la regla de la cadena&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9134</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9134"/>
		<updated>2023-12-19T22:03:43Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Supresión de referencia en el título&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9133</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9133"/>
		<updated>2023-12-19T22:00:27Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Modificaciones para no repetir expresiones matemáticas.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición==&lt;br /&gt;
La &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias.  &lt;br /&gt;
&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta===&lt;br /&gt;
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir dos variables aleatorias discretas&lt;br /&gt;
X = [1, 2, 3]; % Valores posibles para la variable X&lt;br /&gt;
Y = [4, 5, 6]; % Valores posibles para la variable Y&lt;br /&gt;
&lt;br /&gt;
% Definir las probabilidades conjuntas P(X, Y)&lt;br /&gt;
P = [0.1, 0.2, 0.1; 0.2, 0.1, 0.1; 0.1, 0.1, 0.1];&lt;br /&gt;
&lt;br /&gt;
% Calcular la entropía conjunta H(X, Y)&lt;br /&gt;
H = -sum(sum(P .* log2(P + eps))); % &#039;eps&#039; se agrega para evitar el logaritmo de cero&lt;br /&gt;
&lt;br /&gt;
% Mostrar los resultados&lt;br /&gt;
disp(&#039;Probabilidades conjuntas:&#039;);&lt;br /&gt;
disp(P);&lt;br /&gt;
disp([&#039;Entropía conjunta H(X, Y): &#039;, num2str(H)]);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Utilizando la expresión matemática definida anteriormente, este código calcula la entropía conjunta utilizando como parámetros de entrada:&lt;br /&gt;
&lt;br /&gt;
* dos variables aleatorias discretas, &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, con valores posibles &amp;lt;math&amp;gt;[1, 2, 3]&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;[4, 5, 6]&amp;lt;/math&amp;gt;, respectivamente, y&lt;br /&gt;
* las probabilidades conjuntas en la matriz &amp;lt;math&amp;gt;P&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Referencias ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9132</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9132"/>
		<updated>2023-12-19T21:46:35Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición==&lt;br /&gt;
La &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt; {{anclar|FomulaEntropiaConjunta}}&lt;br /&gt;
&lt;br /&gt;
===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta===&lt;br /&gt;
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
Vamos a mostrar un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables discretas.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir dos variables aleatorias discretas&lt;br /&gt;
X = [1, 2, 3]; % Valores posibles para la variable X&lt;br /&gt;
Y = [4, 5, 6]; % Valores posibles para la variable Y&lt;br /&gt;
&lt;br /&gt;
% Definir las probabilidades conjuntas P(X, Y)&lt;br /&gt;
P = [0.1, 0.2, 0.1; 0.2, 0.1, 0.1; 0.1, 0.1, 0.1];&lt;br /&gt;
&lt;br /&gt;
% Calcular la entropía conjunta H(X, Y)&lt;br /&gt;
H = -sum(sum(P .* log2(P + eps))); % &#039;eps&#039; se agrega para evitar el logaritmo de cero&lt;br /&gt;
&lt;br /&gt;
% Mostrar los resultados&lt;br /&gt;
disp(&#039;Probabilidades conjuntas:&#039;);&lt;br /&gt;
disp(P);&lt;br /&gt;
disp([&#039;Entropía conjunta H(X, Y): &#039;, num2str(H)]);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Este código define dos variables aleatorias discretas, x e y, con valores posibles [1, 2, 3] y [4, 5, 6], respectivamente. Luego, define las probabilidades conjuntas en la matriz P. La entropía conjunta se calcula utilizando la fórmula de entropía definida en [[#FomulaEntropiaConjunta|enlace]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
H(X,Y)= -(\sum)x(\sum)y*P(x,y)*\log2(P(x,y))&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Donde P(x,y) es la probabilidad conjunta de los valores x e y de las variables X e Y. &lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9131</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9131"/>
		<updated>2023-12-19T21:34:49Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Ajuste de formato, eliminación de información redundante y referencias no válidas.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición==&lt;br /&gt;
La &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;===&lt;br /&gt;
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Vamos a mostrar un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables discretas.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir dos variables aleatorias discretas&lt;br /&gt;
X = [1, 2, 3]; % Valores posibles para la variable X&lt;br /&gt;
Y = [4, 5, 6]; % Valores posibles para la variable Y&lt;br /&gt;
&lt;br /&gt;
% Definir las probabilidades conjuntas P(X, Y)&lt;br /&gt;
P = [0.1, 0.2, 0.1; 0.2, 0.1, 0.1; 0.1, 0.1, 0.1];&lt;br /&gt;
&lt;br /&gt;
% Calcular la entropía conjunta H(X, Y)&lt;br /&gt;
H = -sum(sum(P .* log2(P + eps))); % &#039;eps&#039; se agrega para evitar el logaritmo de cero&lt;br /&gt;
&lt;br /&gt;
% Mostrar los resultados&lt;br /&gt;
disp(&#039;Probabilidades conjuntas:&#039;);&lt;br /&gt;
disp(P);&lt;br /&gt;
disp([&#039;Entropía conjunta H(X, Y): &#039;, num2str(H)]);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Este código define dos variables aleatorias discretas, x e y, con valores posibles [1, 2, 3] y [4, 5, 6], respectivamente. Luego, define las probabilidades conjuntas en la matriz P. La entropía conjunta se calcula utilizando la fórmula de entropía:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
H(X,Y)= -(\sum)x(\sum)y*P(x,y)*\log2(P(x,y))&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Donde P(x,y) es la probabilidad conjunta de los valores x e y de las variables X e Y. &lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9130</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9130"/>
		<updated>2023-12-19T21:26:38Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
La &amp;lt;u&amp;gt;entropía conjunta&amp;lt;/u&amp;gt; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias. Si X e Y son independientes, la entropía conjunta es igual al producto de sus entropías individuales. Sin embargo, si X e Y están correlacionadas, será menor que la suma de las entropías individuales, ya que parte de la información se comparte entre ellas.&amp;lt;ref&amp;gt;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;===&lt;br /&gt;
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Código=&lt;br /&gt;
Vamos a mostrar un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables discretas.&amp;lt;ref&amp;gt;MathWorks.(1994-2023).Manuales de Referencia.&amp;lt;/ref&amp;gt;&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir dos variables aleatorias discretas&lt;br /&gt;
X = [1, 2, 3]; % Valores posibles para la variable X&lt;br /&gt;
Y = [4, 5, 6]; % Valores posibles para la variable Y&lt;br /&gt;
&lt;br /&gt;
% Definir las probabilidades conjuntas P(X, Y)&lt;br /&gt;
P = [0.1, 0.2, 0.1; 0.2, 0.1, 0.1; 0.1, 0.1, 0.1];&lt;br /&gt;
&lt;br /&gt;
% Calcular la entropía conjunta H(X, Y)&lt;br /&gt;
H = -sum(sum(P .* log2(P + eps))); % &#039;eps&#039; se agrega para evitar el logaritmo de cero&lt;br /&gt;
&lt;br /&gt;
% Mostrar los resultados&lt;br /&gt;
disp(&#039;Probabilidades conjuntas:&#039;);&lt;br /&gt;
disp(P);&lt;br /&gt;
disp([&#039;Entropía conjunta H(X, Y): &#039;, num2str(H)]);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Este código define dos variables aleatorias discretas, x e y, con valores posibles [1, 2, 3] y [4, 5, 6], respectivamente. Luego, define las probabilidades conjuntas en la matriz P. La entropía conjunta se calcula utilizando la fórmula de entropía:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
H(X,Y)= -(\sum)x(\sum)y*P(x,y)*\log2(P(x,y))&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Donde P(x,y) es la probabilidad conjunta de los valores x e y de las variables X e Y. &lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9105</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9105"/>
		<updated>2023-12-18T17:14:30Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Ajustes de formato y correcciones menores&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) \leq H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9104</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=9104"/>
		<updated>2023-12-18T17:07:26Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Entropía condicional y propiedades&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Interpretación 1&lt;br /&gt;
La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Interpretación 2&lt;br /&gt;
La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Propiedades de la entropía condicional&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;&lt;br /&gt;
Regla de la cadena&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y|X) = H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Talk:Entrop%C3%ADa_conjunta&amp;diff=9009</id>
		<title>Talk:Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Talk:Entrop%C3%ADa_conjunta&amp;diff=9009"/>
		<updated>2023-12-18T13:28:39Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Comentarios de formato, estructura y conceptos&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Buenos días Irene,&lt;br /&gt;
&lt;br /&gt;
Muchas gracias por tu aportación al borrador que me he tomado la libertad de aportar sobre el concepto de &amp;quot;entropía conjunta&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Me gustaría realizar unas observaciones en las que pudiera mostrar una cierta discrepancia y que hago saber a través de este hilo de discusión a fin de que Alejandro García Tejero o José María Díaz Nafría puedan aportarnos su punto de vista.&lt;br /&gt;
&lt;br /&gt;
# No me parece del todo correcto el aplicar la etiqueta de formato &amp;quot;&amp;lt;nowiki&amp;gt;&amp;lt;big&amp;gt;&amp;quot; a todo el texto del artículo, pues rompe con el estilo seguido para el resto de artículos ya publicados. Puedo entender que el texto se pueda llegar a visualizar un tanto pequeño en ciertas resoluciones de pantalla, pero afortunadamente los navegadores actuales cumplen con las recomendaciones de accesibilidad WCAG 2.1 (e incluso con la más reciente 2.2) y permiten agrandarlo sin problema y sin necesidad de tener que modificar el formato original.&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
# Al subrayar el texto de &amp;quot;entropía conjunta&amp;quot; da la falsa sensación de ser un link a otra página cuando en realidad no lo es. En mi humilde opinión, sería más correcto ponerlo en letra cursiva.&lt;br /&gt;
# La mención que realizas en el primer párrafo sobre la relación entre entropías individuales y conjunta ya se encontraba reflejada en la primera versión del borrador, con lo que considero humildemente que pudiera resultar una información redundante en este punto.&lt;br /&gt;
# Cuando mencionas &amp;quot;Si X e Y son independientes, la entropía conjunta es igual &#039;&#039;&#039;al producto&#039;&#039;&#039; de sus entropías individuales.&amp;quot;, entiendo que quieres indicar que &amp;quot;Si X e Y son independientes, la entropía conjunta es igual &#039;&#039;&#039;a la suma&#039;&#039;&#039; de sus entropías individuales.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Muchas gracias por tu aportación e interés en el artículo que he iniciado y que confío en que podamos seguir mejorando entre todos.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Atentamente,&lt;br /&gt;
&lt;br /&gt;
[[User:Julio Garvía Honrado|Julio Garvía Honrado]] ([[User talk:Julio Garvía Honrado|talk]]) 14:28, 18 December 2023 (CET)&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=8996</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=8996"/>
		<updated>2023-12-16T19:56:10Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Incorporación de categorías&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; ===&lt;br /&gt;
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=8995</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=8995"/>
		<updated>2023-12-16T19:54:23Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: Entropía conjunta - Definición y teorema de relación con las entropías individuales&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt; ===&lt;br /&gt;
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Talk:Codificaci%C3%B3n_de_bloque&amp;diff=8950</id>
		<title>Talk:Codificación de bloque</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Talk:Codificaci%C3%B3n_de_bloque&amp;diff=8950"/>
		<updated>2023-12-13T14:31:05Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: /* ¿Aportaría valor añadir la diferenciación entre códigos de longitud variable vs. longitud constante? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Revisión del docente a la primera contribución en asignatura ==&lt;br /&gt;
Estimada Covadonga:&lt;br /&gt;
&lt;br /&gt;
Gracias por la contribución, que abre la posibilidad a considerar la codificación de fuente desde más ángulos. No obstante, en cuanto a clarificación de conceptos veo a esta contribución dos problemas fundamentales: lo primero es que debe delinearse bien la diferencia con la codificación de bloque de la codificación de canal que además de ser el contexto más habilitual en el que se habla de codificación de bloque, es muy diferente a la aquí referida e incluso de signo contrari (ya que mientras la de canal aumenta el régimen binario, esta lo que persigue es reducirlo). Segundo, como se trata de una técnica que se ubica entre las de [[codificación de fuente]], debe establecerse una referencia especifica a lo discutido en el artículo homónimo, mientras que la codificación aquí tratada  se refiere a la [[cuantificación]], donde no se abordan los problemas genéricos de la codificación de fuente, y por tanto, sería bueno establer una relación significativa con este otro artículo. Por otra parte, como en el artículo de [[codificación de fuente]] se hace una categorización genérica sería preciso 1.º) corregir los defectos del articulo de codificación de fuente (consignados en el dicho artículo), y 2º) ampliarlo o precisarlo de modo que la solución de la &#039;codificación de bloques&#039; quede especificada dentro de la categorización general. &lt;br /&gt;
&lt;br /&gt;
Por otra parte &#039;mapear&#039; no es un término generalmente aceptado en nuestra lengua (aunque a veces se emplee por no saber como traducirlo mejor), mientras que en castellano la expresión más correcta es a veces &#039;representación&#039;, a veces, &#039;transformación&#039;, siendo en este caso la 2ª acepción quizá la más apropiada. Se transforma la señal de un espacio de representación a otro. Para la utilización de los patrones de enmascaramiento a los que nos hemos referido en el en el artículo de [[señal de audio]] se recurre precisamente a la expresión de la señal en un subespacio en el que podemos aplicar dichos patrones. Por otra parte, traduces &#039;channelization coder&#039; como &#039;código de canal&#039;, sin embargo, se refiere a cosas diferentes y es importante no confundirlo, los códigos de canalización se usan normalmente en el contexto de espectro ensanchado y los códigos de canal (de bloque o convolucional) operan de modo muy diferente a lo requerido en codificación de fuente que, en términos generales, lo que busca es un espacio de representación de la señal digital que requiera el mínimo de recursos de transmisión mediante una minimización del flujo binario la salida del coficador de fuente.&lt;br /&gt;
&lt;br /&gt;
Cordialmente,&lt;br /&gt;
&lt;br /&gt;
[[User:JDíaz|JDíaz]] ([[Usuario discusión:JDíaz|discusión]]) 11:58, 9 jun 2023 (UTC)&lt;br /&gt;
&lt;br /&gt;
== Revisión para su cualificación a una categoría superior ==&lt;br /&gt;
&lt;br /&gt;
Tras haber ampliado los contenidos de clarificación inicialmente elaborados dentro de una asignatura, se considera que ofrece ahora una visión más amplia que de ser aprobada por otro experto del área de teoría de la señal y la comunicación podría ascender a la categoría de dicha área de conocimiento.&lt;br /&gt;
&lt;br /&gt;
[[User:JDíaz|JDíaz]] ([[User talk:JDíaz|talk]]) 23:57, 27 November 2023 (CET)&lt;br /&gt;
&lt;br /&gt;
==Revisión==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Revisor&#039;&#039;&#039;: [[User:Alejandro García Tejero]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Comentarios&#039;&#039;&#039;: &lt;br /&gt;
&lt;br /&gt;
* Recomendaría una figura adicional para la parte de &#039;&#039;&#039;Codificación de bloque para el control de errores&#039;&#039;&#039; que explique como se transforma el código de entrada en el código e salida con redundancia. Similar a esta parte: [https://www.youtube.com/watch?v=9JQ_wxPBcKg video de ejemplo]&lt;br /&gt;
* El resto es comprensible y estaría listo para su aprobación.&lt;br /&gt;
&#039;&#039;&#039;Decisión respecto a su publicación&#039;&#039;&#039;:   Aceptar con modificaciones que no es necesario volver a revisar&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Firma&#039;&#039;&#039;: [[User:Alejandro García Tejero]] ([[User:Alejandro García Tejero|talk]]), 8 December 2023 (CET)&lt;br /&gt;
== Respuesta a la revisión ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Autor responsable&#039;&#039;&#039;: [[User:JDíaz]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Respuesta a la revisión&#039;&#039;&#039;: &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Firma&#039;&#039;&#039;: &amp;lt;!--Añadir firma mediante la simple concatenación de cuatro tildes: ~~~~, fuera de zona de comentario --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== ¿Aportaría valor añadir la diferenciación entre códigos de longitud variable vs. longitud constante? ==&lt;br /&gt;
&lt;br /&gt;
Buenas tardes,&lt;br /&gt;
&lt;br /&gt;
A efectos de completar el apartado &amp;quot;2. Codificación de bloque de fuentes discretas&amp;quot;, ¿podríamos tomar en consideración el añadir antes de la &amp;quot;Definición 1&amp;quot; una breve descripción sobre códigos de longitud variable y constante?&lt;br /&gt;
&lt;br /&gt;
Por ejemplo, con un texto similar a que sigue:&lt;br /&gt;
&lt;br /&gt;
De forma general y atendiendo a la longitud de una palabra del código, se tienen:&lt;br /&gt;
&lt;br /&gt;
* Códigos de longitud constante, si todas las palabras del código constan del mismo número de elementos del alfabeto de codificación &amp;lt;math&amp;gt;\mathcal{D}&amp;lt;/math&amp;gt;.&lt;br /&gt;
* Códigos de longitud variable, si existen palabras del código con diferente número de elementos del alfabeto de codificación &amp;lt;math&amp;gt;\mathcal{D}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Espero que la sugerencia pueda aportar más valor al contenido actual.&lt;br /&gt;
&lt;br /&gt;
Atentamente&lt;br /&gt;
&lt;br /&gt;
[[User:Julio Garvía Honrado|Julio Garvía Honrado]] ([[User talk:Julio Garvía Honrado|talk]]) 15:31, 13 December 2023 (CET)&lt;br /&gt;
&lt;br /&gt;
[[Category:Article]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Talk:Codificaci%C3%B3n_de_bloque&amp;diff=8949</id>
		<title>Talk:Codificación de bloque</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Talk:Codificaci%C3%B3n_de_bloque&amp;diff=8949"/>
		<updated>2023-12-13T14:29:04Z</updated>

		<summary type="html">&lt;p&gt;Julio Garvía Honrado: /* ¿Aportaría valor añadir la diferenciación entre códigos de longitud variable vs. longitud constante? */ new section&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Revisión del docente a la primera contribución en asignatura ==&lt;br /&gt;
Estimada Covadonga:&lt;br /&gt;
&lt;br /&gt;
Gracias por la contribución, que abre la posibilidad a considerar la codificación de fuente desde más ángulos. No obstante, en cuanto a clarificación de conceptos veo a esta contribución dos problemas fundamentales: lo primero es que debe delinearse bien la diferencia con la codificación de bloque de la codificación de canal que además de ser el contexto más habilitual en el que se habla de codificación de bloque, es muy diferente a la aquí referida e incluso de signo contrari (ya que mientras la de canal aumenta el régimen binario, esta lo que persigue es reducirlo). Segundo, como se trata de una técnica que se ubica entre las de [[codificación de fuente]], debe establecerse una referencia especifica a lo discutido en el artículo homónimo, mientras que la codificación aquí tratada  se refiere a la [[cuantificación]], donde no se abordan los problemas genéricos de la codificación de fuente, y por tanto, sería bueno establer una relación significativa con este otro artículo. Por otra parte, como en el artículo de [[codificación de fuente]] se hace una categorización genérica sería preciso 1.º) corregir los defectos del articulo de codificación de fuente (consignados en el dicho artículo), y 2º) ampliarlo o precisarlo de modo que la solución de la &#039;codificación de bloques&#039; quede especificada dentro de la categorización general. &lt;br /&gt;
&lt;br /&gt;
Por otra parte &#039;mapear&#039; no es un término generalmente aceptado en nuestra lengua (aunque a veces se emplee por no saber como traducirlo mejor), mientras que en castellano la expresión más correcta es a veces &#039;representación&#039;, a veces, &#039;transformación&#039;, siendo en este caso la 2ª acepción quizá la más apropiada. Se transforma la señal de un espacio de representación a otro. Para la utilización de los patrones de enmascaramiento a los que nos hemos referido en el en el artículo de [[señal de audio]] se recurre precisamente a la expresión de la señal en un subespacio en el que podemos aplicar dichos patrones. Por otra parte, traduces &#039;channelization coder&#039; como &#039;código de canal&#039;, sin embargo, se refiere a cosas diferentes y es importante no confundirlo, los códigos de canalización se usan normalmente en el contexto de espectro ensanchado y los códigos de canal (de bloque o convolucional) operan de modo muy diferente a lo requerido en codificación de fuente que, en términos generales, lo que busca es un espacio de representación de la señal digital que requiera el mínimo de recursos de transmisión mediante una minimización del flujo binario la salida del coficador de fuente.&lt;br /&gt;
&lt;br /&gt;
Cordialmente,&lt;br /&gt;
&lt;br /&gt;
[[User:JDíaz|JDíaz]] ([[Usuario discusión:JDíaz|discusión]]) 11:58, 9 jun 2023 (UTC)&lt;br /&gt;
&lt;br /&gt;
== Revisión para su cualificación a una categoría superior ==&lt;br /&gt;
&lt;br /&gt;
Tras haber ampliado los contenidos de clarificación inicialmente elaborados dentro de una asignatura, se considera que ofrece ahora una visión más amplia que de ser aprobada por otro experto del área de teoría de la señal y la comunicación podría ascender a la categoría de dicha área de conocimiento.&lt;br /&gt;
&lt;br /&gt;
[[User:JDíaz|JDíaz]] ([[User talk:JDíaz|talk]]) 23:57, 27 November 2023 (CET)&lt;br /&gt;
&lt;br /&gt;
==Revisión==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Revisor&#039;&#039;&#039;: [[User:Alejandro García Tejero]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Comentarios&#039;&#039;&#039;: &lt;br /&gt;
&lt;br /&gt;
* Recomendaría una figura adicional para la parte de &#039;&#039;&#039;Codificación de bloque para el control de errores&#039;&#039;&#039; que explique como se transforma el código de entrada en el código e salida con redundancia. Similar a esta parte: [https://www.youtube.com/watch?v=9JQ_wxPBcKg video de ejemplo]&lt;br /&gt;
* El resto es comprensible y estaría listo para su aprobación.&lt;br /&gt;
&#039;&#039;&#039;Decisión respecto a su publicación&#039;&#039;&#039;:   Aceptar con modificaciones que no es necesario volver a revisar&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Firma&#039;&#039;&#039;: [[User:Alejandro García Tejero]] ([[User:Alejandro García Tejero|talk]]), 8 December 2023 (CET)&lt;br /&gt;
== Respuesta a la revisión ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Autor responsable&#039;&#039;&#039;: [[User:JDíaz]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Respuesta a la revisión&#039;&#039;&#039;: &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Firma&#039;&#039;&#039;: &amp;lt;!--Añadir firma mediante la simple concatenación de cuatro tildes: ~~~~, fuera de zona de comentario --&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== ¿Aportaría valor añadir la diferenciación entre códigos de longitud variable vs. longitud constante? ==&lt;br /&gt;
&lt;br /&gt;
Buenas tardes,&lt;br /&gt;
&lt;br /&gt;
A efectos de completar el apartado &amp;quot;2. Codificación de bloque de fuentes discretas&amp;quot;, ¿podríamos tomar en consideración el añadir antes de la &amp;quot;Definición 1&amp;quot; una breve descripción sobre códigos de longitud variable y constante?&lt;br /&gt;
&lt;br /&gt;
Por ejemplo, con un texto similar a que sigue:&lt;br /&gt;
&lt;br /&gt;
De forma general y atendiendo a la longitud de una palabra del código, se tienen:&lt;br /&gt;
- Códigos de longitud constante, si todas las palabras del código constan del mismo número de elementos del alfabeto de codificación &amp;lt;math&amp;gt;\mathcal{D}&amp;lt;/math&amp;gt;.&lt;br /&gt;
- Códigos de longitud variable, si existen palabras del código con diferente número de elementos del alfabeto de codificación &amp;lt;math&amp;gt;\mathcal{D}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Espero que la sugerencia pueda aportar más valor al contenido actual.&lt;br /&gt;
&lt;br /&gt;
Atentamente&lt;br /&gt;
&lt;br /&gt;
[[Category:Article]]&lt;/div&gt;</summary>
		<author><name>Julio Garvía Honrado</name></author>
	</entry>
</feed>