<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Alberto.esteban.sanchez</id>
	<title>glossaLAB - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Alberto.esteban.sanchez"/>
	<link rel="alternate" type="text/html" href="https://www.glossalab.org/wiki/Special:Contributions/Alberto.esteban.sanchez"/>
	<updated>2026-04-30T19:15:46Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.43.6</generator>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Multiplexaci%C3%B3n&amp;diff=12222</id>
		<title>Multiplexación</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Multiplexaci%C3%B3n&amp;diff=12222"/>
		<updated>2025-03-15T18:33:39Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: ordenación de los tipos de multiplexación y explicación básica de los tipos de TDM.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab_TSC&lt;br /&gt;
|Autores=José Antonio Salmerón Marín, [[User:Daniel Francisco Naranjo]]&lt;br /&gt;
|Docentes=[[User:JDíaz]]&lt;br /&gt;
|Observaciones=&lt;br /&gt;
* Sería conveniente ampliar el contenido hablando de la multiplexación estadística o asíncrona.&lt;br /&gt;
* Debe asegurarse que las figuras 3 y 4 estén libres de derechos de autor, o bien sustituirlas por imágenes que lo estén o de alaboración propia.&lt;br /&gt;
* Una de las referencias no es pública.&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Es la combinación de dos o más canales de información en un solo medio de transmisión usando un dispositivo llamado &#039;&#039;&#039;multiplexor&#039;&#039;&#039;. Permite así combinar en un mismo medio varias señales portadoras de información en un mismo medio de transmisión, distribuyendo entre ellas los recursos disponibles del medio.&amp;lt;ref name=&amp;quot;Díaz&amp;quot;/&amp;gt; &amp;lt;ref name=&amp;quot;Cerón&amp;quot;/&amp;gt; &amp;lt;ref name=&amp;quot;Benedito&amp;quot;/&amp;gt; Por lo tanto, la multiplexación permite compartir la capacidad de transmisión de información de un medio dado, cuyo límite superior viene determinado por la capacidad de canal de Shannon (ver [[Canal de transmisión|canal de transmisión]]), aumentando así la &#039;&#039;eficiencia&#039;&#039; de su uso y minimizando la cantidad de líneas físicas requeridas.&lt;br /&gt;
&lt;br /&gt;
[[File:MDF.png|thumbnail|&#039;&#039;&#039;Figura 1&#039;&#039;&#039;: Multiplexación por división en la frecuencia (Fuente: Wikimedia)]]&lt;br /&gt;
Existen los siguientes tipos de multiplexación:&lt;br /&gt;
&lt;br /&gt;
=== Por división en la &#039;&#039;&#039;frecuencia&#039;&#039;&#039; (MDF o FDM): ===&lt;br /&gt;
cada señal se modula para que ocupe diferentes bandas de frecuencia. Cada usuario tiene posesión exclusiva de su banda de frecuencia. Se debe tener en cuenta que el ancho de banda del medio debe ser mayor que el ancho de banda de la señal transmitida y que además se han de guardar bandas de guarda para facilitar la separación y evitar la interferencia entre bandas adyacentes.[[File:TDM.jpg|thumbnail|&#039;&#039;&#039;Figura 2&#039;&#039;&#039;: Multiplexación por división en el tiempo (Fuente: Wikimedia)]]&lt;br /&gt;
&lt;br /&gt;
=== Por división en el &#039;&#039;&#039;tiempo&#039;&#039;&#039; (MDT o TDM): ===&lt;br /&gt;
las muestras de la señal se distribuyen consecutivamente en los periodos entre muestras. Es una técnica para compartir el canal de transmisión entre varios usuarios. Cada usuario, durante unas determinadas “ranuras de tiempo”, dispone de la totalidad del ancho de banda.&lt;br /&gt;
&lt;br /&gt;
Existen dos tipos de TDM, síncrona y asíncrona.&lt;br /&gt;
&lt;br /&gt;
En la TDM síncrona se le asigna a cada usuario el mismo número de slots temporales y en el mismo orden, con independencia de si tienen información a transmitir o no. Si bien resulta útil saber en qué time slot transmite exactamente cada usuario, también tiene el inconveniente de la poca eficiencia a la hora de transmitir, ya que aquellos time slot de usuarios que no disponen de información a transmitir se quedan vacíos sin utilizar.&lt;br /&gt;
&lt;br /&gt;
En la TDM asíncrona se resuelve esta deficiencia. Si un usuario no va a hacer uso de su time slot porque no tiene información a transmitir, dicho time slot se asigna al siguiente usuario que sí la tenga. De esta forma, la transmisión de información es constante y se aprovechan todos los time slots. Sin embargo, el no tener un turno fijo de time slot cada usuario hace que sea necesaria introducir más información de control, limitando la eficacia de este tipo de TDM.&lt;br /&gt;
&lt;br /&gt;
=== Por división en la &#039;&#039;&#039;longitud de onda&#039;&#039;&#039; (WDM): ===&lt;br /&gt;
Se diseñó para utilizar la capacidad de alta tasa de datos de la fibra óptica. La idea es combinar múltiples haces de luz dentro de una única luz en el multiplexor, haciendo la operación inversa en el demultiplexor.&lt;br /&gt;
[[File:WDM operating principle.png|thumbnail|&#039;&#039;&#039;Figura 3&#039;&#039;&#039;: Multiplexación por división en longitud de onda]]&lt;br /&gt;
&lt;br /&gt;
=== Por división en el &#039;&#039;&#039;espacio&#039;&#039;&#039; (SDM): ===&lt;br /&gt;
También se conoce como acceso múltiple por división de espacio. En esta técnica se utilizan varios medios físicos, separados unos de otros (aislamiento, guías de onda, espacios) y contenidos en un medio mayor.&lt;br /&gt;
[[File:CDM.jpg|thumbnail|&#039;&#039;&#039;Figura 4&#039;&#039;&#039;: Multiplexación por división en el código]]&lt;br /&gt;
&lt;br /&gt;
=== Por división en el &#039;&#039;&#039;código&#039;&#039;&#039; (CDM): ===&lt;br /&gt;
Basado en la tecnología de espectro expandido, por el que a cada transmisor se le asigna un código único, escogido de forma que sea ortogonal respecto al del resto. La señal se emite con un ancho de banda mucho mayor que el precisado por los datos a transmitir. Por este motivo, la división por código es una técnica de acceso múltiple de espectro expandido.&lt;br /&gt;
&lt;br /&gt;
=== &#039;&#039;&#039;Estadística&#039;&#039;&#039; o asíncrona:&amp;lt;ref&amp;gt;Santos González, M. (2015). &#039;&#039;Diseño de redes telemáticas:&#039;&#039; ( ed.). RA-MA Editorial. &amp;lt;nowiki&amp;gt;https://elibro.net/en/ereader/udima/62506?page=74&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; ===&lt;br /&gt;
Se trata de una multiplexación del tipo a la de división en el tiempo, con la diferencia de que no se asigna una &amp;quot;ranura de tiempo&amp;quot; fija a cada canal sino que cada ranura de tiempo de la trama se ocupará por el canal que tenga información a transmitir. Por tanto, en este método de multiplexación el número de &amp;quot;ranuras de tiempo&amp;quot; no se asocia al número de canales que comparten el medio sino al número de canales que estadísticamente transmiten simultáneamente,  de esta forma se obtiene un mayor aprovechamiento de la capacidad del medio. Como inconvenientes tiene la complejidad de implementación, ya que requerirá de memorias de almacenamiento para cubrir posibles congestiones además de la información que debe llevar asociada cada &amp;quot;ranura de tiempo&amp;quot; para saber a que canal corresponde la información.  Estas características hacen de la multiplexación estadística, un método muy válido para transmisión de datos.&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
[[File:TDM síncrona.png|thumb|429x429px|Resultado gráfico del código que simula la TDM síncrona]]&lt;br /&gt;
En el siguiente código de Matlab ejemplificamos la multiplexación TDM síncrona. Se generan tres señales de diferentes tipos (senoidal, cuadrada y diente de sierra) y se asignan intervalos de tiempo fijos a cada señal de manera cíclica para simular la multiplexación por división de tiempo síncrona. La señal multiplexada se almacena en un solo vector. Finalmente se representan gráficamente las señales originales y la señal multiplexada mediante &amp;lt;code&amp;gt;stem&amp;lt;/code&amp;gt;, aplicando la base de tiempos correspondiente a cada caso.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de parámetros&lt;br /&gt;
fs = 100;  % Frecuencia de muestreo&lt;br /&gt;
t = 0:1/fs:1;  % Vector de tiempo original (1 segundo)&lt;br /&gt;
&lt;br /&gt;
% Definición de señales de entrada&lt;br /&gt;
s1 = sin(2*pi*5*t);     % Señal 1: Senoidal de 5 Hz&lt;br /&gt;
s2 = square(2*pi*3*t);  % Señal 2: Cuadrada de 3 Hz&lt;br /&gt;
s3 = sawtooth(2*pi*2*t); % Señal 3: Diente de sierra de 2 Hz&lt;br /&gt;
&lt;br /&gt;
% Multiplexación por división de tiempo (TDM)&lt;br /&gt;
N = length(t);  % Número de muestras por señal&lt;br /&gt;
t_mux = 0:1/fs:(3*N-1)/fs; % Base de tiempo para la multiplexada (3 segundos)&lt;br /&gt;
&lt;br /&gt;
mux_signal = zeros(1, 3*N);&lt;br /&gt;
mux_signal(1:3:end) = s1;  % Asignar muestras de la señal 1&lt;br /&gt;
mux_signal(2:3:end) = s2;  % Asignar muestras de la señal 2&lt;br /&gt;
mux_signal(3:3:end) = s3;  % Asignar muestras de la señal 3&lt;br /&gt;
&lt;br /&gt;
% Representación gráfica con stem&lt;br /&gt;
figure;&lt;br /&gt;
&lt;br /&gt;
subplot(2,1,1);&lt;br /&gt;
stem(t, s1, &#039;r&#039;); hold on;&lt;br /&gt;
stem(t, s2, &#039;g&#039;);&lt;br /&gt;
stem(t, s3, &#039;b&#039;);&lt;br /&gt;
title(&#039;Señales de Entrada&#039;);&lt;br /&gt;
legend(&#039;Señal 1&#039;, &#039;Señal 2&#039;, &#039;Señal 3&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo (s)&#039;);&lt;br /&gt;
ylabel(&#039;Amplitud&#039;);&lt;br /&gt;
xlim([0 1]);&lt;br /&gt;
&lt;br /&gt;
subplot(2,1,2);&lt;br /&gt;
stem(t_mux, mux_signal, &#039;k&#039;);&lt;br /&gt;
title(&#039;Señal Multiplexada (TDM)&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo (s)&#039;);&lt;br /&gt;
ylabel(&#039;Amplitud&#039;);&lt;br /&gt;
xlim([0 3]);&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
   &amp;lt;ref name=&amp;quot;Díaz&amp;quot;&amp;gt;&lt;br /&gt;
     Díaz Nafría, J.M. (2020). &#039;&#039;Unidad 1: Caracterización de la señal&#039;&#039;. Presentación disponible en el aula virtual de la asignatura &lt;br /&gt;
     “Sistemas de transmisión. Comunicaciones ópticas.” de la UDIMA.&lt;br /&gt;
   &amp;lt;/ref&amp;gt;&lt;br /&gt;
   &amp;lt;ref name=&amp;quot;Cerón&amp;quot;&amp;gt;&lt;br /&gt;
     Cerón López, M.T. (2019). Multiplexación. Presentación disponible en el blog &#039;&#039;Teoría de las telecomunicaciones&#039;&#039;. Recuperado el 22 de marzo de 2020, de&lt;br /&gt;
     https://teoriadelastelecomunicaciones.files.wordpress.com/2011/11/multiplexacion.pdf&lt;br /&gt;
   &amp;lt;/ref&amp;gt;&lt;br /&gt;
   &amp;lt;ref name=&amp;quot;Benedito&amp;quot;&amp;gt;&lt;br /&gt;
     Benedito Guerrero, C. (2009). Multiplexación, parte 1. Entrada en el blog &#039;&#039;Vida Teleeco&#039;&#039;. Recuperado el 22 de marzo de 2020, de&lt;br /&gt;
     https://vidateleco.wordpress.com/2009/09/16/multiplexacion-parte-1/&lt;br /&gt;
   &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Modulaci%C3%B3n_de_saltos_de_fase_(PSK)&amp;diff=12221</id>
		<title>Draft:Modulación de saltos de fase (PSK)</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Modulaci%C3%B3n_de_saltos_de_fase_(PSK)&amp;diff=12221"/>
		<updated>2025-03-15T18:10:05Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: Ordenación en tipos de PSK y explicación básica sobre QPSK&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición==&lt;br /&gt;
La modulación de saltos de fase (phase-shift keying, PSK) es un tipo de modulación paso banda. En estas modulaciones, la señal de información se convierte a una forma de onda senoidal. Esta señal posee tres características que se pueden emplear para distinguirlas de otras señales: amplitud, frecuencia y fase. De este modo, las modulaciones paso banda se pueden definir como el proceso mediante el cual uno de estos elementos, o más de uno, de una señal portadora de radiofrecuencia varían según la información a transmitir &amp;lt;ref&amp;gt;Sklar, B., Harris, F. (2021). &#039;&#039;Digital Communications&#039;&#039;. Pearson Education, 4.2.§. Digital bandpass modulation techniques.&amp;lt;/ref&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
La forma general de una portadora es: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;s(t) = A(t) \ \cos(\theta (t))&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
donde &#039;&#039;A(t)&#039;&#039; es la amplitud variante en el tiempo y &amp;lt;math&amp;gt;\theta (t)&amp;lt;/math&amp;gt; es el desfase en el tiempo. Esta última función se puede escribir como sigue: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\theta (t) = \omega_0 t + \phi (t)&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
De este modo, la señal portadora se puede expresar como: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;s(t) = A(t) \ \cos[\omega_0 t + \phi (t)]&amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
donde &amp;lt;math&amp;gt;\omega_0&amp;lt;/math&amp;gt; es la frecuencia de la portadora y &amp;lt;math&amp;gt;\phi(t)&amp;lt;/math&amp;gt; es la fase. &lt;br /&gt;
&lt;br /&gt;
La expresión analítica para una modulación PSK es la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;s_j(t) = \sqrt{\dfrac{2E}{T} \cdot \cos[\omega_0 t+\phi_i(t)]}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
con &amp;lt;math&amp;gt;0 \leq t \leq T&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;i = 1, ..., M&amp;lt;/math&amp;gt;. El término de la fase &amp;lt;math&amp;gt;\phi_i(t)&amp;lt;/math&amp;gt; toma valores discretos dados normalmente por:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\phi_i(t) = \dfrac{2 \pi i}{M}  , i = 1, ..., M&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Así pues, el parámetro que varía según la señal a transmitir es la fase, mientras que la amplitud y la frecuencia se mantienen constantes. El parámetro &#039;&#039;E&#039;&#039; es la energía de símbolo y &#039;&#039;T&#039;&#039; es la duración de símbolo. &lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;BPSK:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
En el caso particular de las modulaciones BPSK, la modulación se realizará variando la forma de onda &amp;lt;math&amp;gt;s_i(t)&amp;lt;/math&amp;gt; a uno de los dos estados, 0 ó &amp;lt;math&amp;gt;\pi&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Vamos a ver la representación de la señal PSK. Donde esta señal también se la puede llamar como 2-PSK , BPSK&lt;br /&gt;
&lt;br /&gt;
[[File:Señal psk.PNG|marco|centro]]&lt;br /&gt;
&lt;br /&gt;
En esta modulación cada unidad de señal (baudio) está representado por un solo bit, siendo la tasa de bits es igual a la tasa de baudios.&lt;br /&gt;
Esta modulación  permite que se tenga pequeñas alteraciones de la fase pudiendo ser detectables en el receptor, es decir que en la práctica es sencillo utilizar más de dos fases. Esto permite que se puedan hacer otras técnicas de modulación, basado en PSK como puede ser 4 PSK, donde en este caso se utilizarían 4 fases en vez de dos para representar la información que queremos transmitir.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;4-PSK:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
El uso de las cuatro fases, nos permite usar valores de fases que sean arbitrarios , pero con la condición que la diferencia entre fases debe ser de 90 grados. Como tenemos cuatro fases necesitaremos 2 bits por valor para representar los cuatro valores distintos de fase, un ejemplo posible de esta asignación de valores puede ser el siguiente ejemplo.&lt;br /&gt;
&lt;br /&gt;
*Fase-Bits&lt;br /&gt;
*0º-00&lt;br /&gt;
*90º-01&lt;br /&gt;
*180º-10&lt;br /&gt;
*270º-11&lt;br /&gt;
&lt;br /&gt;
Vamos a ver un representación de 4-PSK:&lt;br /&gt;
&lt;br /&gt;
[[File:Señal 4 psk.PNG|marco|centro]]&lt;br /&gt;
&lt;br /&gt;
Podemos ver que la tasa de bits es el doble de la tasa de baudios. Como hemos visto estos valores pueden ser arbitrarios , teniendo en cuenta esto , ahí un tipo de PSK muy utilizado que es QPSK.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;QPSK:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
[[File:QPSK Gray Coded.svg.png|thumb|209x209px|constelación para QPSK.]]&lt;br /&gt;
&#039;&#039;Quadrature Phase-Shift Keying&#039;&#039;&amp;lt;ref&amp;gt;colaboradores de Wikipedia. (2025, 21 enero). &#039;&#039;Modulación por desplazamiento de fase&#039;&#039;. Wikipedia, la Enciclopedia Libre. &amp;lt;nowiki&amp;gt;https://es.wikipedia.org/wiki/Modulaci%C3%B3n_por_desplazamiento_de_fase#QPSK_(Quadrature_Phase-Shift_Keying)&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt;. En este tipo de PSK, los valores de fase asignados serían 45º, 135º, 225º y 315º. La asignación de bits a cada símbolo de la constelación se realiza mediante código Gray, lo que ayuda a reducir el número de bit erróneos.&lt;br /&gt;
&lt;br /&gt;
En esta variante de 4-PSK, para un ancho de banda determinado, se transmite el doble de velocidad de datos en comparación con BPSK. Sin embargo, tanto los transmisores como los receptores son más complicados, pero con los avances de hoy día su coste es bastante asequible.&lt;br /&gt;
&lt;br /&gt;
Cada símbolo puede describirse mediante la siguiente ecuación matemática:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;s_n(t) = \sqrt{\frac{2E_s}{T_s}} \cos \left ( 2 \pi f_c t + (2n -1) \frac{\pi}{4}\right ),\quad n \in \{1, 2, 3, 4 \} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde en función del valor de n, se obtiene cualquiera de los cuatro símbolos que genera QPSK.&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;Otras modulaciones PSK:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
Tenemos otras modulaciones PSK que utiliza mayor número de fases como 8 PSK que tendrían 8 valores de fases diferentes , teniendo que estar cada valor  de fase separada 45 grados entre sí. Como tenemos 8 valores , para representarlo en código binario , cada fase tendrá 3 bits , en consecuencia  la tasa de bits se obtiene multiplicando por tres la tasa de baudios.&lt;br /&gt;
&lt;br /&gt;
Finalmente el ancho de banda mínimo para las señales PSK es el mismo que para las señales ASK, es decir:&lt;br /&gt;
BW = N baudios&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ref&amp;gt;Santos 2014 - Sistemas_telemáticos (pp_41-91).pdfSantos 2014 - Sistemas_telemáticos (pp_41-91)&amp;lt;/ref&amp;gt;&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:QPSK_Gray_Coded.svg.png&amp;diff=12220</id>
		<title>File:QPSK Gray Coded.svg.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:QPSK_Gray_Coded.svg.png&amp;diff=12220"/>
		<updated>2025-03-15T17:46:52Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12219</id>
		<title>Draft:Codificacion</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12219"/>
		<updated>2025-03-15T17:38:00Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: referencias&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Se denomina codificación al proceso de representación y adecuación de la información digital mediante pulsos de voltaje o de luz. Dichos pulsos conforman la señal digital que viajará por su correspondiente medio de transmisión.&amp;lt;ref&amp;gt;González, M. S. (2007). &#039;&#039;Sistemas telemáticos.&#039;&#039; Ra-Ma Editorial.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Este proceso es el último de las etapas de un convertidor analógico a digital (A/D). Es decir, el codificador recibe como señal de entrada las muestras cuantificadas de la señal analógica. Tras codificar dichas muestras cuantificadas, la señal ya se puede considerar digital y lista para su transmisión.&lt;br /&gt;
[[File:Conversor AD.png|center|thumb|Etapas de un convertidor analógico-digital.]]&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;Tipos de codificación:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
A continuación se muestran los principales tipos de codificación:&amp;lt;ref&amp;gt;colaboradores de Wikipedia. (2024, 5 julio). &#039;&#039;Codificación digital&#039;&#039;. Wikipedia, la Enciclopedia Libre. &amp;lt;nowiki&amp;gt;https://es.wikipedia.org/wiki/Codificaci%C3%B3n_digital&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Codificación unipolar: ===&lt;br /&gt;
Se trata del método de codificación más sencillo que existe. Se basa en la codificación de la información binaria mediante la combinación de un voltaje y la ausencia de este. Normalmente, se le asigna a la información correspondiente al bit 1, el nivel de voltaje establecido; y a la información correspondiente al bit 0, la ausencia de voltaje.&lt;br /&gt;
[[File:CodificacionUnipolarRZ.png|center|thumb|Ejemplo de codificación unipolar.]]&lt;br /&gt;
Esta forma de codificación tiene su fortaleza en su gran sencillez. Sin embargo, tiene el problema de que, si se encadenan secuencias largas del mismo bit, el receptor no es capaz de distinguir cuando empieza y finaliza dicho bit. Así mismo, consigue reducir el nivel medio de la componente continua pero no tanto como en las codificaciones polares.&lt;br /&gt;
&lt;br /&gt;
=== Codificación polar: ===&lt;br /&gt;
En este tipo de codificación, se utilizan dos niveles de voltajes (uno positivo y otro negativo).&lt;br /&gt;
&lt;br /&gt;
Existen varios tipos de codificación polar:&lt;br /&gt;
&lt;br /&gt;
==== NRZ-L: ====&lt;br /&gt;
&#039;&#039;Non-return to zero,&#039;&#039; no retorno a cero. Es el más sencillo dentro de las codificaciones polares. Se basa en codificar cada bit de información con un voltaje correspondiente. De esta forma, normalmente, un bit de información correspondiente a 0 se representa con un voltaje positivo; y un bit de información correspondiente a 1 se representa con un voltaje negativo.&lt;br /&gt;
[[File:NRZ L.PNG|thumb|ejemplo de codificación NRZ-L]]&lt;br /&gt;
En condiciones estadísticas en las que la probabilidad de emitir un bit de información con valor 1 es la misma que la de emitir un bit de información con valor 0, la componente continua prácticamente desaparece. Sin embargo, no se soluciona el problema del sincronismo que también aparecía en la codificación unipolar.&lt;br /&gt;
&lt;br /&gt;
==== NRZ-I: ====&lt;br /&gt;
&#039;&#039;Non-return to zero Invert,&#039;&#039; no retorno a cero invertido. En este caso, ya no se asigna un nivel de voltaje determinado a un bit de información concreto, sino que la aparición de un determinado bit provoca o no una inversión en el nivel de voltaje existente en la línea. Normalmente, un bit de información correspondiente a 1 implica una inversión del voltaje; y un bit de información correspondiente a 0 implica que no haya cambios en el voltaje.&lt;br /&gt;
[[File:NRZ-I code.png|thumb|ejemplo de codificación NRZ-I.]]&lt;br /&gt;
Esta forma de codificación introduce la mejora de que solamente existirían problemas de sincronismo si se dieran cadenasj largas de bit con valor 0, no así con los bit de valor 1. &lt;br /&gt;
&lt;br /&gt;
==== RZ: ====&lt;br /&gt;
&#039;&#039;Return to zero,&#039;&#039; retorno a cero. En este caso se utilizan tres niveles de voltaje: positivo, cero y negativo. Con esta codificación, se asegura que en cada bit cambie el nivel de voltaje y por tanto se consigue sincronización por cada bit de información. Normalmente, un bit de información correspondiente a 1 implica una transición de voltaje positivo a cero; y un bit de información correspondiente a 0 implica una transición de voltaje negativo a cero.&lt;br /&gt;
[[File:RZcode.png|thumb|ejemplo de codificación RZ.]]&lt;br /&gt;
La desventaja respecto a las codificaciones NRZ, es que necesita el doble de ancho de banda, ya que por cada bit hay dos niveles de voltaje y será necesario aumentar la frecuencia.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== MANCHESTER: ====&lt;br /&gt;
[[File:Manchester code.svg|thumb|251x251px|ejemplo de codificación Manchester,]]&lt;br /&gt;
En este tipo de codificación se utilizan únicamente los valores positivo y negativo del voltaje, realizando la transición de un nivel a otro en mitad de cada bit. Normalmente, un bit de información correspondiente a 1 implica una transición de voltaje negativo a positivo; y un bit de información correspondiente a 0 implica una transición de voltaje positivo a negativo.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Codificación bipolar: ===&lt;br /&gt;
Se utilizan tres niveles de voltaje, asignado un valor lógico a cada voltaje (positivo, cero y negativo). Normalmente, el bit de información correspondiente al 0 se asigna al valor de voltaje cero; y el bit de información correspondiente al 1 alterna la polaridad del voltaje positivo y negativo.&lt;br /&gt;
&lt;br /&gt;
Tipos de codificación bipolar:&lt;br /&gt;
&lt;br /&gt;
==== AMI: ====&lt;br /&gt;
[[File:AMI-code.png|thumb|ejemplo de codificación AMI.]]&lt;br /&gt;
Es la codificación bipolar mas sencilla. Utiliza la técnica explicada en el párrafo anterior, asignando el voltaje nulo o cero a los bit con valor lógico 0 y alternando la polaridad del voltaje para los bit con valor lógico 1.&lt;br /&gt;
&lt;br /&gt;
Se pueden dar problemas de sincronismo cuando se transmiten largas cadenas de bits con valor 0 seguidos.&lt;br /&gt;
&lt;br /&gt;
==== [[:en:Código_HDB3|HDB3:]] ====&lt;br /&gt;
Tipo de codificación aceptada en Europa, Japón y Australia. Utilizado en las líneas digitales tipo E-1, E-3 y líneas RDSI.&amp;lt;ref&amp;gt;&#039;&#039;Código HDB3 - GlossaLAB&#039;&#039;. (s. f.). &amp;lt;nowiki&amp;gt;https://www.glossalab.org/wiki/C%C3%B3digo_HDB3&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Se basa en la técnica de codificación AMI pero introduce el denominado patrón de violación. Este patrón se da cuando se transmite una secuencia continua de cuatro bits con valor lógico 0 seguidos.&lt;br /&gt;
&lt;br /&gt;
Funcionamiento del patrón violación:&lt;br /&gt;
&lt;br /&gt;
* El transmisor detecta que se va a transmitir por cuarta vez consecutiva un bit con valor 0.&lt;br /&gt;
* En vez de codificar con ausencia de voltaje, como en AMI, HDB3 introduce el patrón violación, que no es más que repetir el último impulso de voltaje (positivo o negativo) en vez de transmitir la ausencia de voltaje que le corresponde.&lt;br /&gt;
* El receptor sabe que se trata de un bit con valor cero correspondiente a un patrón de violación, ya que detectará que ha habido dos niveles de voltaje distintos de cero con la misma polaridad.&lt;br /&gt;
&lt;br /&gt;
[[File:Hdb3.gif|thumb|ejemplo de codificación HDB3.]]&lt;br /&gt;
Para asegurar que la componente continua desaparece, cada vez que se introduzca un patrón violación con voltaje positivo debería introducirse otro con voltaje negativo. Para forzar esta situación, en ocasiones es necesario introducir un impulso &amp;quot;B&amp;quot; que varíe la polaridad del voltaje del patrón violación.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;Referencias:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12218</id>
		<title>Draft:Codificacion</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12218"/>
		<updated>2025-03-15T17:26:00Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: tipos de codificación finalizados&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Se denomina codificación al proceso de representación y adecuación de la información digital mediante pulsos de voltaje o de luz. Dichos pulsos conforman la señal digital que viajará por su correspondiente medio de transmisión.&lt;br /&gt;
&lt;br /&gt;
Este proceso es el último de las etapas de un convertidor analógico a digital (A/D). Es decir, el codificador recibe como señal de entrada las muestras cuantificadas de la señal analógica. Tras codificar dichas muestras cuantificadas, la señal ya se puede considerar digital y lista para su transmisión.&lt;br /&gt;
[[File:Conversor AD.png|center|thumb|Etapas de un convertidor analógico-digital.]]&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;Tipos de codificación:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
A continuación se muestran los principales tipos de codificación:&lt;br /&gt;
&lt;br /&gt;
=== Codificación unipolar: ===&lt;br /&gt;
Se trata del método de codificación más sencillo que existe. Se basa en la codificación de la información binaria mediante la combinación de un voltaje y la ausencia de este. Normalmente, se le asigna a la información correspondiente al bit 1, el nivel de voltaje establecido; y a la información correspondiente al bit 0, la ausencia de voltaje.&lt;br /&gt;
[[File:CodificacionUnipolarRZ.png|center|thumb|Ejemplo de codificación unipolar.]]&lt;br /&gt;
Esta forma de codificación tiene su fortaleza en su gran sencillez. Sin embargo, tiene el problema de que, si se encadenan secuencias largas del mismo bit, el receptor no es capaz de distinguir cuando empieza y finaliza dicho bit. Así mismo, consigue reducir el nivel medio de la componente continua pero no tanto como en las codificaciones polares.&lt;br /&gt;
&lt;br /&gt;
=== Codificación polar: ===&lt;br /&gt;
En este tipo de codificación, se utilizan dos niveles de voltajes (uno positivo y otro negativo).&lt;br /&gt;
&lt;br /&gt;
Existen varios tipos de codificación polar:&lt;br /&gt;
&lt;br /&gt;
==== NRZ-L: ====&lt;br /&gt;
&#039;&#039;Non-return to zero,&#039;&#039; no retorno a cero. Es el más sencillo dentro de las codificaciones polares. Se basa en codificar cada bit de información con un voltaje correspondiente. De esta forma, normalmente, un bit de información correspondiente a 0 se representa con un voltaje positivo; y un bit de información correspondiente a 1 se representa con un voltaje negativo.&lt;br /&gt;
[[File:NRZ L.PNG|thumb|ejemplo de codificación NRZ-L]]&lt;br /&gt;
En condiciones estadísticas en las que la probabilidad de emitir un bit de información con valor 1 es la misma que la de emitir un bit de información con valor 0, la componente continua prácticamente desaparece. Sin embargo, no se soluciona el problema del sincronismo que también aparecía en la codificación unipolar.&lt;br /&gt;
&lt;br /&gt;
==== NRZ-I: ====&lt;br /&gt;
&#039;&#039;Non-return to zero Invert,&#039;&#039; no retorno a cero invertido. En este caso, ya no se asigna un nivel de voltaje determinado a un bit de información concreto, sino que la aparición de un determinado bit provoca o no una inversión en el nivel de voltaje existente en la línea. Normalmente, un bit de información correspondiente a 1 implica una inversión del voltaje; y un bit de información correspondiente a 0 implica que no haya cambios en el voltaje.&lt;br /&gt;
[[File:NRZ-I code.png|thumb|ejemplo de codificación NRZ-I.]]&lt;br /&gt;
Esta forma de codificación introduce la mejora de que solamente existirían problemas de sincronismo si se dieran cadenasj largas de bit con valor 0, no así con los bit de valor 1. &lt;br /&gt;
&lt;br /&gt;
==== RZ: ====&lt;br /&gt;
&#039;&#039;Return to zero,&#039;&#039; retorno a cero. En este caso se utilizan tres niveles de voltaje: positivo, cero y negativo. Con esta codificación, se asegura que en cada bit cambie el nivel de voltaje y por tanto se consigue sincronización por cada bit de información. Normalmente, un bit de información correspondiente a 1 implica una transición de voltaje positivo a cero; y un bit de información correspondiente a 0 implica una transición de voltaje negativo a cero.&lt;br /&gt;
[[File:RZcode.png|thumb|ejemplo de codificación RZ.]]&lt;br /&gt;
La desventaja respecto a las codificaciones NRZ, es que necesita el doble de ancho de banda, ya que por cada bit hay dos niveles de voltaje y será necesario aumentar la frecuencia.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== MANCHESTER: ====&lt;br /&gt;
[[File:Manchester code.svg|thumb|251x251px|ejemplo de codificación Manchester,]]&lt;br /&gt;
En este tipo de codificación se utilizan únicamente los valores positivo y negativo del voltaje, realizando la transición de un nivel a otro en mitad de cada bit. Normalmente, un bit de información correspondiente a 1 implica una transición de voltaje negativo a positivo; y un bit de información correspondiente a 0 implica una transición de voltaje positivo a negativo.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Codificación bipolar: ===&lt;br /&gt;
Se utilizan tres niveles de voltaje, asignado un valor lógico a cada voltaje (positivo, cero y negativo). Normalmente, el bit de información correspondiente al 0 se asigna al valor de voltaje cero; y el bit de información correspondiente al 1 alterna la polaridad del voltaje positivo y negativo.&lt;br /&gt;
&lt;br /&gt;
Tipos de codificación bipolar:&lt;br /&gt;
&lt;br /&gt;
==== AMI: ====&lt;br /&gt;
[[File:AMI-code.png|thumb|ejemplo de codificación AMI.]]&lt;br /&gt;
Es la codificación bipolar mas sencilla. Utiliza la técnica explicada en el párrafo anterior, asignando el voltaje nulo o cero a los bit con valor lógico 0 y alternando la polaridad del voltaje para los bit con valor lógico 1.&lt;br /&gt;
&lt;br /&gt;
Se pueden dar problemas de sincronismo cuando se transmiten largas cadenas de bits con valor 0 seguidos.&lt;br /&gt;
&lt;br /&gt;
==== HDB3: ====&lt;br /&gt;
Tipo de codificación aceptada en Europa, Japón y Australia. Utilizado en las líneas digitales tipo E-1, E-3 y líneas RDSI.&lt;br /&gt;
&lt;br /&gt;
Se basa en la técnica de codificación AMI pero introduce el denominado patrón de violación. Este patrón se da cuando se transmite una secuencia continua de cuatro bits con valor lógico 0 seguidos.&lt;br /&gt;
&lt;br /&gt;
Funcionamiento del patrón violación:&lt;br /&gt;
&lt;br /&gt;
* El transmisor detecta que se va a transmitir por cuarta vez consecutiva un bit con valor 0.&lt;br /&gt;
* En vez de codificar con ausencia de voltaje, como en AMI, HDB3 introduce el patrón violación, que no es más que repetir el último impulso de voltaje (positivo o negativo) en vez de transmitir la ausencia de voltaje que le corresponde.&lt;br /&gt;
* El receptor sabe que se trata de un bit con valor cero correspondiente a un patrón de violación, ya que detectará que ha habido dos niveles de voltaje distintos de cero con la misma polaridad.&lt;br /&gt;
&lt;br /&gt;
[[File:Hdb3.gif|thumb|ejemplo de codificación HDB3.]]&lt;br /&gt;
Para asegurar que la componente continua desaparece, cada vez que se introduzca un patrón violación con voltaje positivo debería introducirse otro con voltaje negativo. Para forzar esta situación, en ocasiones es necesario introducir un impulso &amp;quot;B&amp;quot; que varíe la polaridad del voltaje del patrón violación.&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12215</id>
		<title>Draft:Codificacion</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12215"/>
		<updated>2025-03-15T12:00:26Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: codificacion bipolar, introduccion y AMI&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Se denomina codificación al proceso de representación y adecuación de la información digital mediante pulsos de voltaje o de luz. Dichos pulsos conforman la señal digital que viajará por su correspondiente medio de transmisión.&lt;br /&gt;
&lt;br /&gt;
Este proceso es el último de las etapas de un convertidor analógico a digital (A/D). Es decir, el codificador recibe como señal de entrada las muestras cuantificadas de la señal analógica. Tras codificar dichas muestras cuantificadas, la señal ya se puede considerar digital y lista para su transmisión.&lt;br /&gt;
[[File:Conversor AD.png|center|thumb|Etapas de un convertidor analógico-digital.]]&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;Tipos de codificación:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
A continuación se muestran los principales tipos de codificación:&lt;br /&gt;
&lt;br /&gt;
=== Codificación unipolar: ===&lt;br /&gt;
Se trata del método de codificación más sencillo que existe. Se basa en la codificación de la información binaria mediante la combinación de un voltaje y la ausencia de este. Normalmente, se le asigna a la información correspondiente al bit 1, el nivel de voltaje establecido; y a la información correspondiente al bit 0, la ausencia de voltaje.&lt;br /&gt;
[[File:CodificacionUnipolarRZ.png|center|thumb|Ejemplo de codificación unipolar.]]&lt;br /&gt;
Esta forma de codificación tiene su fortaleza en su gran sencillez. Sin embargo, tiene el problema de que, si se encadenan secuencias largas del mismo bit, el receptor no es capaz de distinguir cuando empieza y finaliza dicho bit. Así mismo, consigue reducir el nivel medio de la componente continua pero no tanto como en las codificaciones polares.&lt;br /&gt;
&lt;br /&gt;
=== Codificación polar: ===&lt;br /&gt;
En este tipo de codificación, se utilizan dos niveles de voltajes (uno positivo y otro negativo).&lt;br /&gt;
&lt;br /&gt;
Existen varios tipos de codificación polar:&lt;br /&gt;
&lt;br /&gt;
==== NRZ-L: ====&lt;br /&gt;
&#039;&#039;Non-return to zero,&#039;&#039; no retorno a cero. Es el más sencillo dentro de las codificaciones polares. Se basa en codificar cada bit de información con un voltaje correspondiente. De esta forma, normalmente, un bit de información correspondiente a 0 se representa con un voltaje positivo; y un bit de información correspondiente a 1 se representa con un voltaje negativo.&lt;br /&gt;
[[File:NRZ L.PNG|thumb|ejemplo de codificación NRZ-L]]&lt;br /&gt;
En condiciones estadísticas en las que la probabilidad de emitir un bit de información con valor 1 es la misma que la de emitir un bit de información con valor 0, la componente continua prácticamente desaparece. Sin embargo, no se soluciona el problema del sincronismo que también aparecía en la codificación unipolar.&lt;br /&gt;
&lt;br /&gt;
==== NRZ-I: ====&lt;br /&gt;
&#039;&#039;Non-return to zero Invert,&#039;&#039; no retorno a cero invertido. En este caso, ya no se asigna un nivel de voltaje determinado a un bit de información concreto, sino que la aparición de un determinado bit provoca o no una inversión en el nivel de voltaje existente en la línea. Normalmente, un bit de información correspondiente a 1 implica una inversión del voltaje; y un bit de información correspondiente a 0 implica que no haya cambios en el voltaje.&lt;br /&gt;
[[File:NRZ-I code.png|thumb|ejemplo de codificación NRZ-I.]]&lt;br /&gt;
Esta forma de codificación introduce la mejora de que solamente existirían problemas de sincronismo si se dieran cadenasj largas de bit con valor 0, no así con los bit de valor 1. &lt;br /&gt;
&lt;br /&gt;
==== RZ: ====&lt;br /&gt;
&#039;&#039;Return to zero,&#039;&#039; retorno a cero. En este caso se utilizan tres niveles de voltaje: positivo, cero y negativo. Con esta codificación, se asegura que en cada bit cambie el nivel de voltaje y por tanto se consigue sincronización por cada bit de información. Normalmente, un bit de información correspondiente a 1 implica una transición de voltaje positivo a cero; y un bit de información correspondiente a 0 implica una transición de voltaje negativo a cero.&lt;br /&gt;
[[File:RZcode.png|thumb|ejemplo de codificación RZ.]]&lt;br /&gt;
La desventaja respecto a las codificaciones NRZ, es que necesita el doble de ancho de banda, ya que por cada bit hay dos niveles de voltaje y será necesario aumentar la frecuencia.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== MANCHESTER: ====&lt;br /&gt;
[[File:Manchester code.svg|thumb|251x251px|ejemplo de codificación Manchester,]]&lt;br /&gt;
En este tipo de codificación se utilizan únicamente los valores positivo y negativo del voltaje, realizando la transición de un nivel a otro en mitad de cada bit. Normalmente, un bit de información correspondiente a 1 implica una transición de voltaje negativo a positivo; y un bit de información correspondiente a 0 implica una transición de voltaje positivo a negativo.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Codificación bipolar: ===&lt;br /&gt;
Se utilizan tres niveles de voltaje, asignado un valor lógico a cada voltaje (positivo, cero y negativo). Normalmente, el bit de información correspondiente al 0 se asigna al valor de voltaje cero; y el bit de información correspondiente al 1 alterna la polaridad del voltaje positivo y negativo.&lt;br /&gt;
&lt;br /&gt;
Tipos de codificación bipolar:&lt;br /&gt;
&lt;br /&gt;
==== AMI: ====&lt;br /&gt;
[[File:AMI-code.png|thumb|ejemplo de codificación AMI.]]&lt;br /&gt;
Es la codificación bipolar mas sencilla. Utiliza la técnica explicada en el párrafo anterior, asignando el voltaje nulo o cero a los bit con valor lógico 0 y alternando la polaridad del voltaje para los bit con valor lógico 1.&lt;br /&gt;
&lt;br /&gt;
Se pueden dar problemas de sincronismo cuando se transmiten largas cadenas de bits con valor 0 seguidos.&lt;br /&gt;
&lt;br /&gt;
==== HDB3: ====&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12214</id>
		<title>Draft:Codificacion</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12214"/>
		<updated>2025-03-15T11:41:07Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: codificaciones polares&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Se denomina codificación al proceso de representación y adecuación de la información digital mediante pulsos de voltaje o de luz. Dichos pulsos conforman la señal digital que viajará por su correspondiente medio de transmisión.&lt;br /&gt;
&lt;br /&gt;
Este proceso es el último de las etapas de un convertidor analógico a digital (A/D). Es decir, el codificador recibe como señal de entrada las muestras cuantificadas de la señal analógica. Tras codificar dichas muestras cuantificadas, la señal ya se puede considerar digital y lista para su transmisión.&lt;br /&gt;
[[File:Conversor AD.png|center|thumb|Etapas de un convertidor analógico-digital.]]&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;Tipos de codificación:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
A continuación se muestran los principales tipos de codificación:&lt;br /&gt;
&lt;br /&gt;
=== Codificación unipolar: ===&lt;br /&gt;
Se trata del método de codificación más sencillo que existe. Se basa en la codificación de la información binaria mediante la combinación de un voltaje y la ausencia de este. Normalmente, se le asigna a la información correspondiente al bit 1, el nivel de voltaje establecido; y a la información correspondiente al bit 0, la ausencia de voltaje.&lt;br /&gt;
[[File:CodificacionUnipolarRZ.png|center|thumb|Ejemplo de codificación unipolar.]]&lt;br /&gt;
Esta forma de codificación tiene su fortaleza en su gran sencillez. Sin embargo, tiene el problema de que, si se encadenan secuencias largas del mismo bit, el receptor no es capaz de distinguir cuando empieza y finaliza dicho bit. Así mismo, consigue reducir el nivel medio de la componente continua pero no tanto como en las codificaciones polares.&lt;br /&gt;
&lt;br /&gt;
=== Codificación polar: ===&lt;br /&gt;
En este tipo de codificación, se utilizan dos niveles de voltajes (uno positivo y otro negativo).&lt;br /&gt;
&lt;br /&gt;
Existen varios tipos de codificación polar:&lt;br /&gt;
&lt;br /&gt;
==== NRZ-L: ====&lt;br /&gt;
&#039;&#039;Non-return to zero,&#039;&#039; no retorno a cero. Es el más sencillo dentro de las codificaciones polares. Se basa en codificar cada bit de información con un voltaje correspondiente. De esta forma, normalmente, un bit de información correspondiente a 0 se representa con un voltaje positivo; y un bit de información correspondiente a 1 se representa con un voltaje negativo.&lt;br /&gt;
[[File:NRZ L.PNG|thumb|ejemplo de codificación NRZ-L]]&lt;br /&gt;
En condiciones estadísticas en las que la probabilidad de emitir un bit de información con valor 1 es la misma que la de emitir un bit de información con valor 0, la componente continua prácticamente desaparece. Sin embargo, no se soluciona el problema del sincronismo que también aparecía en la codificación unipolar.&lt;br /&gt;
&lt;br /&gt;
==== NRZ-I: ====&lt;br /&gt;
&#039;&#039;Non-return to zero Invert,&#039;&#039; no retorno a cero invertido. En este caso, ya no se asigna un nivel de voltaje determinado a un bit de información concreto, sino que la aparición de un determinado bit provoca o no una inversión en el nivel de voltaje existente en la línea. Normalmente, un bit de información correspondiente a 1 implica una inversión del voltaje; y un bit de información correspondiente a 0 implica que no haya cambios en el voltaje.&lt;br /&gt;
[[File:NRZ-I code.png|thumb|ejemplo de codificación NRZ-I.]]&lt;br /&gt;
Esta forma de codificación introduce la mejora de que solamente existirían problemas de sincronismo si se dieran cadenasj largas de bit con valor 0, no así con los bit de valor 1. &lt;br /&gt;
&lt;br /&gt;
==== RZ: ====&lt;br /&gt;
&#039;&#039;Return to zero,&#039;&#039; retorno a cero. En este caso se utilizan tres niveles de voltaje: positivo, cero y negativo. Con esta codificación, se asegura que en cada bit cambie el nivel de voltaje y por tanto se consigue sincronización por cada bit de información. Normalmente, un bit de información correspondiente a 1 implica una transición de voltaje positivo a cero; y un bit de información correspondiente a 0 implica una transición de voltaje negativo a cero.&lt;br /&gt;
[[File:RZcode.png|thumb|ejemplo de codificación RZ.]]&lt;br /&gt;
La desventaja respecto a las codificaciones NRZ, es que necesita el doble de ancho de banda, ya que por cada bit hay dos niveles de voltaje y será necesario aumentar la frecuencia.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== MANCHESTER: ====&lt;br /&gt;
[[File:Manchester code.svg|thumb|251x251px|ejemplo de codificación Manchester,]]&lt;br /&gt;
En este tipo de codificación se utilizan únicamente los valores positivo y negativo del voltaje, realizando la transición de un nivel a otro en mitad de cada bit. Normalmente, un bit de información correspondiente a 1 implica una transición de voltaje negativo a positivo; y un bit de información correspondiente a 0 implica una transición de voltaje positivo a negativo.&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12213</id>
		<title>Draft:Codificacion</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificacion&amp;diff=12213"/>
		<updated>2025-03-15T10:54:48Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: Inicio de la página, descripcion y codificacion unipolar&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Se denomina codificación al proceso de representación y adecuación de la información digital mediante pulsos de voltaje o de luz. Dichos pulsos conforman la señal digital que viajará por su correspondiente medio de transmisión.&lt;br /&gt;
&lt;br /&gt;
Este proceso es el último de las etapas de un convertidor analógico a digital (A/D). Es decir, el codificador recibe como señal de entrada las muestras cuantificadas de la señal analógica. Tras codificar dichas muestras cuantificadas, la señal ya se puede considerar digital y lista para su transmisión.&lt;br /&gt;
[[File:Conversor AD.png|center|thumb|Etapas de un convertidor analógico-digital.]]&lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;u&amp;gt;Tipos de codificación:&amp;lt;/u&amp;gt; ===&lt;br /&gt;
A continuación se muestran los principales tipos de codificación:&lt;br /&gt;
&lt;br /&gt;
==== Codificación unipolar: ====&lt;br /&gt;
Se trata del método de codificación más sencillo que existe. Se basa en la codificación de la información binaria mediante la combinación de un voltaje y la ausencia de este. Normalmente, se le asigna a la información correspondiente al bit 1, el nivel de voltaje establecido; y a la información correspondiente al bit 0, la ausencia de voltaje.&lt;br /&gt;
[[File:CodificacionUnipolarRZ.png|center|thumb|Ejemplo de codificación unipolar.]]&lt;br /&gt;
Esta forma de codificación tiene su fortaleza en su gran sencillez. Sin embargo, tiene el problema de que, si se encadenan secuencias largas del mismo bit, el receptor no es capaz de distinguir cuando empieza y finaliza dicho bit.&lt;br /&gt;
&lt;br /&gt;
==== Codificación polar: ====&lt;br /&gt;
En este tipo de codificación, se utilizan dos niveles de voltajes (uno positivo y otro negativo).&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Unipolar.jpg&amp;diff=12212</id>
		<title>File:Unipolar.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Unipolar.jpg&amp;diff=12212"/>
		<updated>2025-03-15T10:48:51Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: Ejemplo de codificación unipolar&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Summary ==&lt;br /&gt;
Ejemplo de codificación unipolar&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Conversor_AD.png&amp;diff=12211</id>
		<title>File:Conversor AD.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Conversor_AD.png&amp;diff=12211"/>
		<updated>2025-03-15T10:32:36Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Esquema básico de un conversor analógico-digital&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Algoritmo_de_Huffman&amp;diff=11033</id>
		<title>Draft:Algoritmo de Huffman</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Algoritmo_de_Huffman&amp;diff=11033"/>
		<updated>2024-11-03T11:26:49Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: Insert an example&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
El término se refiere al uso de una tabla de códigos de longitud variable para codificar un determinado símbolo, donde la tabla ha sido rellenada de una manera específica basándose en la probabilidad estimada de aparición de cada posible valor de dicho símbolo. Fue desarrollado por David A. Huffman mientras era estudiante de doctorado en el MIT, y publicado en &amp;quot;A Method for the Construction of Minimum-Redundancy Codes&amp;quot;.&amp;lt;ref&amp;gt;Wikipedia. (s.f.). &#039;&#039;Codificación Huffman&#039;&#039;. En Wikipedia, la enciclopedia libre. Recuperado el 24 de octubre de 2024, de [https://es.wikipedia.org/wiki/Codificaci%C3%B3n_Huffman#:~:text=El%20t%C3%A9rmino%20se%20refiere%20al,posible%20valor%20de%20dicho%20s%C3%ADmbolo.]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;&amp;lt;big&amp;gt;Método&amp;lt;/big&amp;gt;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Usa un método específico para elegir la representación de cada símbolo, que da lugar a un código prefijo (es decir, la cadena de bits que representa a un símbolo en particular nunca es prefijo de la cadena de bits de un símbolo distinto) que representa los caracteres más comunes usando las cadenas de bits más cortas, y viceversa. Huffman fue capaz de diseñar el método de compresión más eficiente de este tipo: ninguna representación alternativa de un conjunto de símbolos de entrada produce una salida media más pequeña cuando las frecuencias de los símbolos coinciden con las usadas para crear el código. Posteriormente se encontró un método para llevar esto a cabo en un tiempo lineal si las probabilidades de los símbolos de entrada (también conocidas como &amp;quot;pesos&amp;quot;) están ordenadas.&lt;br /&gt;
&lt;br /&gt;
Para un grupo de símbolos con una distribución de probabilidad uniforme y un número de miembros que es potencia de dos, la codificación Huffman es equivalente a una codificación en bloque binaria, por ejemplo, la codificación ASCII. &lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;&amp;lt;big&amp;gt;Proceso de Codificación con el Algoritmo de Huffman&amp;lt;/big&amp;gt;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
[[File:Árbol Huffman.png|thumb]]&lt;br /&gt;
&lt;br /&gt;
# Calcular las frecuencias de cada carácter en el mensaje.&lt;br /&gt;
# Construir un árbol de Huffman utilizando una cola de prioridad, en la que se seleccionan los dos nodos de menor frecuencia y se combinan para formar un nuevo nodo con la suma de sus frecuencias.&lt;br /&gt;
# Repetir el paso anterior hasta que solo quede un nodo en la cola, que será la raíz del árbol. Asignar códigos binarios a cada carácter, trazando el camino desde la raíz hasta las hojas.&amp;lt;ref&amp;gt;José Luis Varela Gonda. &#039;&#039;Algoritmo de Huffman&#039;&#039;. Universidad de Vigo. Recuperado de [https://joselu.webs.uvigo.es/material/Algoritmo%20de%20Huffman.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
==Ejemplo==&lt;br /&gt;
A continuación se representa el ejemplo de cómo codificar la frase &amp;quot;HOLACARACOLA&amp;quot; mediante el algoritmo de Huffman:&amp;lt;br&amp;gt;&lt;br /&gt;
* Primero de todo se cogen los pesos de cada carácter.&amp;lt;gallery&amp;gt;&lt;br /&gt;
EJEMPLO_HUFFMAN_1.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
*  A continuación se ordenan los caracteres de mayor a menor peso en una fila.&amp;lt;gallery&amp;gt;&lt;br /&gt;
EJEMPLO_HUFFMAN_2.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
* Se van sumando los pesos de los nodos de menor peso en cada paso, creando nodos intermedios, hasta llegar al último nodo.&amp;lt;gallery&amp;gt;&lt;br /&gt;
EJEMPLO_HUFFMAN_3.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
* Una vez completado el árbol, se sigue el camino inverso para obtener la codificación de cada carácter:&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
EJEMPLO_HUFFMAN_4.png&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
* Finalmente, se sustituye cada caracter por su correspondiente codificación:&lt;br /&gt;
100 10 001 11 101 11 000 11 101 10 001 11&amp;lt;br&amp;gt;&lt;br /&gt;
H O L A C A R A C O L A&amp;lt;br&amp;gt;&lt;br /&gt;
* Para comprobar la compresión resultante de la codificación mediante el algoritmo de Huffman, solo hay que fijarse que el código codificado consta de 30 bits = 3,75 bytes; mientras que un carácter ASCII es 1 byte, por lo que la frase en caracteres ASCII son 12 bytes.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
A continuación, se presenta un código para crear un diccionario de códigos Huffman.&amp;lt;ref&amp;gt;MathWorks. (s. f.). &#039;&#039;huffmandict&#039;&#039;. MathWorks. Recuperado el 24 de octubre de 2024, de [https://es.mathworks.com/help/comm/ref/huffmandict.html?s_tid=srchtitle_site_search_1_huffmandict]&amp;lt;/ref&amp;gt;&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
function dict = huffmandict(symbols, prob)&lt;br /&gt;
    % huffmandict: Creates a Huffman code dictionary based on given symbols and probabilities&lt;br /&gt;
    &lt;br /&gt;
    % ENTRADAS:&lt;br /&gt;
    %   symbols: Vector con el alfabeto de símbolos únicos&lt;br /&gt;
    %   prob: Vector con las probabilidades de ocurrencia de cada símbolo&lt;br /&gt;
    &lt;br /&gt;
    % SALIDAS:&lt;br /&gt;
    %   dict: Diccionario con los códigos binarios de Huffman para cada símbolo&lt;br /&gt;
&lt;br /&gt;
    % Validar las entradas&lt;br /&gt;
    if length(symbols) ~= length(prob)&lt;br /&gt;
        error(&#039;El número de símbolos y probabilidades deben ser iguales.&#039;);&lt;br /&gt;
    end&lt;br /&gt;
&lt;br /&gt;
    if abs(sum(prob) - 1) &amp;gt; 1e-6&lt;br /&gt;
        error(&#039;Las probabilidades deben sumar aproximadamente 1.&#039;);&lt;br /&gt;
    end&lt;br /&gt;
&lt;br /&gt;
    % Comprobar que las probabilidades son positivas&lt;br /&gt;
    if any(prob &amp;lt; 0)&lt;br /&gt;
        error(&#039;Las probabilidades deben ser mayores o iguales a cero.&#039;);&lt;br /&gt;
    end&lt;br /&gt;
&lt;br /&gt;
    % Generar el diccionario de Huffman utilizando la función incorporada de MATLAB&lt;br /&gt;
    dict = huffmandict(symbols, prob);&lt;br /&gt;
&lt;br /&gt;
    % Mostrar el diccionario generado&lt;br /&gt;
    disp(&#039;Diccionario de Huffman:&#039;);&lt;br /&gt;
    disp(dict);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:EJEMPLO_HUFFMAN_4.png&amp;diff=11032</id>
		<title>File:EJEMPLO HUFFMAN 4.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:EJEMPLO_HUFFMAN_4.png&amp;diff=11032"/>
		<updated>2024-11-03T11:22:24Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:EJEMPLO_HUFFMAN_3.png&amp;diff=11031</id>
		<title>File:EJEMPLO HUFFMAN 3.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:EJEMPLO_HUFFMAN_3.png&amp;diff=11031"/>
		<updated>2024-11-03T11:19:22Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:EJEMPLO_HUFFMAN_2.png&amp;diff=11030</id>
		<title>File:EJEMPLO HUFFMAN 2.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:EJEMPLO_HUFFMAN_2.png&amp;diff=11030"/>
		<updated>2024-11-03T11:03:47Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:EJEMPLO_HUFFMAN_1.png&amp;diff=11029</id>
		<title>File:EJEMPLO HUFFMAN 1.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:EJEMPLO_HUFFMAN_1.png&amp;diff=11029"/>
		<updated>2024-11-03T10:55:54Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Tasa_de_entropia&amp;diff=11028</id>
		<title>Draft:Tasa de entropia</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Tasa_de_entropia&amp;diff=11028"/>
		<updated>2024-11-02T15:49:27Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: References&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
El término hace referencia al ratio de crecimiento de la entropía en un proceso estocástico con una secuencia de n variables aleatorias.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Matemáticamente, se define la tasa de entropía &#039;&#039;&#039;H(χ)&#039;&#039;&#039; como:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X)=\lim_{n \to \infty} \dfrac{1}{n} H(X_1,X_2,...,X_N)&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
siempre que exista dicho límite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Cuando dicho límite existe, recibe el nombre de &#039;&#039;&#039;tasa de entropía del proceso estocástico&#039;&#039;&#039;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Si dicho proceso estocástico es estacionario, entonces existe el &amp;lt;math&amp;gt;lim_{n \to \infty} \dfrac{1}{n} H(X_1,X_2,...,X_N)&amp;lt;/math&amp;gt; y se cumple que:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;lim_{n \to \infty} \dfrac{1}{n} H(X_1,X_2,...,X_N)&amp;lt;/math&amp;gt; = &amp;lt;math&amp;gt;lim_{n \to \infty} H(X_n|X_{n-1},X_{n-1},...,X_{1})&amp;lt;/math&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
esto significa que la tasa de entropía de un proceso estocástico estacionario es igual a la [[Draft:Entropía_condicional|entropía condicional]] de la última variable aleatoria &amp;lt;math&amp;gt;X_N&amp;lt;/math&amp;gt; en función del resto de variables aleatorias del proceso.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Cadenas de Markov ==&lt;br /&gt;
Dentro de los procesos estocásticos, las cadenas de Markov resultan un caso particular.&amp;lt;br&amp;gt;&lt;br /&gt;
=== Definición ===&lt;br /&gt;
Los procesos de Markov son aquellos procesos estocásticos en los que la probabilidad de un suceso &amp;lt;math&amp;gt;X_t&amp;lt;/math&amp;gt; en un instante &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt; depende únicamente de la probabilidad &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;sub&amp;gt;t-1&amp;lt;/sub&amp;gt; del instante inmediatamente anterior &amp;lt;math&amp;gt;t-1&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De forma matemática:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
 &amp;lt;math&amp;gt;P(X_n=x_n|X_{n-1}=x_{n-1},X_{n-2}=x_{n-2},...,X_1=x_1)&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;P(X_n=x_n|X_{n-1}=x_{n-1})&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
=== Probabilidad de transición en un paso ===&lt;br /&gt;
Se define como la probabilidad condicional de que se produzca la transición del estado &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; en el instante de tiempo &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;, al estado &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; en un instante de tiempo &amp;lt;math&amp;gt;n+1&amp;lt;/math&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
Matemáticamente la expresión tiene la siguiente forma:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;P_{ij}&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;P(X_{n+1}=j|X_n=i)&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De la misma forma se puede aplicar esta expresión a la probabilidad de transición en &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; pasos:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;P^{(n)}_{ij}&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;P(X_{m+n}=j|X_{m}=i)&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
=== Clasificación de las cadenas de Markov ===&lt;br /&gt;
==== Cadenas de Markov irreducibles ====&lt;br /&gt;
Una cadena de Markov es &#039;&#039;&#039;irreducible&#039;&#039;&#039; cuando desde cada estado se puede alcanzar el resto de los estados.&amp;lt;br&amp;gt;&lt;br /&gt;
Además, se denomina &#039;&#039;&#039;cerrado&#039;&#039;&#039; al subconjunto de dicha cadena si ninguno de sus estados se comunica con ninguno de los estados de cualquier otro subconjunto.&lt;br /&gt;
==== Cadenas de Markov periódicas ====&lt;br /&gt;
Siempre que el numero de pasos para alcanzar el estado &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; sea un número &amp;lt;math&amp;gt;d&amp;lt;/math&amp;gt;&amp;lt;math&amp;gt;(d&amp;gt;1)&amp;lt;/math&amp;gt; y sus múltiplos enteros, se dice que el estado es &#039;&#039;&#039;periódico&#039;&#039;&#039;. De lo contrario, se dice que es aperiódico.&amp;lt;br&amp;gt;&lt;br /&gt;
En una cadena de Markov irreducible, o todos los estados son periódicos o todos son aperiódicos.&lt;br /&gt;
==== Recurrencia de los estados ====&lt;br /&gt;
La recurrencia de un estado es la probabilidad de que el primer regreso al estado &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; se produzca exactamente después de &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; instantes de tiempo.&amp;lt;br&amp;gt;&lt;br /&gt;
Matemáticamente:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;f_j&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;\sum_{n=1}^{\infty}f_j^{(n)}&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
En función del valor de &amp;lt;math&amp;gt;f_j&amp;lt;/math&amp;gt; se pueden clasificar los estados de una cadena de Markov en:&lt;br /&gt;
* Recurrentes, si &amp;lt;math&amp;gt;f_j=1&amp;lt;/math&amp;gt;&lt;br /&gt;
* Transitorios, si &amp;lt;math&amp;gt;f_j&amp;lt;1&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
Cabe destacar que en una cadena de Markov de estados finitos no todos os estados pueden ser transitorios, ya que de ser así, pasado cierto tiempo no habría ningún estado al que transicionar, cosa imposible. por lo tanto, en una cadena de Markov irreducible de estados finitos, todos los estados son recurrentes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para los estados recurrentes se puede calcular el &#039;&#039;&#039;tiempo medio de recurrencia&#039;&#039;&#039; de un estado &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; como:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;T_j&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;\sum_{n=1}^{\infty}n f_j^{(n)}&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
En función del valor de &amp;lt;math&amp;gt;T_j&amp;lt;/math&amp;gt;, se pueden clasificar los estados recurrentes en:&lt;br /&gt;
* Recurrentes positivos, si &amp;lt;math&amp;gt;T_j&amp;lt;\infty&amp;lt;/math&amp;gt;&lt;br /&gt;
* Recurrentes nulos, en caso contrario&amp;lt;br&amp;gt;&lt;br /&gt;
==== Cadenas de Markov ergódicas ====&lt;br /&gt;
Cuando en un estado se dan las circunstancias de que sea aperiódico y recurrente positivo, se dice que dicho estado es &#039;&#039;&#039;ergódico&#039;&#039;&#039;. Para que una cadena de Markov sea &#039;&#039;&#039;ergódica&#039;&#039;&#039;, todos sus estados tienen que serlo.&lt;br /&gt;
== Referencias ==&lt;br /&gt;
* García, C. L., &amp;amp; Veiga, M. F. (2013). Teoría de la información y codificación, 2a ed.&lt;br /&gt;
* Ratio de entropía. (2012, marzo). Ratio de entropía. https://es.wikipedia.org/w/index.php?title=Ratio_de_entrop%C3%ADa&amp;amp;action=info&lt;br /&gt;
* Torres Agudo, J. J. (s/f). Lección 3: Procesos de Markov. UGR. Recuperado noviembre de 2024, de https://www.ugr.es/~jtorres/leccion3&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Tasa_de_entropia&amp;diff=11027</id>
		<title>Draft:Tasa de entropia</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Tasa_de_entropia&amp;diff=11027"/>
		<updated>2024-11-02T12:01:15Z</updated>

		<summary type="html">&lt;p&gt;Alberto.esteban.sanchez: New concept &amp;quot;Tasa de Entropía&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
El término hace referencia al ratio de crecimiento de la entropía en un proceso estocástico con una secuencia de n variables aleatorias.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Matemáticamente, se define la tasa de entropía &#039;&#039;&#039;H(χ)&#039;&#039;&#039; como:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X)=\lim_{n \to \infty} \dfrac{1}{n} H(X_1,X_2,...,X_N)&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
siempre que exista dicho límite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Cuando dicho límite existe, recibe el nombre de &#039;&#039;&#039;tasa de entropía del proceso estocástico&#039;&#039;&#039;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Si dicho proceso estocástico es estacionario, entonces existe el &amp;lt;math&amp;gt;lim_{n \to \infty} \dfrac{1}{n} H(X_1,X_2,...,X_N)&amp;lt;/math&amp;gt; y se cumple que:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;lim_{n \to \infty} \dfrac{1}{n} H(X_1,X_2,...,X_N)&amp;lt;/math&amp;gt; = &amp;lt;math&amp;gt;lim_{n \to \infty} H(X_n|X_{n-1},X_{n-1},...,X_{1})&amp;lt;/math&amp;gt; &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
esto significa que la tasa de entropía de un proceso estocástico estacionario es igual a la [[Draft:Entropía_condicional|entropía condicional]] de la última variable aleatoria &amp;lt;math&amp;gt;X_N&amp;lt;/math&amp;gt; en función del resto de variables aleatorias del proceso.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Cadenas de Markov ==&lt;br /&gt;
Dentro de los procesos estocásticos, las cadenas de Markov resultan un caso particular.&amp;lt;br&amp;gt;&lt;br /&gt;
=== Definición ===&lt;br /&gt;
Los procesos de Markov son aquellos procesos estocásticos en los que la probabilidad de un suceso &amp;lt;math&amp;gt;X_t&amp;lt;/math&amp;gt; en un instante &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt; depende únicamente de la probabilidad &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;sub&amp;gt;t-1&amp;lt;/sub&amp;gt; del instante inmediatamente anterior &amp;lt;math&amp;gt;t-1&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De forma matemática:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
 &amp;lt;math&amp;gt;P(X_n=x_n|X_{n-1}=x_{n-1},X_{n-2}=x_{n-2},...,X_1=x_1)&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;P(X_n=x_n|X_{n-1}=x_{n-1})&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
=== Probabilidad de transición en un paso ===&lt;br /&gt;
Se define como la probabilidad condicional de que se produzca la transición del estado &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; en el instante de tiempo &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;, al estado &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; en un instante de tiempo &amp;lt;math&amp;gt;n+1&amp;lt;/math&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
Matemáticamente la expresión tiene la siguiente forma:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;P_{ij}&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;P(X_{n+1}=j|X_n=i)&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De la misma forma se puede aplicar esta expresión a la probabilidad de transición en &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; pasos:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;P^{(n)}_{ij}&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;P(X_{m+n}=j|X_{m}=i)&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
=== Clasificación de las cadenas de Markov ===&lt;br /&gt;
==== Cadenas de Markov irreducibles ====&lt;br /&gt;
Una cadena de Markov es &#039;&#039;&#039;irreducible&#039;&#039;&#039; cuando desde cada estado se puede alcanzar el resto de los estados.&amp;lt;br&amp;gt;&lt;br /&gt;
Además, se denomina &#039;&#039;&#039;cerrado&#039;&#039;&#039; al subconjunto de dicha cadena si ninguno de sus estados se comunica con ninguno de los estados de cualquier otro subconjunto.&lt;br /&gt;
==== Cadenas de Markov periódicas ====&lt;br /&gt;
Siempre que el numero de pasos para alcanzar el estado &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; sea un número &amp;lt;math&amp;gt;d&amp;lt;/math&amp;gt;&amp;lt;math&amp;gt;(d&amp;gt;1)&amp;lt;/math&amp;gt; y sus múltiplos enteros, se dice que el estado es &#039;&#039;&#039;periódico&#039;&#039;&#039;. De lo contrario, se dice que es aperiódico.&amp;lt;br&amp;gt;&lt;br /&gt;
En una cadena de Markov irreducible, o todos los estados son periódicos o todos son aperiódicos.&lt;br /&gt;
==== Recurrencia de los estados ====&lt;br /&gt;
La recurrencia de un estado es la probabilidad de que el primer regreso al estado &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; se produzca exactamente después de &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; instantes de tiempo.&amp;lt;br&amp;gt;&lt;br /&gt;
Matemáticamente:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;f_j&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;\sum_{n=1}^{\infty}f_j^{(n)}&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
En función del valor de &amp;lt;math&amp;gt;f_j&amp;lt;/math&amp;gt; se pueden clasificar los estados de una cadena de Markov en:&lt;br /&gt;
* Recurrentes, si &amp;lt;math&amp;gt;f_j=1&amp;lt;/math&amp;gt;&lt;br /&gt;
* Transitorios, si &amp;lt;math&amp;gt;f_j&amp;lt;1&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
Cabe destacar que en una cadena de Markov de estados finitos no todos os estados pueden ser transitorios, ya que de ser así, pasado cierto tiempo no habría ningún estado al que transicionar, cosa imposible. por lo tanto, en una cadena de Markov irreducible de estados finitos, todos los estados son recurrentes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para los estados recurrentes se puede calcular el &#039;&#039;&#039;tiempo medio de recurrencia&#039;&#039;&#039; de un estado &amp;lt;math&amp;gt;j&amp;lt;/math&amp;gt; como:&amp;lt;br&amp;gt;&lt;br /&gt;
 &amp;lt;math&amp;gt;T_j&amp;lt;/math&amp;gt;=&amp;lt;math&amp;gt;\sum_{n=1}^{\infty}n f_j^{(n)}&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
En función del valor de &amp;lt;math&amp;gt;T_j&amp;lt;/math&amp;gt;, se pueden clasificar los estados recurrentes en:&lt;br /&gt;
* Recurrentes positivos, si &amp;lt;math&amp;gt;T_j&amp;lt;\infty&amp;lt;/math&amp;gt;&lt;br /&gt;
* Recurrentes nulos, en caso contrario&amp;lt;br&amp;gt;&lt;br /&gt;
==== Cadenas de Markov ergódicas ====&lt;br /&gt;
Cuando en un estado se dan las circunstancias de que sea aperiódico y recurrente positivo, se dice que dicho estado es &#039;&#039;&#039;ergódico&#039;&#039;&#039;. Para que una cadena de Markov sea &#039;&#039;&#039;ergódica&#039;&#039;&#039;, todos sus estados tienen que serlo.&lt;/div&gt;</summary>
		<author><name>Alberto.esteban.sanchez</name></author>
	</entry>
</feed>