<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Irene+Salinero</id>
	<title>glossaLAB - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Irene+Salinero"/>
	<link rel="alternate" type="text/html" href="https://www.glossalab.org/wiki/Special:Contributions/Irene_Salinero"/>
	<updated>2026-04-30T20:20:00Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.43.6</generator>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:C%C3%B3digo_c%C3%ADclico&amp;diff=10962</id>
		<title>Draft:Código cíclico</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:C%C3%B3digo_c%C3%ADclico&amp;diff=10962"/>
		<updated>2024-10-24T07:11:04Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He creado un articulo nuevo sobre códigos cíclicos&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
Un &#039;&#039;&#039;código cíclico&#039;&#039;&#039; es un tipo especial de código lineal utilizado en la corrección de errores en la teoría de la información y las comunicaciones. En un código cíclico, cualquier desplazamiento cíclico de un código válido también es un código válido. Es decir, si un vector de código es c=(c0​,c1​,…,cn−1​), entonces la rotación cíclica c′=(cn−1​,c0​,…,cn−2​) también pertenece al conjunto de códigos.&lt;br /&gt;
&lt;br /&gt;
Estos códigos son ampliamente usados debido a su estructura algebraica, que permite implementar algoritmos de codificación y decodificación eficientes.&amp;lt;ref&amp;gt;Díaz Nafría, J. M. (2023). &#039;&#039;Teoría de la Información: Códigos cíclicos&#039;&#039; [Apuntes de asignatura]. Universidad a Distancia de Madrid (UDIMA).&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== &#039;&#039;&#039;Características Principales&#039;&#039;&#039; ====&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Linealidad&#039;&#039;&#039;: Al ser un tipo de código lineal, cualquier combinación lineal de dos vectores de código es también un vector de código.&lt;br /&gt;
# &#039;&#039;&#039;Estructura cíclica&#039;&#039;&#039;: Si un vector pertenece al código, entonces todos sus desplazamientos cíclicos también pertenecen al código.&lt;br /&gt;
# &#039;&#039;&#039;Representación polinómica&#039;&#039;&#039;: Los códigos cíclicos se pueden representar como polinomios sobre un cuerpo finito Fq​, donde q es la cantidad de elementos en el cuerpo (por lo general, q=2, lo que representa el cuerpo binario). Un código cíclico de longitud n puede ser descrito mediante un polinomio generador g(x), que divide el polinomio xn−1.&lt;br /&gt;
&lt;br /&gt;
==== &#039;&#039;&#039;Usos de los Códigos Cíclicos&#039;&#039;&#039; ====&lt;br /&gt;
[[File:Desplazamiento.png|thumb|Ejemplo de desplazamiento circular de una palabra hacia la derecha.&amp;lt;ref&amp;gt;Tarrés, F., &amp;amp; Cabrera, M. &#039;&#039;Teoría de la codificación y modulaciones avanzadas. Módulo 2: Codificación de canal I, introducción y códigos de bloque&#039;&#039;. Universitat Oberta de Catalunya. Recuperado de [https://openaccess.uoc.edu/bitstream/10609/63345/6/Teor%C3%ADa%20de%20la%20codificaci%C3%B3n%20y%20modulaciones%20avanzadas_M%C3%B3dulo%202_%20Codificaci%C3%B3n%20de%20canal%20I%2C%20introducci%C3%B3n%20y%20c%C3%B3digos%20de%20bloque.pdf]&amp;lt;/ref&amp;gt;]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Códigos BCH&#039;&#039;&#039; y &#039;&#039;&#039;Códigos Reed-Solomon&#039;&#039;&#039;, que son variantes de códigos cíclicos usados en la transmisión de datos (CDs, DVDs y comunicaciones satelitales).&lt;br /&gt;
* &#039;&#039;&#039;Control de redundancia cíclica (CRC)&#039;&#039;&#039;, que es un método común para la detección de errores en redes de comunicación y sistemas de almacenamiento.&lt;br /&gt;
&lt;br /&gt;
== Formulación ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Polinomio generador&#039;&#039;&#039;: Un código cíclico de longitud n en un cuerpo finito Fq​ se describe mediante un polinomio generador g(x) de grado r, donde &amp;lt;math&amp;gt;r = n - k&amp;lt;/math&amp;gt; (con k siendo la longitud de los mensajes de información). El polinomio generador satisface la propiedad &amp;lt;math&amp;gt;g(x) \mid( xn - 1 )&amp;lt;/math&amp;gt;.&lt;br /&gt;
* &#039;&#039;&#039;Codificación&#039;&#039;&#039;: Para codificar un mensaje m(x) de longitud k, se multiplica el mensaje por xr y luego se obtiene el residuo de la división por g(x): &amp;lt;math&amp;gt;c(x) = m(x)  x^r \pmod{g(x)}&amp;lt;/math&amp;gt; .El polinomio resultante c(x) es el vector codificado.&lt;br /&gt;
* &#039;&#039;&#039;Decodificación&#039;&#039;&#039;: La decodificación se basa en el uso del síndrome, que se calcula dividiendo el polinomio recibido r(x) por g(x). Si el residuo es cero, no hay errores en la transmisión.&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Aquí se presenta un ejemplo en MATLAB para crear y usar un código cíclico (en este caso, un CRC): &amp;lt;ref&amp;gt;MathWorks. (2024). &#039;&#039;Cyclotomic polynomial&#039;&#039;. MATLAB. Consultado el 24 de octubre de 2024 de [https://es.mathworks.com/help/comm/ref/cyclpoly.html?s_tid=srchtitle_site_search_1_cyclpoly]&amp;lt;/ref&amp;gt;&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Ejemplo de implementación de un código cíclico en MATLAB&lt;br /&gt;
% Parámetros del código&lt;br /&gt;
n = 7; % longitud del código&lt;br /&gt;
k = 4; % longitud del mensaje original&lt;br /&gt;
&lt;br /&gt;
% Polinomio generador del código cíclico&lt;br /&gt;
polGen = cyclpoly(n, k);&lt;br /&gt;
&lt;br /&gt;
% Generar el generador de matriz cíclico&lt;br /&gt;
[genMatrix, parityMatrix] = cyclgen(n, polGen);&lt;br /&gt;
&lt;br /&gt;
% Mensaje de entrada (de longitud k)&lt;br /&gt;
msg = [1 0 1 1]; % Ejemplo de mensaje binario&lt;br /&gt;
&lt;br /&gt;
% Codificación del mensaje usando el generador de matriz&lt;br /&gt;
encodedMsg = encode(msg, n, k, &#039;cyclic&#039;, polGen);&lt;br /&gt;
&lt;br /&gt;
% Mostrar el mensaje codificado&lt;br /&gt;
disp(&#039;Mensaje codificado:&#039;);&lt;br /&gt;
disp(encodedMsg);&lt;br /&gt;
&lt;br /&gt;
% Decodificación del mensaje&lt;br /&gt;
% Supongamos que recibimos el mensaje codificado sin errores&lt;br /&gt;
receivedMsg = encodedMsg;&lt;br /&gt;
&lt;br /&gt;
% Decodificación&lt;br /&gt;
decodedMsg = decode(receivedMsg, n, k, &#039;cyclic&#039;, polGen);&lt;br /&gt;
&lt;br /&gt;
% Mostrar el mensaje decodificado&lt;br /&gt;
disp(&#039;Mensaje decodificado:&#039;);&lt;br /&gt;
disp(decodedMsg);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Desplazamiento.png&amp;diff=10961</id>
		<title>File:Desplazamiento.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Desplazamiento.png&amp;diff=10961"/>
		<updated>2024-10-24T06:55:54Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ejemplo de desplazamiento circular de una palabra hacia la derecha&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Algoritmo_de_Huffman&amp;diff=10960</id>
		<title>Draft:Algoritmo de Huffman</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Algoritmo_de_Huffman&amp;diff=10960"/>
		<updated>2024-10-24T06:45:25Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He modificado las referencias poniéndolas al estilo APA, he añadido información importante así como mejorado el código proporcionado de Matlab.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
El término se refiere al uso de una tabla de códigos de longitud variable para codificar un determinado símbolo, donde la tabla ha sido rellenada de una manera específica basándose en la probabilidad estimada de aparición de cada posible valor de dicho símbolo. Fue desarrollado por David A. Huffman mientras era estudiante de doctorado en el MIT, y publicado en &amp;quot;A Method for the Construction of Minimum-Redundancy Codes&amp;quot;.&amp;lt;ref&amp;gt;Wikipedia. (s.f.). &#039;&#039;Codificación Huffman&#039;&#039;. En Wikipedia, la enciclopedia libre. Recuperado el 24 de octubre de 2024, de [https://es.wikipedia.org/wiki/Codificaci%C3%B3n_Huffman#:~:text=El%20t%C3%A9rmino%20se%20refiere%20al,posible%20valor%20de%20dicho%20s%C3%ADmbolo.]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;&amp;lt;big&amp;gt;Método&amp;lt;/big&amp;gt;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Usa un método específico para elegir la representación de cada símbolo, que da lugar a un código prefijo (es decir, la cadena de bits que representa a un símbolo en particular nunca es prefijo de la cadena de bits de un símbolo distinto) que representa los caracteres más comunes usando las cadenas de bits más cortas, y viceversa. Huffman fue capaz de diseñar el método de compresión más eficiente de este tipo: ninguna representación alternativa de un conjunto de símbolos de entrada produce una salida media más pequeña cuando las frecuencias de los símbolos coinciden con las usadas para crear el código. Posteriormente se encontró un método para llevar esto a cabo en un tiempo lineal si las probabilidades de los símbolos de entrada (también conocidas como &amp;quot;pesos&amp;quot;) están ordenadas.&lt;br /&gt;
&lt;br /&gt;
Para un grupo de símbolos con una distribución de probabilidad uniforme y un número de miembros que es potencia de dos, la codificación Huffman es equivalente a una codificación en bloque binaria, por ejemplo, la codificación ASCII. &lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;&amp;lt;big&amp;gt;Proceso de Codificación con el Algoritmo de Huffman&amp;lt;/big&amp;gt;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
[[File:Árbol Huffman.png|thumb]]&lt;br /&gt;
&lt;br /&gt;
# Calcular las frecuencias de cada carácter en el mensaje.&lt;br /&gt;
# Construir un árbol de Huffman utilizando una cola de prioridad, en la que se seleccionan los dos nodos de menor frecuencia y se combinan para formar un nuevo nodo con la suma de sus frecuencias.&lt;br /&gt;
# Repetir el paso anterior hasta que solo quede un nodo en la cola, que será la raíz del árbol. Asignar códigos binarios a cada carácter, trazando el camino desde la raíz hasta las hojas.&amp;lt;ref&amp;gt;José Luis Varela Gonda. &#039;&#039;Algoritmo de Huffman&#039;&#039;. Universidad de Vigo. Recuperado de [https://joselu.webs.uvigo.es/material/Algoritmo%20de%20Huffman.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
A continuación, se presenta un código para crear un diccionario de códigos Huffman.&amp;lt;ref&amp;gt;MathWorks. (s. f.). &#039;&#039;huffmandict&#039;&#039;. MathWorks. Recuperado el 24 de octubre de 2024, de [https://es.mathworks.com/help/comm/ref/huffmandict.html?s_tid=srchtitle_site_search_1_huffmandict]&amp;lt;/ref&amp;gt;&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
function dict = huffmandict(symbols, prob)&lt;br /&gt;
    % huffmandict: Creates a Huffman code dictionary based on given symbols and probabilities&lt;br /&gt;
    &lt;br /&gt;
    % ENTRADAS:&lt;br /&gt;
    %   symbols: Vector con el alfabeto de símbolos únicos&lt;br /&gt;
    %   prob: Vector con las probabilidades de ocurrencia de cada símbolo&lt;br /&gt;
    &lt;br /&gt;
    % SALIDAS:&lt;br /&gt;
    %   dict: Diccionario con los códigos binarios de Huffman para cada símbolo&lt;br /&gt;
&lt;br /&gt;
    % Validar las entradas&lt;br /&gt;
    if length(symbols) ~= length(prob)&lt;br /&gt;
        error(&#039;El número de símbolos y probabilidades deben ser iguales.&#039;);&lt;br /&gt;
    end&lt;br /&gt;
&lt;br /&gt;
    if abs(sum(prob) - 1) &amp;gt; 1e-6&lt;br /&gt;
        error(&#039;Las probabilidades deben sumar aproximadamente 1.&#039;);&lt;br /&gt;
    end&lt;br /&gt;
&lt;br /&gt;
    % Comprobar que las probabilidades son positivas&lt;br /&gt;
    if any(prob &amp;lt; 0)&lt;br /&gt;
        error(&#039;Las probabilidades deben ser mayores o iguales a cero.&#039;);&lt;br /&gt;
    end&lt;br /&gt;
&lt;br /&gt;
    % Generar el diccionario de Huffman utilizando la función incorporada de MATLAB&lt;br /&gt;
    dict = huffmandict(symbols, prob);&lt;br /&gt;
&lt;br /&gt;
    % Mostrar el diccionario generado&lt;br /&gt;
    disp(&#039;Diccionario de Huffman:&#039;);&lt;br /&gt;
    disp(dict);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:%C3%81rbol_Huffman.png&amp;diff=10959</id>
		<title>File:Árbol Huffman.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:%C3%81rbol_Huffman.png&amp;diff=10959"/>
		<updated>2024-10-24T06:43:09Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Árbol Huffman&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=10958</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=10958"/>
		<updated>2024-10-23T15:47:27Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He añadido la figura resultante del código&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt; [1] &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|&#039;&#039;&#039;Figura 1:&#039;&#039;&#039; Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;, en general&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes (véase, &#039;&#039;Figura 1&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Interpretaciones ==&lt;br /&gt;
Según Cuevas&amp;lt;ref&amp;gt;Cuevas Agustín, G (1975). &#039;&#039;Teoría de la información, codificación y lenguajes&#039;&#039;. Servicio de Publicaciones del Ministerio de Educación y Ciencia.&amp;lt;/ref&amp;gt;, si la información a la salida de un canal de transmisión es conocida, subyace una cierta incertidumbre sobre la información en la entrada que la ha originado, debido al ruido. El valor medio de esta incertidumbre se conoce como entropía del campo &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; condicionado por el campo &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, y la representamos como &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Para determinar la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; se puede considerar que:&lt;br /&gt;
* si el símbolo &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; aparece a la salida del canal, existe una incertidumbre sobre el símbolo emitido a la entrada. Esto es, éste puede ser &amp;lt;math&amp;gt;x_1, x_2, x_3, ..., x_i&amp;lt;/math&amp;gt;, entonces&lt;br /&gt;
* la probabilidad de que se haya transmitido el símbolo &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; a la entrada del canal cuando a la salida aparece &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; es &amp;lt;math&amp;gt;p(x_i|y_j) = \frac{p(x_i,y_j)}{p(y_j)}&amp;lt;/math&amp;gt;, es decir, la probabilidad que existe de que se transmita &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; y se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; [ &amp;lt;math&amp;gt;p(x_i,y_j)&amp;lt;/math&amp;gt;] es igual a la probabilidad de que se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; por la probabilidad de que habiendo recibido &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; sea &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; el símbolo transmitido.&lt;br /&gt;
&lt;br /&gt;
La entropía existente a la recepción del símbolo &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; se expresa como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y = y_j) = \sum_{i=1}^n p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Y el valor medio de esta entropía para todos los valores posibles de &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; quedaría representada matemáticamente como la fórmula [1] descrita en la definición de la entropía condicional.&lt;br /&gt;
&lt;br /&gt;
Podríamos denominar a la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; como &#039;&#039;ambigüedad&#039;&#039; o &#039;&#039;equívoco&#039;&#039;, al tratarse de una medida de la incertidumbre sobre la información a la entrada del canal cuando a la salida ésta es conocida. &lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
== Ejemplo ==&lt;br /&gt;
[[File:EntropíaCondicional.jpg|thumb|382x382px]]&lt;br /&gt;
Vamos a ver un ejemplo de la vida diaria para poder entender mejor este nuevo concepto de entropía condicional.&lt;br /&gt;
Supongamos que queremos calcular la entropía condicional de la variable &amp;quot;clima&amp;quot; dado que sabemos el &amp;quot;día de la semana&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Ejemplo:&lt;br /&gt;
&lt;br /&gt;
*Los posibles estados del clima son: &amp;quot;soleado&amp;quot;, &amp;quot;nublado&amp;quot; y &amp;quot;lluvioso&amp;quot;.&lt;br /&gt;
* Tenemos la siguiente tabla de probabilidades conjuntas P(día, clima):&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Día/Clima&lt;br /&gt;
!Soleado&lt;br /&gt;
!Nublado&lt;br /&gt;
!Lluvioso&lt;br /&gt;
|-&lt;br /&gt;
|Lunes&lt;br /&gt;
|0.2&lt;br /&gt;
|0.1&lt;br /&gt;
|0.1&lt;br /&gt;
|-&lt;br /&gt;
|Martes&lt;br /&gt;
|0.1&lt;br /&gt;
|0.3&lt;br /&gt;
|0.1&lt;br /&gt;
|-&lt;br /&gt;
|Miércoles&lt;br /&gt;
|0.1&lt;br /&gt;
|0.2&lt;br /&gt;
|0.2&lt;br /&gt;
|}&lt;br /&gt;
Para resolver este problema mejor lo vamos a hacer en Matlab. Vamos a calcular y graficar la matriz de probabilidades conjuntas P(día, clima) como un mapa de calor, lo que nos permitirá ver cómo varían las probabilidades en función del día y el clima.&amp;lt;ref&amp;gt;The MathWorks Inc. (2022). &#039;&#039;Imagesc. Display image with scaled colors.&#039;&#039; Massachusetts: The MathWorks Inc.  [https://es.mathworks.com/help/matlab/ref/imagesc.html?s_tid=srchtitle_site_search_1_imagesc]&amp;lt;/ref&amp;gt;&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir la distribución conjunta P(Día, Clima)&lt;br /&gt;
P_joint = [0.2, 0.1, 0.1;  % Probabilidades para Lunes&lt;br /&gt;
           0.1, 0.3, 0.1;  % Probabilidades para Martes&lt;br /&gt;
           0.1, 0.2, 0.2]; % Probabilidades para Miércoles&lt;br /&gt;
&lt;br /&gt;
% Calcular la distribución marginal P(Día)&lt;br /&gt;
P_dia = sum(P_joint, 2); % Sumar sobre las columnas para obtener P(Día)&lt;br /&gt;
&lt;br /&gt;
% Inicializar la entropía condicional&lt;br /&gt;
H_Clima_given_Dia = 0;&lt;br /&gt;
&lt;br /&gt;
% Calcular la entropía condicional H(Clima|Día)&lt;br /&gt;
for i = 1:size(P_joint, 1) % Para cada día&lt;br /&gt;
    for j = 1:size(P_joint, 2) % Para cada estado del clima&lt;br /&gt;
        if P_joint(i, j) &amp;gt; 0&lt;br /&gt;
            % Sumar la contribución de la probabilidad a la entropía condicional&lt;br /&gt;
            H_Clima_given_Dia = H_Clima_given_Dia - P_joint(i, j) * log2(P_joint(i, j) / P_dia(i));&lt;br /&gt;
        end&lt;br /&gt;
    end&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Mostrar el resultado&lt;br /&gt;
fprintf(&#039;La entropía condicional H(Clima|Día) es: %.4f bits\n&#039;, H_Clima_given_Dia);&lt;br /&gt;
&lt;br /&gt;
% --- Representación gráfica ---&lt;br /&gt;
% Etiquetas para los días y el clima&lt;br /&gt;
dias = {&#039;Lunes&#039;, &#039;Martes&#039;, &#039;Miércoles&#039;};&lt;br /&gt;
clima = {&#039;Soleado&#039;, &#039;Nublado&#039;, &#039;Lluvioso&#039;};&lt;br /&gt;
&lt;br /&gt;
% Crear un mapa de calor de la distribución conjunta&lt;br /&gt;
figure;&lt;br /&gt;
imagesc(P_joint);&lt;br /&gt;
colormap(&#039;hot&#039;); % Escala de colores&lt;br /&gt;
colorbar;&lt;br /&gt;
title(&#039;Mapa de calor de la distribución conjunta P(Día, Clima)&#039;);&lt;br /&gt;
xlabel(&#039;Clima&#039;);&lt;br /&gt;
ylabel(&#039;Día&#039;);&lt;br /&gt;
set(gca, &#039;XTick&#039;, 1:3, &#039;XTickLabel&#039;, clima);&lt;br /&gt;
set(gca, &#039;YTick&#039;, 1:3, &#039;YTickLabel&#039;, dias);&lt;br /&gt;
&lt;br /&gt;
% Añadir etiquetas numéricas en cada celda del mapa de calor&lt;br /&gt;
for i = 1:size(P_joint, 1)&lt;br /&gt;
    for j = 1:size(P_joint, 2)&lt;br /&gt;
        text(j, i, num2str(P_joint(i, j), &#039;%.2f&#039;), &#039;HorizontalAlignment&#039;, &#039;center&#039;, &#039;Color&#039;, &#039;black&#039;);&lt;br /&gt;
    end&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Entrop%C3%ADaCondicional.jpg&amp;diff=10957</id>
		<title>File:EntropíaCondicional.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Entrop%C3%ADaCondicional.jpg&amp;diff=10957"/>
		<updated>2024-10-23T15:45:52Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Mapa de entropía condicional&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=C%C3%B3digo_Hamming&amp;diff=10956</id>
		<title>Código Hamming</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=C%C3%B3digo_Hamming&amp;diff=10956"/>
		<updated>2024-10-23T15:42:49Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He creado este artículo añadiendo definición, características, ejemplo...&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
El &#039;&#039;&#039;código de Hamming&#039;&#039;&#039; es un tipo de código de corrección de errores utilizado para detectar y corregir errores en la transmisión de datos. Fue desarrollado por Richard Hamming en 1950 y es una de las primeras técnicas utilizadas para asegurar la integridad de la información en sistemas de comunicación digital.&amp;lt;ref&amp;gt;Díaz-Nafría, JM.; García-Tejero, A. (2023).&#039;&#039;Teoría de la información.&#039;&#039; UDIMA.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Principales conceptos del código de Hamming: ===&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Corrección de errores&#039;&#039;&#039;: El objetivo del código de Hamming es no solo detectar errores, sino también corregirlos. Esto se logra añadiendo bits de paridad a la información original para formar un código que permita identificar la posición del bit erróneo.&lt;br /&gt;
# &#039;&#039;&#039;Bits de paridad&#039;&#039;&#039;: En un código de Hamming, se insertan bits adicionales (bits de paridad) en posiciones específicas dentro de la secuencia de datos. Estos bits se calculan de manera que cada uno verifique la paridad (suma de bits 1 o 0) de ciertos conjuntos de bits en el mensaje.&lt;br /&gt;
# &#039;&#039;&#039;Distancia de Hamming&#039;&#039;&#039;: Es la cantidad mínima de bits que deben cambiarse para convertir un código válido en otro. El código de Hamming tiene una distancia mínima de 3, lo que significa que puede detectar hasta 2 errores y corregir 1 error.&lt;br /&gt;
# &#039;&#039;&#039;Formato de los códigos de Hamming&#039;&#039;&#039;: Se usan normalmente notaciones del tipo (7,4), donde 7 es el número total de bits (datos + paridad) y 4 es el número de bits de datos originales. Esto significa que el código de Hamming (7,4) utiliza 3 bits de paridad.&lt;br /&gt;
&lt;br /&gt;
=== Funcionamiento básico del código de Hamming: ===&lt;br /&gt;
[[File:Hamming(7,4).png|thumb|317x317px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Codificación&#039;&#039;&#039;: Se parte de un mensaje binario original al que se le añaden bits de paridad para formar un código que pueda detectar y corregir errores. Los bits de paridad se calculan de manera que cada uno cubre un conjunto diferente de bits del mensaje.&lt;br /&gt;
* &#039;&#039;&#039;Detección y corrección&#039;&#039;&#039;: Cuando el mensaje codificado se recibe, se verifican los bits de paridad para determinar si hay errores. Si los bits de paridad indican un error, el código de Hamming puede identificar la posición del bit erróneo y corregirlo.&amp;lt;ref&amp;gt;InvaratoRamón. (2016). &#039;&#039;Código de Hamming: Detección y Corrección de errores.&#039;&#039; Consultado el 23/10/2024. [https://jarroba.com/codigo-de-hamming-deteccion-y-correccion-de-errores/]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ejemplo ==&lt;br /&gt;
Un ejemplo práctico del uso del &#039;&#039;&#039;código de Hamming&#039;&#039;&#039; en la vida real es en la &#039;&#039;&#039;transmisión de datos en redes de computadoras&#039;&#039;&#039;, como en la comunicación de datos entre dispositivos electrónicos, discos duros o en la memoria RAM de una computadora.&lt;br /&gt;
&lt;br /&gt;
=== Memoria RAM con corrección de errores (ECC) ===&lt;br /&gt;
La memoria RAM con corrección de errores, conocida como &#039;&#039;&#039;ECC RAM (Error-Correcting Code RAM)&#039;&#039;&#039;, utiliza el código de Hamming para detectar y corregir errores de bits en tiempo real. En una computadora, los datos se almacenan y transfieren en forma de bits (0 y 1), y debido a varios factores (ruido electromagnético, radiación cósmica, errores de hardware, etc.), un bit puede cambiar su valor de 0 a 1 o de 1 a 0, lo que se conoce como &amp;quot;error de bit&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Hamming(7,4).png&amp;diff=10955</id>
		<title>File:Hamming(7,4).png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Hamming(7,4).png&amp;diff=10955"/>
		<updated>2024-10-23T15:34:45Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;7 bits en total, 4 bits de datos y 3 bits de paridad&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=10954</id>
		<title>Draft:Entropía condicional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_condicional&amp;diff=10954"/>
		<updated>2024-10-23T15:13:32Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He añadido un código interesante para calcular la entropía aplicando un ejemplo real.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición==&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, dada &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, como el valor promedio de la distribución de probabilidades a posteriori de la variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y) = \sum_{j=1}^m p(y_j) H(X|Y=y_j) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt; [1] &lt;br /&gt;
&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 1&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; referencia la entropía que tiene una determinada variable &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; conociendo la información que aporta otra variable &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&amp;lt;blockquote&amp;gt;&#039;&#039;Interpretación 2&#039;&#039;: La &#039;&#039;&#039;entropía condicional&#039;&#039;&#039; &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; es la cantidad de información necesaria para describir el resultado de una variable aleatoria &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; dado que se conoce el valor de otra variable aleatoria &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;.&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
[[File:Venn-r cadena-ent conjunta condicional.png|alt=Representación gráfica a través de diagramas de Venn de la relación entre entropías individual, conjunta y condicional por la &amp;quot;regla de la cadena&amp;quot;.|thumb|&#039;&#039;&#039;Figura 1:&#039;&#039;&#039; Representación gráfica a través de diagramas de Venn de la relación entre [[Entropía o cantidad de información|entropías individual]], [[Draft:Entropía conjunta|conjunta]] y condicional por la &amp;quot;regla de la cadena&amp;quot;.]]&lt;br /&gt;
&lt;br /&gt;
=== Propiedades de la entropía condicional ===&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|X)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \leq H(X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X|Y) \neq H(Y|X)&amp;lt;/math&amp;gt;, en general&lt;br /&gt;
&lt;br /&gt;
==== Regla de la cadena ====&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y|X)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes (véase, &#039;&#039;Figura 1&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y) = H(Y) + H(X|Y)&amp;lt;/math&amp;gt; cumpliendo la igualdad si &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; son variables independientes&lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math&amp;gt;H(X,Y|Z) = H(X|Z) + H(Y|X,Z)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Interpretaciones ==&lt;br /&gt;
Según Cuevas&amp;lt;ref&amp;gt;Cuevas Agustín, G (1975). &#039;&#039;Teoría de la información, codificación y lenguajes&#039;&#039;. Servicio de Publicaciones del Ministerio de Educación y Ciencia.&amp;lt;/ref&amp;gt;, si la información a la salida de un canal de transmisión es conocida, subyace una cierta incertidumbre sobre la información en la entrada que la ha originado, debido al ruido. El valor medio de esta incertidumbre se conoce como entropía del campo &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; condicionado por el campo &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, y la representamos como &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Para determinar la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; se puede considerar que:&lt;br /&gt;
* si el símbolo &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; aparece a la salida del canal, existe una incertidumbre sobre el símbolo emitido a la entrada. Esto es, éste puede ser &amp;lt;math&amp;gt;x_1, x_2, x_3, ..., x_i&amp;lt;/math&amp;gt;, entonces&lt;br /&gt;
* la probabilidad de que se haya transmitido el símbolo &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; a la entrada del canal cuando a la salida aparece &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; es &amp;lt;math&amp;gt;p(x_i|y_j) = \frac{p(x_i,y_j)}{p(y_j)}&amp;lt;/math&amp;gt;, es decir, la probabilidad que existe de que se transmita &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; y se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; [ &amp;lt;math&amp;gt;p(x_i,y_j)&amp;lt;/math&amp;gt;] es igual a la probabilidad de que se reciba &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; por la probabilidad de que habiendo recibido &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; sea &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; el símbolo transmitido.&lt;br /&gt;
&lt;br /&gt;
La entropía existente a la recepción del símbolo &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; se expresa como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X|Y = y_j) = \sum_{i=1}^n p(x_i, y_j)\log\frac{1}{p(x_i|y_j)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Y el valor medio de esta entropía para todos los valores posibles de &amp;lt;math&amp;gt;y_j&amp;lt;/math&amp;gt; quedaría representada matemáticamente como la fórmula [1] descrita en la definición de la entropía condicional.&lt;br /&gt;
&lt;br /&gt;
Podríamos denominar a la entropía condicional &amp;lt;math&amp;gt;H(X|Y)&amp;lt;/math&amp;gt; como &#039;&#039;ambigüedad&#039;&#039; o &#039;&#039;equívoco&#039;&#039;, al tratarse de una medida de la incertidumbre sobre la información a la entrada del canal cuando a la salida ésta es conocida. &lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
Análogamente, se podría determinar la a entropía de la información a la salida si se conoce la información a la entrada.&lt;br /&gt;
&lt;br /&gt;
== Ejemplo ==&lt;br /&gt;
Vamos a ver un ejemplo de la vida diaria para poder entender mejor este nuevo concepto de entropía condicional.&lt;br /&gt;
Supongamos que queremos calcular la entropía condicional de la variable &amp;quot;clima&amp;quot; dado que sabemos el &amp;quot;día de la semana&amp;quot;.&lt;br /&gt;
Ejemplo:&lt;br /&gt;
&lt;br /&gt;
* Los posibles estados del clima son: &amp;quot;soleado&amp;quot;, &amp;quot;nublado&amp;quot; y &amp;quot;lluvioso&amp;quot;.&lt;br /&gt;
* Tenemos la siguiente tabla de probabilidades conjuntas P(día, clima):&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Día/Clima&lt;br /&gt;
!Soleado&lt;br /&gt;
!Nublado&lt;br /&gt;
!Lluvioso&lt;br /&gt;
|-&lt;br /&gt;
|Lunes&lt;br /&gt;
|0.2&lt;br /&gt;
|0.1&lt;br /&gt;
|0.1&lt;br /&gt;
|-&lt;br /&gt;
|Martes&lt;br /&gt;
|0.1&lt;br /&gt;
|0.3&lt;br /&gt;
|0.1&lt;br /&gt;
|-&lt;br /&gt;
|Miércoles&lt;br /&gt;
|0.1&lt;br /&gt;
|0.2&lt;br /&gt;
|0.2&lt;br /&gt;
|}&lt;br /&gt;
Para resolver este problema mejor lo vamos a hacer en Matlab. Vamos a calcular y graficar la matriz de probabilidades conjuntas P(día, clima) como un mapa de calor, lo que nos permitirá ver cómo varían las probabilidades en función del día y el clima.&amp;lt;ref&amp;gt;The MathWorks Inc. (2022). &#039;&#039;Imagesc. Display image with scaled colors.&#039;&#039; Massachusetts: The MathWorks Inc.  [https://es.mathworks.com/help/matlab/ref/imagesc.html?s_tid=srchtitle_site_search_1_imagesc]&amp;lt;/ref&amp;gt;&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir la distribución conjunta P(Día, Clima)&lt;br /&gt;
P_joint = [0.2, 0.1, 0.1;  % Probabilidades para Lunes&lt;br /&gt;
           0.1, 0.3, 0.1;  % Probabilidades para Martes&lt;br /&gt;
           0.1, 0.2, 0.2]; % Probabilidades para Miércoles&lt;br /&gt;
&lt;br /&gt;
% Calcular la distribución marginal P(Día)&lt;br /&gt;
P_dia = sum(P_joint, 2); % Sumar sobre las columnas para obtener P(Día)&lt;br /&gt;
&lt;br /&gt;
% Inicializar la entropía condicional&lt;br /&gt;
H_Clima_given_Dia = 0;&lt;br /&gt;
&lt;br /&gt;
% Calcular la entropía condicional H(Clima|Día)&lt;br /&gt;
for i = 1:size(P_joint, 1) % Para cada día&lt;br /&gt;
    for j = 1:size(P_joint, 2) % Para cada estado del clima&lt;br /&gt;
        if P_joint(i, j) &amp;gt; 0&lt;br /&gt;
            % Sumar la contribución de la probabilidad a la entropía condicional&lt;br /&gt;
            H_Clima_given_Dia = H_Clima_given_Dia - P_joint(i, j) * log2(P_joint(i, j) / P_dia(i));&lt;br /&gt;
        end&lt;br /&gt;
    end&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Mostrar el resultado&lt;br /&gt;
fprintf(&#039;La entropía condicional H(Clima|Día) es: %.4f bits\n&#039;, H_Clima_given_Dia);&lt;br /&gt;
&lt;br /&gt;
% --- Representación gráfica ---&lt;br /&gt;
% Etiquetas para los días y el clima&lt;br /&gt;
dias = {&#039;Lunes&#039;, &#039;Martes&#039;, &#039;Miércoles&#039;};&lt;br /&gt;
clima = {&#039;Soleado&#039;, &#039;Nublado&#039;, &#039;Lluvioso&#039;};&lt;br /&gt;
&lt;br /&gt;
% Crear un mapa de calor de la distribución conjunta&lt;br /&gt;
figure;&lt;br /&gt;
imagesc(P_joint);&lt;br /&gt;
colormap(&#039;hot&#039;); % Escala de colores&lt;br /&gt;
colorbar;&lt;br /&gt;
title(&#039;Mapa de calor de la distribución conjunta P(Día, Clima)&#039;);&lt;br /&gt;
xlabel(&#039;Clima&#039;);&lt;br /&gt;
ylabel(&#039;Día&#039;);&lt;br /&gt;
set(gca, &#039;XTick&#039;, 1:3, &#039;XTickLabel&#039;, clima);&lt;br /&gt;
set(gca, &#039;YTick&#039;, 1:3, &#039;YTickLabel&#039;, dias);&lt;br /&gt;
&lt;br /&gt;
% Añadir etiquetas numéricas en cada celda del mapa de calor&lt;br /&gt;
for i = 1:size(P_joint, 1)&lt;br /&gt;
    for j = 1:size(P_joint, 2)&lt;br /&gt;
        text(j, i, num2str(P_joint(i, j), &#039;%.2f&#039;), &#039;HorizontalAlignment&#039;, &#039;center&#039;, &#039;Color&#039;, &#039;black&#039;);&lt;br /&gt;
    end&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Diafon%C3%ADa&amp;diff=10231</id>
		<title>Draft:Diafonía</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Diafon%C3%ADa&amp;diff=10231"/>
		<updated>2024-05-08T09:51:43Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He creado el articulo nuevo mediante un Draft de Diafonía. Considero que es de vital importancia para comprender las alteraciones que puede sufrir una señal en un medio.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definición ==&lt;br /&gt;
La &#039;&#039;&#039;diafonía&#039;&#039;&#039; es un acoplamiento no deseado entre las líneas que transportan dos señales distintas. Es el típico cruce de líneas telefónico en el que se escucha otra conversación solapada. Esto ocurre cuando se acoplan eléctricamente dos pares de cables cercanos, aunque en ocasiones también se produce en líneas de cable coaxial con varias canales multiplexados o en antenas de microondas.&amp;lt;ref&amp;gt;Castro, G. M., Díaz, O. G., &amp;amp; Mur, P. F. (2012). &#039;&#039;Comunicaciones industriales : Principios básicos.&#039;&#039; UDIMA.[https://aula.udima.es/my/]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tipos de diafonía: ===&lt;br /&gt;
&lt;br /&gt;
# Paradiafonía: se produce por el acoplamiento entre dos señales que se propagan en sentido opuesto a través de pares contiguos, produciéndose únicamente cuando ambos sistemas transmiten en el mismo intervalo de frecuencias. El lugar donde el efecto de la paradiafonía es máximo es en aquel punto en el que la señal interferida tiene la mínima potencia y la señal interferente tiene potencia máxima. &lt;br /&gt;
# Telediafonía: La diafonía que ocurre a mayor distancia del transmisor genera menos ruido en un cable que la paradiafonía. El ruido causado por la telediafonía también regresa a la fuente, pero se va atenuando en el trayecto.&amp;lt;ref&amp;gt;Dubarrán, Miguel A. (2017).&#039;&#039;LA DIAFONÍA EN TELECOMUNICACIONES.&#039;&#039; Universidad Tecnlógica Oteima. Panamá.[https://recursoinformatico.weebly.com/uploads/1/0/7/3/107381475/diafonia_telecomunicaciones.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Problemas ==&lt;br /&gt;
La diafonía está relacionada con el ruido de la señal en sistemas de transmisión. El ruido de la señal se refiere a cualquier perturbación no deseada que afecta a la señal transmitida, lo que puede degradar la calidad y la integridad de la información que se transmite. La diafonía puede contribuir al ruido de la señal debido a la interferencia entre diferentes canales de transmisión o líneas de comunicación cercanas.&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Interferencia entre canales&#039;&#039;&#039;: En sistemas donde múltiples señales se transmiten a través de cables o líneas cercanas, la diafonía puede causar interferencia entre éstos. Por ejemplo, en un cable con múltiples pares de cables (como en cables Ethernet o telefónicos), las señales en un par de cables pueden inducir voltajes no deseados en los pares adyacentes, lo que puede afectar la claridad y la calidad de las señales transmitidas.&lt;br /&gt;
# &#039;&#039;&#039;Degradación de la señal&#039;&#039;&#039;: La diafonía puede provocar una disminución en la relación señal-ruido. La señal útil se ve afectada por interferencias no deseadas, lo que dificulta la correcta interpretación de la señal en el receptor y que sea más difícil distinguir la señal deseada del ruido, lo que lleva a una calidad de señal inferior.&lt;br /&gt;
# &#039;&#039;&#039;Impacto en la velocidad y la integridad de la transmisión&#039;&#039;&#039;: En sistemas de alta velocidad o sensibles al ruido, la diafonía puede limitar la velocidad máxima de transmisión o comprometer la integridad de los datos transmitidos. Necesitamos el uso de técnicas adicionales de corrección de errores o de procesamiento de señales para compensar los efectos del ruido introducido.&lt;br /&gt;
&lt;br /&gt;
== Soluciones ==&lt;br /&gt;
[[File:Cable.png|alt=Como reducir la diafonía|thumb|238x238px|1. Blindar cable / 2. Distancia entre cables]]&lt;br /&gt;
Para mitigar la diafonía, se emplean varias técnicas, que incluyen:&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Apantallamiento adecuado&#039;&#039;&#039;: Utilizar materiales conductores alrededor de los cables o líneas de transmisión para bloquear las interferencias externas.&lt;br /&gt;
# &#039;&#039;&#039;Diseño cuidadoso del cableado&#039;&#039;&#039;: Mantener una distancia adecuada entre los cables para minimizar la interacción entre ellos.&lt;br /&gt;
# &#039;&#039;&#039;Uso de cables blindados o trenzados&#039;&#039;&#039;: Los cables blindados están envueltos en una capa conductora adicional para proteger las señales de interferencias externas, mientras que los cables trenzados tienen múltiples conductores entrelazados para reducir la diafonía entre ellos.&lt;br /&gt;
# &#039;&#039;&#039;Filtros y aislamiento&#039;&#039;&#039;: Incorporar componentes como filtros para eliminar las frecuencias no deseadas y aisladores para reducir la propagación de interferencias.&amp;lt;ref&amp;gt;Pérez Pincay, Cesar Javier. (2016). &#039;&#039;Redes conmutadas, Diafonía.&#039;&#039; Universidad Estatal del Sur de Manabí. Ecuador.[https://www.monografias.com/docs113/redes-conmutada-diafonia/redes-conmutada-diafonia]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Ejemplo real ==&lt;br /&gt;
Imagina una oficina donde se utilizan teléfonos con cables conectados a una red telefónica. Los teléfonos están conectados a través de cables telefónicos que corren por el techo y las paredes de la oficina. Si dos cables telefónicos están muy cerca uno del otro y llevan señales de voz simultáneamente, puede ocurrir diafonía.&lt;br /&gt;
&lt;br /&gt;
En este escenario, cuando una persona está hablando por teléfono en una línea, parte de la señal eléctrica que lleva la voz puede inducirse en el cable adyacente debido a la proximidad física. Esta señal inducida puede afectar la claridad de la voz en la línea vecina, causando un ligero eco, murmullo o ruido de fondo indeseado. Esto se debe a la interferencia electromagnética entre los cables cercanos.&lt;br /&gt;
&lt;br /&gt;
Para minimizar la diafonía, los cables telefónicos pueden estar trenzados. Además, los cables pueden estar apantallados o separados físicamente para disminuir las interferencias electromagnéticas. Estas medidas ayudan a garantizar que las llamadas telefónicas se transmitan con la mayor calidad posible&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Cable.png&amp;diff=10230</id>
		<title>File:Cable.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Cable.png&amp;diff=10230"/>
		<updated>2024-05-08T09:31:08Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Como se reduce la diafonía&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Se%C3%B1ales_sim%C3%A9tricas_(par)_y_antisim%C3%A9tricas_(impar)&amp;diff=10229</id>
		<title>Draft:Señales simétricas (par) y antisimétricas (impar)</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Se%C3%B1ales_sim%C3%A9tricas_(par)_y_antisim%C3%A9tricas_(impar)&amp;diff=10229"/>
		<updated>2024-05-08T09:09:13Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He creado de forma correcta este nuevo artículo, ya que la última vez no lo hice con el draft.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definiciones==&lt;br /&gt;
===Señales Simétricas (Pares)===&lt;br /&gt;
Las señales simétricas son aquellas en las que su forma es idéntica alrededor de un eje central. Una función par es una función simétrica respecto al eje de ordenadas &#039;&#039;OY&#039;&#039;. Es decir, si plegásemos la gráfica por el eje de ordenadas encima de la otra parte, la gráfica se solaparía. &amp;lt;ref&amp;gt;Universo Formulas.(2024).&#039;&#039;Funciones simétricas y asimétricas&#039;&#039;. Valencia.[https://www.universoformulas.com/matematicas/analisis/funciones-simetricas-asimetricas/]&amp;lt;/ref&amp;gt;&lt;br /&gt;
====Dominio Continuo:====&lt;br /&gt;
#Simetría respecto al eje vertical: La señal &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; es simétrica si &amp;lt;math&amp;gt;f(t)=f(-t)&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\forall t&amp;lt;/math&amp;gt; en su dominio.&amp;lt;ref&amp;gt;Bosh Roig, Ignacio.; Gosálbez Castillo, Jorge.; Miralles Ricós, Ramón.; Vergara Domínguez, Luis. (2015). &#039;&#039;Señales y Sistemas. Transformada de la variable independiente&#039;&#039;. Valencia. [https://gdocu.upv.es/alfresco/service/api/node/content/workspace/SpacesStore/b66310f2-2006-4f4a-b1d5-faa3bcb03c9e/TOC_0377_04_01.pdf?guest=true]&amp;lt;/ref&amp;gt;&lt;br /&gt;
#Parte impar nula: Si una señal es simétrica, su parte impar es cero.&lt;br /&gt;
#Descomposición en serie de Fourier: Tienen una descomposición en serie de Fourier que solo incluye términos coseno. No tienen componentes de frecuencia de seno.&lt;br /&gt;
#Potencia de señal: La potencia de una señal simétrica puede ser más fácil de calcular.&lt;br /&gt;
#Sistemas de tiempo invariante: Las señales simétricas pueden simplificar el análisis de sistemas de tiempo invariante.&lt;br /&gt;
====Dominio Discreto:====&lt;br /&gt;
#Simetría respecto al eje vertical: En el dominio discreto, una señal &amp;lt;math&amp;gt;x[n]&amp;lt;/math&amp;gt; es simétrica si &amp;lt;math&amp;gt;x[n]=x[-n]&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\forall n&amp;lt;/math&amp;gt; en su dominio.&lt;br /&gt;
#Parte impar nula: Si una señal es simétrica, su parte impar es cero.&lt;br /&gt;
#Descomposición en serie de Fourier: En el dominio discreto, las señales simétricas tienen una descomposición en serie que incluye solo términos coseno.&lt;br /&gt;
#Potencia de señal: La potencia de una señal simétrica en el dominio discreto también puede ser más fácil de calcular.&lt;br /&gt;
#Sistemas de tiempo invariante: Al igual que en el dominio continuo, las señales simétricas pueden simplificar el análisis de sistemas de tiempo invariante en el dominio discreto.&lt;br /&gt;
===Señales Asimétricas (Impares)===&lt;br /&gt;
Las señales asimétricas son aquellas en las que su forma no es idéntica alrededor de un eje central. Una función impar es una función simétrica respecto al origen &#039;&#039;O&#039;&#039;. Si plegásemos la gráfica por el eje de ordenadas (&#039;&#039;OY&#039;&#039;) y después de nuevo por el eje de abscisas (&#039;&#039;OX&#039;&#039;), la gráfica se solaparía.&lt;br /&gt;
====Dominio Continuo:====&lt;br /&gt;
#Asimetría en el Tiempo: Las señales asimétricas no son simétricas respecto al eje de tiempo, la forma de la señal no es la misma si se refleja respecto al eje temporal.&lt;br /&gt;
#Propiedades Matemáticas:&lt;br /&gt;
#*Una señal &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; se considera asimétrica si &amp;lt;math&amp;gt;f(t)=-f(-t)  &amp;lt;/math&amp;gt;  &amp;lt;math&amp;gt;\forall t&amp;lt;/math&amp;gt; en su dominio.&lt;br /&gt;
#*La parte par de una señal asimétrica es cero para las componentes de t pares y la impar no es cero, tiene solo componentes impares.&lt;br /&gt;
#*La integral sobre un intervalo simétrico de una señal asimétrica es cero.&lt;br /&gt;
#Transformada de Fourier:&lt;br /&gt;
#*Las señales asimétricas tienen solo componentes impares en su espectro de frecuencia y su transformada de Fourier es generalmente compleja.&lt;br /&gt;
====Dominio Discreto:====&lt;br /&gt;
#Asimetría en el Tiempo:  Las señales asimétricas no son simétricas respecto al eje de temporal discreto2.&lt;br /&gt;
#Propiedades Matemáticas:&lt;br /&gt;
#*En el caso de señales discretas, una señal &amp;lt;math&amp;gt;x[n]&amp;lt;/math&amp;gt; se considera asimétrica si &amp;lt;math&amp;gt;x[n]=-x[-n]&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\forall n&amp;lt;/math&amp;gt; en su dominio.&lt;br /&gt;
#*La parte par de una señal discreta asimétrica es cero, mientras que la impar no es cero.&lt;br /&gt;
#*La suma de una señal asimétrica sobre un número par de muestras es cero.&lt;br /&gt;
#Transformada de Fourier Discreta (DFT):&lt;br /&gt;
#*Las señales asimétricas en el dominio discreto tienen solo componentes impares en su espectro de frecuencia y la DFT puede tener tanto partes reales como imaginarias.&lt;br /&gt;
==Código==&lt;br /&gt;
Una función par simétrica en Matlab podría ser la función coseno. Es simétrica respecto al eje y, lo que significa que &amp;lt;math&amp;gt;\cos(x)=\cos(-x)&amp;lt;/math&amp;gt; para cualquier valor de x. Este código genera un gráfico de &amp;lt;math&amp;gt;\cos(x)&amp;lt;/math&amp;gt; en el intervalo de &amp;lt;math&amp;gt;[-\pi,\pi]&amp;lt;/math&amp;gt;  y también grafica la función reflejada &amp;lt;math&amp;gt;\cos(-x)&amp;lt;/math&amp;gt; para demostrar su simetría respecto al eje y. Ambas curvas deben coincidir, lo que ilustra la propiedad de simetría de la función coseno. &amp;lt;ref&amp;gt;Mathworks (2006). cos. En &#039;&#039;Help Center&#039;&#039; [ayuda en línea]. Consultado el 28/02/2024 de: [https://es.mathworks.com/help/matlab/ref/double.cos.html?searchHighlight=funcion%20coseno&amp;amp;s_tid=srchtitle_support_results_3_funcion%20coseno]&amp;lt;/ref&amp;gt;[[File:PAR.jpg|thumb|341x341px]]&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición del dominio&lt;br /&gt;
x = -pi:0.01:pi; % Rango de -pi a pi con un paso de 0.01&lt;br /&gt;
% Función coseno&lt;br /&gt;
y = cos(x);&lt;br /&gt;
% Gráfico de la función coseno&lt;br /&gt;
plot(x, y, &#039;b&#039;, &#039;LineWidth&#039;, 2);&lt;br /&gt;
hold on;&lt;br /&gt;
plot(-x, y, &#039;r--&#039;, &#039;LineWidth&#039;, 2); % Graficar la función reflejada&lt;br /&gt;
xlabel(&#039;x&#039;);&lt;br /&gt;
ylabel(&#039;y = cos(x)&#039;);&lt;br /&gt;
title(&#039;Función Coseno y su Simetría&#039;);&lt;br /&gt;
legend(&#039;y = cos(x)&#039;, &#039;y = cos(-x)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Una función impar asimétrica en Matlab podría ser la función seno. Es antisimétrica respecto al origen, lo que significa que &amp;lt;math&amp;gt;\sin(x)=-\sin(-x)&amp;lt;/math&amp;gt; para cualquier valor de x. Este código genera un gráfico de &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt;en el intervalo de &amp;lt;math&amp;gt;[-\pi,\pi]&amp;lt;/math&amp;gt;y también grafica la función opuesta &amp;lt;math&amp;gt;-\sin(-x)&amp;lt;/math&amp;gt; para demostrar su antisimetría respecto al origen. Las dos curvas deben ser simétricas respecto al origen, lo que ilustra la propiedad de antisimetría de la función seno.&amp;lt;ref&amp;gt;Mathworks (2006). sin. En &#039;&#039;Help Center&#039;&#039; [ayuda en línea]. Consultado el 28/02/2024 de: [https://es.mathworks.com/help/matlab/ref/sin.html?searchHighlight=funcion%20seno&amp;amp;s_tid=srchtitle_support_results_2_funcion%20seno]&amp;lt;/ref&amp;gt;[[File:IMPAR.jpg|thumb|345x345px]]&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición del dominio&lt;br /&gt;
x = -pi:0.01:pi; % Rango de -pi a pi con un paso de 0.01&lt;br /&gt;
% Función seno&lt;br /&gt;
y = sin(x);&lt;br /&gt;
% Gráfico de la función seno&lt;br /&gt;
plot(x, y, &#039;b&#039;, &#039;LineWidth&#039;, 2);&lt;br /&gt;
hold on;&lt;br /&gt;
plot(-x, -y, &#039;r--&#039;, &#039;LineWidth&#039;, 2); % Graficar la función opuesta&lt;br /&gt;
xlabel(&#039;x&#039;);&lt;br /&gt;
ylabel(&#039;y = sin(x)&#039;);&lt;br /&gt;
title(&#039;Función Seno y su Antisimetría&#039;);&lt;br /&gt;
legend(&#039;y = sin(x)&#039;, &#039;y = -sin(-x)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Nivel_absoluto&amp;diff=10228</id>
		<title>Nivel absoluto</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Nivel_absoluto&amp;diff=10228"/>
		<updated>2024-05-08T09:03:25Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: (Buenos días, he eliminado la parte de código ya que no hacía referencia exacta al término de nivel absoluto. Además, he complementado el artículo añadiendo unas características adicionales y un ejemplo que creo que resulta bastante útil de comprender el significado de niveles.)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_ST&lt;br /&gt;
|Autores=Pablo Arrieta Natal&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Un &#039;&#039;&#039;nivel absoluto&#039;&#039;&#039; (decibélico) es un [[Nivel decibélico|nivel decibélico]], en el que la referencia, &#039;&#039;x&#039;&#039;, es un valor absoluto de la magnitud en cuestión&amp;lt;ref&amp;gt;&lt;br /&gt;
Díaz Nafría, J.M. (2020). &#039;&#039;Unidad 1: Caracterización de la señal. Sistemas de transmisión. Comunicaciones ópticas&#039;&#039;. UDIMA. &lt;br /&gt;
&amp;lt;/ref&amp;gt;. No debe confundirse con los [[Nivel relativo|&#039;&#039;&#039;niveles relativos&#039;&#039;&#039;]] en los que la referencia es el de un valor de la señal (magnitud de campo o potencia) en un punto de referencia del sistema o circuito bajo estudio. Vemos que cuando x es una referencia e y el valor de una magnitud en un punto L se llama nivel:  &amp;lt;math&amp;gt;L=K \log(y/x)&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Díaz Nafría, JM.(2024).&#039;&#039;Unidad 1:  Caracterización de la señal. Sistemas de transmisión. Comunicaciones.ópticas.&#039;&#039; UDIMA.[https://aula.udima.es/pluginfile.php/4620613/mod_resource/content/2/Unidad%201%20-%202pp.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Entendiendo el concepto de nivel absoluto en sistemas de transmisión, juega un papel crucial en garantizar la integridad y la calidad de la señal transmitida. Es esencial para determinar la intensidad de la señal que se está transmitiendo o recibiendo. Esta medida es crítica para garantizar que la señal se mantenga dentro de los límites adecuados para una correcta interpretación y decodificación en el receptor. También es crucial para la interoperabilidad entre diferentes sistemas de transmisión. Al mantener niveles de señal consistentes y bien definidos, es posible garantizar una comunicación efectiva entre dispositivos y sistemas de diferentes fabricantes o estándares.&amp;lt;ref&amp;gt;UIT-R;V.574-5. (2016).&#039;&#039;Uso del decibelio y del neperio en&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;telecomunicaciones&#039;&#039;.Ginebra.[https://www.itu.int/dms_pubrec/itu-r/rec/v/R-REC-V.574-5-201508-I!!PDF-S.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:Niveles absolutos.jpg|thumbnail|&#039;&#039;&#039;Tabla&#039;&#039;&#039;: Valores de referencia y abreviaturas usadas para designar niveles absolutos típicos.|336x336px]]&lt;br /&gt;
&lt;br /&gt;
En la tabla anterior se describen algunos de los principales niveles absolutos de interés en telecomunicación. (&#039;&#039;ibidem&#039;&#039;).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Características ==&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Referencia Fija&#039;&#039;&#039;: En el caso de los niveles absolutos, la referencia es una constante fija, independientemente de las condiciones del sistema o del entorno. &lt;br /&gt;
# &#039;&#039;&#039;Independencia del Contexto&#039;&#039;&#039;: Los niveles absolutos son independientes del contexto específico en el que se mida la señal. Esto significa que el nivel absoluto de una magnitud particular será el mismo independientemente de dónde o cuándo se realice la medición.&lt;br /&gt;
# &#039;&#039;&#039;Valor en Decibelios (dB)&#039;&#039;&#039;: Tanto los niveles absolutos como los relativos se expresan comúnmente en decibelios (dB), que es una unidad logarítmica que compara la magnitud de una señal con una referencia dada. En el caso de los niveles absolutos, esta referencia es un valor absoluto, mientras que en los niveles relativos es un valor relativo al punto de referencia del sistema.&lt;br /&gt;
# &#039;&#039;&#039;Significado Universal&#039;&#039;&#039;: Los niveles absolutos tienen un significado universal que no depende de ningún sistema de referencia específico, independientemente de la configuración del sistema de medición o del dispositivo utilizado para realizar la medición.&lt;br /&gt;
# &#039;&#039;&#039;Aplicaciones Diversas&#039;&#039;&#039;: Los niveles absolutos se utilizan en una variedad de campos, incluidos la acústica, la óptica, la ingeniería eléctrica y otros, donde es importante tener una comprensión clara y consistente de la magnitud de una señal en relación con un valor absoluto de referencia. &amp;lt;ref&amp;gt;We School.(2019).&#039;&#039;Niveles y decibelios ¿Sabemos lo que son?&#039;&#039;. Madrid.[https://www.we-school.eu/niveles-y-decibelios-sabemos-lo-que-son-2/]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Ejemplo ==&lt;br /&gt;
Un ejemplo que ilustra la diferencia entre los niveles absolutos y relativos en el contexto de la presión sonora:&lt;br /&gt;
&lt;br /&gt;
Imaginemos que estás midiendo la presión sonora en una sala de conciertos, es una medida de la intensidad del sonido y se expresa en decibelios (dB).&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Nivel Absoluto&#039;&#039;&#039;: La presión sonora medida en la sala de conciertos es de 90 dB. En este caso, el nivel absoluto de presión sonora es de 90 dB en referencia a un valor absoluto fijo, como el umbral de audición humano estándar de 20 μPa. Significa que la intensidad del sonido en la sala es igual a la de un sonido que produce una presión 1000 veces mayor que el umbral de audición humano estándar.&lt;br /&gt;
# &#039;&#039;&#039;Nivel Relativo&#039;&#039;&#039;: Ahora, imaginemos que estás midiendo la presión sonora en diferentes partes de la sala de conciertos. En un extremo de la sala, la presión sonora medida es de 95 dB, y en el otro extremo es de 85 dB. Estas mediciones representan niveles relativos de presión sonora en comparación con un punto de referencia dentro de la misma sala. Por ejemplo, podríamos considerar el nivel de presión sonora en el centro de la sala como nuestro punto de referencia. En un extremo de la sala, la presión sonora es 10 dB más alta que en el centro, mientras que en el otro extremo es 10 dB más baja.&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Nivel_absoluto&amp;diff=10025</id>
		<title>Nivel absoluto</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Nivel_absoluto&amp;diff=10025"/>
		<updated>2024-04-03T08:44:05Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Buenos días, he eliminado la parte de código ya que no hacía referencia exacta al término de nivel absoluto. Además, he complementado el artículo añadiendo unas características adicionales y un ejemplo que creo que resulta bastante útil de comprender el significado de niveles.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_ST&lt;br /&gt;
|Autores=Pablo Arrieta Natal&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Un &#039;&#039;&#039;nivel absoluto&#039;&#039;&#039; (decibélico) es un [[Nivel decibélico|nivel decibélico]], en el que la referencia, &#039;&#039;x&#039;&#039;, es un valor absoluto de la magnitud en cuestión&amp;lt;ref&amp;gt;&lt;br /&gt;
Díaz Nafría, J.M. (2020). &#039;&#039;Unidad 1: Caracterización de la señal. Sistemas de transmisión. Comunicaciones ópticas&#039;&#039;. UDIMA. &lt;br /&gt;
&amp;lt;/ref&amp;gt;. No debe confundirse con los [[Nivel relativo|&#039;&#039;&#039;niveles relativos&#039;&#039;&#039;]] en los que la referencia es el de un valor de la señal (magnitud de campo o potencia) en un punto de referencia del sistema o circuito bajo estudio. Vemos que cuando x es una referencia e y el valor de una magnitud en un punto L se llama nivel:  &amp;lt;math&amp;gt;L=K \log(y/x)&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Díaz Nafría, JM.(2024).&#039;&#039;Unidad 1:  Caracterización de la señal. Sistemas de transmisión. Comunicaciones.ópticas.&#039;&#039; UDIMA.[https://aula.udima.es/pluginfile.php/4620613/mod_resource/content/2/Unidad%201%20-%202pp.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Entendiendo el concepto de nivel absoluto en sistemas de transmisión, juega un papel crucial en garantizar la integridad y la calidad de la señal transmitida. Es esencial para determinar la intensidad de la señal que se está transmitiendo o recibiendo. Esta medida es crítica para garantizar que la señal se mantenga dentro de los límites adecuados para una correcta interpretación y decodificación en el receptor. También es crucial para la interoperabilidad entre diferentes sistemas de transmisión. Al mantener niveles de señal consistentes y bien definidos, es posible garantizar una comunicación efectiva entre dispositivos y sistemas de diferentes fabricantes o estándares.&amp;lt;ref&amp;gt;UIT-R;V.574-5. (2016).&#039;&#039;Uso del decibelio y del neperio en&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;telecomunicaciones&#039;&#039;.Ginebra.[https://www.itu.int/dms_pubrec/itu-r/rec/v/R-REC-V.574-5-201508-I!!PDF-S.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:Niveles absolutos.jpg|thumbnail|&#039;&#039;&#039;Tabla&#039;&#039;&#039;: Valores de referencia y abreviaturas usadas para designar niveles absolutos típicos.]]&lt;br /&gt;
&lt;br /&gt;
En la tabla anterior se describen algunos de los principales niveles absolutos de interés en telecomunicación. (&#039;&#039;ibidem&#039;&#039;).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Características ==&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Referencia Fija&#039;&#039;&#039;: En el caso de los niveles absolutos, la referencia es una constante fija, independientemente de las condiciones del sistema o del entorno. &lt;br /&gt;
# &#039;&#039;&#039;Independencia del Contexto&#039;&#039;&#039;: Los niveles absolutos son independientes del contexto específico en el que se mida la señal. Esto significa que el nivel absoluto de una magnitud particular será el mismo independientemente de dónde o cuándo se realice la medición.&lt;br /&gt;
# &#039;&#039;&#039;Valor en Decibelios (dB)&#039;&#039;&#039;: Tanto los niveles absolutos como los relativos se expresan comúnmente en decibelios (dB), que es una unidad logarítmica que compara la magnitud de una señal con una referencia dada. En el caso de los niveles absolutos, esta referencia es un valor absoluto, mientras que en los niveles relativos es un valor relativo al punto de referencia del sistema.&lt;br /&gt;
# &#039;&#039;&#039;Significado Universal&#039;&#039;&#039;: Los niveles absolutos tienen un significado universal que no depende de ningún sistema de referencia específico, independientemente de la configuración del sistema de medición o del dispositivo utilizado para realizar la medición.&lt;br /&gt;
# &#039;&#039;&#039;Aplicaciones Diversas&#039;&#039;&#039;: Los niveles absolutos se utilizan en una variedad de campos, incluidos la acústica, la óptica, la ingeniería eléctrica y otros, donde es importante tener una comprensión clara y consistente de la magnitud de una señal en relación con un valor absoluto de referencia. &amp;lt;ref&amp;gt;We School.(2019).&#039;&#039;Niveles y decibelios ¿Sabemos lo que son?&#039;&#039;. Madrid.[https://www.we-school.eu/niveles-y-decibelios-sabemos-lo-que-son-2/]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Ejemplo ==&lt;br /&gt;
Un ejemplo que ilustra la diferencia entre los niveles absolutos y relativos en el contexto de la presión sonora:&lt;br /&gt;
&lt;br /&gt;
Imaginemos que estás midiendo la presión sonora en una sala de conciertos, es una medida de la intensidad del sonido y se expresa en decibelios (dB).&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Nivel Absoluto&#039;&#039;&#039;: La presión sonora medida en la sala de conciertos es de 90 dB. En este caso, el nivel absoluto de presión sonora es de 90 dB en referencia a un valor absoluto fijo, como el umbral de audición humano estándar de 20 μPa. Significa que la intensidad del sonido en la sala es igual a la de un sonido que produce una presión 1000 veces mayor que el umbral de audición humano estándar.&lt;br /&gt;
# &#039;&#039;&#039;Nivel Relativo&#039;&#039;&#039;: Ahora, imaginemos que estás midiendo la presión sonora en diferentes partes de la sala de conciertos. En un extremo de la sala, la presión sonora medida es de 95 dB, y en el otro extremo es de 85 dB. Estas mediciones representan niveles relativos de presión sonora en comparación con un punto de referencia dentro de la misma sala. Por ejemplo, podríamos considerar el nivel de presión sonora en el centro de la sala como nuestro punto de referencia. En un extremo de la sala, la presión sonora es 10 dB más alta que en el centro, mientras que en el otro extremo es 10 dB más baja.&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Nivel_absoluto&amp;diff=9738</id>
		<title>Nivel absoluto</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Nivel_absoluto&amp;diff=9738"/>
		<updated>2024-03-01T21:06:22Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He añadido una definición interesante sobre el nivel absoluto en el ámbito de sistemas de transmisión así como un ejemplo de aplicación en Matlba.Finalmente, he editado bien las respectivas referencias.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_ST&lt;br /&gt;
|Autores=Pablo Arrieta Natal&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Un &#039;&#039;&#039;nivel absoluto&#039;&#039;&#039; (decibélico) es un [[Nivel decibélico|nivel decibélico]], en el que la referencia, &#039;&#039;x&#039;&#039;, es un valor absoluto de la magnitud en cuestión&amp;lt;ref&amp;gt;&lt;br /&gt;
Díaz Nafría, J.M. (2020). &#039;&#039;Unidad 1: Caracterización de la señal. Sistemas de transmisión. Comunicaciones ópticas&#039;&#039;. UDIMA. &lt;br /&gt;
&amp;lt;/ref&amp;gt;. No debe confundirse con los [[Nivel relativo|&#039;&#039;&#039;niveles relativos&#039;&#039;&#039;]] en los que la referencia es el de un valor de la señal (magnitud de campo o potencia) en un punto de referencia del sistema o circuito bajo estudio. Vemos que cuando x es una referencia e y el valor de una magnitud en un punto L se llama nivel:  &amp;lt;math&amp;gt;L=K \log(y/x)&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Díaz Nafría, JM.(2024).&#039;&#039;Unidad 1:  Caracterización de la señal. Sistemas de transmisión. Comunicaciones.ópticas.&#039;&#039; UDIMA.[https://aula.udima.es/pluginfile.php/4620613/mod_resource/content/2/Unidad%201%20-%202pp.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Entendiendo el concepto de nivel absoluto en sistemas de transmisión, juega un papel crucial en garantizar la integridad y la calidad de la señal transmitida. Es esencial para determinar la intensidad de la señal que se está transmitiendo o recibiendo. Esta medida es crítica para garantizar que la señal se mantenga dentro de los límites adecuados para una correcta interpretación y decodificación en el receptor. También es crucial para la interoperabilidad entre diferentes sistemas de transmisión. Al mantener niveles de señal consistentes y bien definidos, es posible garantizar una comunicación efectiva entre dispositivos y sistemas de diferentes fabricantes o estándares.&amp;lt;ref&amp;gt;UIT-R;V.574-5. (2016).&#039;&#039;Uso del decibelio y del neperio en&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;telecomunicaciones&#039;&#039;.Ginebra.[https://www.itu.int/dms_pubrec/itu-r/rec/v/R-REC-V.574-5-201508-I!!PDF-S.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:Niveles absolutos.jpg|thumbnail|&#039;&#039;&#039;Tabla&#039;&#039;&#039;: Valores de referencia y abreviaturas usadas para designar niveles absolutos típicos.]]&lt;br /&gt;
&lt;br /&gt;
En la tabla anterior se describen algunos de los principales niveles absolutos de interés en telecomunicación. (&#039;&#039;ibidem&#039;&#039;).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Para ilustrar el concepto de nivel absoluto en sistemas de transmisión, consideremos un escenario donde estamos transmitiendo una señal de audio a través de un canal de comunicación. Utilizaremos Matlab para simular este proceso y calcular el nivel absoluto de la señal transmitida.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Parámetros de la señal de audio&lt;br /&gt;
fs = 44100; % Frecuencia de muestreo (Hz)&lt;br /&gt;
t = 0:1/fs:1; % Vector de tiempo (segundos)&lt;br /&gt;
frecuencia = 1000; % Frecuencia de la señal (Hz)&lt;br /&gt;
amplitud = 1; % Amplitud de la señal&lt;br /&gt;
&lt;br /&gt;
% Generar señal de audio&lt;br /&gt;
audio_signal = amplitud * sin(2*pi*frecuencia*t);&lt;br /&gt;
&lt;br /&gt;
% Calcular el nivel absoluto de la señal&lt;br /&gt;
nivel_absoluto = rms(audio_signal);&lt;br /&gt;
&lt;br /&gt;
% Mostrar el resultado&lt;br /&gt;
disp([&#039;El nivel absoluto de la señal de audio es: &#039; num2str(nivel_absoluto)]);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;En este ejemplo, generamos una señal de audio sinusoidal de 1 kHz con una amplitud de 1 unidad. Luego, calculamos el nivel absoluto de la señal utilizando la función rms, que calcula la raíz cuadrada media de la señal, proporcionando así la magnitud absoluta de la señal.&amp;lt;ref&amp;gt;Mathworks (2006). rms. En &#039;&#039;Help Center&#039;&#039; [ayuda en línea]. Consultado el 01/03/2024 de: [https://es.mathworks.com/help/matlab/ref/rms.html?searchHighlight=rms&amp;amp;s_tid=srchtitle_support_results_1_rms]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Nivel_absoluto&amp;diff=9737</id>
		<title>Nivel absoluto</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Nivel_absoluto&amp;diff=9737"/>
		<updated>2024-03-01T19:34:12Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_ST&lt;br /&gt;
|Autores=Pablo Arrieta Natal&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Un &#039;&#039;&#039;nivel absoluto&#039;&#039;&#039; (decibélico) es un [[Nivel decibélico|nivel decibélico]], en el que la referencia, &#039;&#039;x&#039;&#039;, es un valor absoluto de la magnitud en cuestión&amp;lt;ref&amp;gt;&lt;br /&gt;
Díaz Nafría, J.M. (2020). Unidad 1: Caracterización de la señal. Presentación disponible en el aula virtual de la asignatura “Sistemas de transmisión. Comunicaciones ópticas.” de la UDIMA, p.21. &lt;br /&gt;
&amp;lt;/ref&amp;gt;. No debe confundirse con los [[Nivel relativo|&#039;&#039;&#039;niveles relativos&#039;&#039;&#039;]] en los que la referencia es el de un valor de la señal (magnitud de campo o potencia) en un punto de referencia del sistema o circuito bajo estudio.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Entendiendo el concepto de nivel absoluto en sistemas de transmisión, juega un papel crucial en garantizar la integridad y la calidad de la señal transmitida. Es esencial para determinar la intensidad de la señal que se está transmitiendo o recibiendo. Esta medida es crítica para garantizar que la señal se mantenga dentro de los límites adecuados para una correcta interpretación y decodificación en el receptor. También es crucial para la interoperabilidad entre diferentes sistemas de transmisión. Al mantener niveles de señal consistentes y bien definidos, es posible garantizar una comunicación efectiva entre dispositivos y sistemas de diferentes fabricantes o estándares.&amp;lt;ref&amp;gt;UIT-R;V.574-5. (2016).&#039;&#039;Uso del decibelio y del neperio en&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;telecomunicaciones&#039;&#039;.Ginebra.[https://www.itu.int/dms_pubrec/itu-r/rec/v/R-REC-V.574-5-201508-I!!PDF-S.pdf]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:Niveles absolutos.jpg|thumbnail|&#039;&#039;&#039;Tabla&#039;&#039;&#039;: Valores de referencia y abreviaturas usadas para designar niveles absolutos típicos.]]&lt;br /&gt;
&lt;br /&gt;
En la tabla anterior se describen algunos de los principales niveles absolutos de interés en telecomunicación. (&#039;&#039;ibidem&#039;&#039;).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Para ilustrar el concepto de nivel absoluto en sistemas de transmisión, consideremos un escenario donde estamos transmitiendo una señal de audio a través de un canal de comunicación. Utilizaremos Matlab para simular este proceso y calcular el nivel absoluto de la señal transmitida.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Parámetros de la señal de audio&lt;br /&gt;
fs = 44100; % Frecuencia de muestreo (Hz)&lt;br /&gt;
t = 0:1/fs:1; % Vector de tiempo (segundos)&lt;br /&gt;
frecuencia = 1000; % Frecuencia de la señal (Hz)&lt;br /&gt;
amplitud = 1; % Amplitud de la señal&lt;br /&gt;
&lt;br /&gt;
% Generar señal de audio&lt;br /&gt;
audio_signal = amplitud * sin(2*pi*frecuencia*t);&lt;br /&gt;
&lt;br /&gt;
% Calcular el nivel absoluto de la señal&lt;br /&gt;
nivel_absoluto = rms(audio_signal);&lt;br /&gt;
&lt;br /&gt;
% Mostrar el resultado&lt;br /&gt;
disp([&#039;El nivel absoluto de la señal de audio es: &#039; num2str(nivel_absoluto)]);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;En este ejemplo, generamos una señal de audio sinusoidal de 1 kHz con una amplitud de 1 unidad. Luego, calculamos el nivel absoluto de la señal utilizando la función rms, que calcula la raíz cuadrada media de la señal, proporcionando así la magnitud absoluta de la señal.&amp;lt;ref&amp;gt;Mathworks (2006). rms. En &#039;&#039;Help Center&#039;&#039; [ayuda en línea]. Consultado el 01/03/2024 de: [https://es.mathworks.com/help/matlab/ref/rms.html?searchHighlight=rms&amp;amp;s_tid=srchtitle_support_results_1_rms]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Se%C3%B1ales_sim%C3%A9tricas_(par)_y_antisim%C3%A9tricas_(impar)&amp;diff=9733</id>
		<title>Señales simétricas (par) y antisimétricas (impar)</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Se%C3%B1ales_sim%C3%A9tricas_(par)_y_antisim%C3%A9tricas_(impar)&amp;diff=9733"/>
		<updated>2024-02-28T12:05:56Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Hola, he creado este nuevo artículo sobre las señales simétricas (pares) y asimétricas (impares) con sus definiciones, propiedades y ejemplos de código de Matlab. Quedo a la espera de sus posibles correciones de errores o consejos de edición para mejorarlo lo máximo posible.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Definiciones ==&lt;br /&gt;
&lt;br /&gt;
=== Señales Simétricas (Pares) ===&lt;br /&gt;
Las señales simétricas son aquellas en las que su forma es idéntica alrededor de un eje central. Una función par es una función simétrica respecto al eje de ordenadas &#039;&#039;OY&#039;&#039;. Es decir, si plegásemos la gráfica por el eje de ordenadas encima de la otra parte, la gráfica se solaparía. &amp;lt;ref&amp;gt;Universo Formulas.(2024).&#039;&#039;Funciones simétricas y asimétricas&#039;&#039;. Valencia.[https://www.universoformulas.com/matematicas/analisis/funciones-simetricas-asimetricas/] &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Dominio Continuo: ====&lt;br /&gt;
&lt;br /&gt;
# Simetría respecto al eje vertical: La señal &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; es simétrica si &amp;lt;math&amp;gt;f(t)=f(-t)&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\forall t&amp;lt;/math&amp;gt; en su dominio.&amp;lt;ref&amp;gt;Bosh Roig, Ignacio.; Gosálbez Castillo, Jorge.; Miralles Ricós, Ramón.; Vergara Domínguez, Luis. (2015). &#039;&#039;Señales y Sistemas. Transformada de la variable independiente&#039;&#039;. Valencia. [https://gdocu.upv.es/alfresco/service/api/node/content/workspace/SpacesStore/b66310f2-2006-4f4a-b1d5-faa3bcb03c9e/TOC_0377_04_01.pdf?guest=true]&amp;lt;/ref&amp;gt;&lt;br /&gt;
# Parte impar nula: Si una señal es simétrica, su parte impar es cero.&lt;br /&gt;
# Descomposición en serie de Fourier: Tienen una descomposición en serie de Fourier que solo incluye términos coseno. No tienen componentes de frecuencia de seno.&lt;br /&gt;
# Potencia de señal: La potencia de una señal simétrica puede ser más fácil de calcular.&lt;br /&gt;
# Sistemas de tiempo invariante: Las señales simétricas pueden simplificar el análisis de sistemas de tiempo invariante.&lt;br /&gt;
&lt;br /&gt;
==== Dominio Discreto: ====&lt;br /&gt;
&lt;br /&gt;
# Simetría respecto al eje vertical: En el dominio discreto, una señal &amp;lt;math&amp;gt;x[n]&amp;lt;/math&amp;gt; es simétrica si &amp;lt;math&amp;gt;x[n]=x[-n]&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\forall n&amp;lt;/math&amp;gt; en su dominio.&lt;br /&gt;
# Parte impar nula: Si una señal es simétrica, su parte impar es cero.&lt;br /&gt;
# Descomposición en serie de Fourier: En el dominio discreto, las señales simétricas tienen una descomposición en serie que incluye solo términos coseno.&lt;br /&gt;
# Potencia de señal: La potencia de una señal simétrica en el dominio discreto también puede ser más fácil de calcular.&lt;br /&gt;
# Sistemas de tiempo invariante: Al igual que en el dominio continuo, las señales simétricas pueden simplificar el análisis de sistemas de tiempo invariante en el dominio discreto.&lt;br /&gt;
&lt;br /&gt;
=== Señales Asimétricas (Impares) ===&lt;br /&gt;
Las señales asimétricas son aquellas en las que su forma no es idéntica alrededor de un eje central. Una función impar es una función simétrica respecto al origen &#039;&#039;O&#039;&#039;. Si plegásemos la gráfica por el eje de ordenadas (&#039;&#039;OY&#039;&#039;) y después de nuevo por el eje de abscisas (&#039;&#039;OX&#039;&#039;), la gráfica se solaparía.&lt;br /&gt;
&lt;br /&gt;
==== Dominio Continuo: ====&lt;br /&gt;
&lt;br /&gt;
# Asimetría en el Tiempo: Las señales asimétricas no son simétricas respecto al eje de tiempo, la forma de la señal no es la misma si se refleja respecto al eje temporal.&lt;br /&gt;
# Propiedades Matemáticas:&lt;br /&gt;
#* Una señal &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; se considera asimétrica si &amp;lt;math&amp;gt;f(t)=-f(-t)  &amp;lt;/math&amp;gt;  &amp;lt;math&amp;gt;\forall t&amp;lt;/math&amp;gt; en su dominio.&lt;br /&gt;
#* La parte par de una señal asimétrica es cero para las componentes de t pares y la impar no es cero, tiene solo componentes impares.&lt;br /&gt;
#* La integral sobre un intervalo simétrico de una señal asimétrica es cero.&lt;br /&gt;
# Transformada de Fourier:&lt;br /&gt;
#* Las señales asimétricas tienen solo componentes impares en su espectro de frecuencia y su transformada de Fourier es generalmente compleja.&lt;br /&gt;
&lt;br /&gt;
==== Dominio Discreto: ====&lt;br /&gt;
&lt;br /&gt;
# Asimetría en el Tiempo:  Las señales asimétricas no son simétricas respecto al eje de temporal discreto2.&lt;br /&gt;
# Propiedades Matemáticas:&lt;br /&gt;
#* En el caso de señales discretas, una señal &amp;lt;math&amp;gt;x[n]&amp;lt;/math&amp;gt; se considera asimétrica si &amp;lt;math&amp;gt;x[n]=-x[-n]&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\forall n&amp;lt;/math&amp;gt; en su dominio.&lt;br /&gt;
#* La parte par de una señal discreta asimétrica es cero, mientras que la impar no es cero.&lt;br /&gt;
#* La suma de una señal asimétrica sobre un número par de muestras es cero.&lt;br /&gt;
# Transformada de Fourier Discreta (DFT):&lt;br /&gt;
#* Las señales asimétricas en el dominio discreto tienen solo componentes impares en su espectro de frecuencia y la DFT puede tener tanto partes reales como imaginarias.&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Una función par simétrica en Matlab podría ser la función coseno. Es simétrica respecto al eje y, lo que significa que &amp;lt;math&amp;gt;\cos(x)=\cos(-x)&amp;lt;/math&amp;gt; para cualquier valor de x. Este código genera un gráfico de &amp;lt;math&amp;gt;\cos(x)&amp;lt;/math&amp;gt; en el intervalo de &amp;lt;math&amp;gt;[-\pi,\pi]&amp;lt;/math&amp;gt;  y también grafica la función reflejada &amp;lt;math&amp;gt;\cos(-x)&amp;lt;/math&amp;gt; para demostrar su simetría respecto al eje y. Ambas curvas deben coincidir, lo que ilustra la propiedad de simetría de la función coseno. &amp;lt;ref&amp;gt;Mathworks (2006). cos. En &#039;&#039;Help Center&#039;&#039; [ayuda en línea]. Consultado el 28/02/2024 de: [https://es.mathworks.com/help/matlab/ref/double.cos.html?searchHighlight=funcion%20coseno&amp;amp;s_tid=srchtitle_support_results_3_funcion%20coseno]&amp;lt;/ref&amp;gt;&lt;br /&gt;
[[File:PAR.jpg|thumb|341x341px]]&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición del dominio&lt;br /&gt;
x = -pi:0.01:pi; % Rango de -pi a pi con un paso de 0.01&lt;br /&gt;
% Función coseno&lt;br /&gt;
y = cos(x);&lt;br /&gt;
% Gráfico de la función coseno&lt;br /&gt;
plot(x, y, &#039;b&#039;, &#039;LineWidth&#039;, 2);&lt;br /&gt;
hold on;&lt;br /&gt;
plot(-x, y, &#039;r--&#039;, &#039;LineWidth&#039;, 2); % Graficar la función reflejada&lt;br /&gt;
xlabel(&#039;x&#039;);&lt;br /&gt;
ylabel(&#039;y = cos(x)&#039;);&lt;br /&gt;
title(&#039;Función Coseno y su Simetría&#039;);&lt;br /&gt;
legend(&#039;y = cos(x)&#039;, &#039;y = cos(-x)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Una función impar asimétrica en Matlab podría ser la función seno. Es antisimétrica respecto al origen, lo que significa que &amp;lt;math&amp;gt;\sin(x)=-\sin(-x)&amp;lt;/math&amp;gt; para cualquier valor de x. Este código genera un gráfico de &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt;en el intervalo de &amp;lt;math&amp;gt;[-\pi,\pi]&amp;lt;/math&amp;gt;y también grafica la función opuesta &amp;lt;math&amp;gt;-\sin(-x)&amp;lt;/math&amp;gt; para demostrar su antisimetría respecto al origen. Las dos curvas deben ser simétricas respecto al origen, lo que ilustra la propiedad de antisimetría de la función seno.&amp;lt;ref&amp;gt;Mathworks (2006). sin. En &#039;&#039;Help Center&#039;&#039; [ayuda en línea]. Consultado el 28/02/2024 de: [https://es.mathworks.com/help/matlab/ref/sin.html?searchHighlight=funcion%20seno&amp;amp;s_tid=srchtitle_support_results_2_funcion%20seno]&amp;lt;/ref&amp;gt;&lt;br /&gt;
[[File:IMPAR.jpg|thumb|345x345px]]&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición del dominio&lt;br /&gt;
x = -pi:0.01:pi; % Rango de -pi a pi con un paso de 0.01&lt;br /&gt;
% Función seno&lt;br /&gt;
y = sin(x);&lt;br /&gt;
% Gráfico de la función seno&lt;br /&gt;
plot(x, y, &#039;b&#039;, &#039;LineWidth&#039;, 2);&lt;br /&gt;
hold on;&lt;br /&gt;
plot(-x, -y, &#039;r--&#039;, &#039;LineWidth&#039;, 2); % Graficar la función opuesta&lt;br /&gt;
xlabel(&#039;x&#039;);&lt;br /&gt;
ylabel(&#039;y = sin(x)&#039;);&lt;br /&gt;
title(&#039;Función Seno y su Antisimetría&#039;);&lt;br /&gt;
legend(&#039;y = sin(x)&#039;, &#039;y = -sin(-x)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:IMPAR.jpg&amp;diff=9732</id>
		<title>File:IMPAR.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:IMPAR.jpg&amp;diff=9732"/>
		<updated>2024-02-28T11:39:13Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Función impar Matlab Irene Salinero&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:PAR.jpg&amp;diff=9731</id>
		<title>File:PAR.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:PAR.jpg&amp;diff=9731"/>
		<updated>2024-02-28T11:37:11Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Función par Matlab Irene Salinero&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Ejemplo_funci%C3%B3n.png&amp;diff=9730</id>
		<title>File:Ejemplo función.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Ejemplo_funci%C3%B3n.png&amp;diff=9730"/>
		<updated>2024-02-28T11:24:06Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ejemplo función par e impar real&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Funcion-simetrica-impar.jpg&amp;diff=9729</id>
		<title>File:Funcion-simetrica-impar.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Funcion-simetrica-impar.jpg&amp;diff=9729"/>
		<updated>2024-02-28T11:21:44Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Función asimétrica impar ejemplo&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Funcion-simetrica-par.jpg&amp;diff=9728</id>
		<title>File:Funcion-simetrica-par.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Funcion-simetrica-par.jpg&amp;diff=9728"/>
		<updated>2024-02-28T11:09:20Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Funcion-simetrica-par&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft_talk:Respuesta_al_impulso&amp;diff=9249</id>
		<title>Draft talk:Respuesta al impulso</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft_talk:Respuesta_al_impulso&amp;diff=9249"/>
		<updated>2023-12-28T09:54:15Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Respuesta a José María&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Estimada Irene:&lt;br /&gt;
&lt;br /&gt;
He corregido los errores que contenías las definiciones que habías introducido, por ejemplo, la delta en continua tiene un máximo que no es uno sino infinito. Además había errores de codificación de las ecuaciones. Si visitas las ediciones previas (desde el historia) podrás ver los errores que he corregido.&lt;br /&gt;
&lt;br /&gt;
En cualquier caso, querría hacer otras advertencias:&lt;br /&gt;
&lt;br /&gt;
* El artículo [[Señal impulso unitario]] debería referirse al hablar de las señales que ahí se definen y tratar de minimizar las redundancias. Como se indica en el enunciado de la actividad su objetivo es constructivo a partir del conjunto de contenidos que existen. Por tanto, debe establecerse relación siempre que sea posible.&lt;br /&gt;
* Las referencias no se han introducido ni en el formato normalizado que se ha indicado, ni usando la herramienta de citas que establece vínculos automáticos.&lt;br /&gt;
&lt;br /&gt;
Un saludo,&lt;br /&gt;
&lt;br /&gt;
[[User:JDíaz]], 20/12/2023&lt;br /&gt;
&lt;br /&gt;
Estimado José María:&lt;br /&gt;
&lt;br /&gt;
Muchas gracias por modificar mis errores. Ahora, voy a seguir añadiendo código y referencias correctas al artículo de Respuesta al impulso.&lt;br /&gt;
&lt;br /&gt;
Por otra parte, empezaré a cambiar y ampliar, como bien me has indicado, el siguiente artículo de la señal impulso unitario ya que tienen bastante relación y seguro queda bien.&lt;br /&gt;
&lt;br /&gt;
Un saludo,&lt;br /&gt;
&lt;br /&gt;
[[User:Irene Salinero]], 21/12/2023&lt;br /&gt;
&lt;br /&gt;
Estimada Irene:&lt;br /&gt;
&lt;br /&gt;
Si bien completar otros artículos puede ser positivo, al decir &amp;quot;el artículo [[Señal impulso unitario]] debería referirse al hablar de las señales que ahí se definen y tratar de minimizar las redundancias&amp;quot; me refería a que en este artículo, el de &amp;quot;Respuesta al impulso&amp;quot;, debe hacer referencia e incluir el enlace al artículo de &amp;quot;Señal impulso unitario&amp;quot; y tratar de que ambos sean complementarios, en lugar de repetir contenidos. Y lo mismo debería ocurrir en el artículo &amp;quot;Señal impulso unitario&amp;quot; estableciendo relación e incluyendo el enlace al artículo &amp;quot;Respuesta al impulso&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Un saludo,&lt;br /&gt;
&lt;br /&gt;
[[User:JDíaz|JDíaz]] ([[User talk:JDíaz|talk]]) 22:42, 21 December 2023 (CET)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Estimado José María,&lt;br /&gt;
&lt;br /&gt;
Entendido, no había comprendido exactamente eso.&lt;br /&gt;
&lt;br /&gt;
Muchas gracias, un saludo.&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9248</id>
		<title>Draft:Respuesta al impulso</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9248"/>
		<updated>2023-12-28T09:52:53Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definiciones ==&lt;br /&gt;
La respuesta al impulso de un sistema es la salida que presenta dicho sistema cuando a la entrada se produce un pulso infinitamente corto y de amplitud infinita. Este pulso es imposible de obtener en un sistema real pero se utiliza como pulso ideal para la realización de cálculos matemáticos. Este tipo de pulso está representado por la función delta de Dirac (δ).&amp;lt;ref&amp;gt;Frwiki.(2022).&#039;&#039;Distribución de Dirac. Introducción formal&#039;&#039;. Consultado el 20/12/2023 en [https://es.frwiki.wiki/wiki/Distribution_de_Dirac]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sistemas continuos ===&lt;br /&gt;
Un sistema continuo se refiere a un sistema cuyas entradas y salidas son funciones continuas en el tiempo. Cuando se habla de un sistema continuo en la definición de la delta de Dirac, se hace referencia a cómo el sistema responde o interactúa con una señal que contiene una delta de Dirac, es decir, cómo un sistema continuo responde a una entrada que contiene una delta de Dirac y la respuesta al impulso del sistema se utiliza para caracterizar esa interacción.&amp;lt;ref&amp;gt;Seoane-Pujol, I. (2023).Unidad didáctica 2:Sistemas, concepto y Presentación disponible en el aula virtual de la asignatura &#039;&#039;“ Métodos Numéricos y Transformadas&amp;quot;&#039;&#039;.  de la UDIMA. Consultado el 20/12/2023 en el Aula Virtual [https://aula.udima.es/course/view.php?id=48620]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En sistemas continuos la definición de la delta de Dirac sería la siguiente:  &amp;lt;math&amp;gt;\delta (t) = &lt;br /&gt;
\begin{cases} &lt;br /&gt;
\infty, &amp;amp; \text{si }t=0 \\ &lt;br /&gt;
0 &amp;amp; \text{si } t \neq\ 0 &lt;br /&gt;
\end{cases}&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;ref&amp;gt;Wikipedia.(2020).&#039;&#039;Función delta de Dirac. Introducción formal.&#039;&#039; Consultado el 20/12/2023 en [https://en.wikipedia.org/wiki/Dirac_delta_function?oldid=3459505]&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;Teniendo en cuenta esto, la respuesta al impulso &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, es la función que determina cómo el sistema afecta al impulso de entrada, dando lugar a la función &amp;lt;math&amp;gt;y(t)&amp;lt;/math&amp;gt;. Explicado de forma analítica:  &amp;lt;math&amp;gt;y(t) = x(t)* h(t)&amp;lt;/math&amp;gt;;&lt;br /&gt;
&lt;br /&gt;
Siendo &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt; la entrada al sistema, &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;h(t) la respuesta al impulso e &amp;lt;math&amp;gt;y(t)&amp;lt;/math&amp;gt; la salida del sistema.&amp;lt;br&amp;gt;Dicha salida se consigue hallar mediante una operación de convolución entre &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, definiéndose esta en sistemas continuos como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;y(t)= \int_{-\infty}^{\infty} \displaystyle x(r)*h(t-r) dr&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===  &#039;&#039;&#039;Sistemas discretos&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
Un sistema discreto se refiere a un sistema en el que las variables de entrada y salida son definidas solamente en puntos discretos en el tiempo o en el espacio, solo tienen valores en momentos específicos, en lugar de ser continuas en todo el dominio. Un sistema discreto en la definición de la delta de Dirac en señales implica el uso de secuencias discretas que actúan como impulsos en puntos específicos, de manera análoga a cómo la delta de Dirac actúa como un impulso en el dominio continuo del tiempo.&lt;br /&gt;
&lt;br /&gt;
En este caso la definición sería: &amp;lt;math&amp;gt;\delta (n) = &lt;br /&gt;
\begin{cases} &lt;br /&gt;
1, &amp;amp; \text{si }n=0 \\ &lt;br /&gt;
0 &amp;amp; \text{si } n \neq\ 0 &lt;br /&gt;
\end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En el caso de sistemas discretos, la operación de convolución entre la entrada y la respuesta al impulso se define de la siguiente manera:&amp;lt;br&amp;gt;&amp;lt;math&amp;gt;y[n]= \sum_{k=-\infty}^\infty\displaystyle x[n]*h[n-k] ;&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ejemplo conceptual:&#039;&#039;&#039;&amp;lt;br&amp;gt;Nos encontramos en una estudio de grabación, delante tenemos un medidor de sonido en forma de gráfica temporal. Nuestro impulso será el sonido que emite un globo al pincharse, se puede asemejar a un impulso de duración instantánea. Al pinchar el globo se observa en la gráfica como inicialmente se obtiene un pico de ruido seguido de varios picos más pequeños que finalmente desaparecen y vuelve a quedar la gráfica a cero. Bien, pues la respuesta al impulso sería el equivalente a cómo la sala de grabación afecta al impulso de tal forma que si conociéramos como cada punto de la sala afecta en la reflexión del sonido del impulso podríamos predecir la salida del sistema, es decir la gráfica de ruido final.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Supongamos que la respuesta al impulso de un sistema es h(t), entonces la respuesta y(t) a una entrada x(t) se puede expresar como su convolución. Si la entrada es un impulso unitario δ(t), entonces la respuesta al impulso es simplemente h(t). Por lo tanto, la respuesta al impulso al aplicar un impulso unitario sería:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
y(t)=\delta(t) * h(t) = h(t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Esto significa que la respuesta del sistema a un impulso unitario es igual a la propia respuesta al impulso del sistema. Podemos observar la cantidad de relación que tiene la respuesta al impulso con la señal impulso unitario. &amp;lt;ref&amp;gt;GlossaLAB.(2023).&#039;&#039;Señal impulso unitario. Métodos numéricos y Transformadas.[https://www.glossalab.org/w/index.php?title=Se%C3%B1al_impulso_unitario&amp;amp;oldid=9171]&#039;&#039;&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Un ejemplo concreto, podríamos tener una función de respuesta al impulso &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
h(t)= e^(-t) * u(t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Donde u(t) es la función escalón unitario. En este caso, la respuesta al impulso al aplicar un impulso unitario sería la propia h(t)&lt;br /&gt;
&lt;br /&gt;
Para resolver este ejercicio en MATLAB, primero definiremos la función de respuesta al impulso h(t) y luego convolucionaremos con el impulso unitario. Aquí está el código MATLAB correspondiente:&amp;lt;ref&amp;gt;The MathWorks Inc. (2022). &#039;&#039;Convolución y multiplicación polinomial.&#039;&#039; Massachusetts: The MathWorks Inc. Consultado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/conv.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir la función de respuesta al impulso&lt;br /&gt;
t = 0:0.01:5;  % Definir el rango de tiempo&lt;br /&gt;
h = exp(-t) .* (t &amp;gt;= 0);  % h(t) = e^(-t)u(t)&lt;br /&gt;
&lt;br /&gt;
% Graficar la respuesta al impulso&lt;br /&gt;
figure;&lt;br /&gt;
subplot(2,1,1);&lt;br /&gt;
plot(t, h, &#039;LineWidth&#039;, 2);&lt;br /&gt;
title(&#039;Función de respuesta al impulso h(t)&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo&#039;);&lt;br /&gt;
ylabel(&#039;h(t)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
% Aplicar el impulso unitario (convolución)&lt;br /&gt;
delta = zeros(size(t));&lt;br /&gt;
delta(1) = 1;  &lt;br /&gt;
y = conv(delta, h) * 0.01;  &lt;br /&gt;
&lt;br /&gt;
% Graficar la respuesta al impulso al aplicar un impulso unitario&lt;br /&gt;
subplot(2,1,2);&lt;br /&gt;
t_conv = 0:0.01:(length(y)-1)*0.01;  % Rango de tiempo para la convolución&lt;br /&gt;
plot(t_conv, y, &#039;LineWidth&#039;, 2);&lt;br /&gt;
title(&#039;Respuesta al impulso al aplicar un impulso unitario&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo&#039;);&lt;br /&gt;
ylabel(&#039;y(t)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&#039;&#039;&lt;br /&gt;
&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
[[Category:Páginas con errores de matemáticas]]&lt;br /&gt;
[[Category:Páginas con errores de representación matemática]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Se%C3%B1al_impulso_unitario&amp;diff=9247</id>
		<title>Draft:Señal impulso unitario</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Se%C3%B1al_impulso_unitario&amp;diff=9247"/>
		<updated>2023-12-28T09:51:29Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Referencia GlossaLAB relación&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_TSC&lt;br /&gt;
|Autores= José Antonio Salmerón Marín, [[User:Francisco Javier Herrero García]], [[User:Verónica_Velasco_López]], [[User:DGracia|Daniel Gracia Garallar]] y [[user:JDíaz|J.M. Díaz Nafría]]&lt;br /&gt;
|Docentes= [[user:JDíaz|J.M. Díaz Nafría]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Al igual que otras señales elementales, la &#039;&#039;&#039;delta de Dirac&#039;&#039;&#039; -para señales continuas- y el &#039;&#039;&#039;impulso unitario&#039;&#039;&#039; ó &#039;&#039;&#039;señal unitaria&#039;&#039;&#039; -para señales discretas- son señales que, aún no constituyendo señales de interés para el intercambio de información, son importantes para la caracterización de los sistemas encargados del transporte de las señales de información (filtros, canales de comunicación, equipos de línea... ). Ambas se utilizan para analizar la respuesta de sistemas a entradas específicas, resolver ecuaciones diferenciales, y proporcionar una representación simplificada de señales y sistemas en el análisis de señales y sistemas continuos y discretos.&amp;lt;ref&amp;gt;Seoane-Pujol, I. (2023).Unidad didáctica 2:Sistemas, concepto y Presentación disponible en el aula virtual de la asignatura &#039;&#039;“ Métodos Numéricos y Transformadas&amp;quot;&#039;&#039;. de la UDIMA. Consultado el 20/12/2023 en el Aula Virtual [https://aula.udima.es/course/view.php?id=48620]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Impulso unitario continuo (delta de Dirac)===&lt;br /&gt;
El &#039;&#039;&#039;impulso unitario&#039;&#039;&#039;, también denominado &#039;&#039;&#039;Delta de Dirac&#039;&#039;&#039;, es una función matemática que tiene propiedades especiales y se utiliza en el ámbito de los sistemas lineales e invariantes en el tiempo (LTI) y en el análisis de señales. La integral de la función es igual a uno. Una de las propiedades a destacar es:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;f(a) = \int_\R \delta(t-a)f(t) \ dt&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Castaño Giraldo, S.A.(2019).Análisis de Sistemas. Impulso Unitario. &#039;&#039;Control Automático Educación&#039;&#039;. Recuperado el 21/12/23  de [https://controlautomaticoeducacion.com/analisis-de-sistemas/impulso-unitario/]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Se puede expresar de forma no rigurosa como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \delta(t)= \left\{ \begin{matrix} \infty &amp;amp; t=0 \\ 0 &amp;amp; t \neq0 \end{matrix}\right. &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Juank Blog.(2011).&#039;&#039;Señales y sistemas. Tipos de señales&#039;&#039;. Colombia. Recuperado el 21/12/ 2023 de [https://juank1975.blogspot.com/2011/09/tipos-de-senales.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La relación entre el impulso unitario continuo y la transformada de Fourier está establecida por la propiedad de modulación en frecuencia, incluye términos que reflejan la modulación en frecuencia y la presencia de impulsos en el dominio de la frecuencia..La respuesta de un sistema al impulso unitario, &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, se conoce como respuesta en frecuencia del sistema, &amp;lt;math&amp;gt;H(f)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Podemos observar la cantidad de relación que tiene la respuesta al impulso con la señal impulso unitario. &amp;lt;ref&amp;gt;GlossaLAB.(2023).Respuesta al impulso. Métodos numéricos y transformadas. [https://www.glossalab.org/w/index.php?title=Respuesta_al_impulso&amp;amp;oldid=9246]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Impulso unitario discreto===&lt;br /&gt;
En el dominio discreto, el equivalente del impulso unitario continuo es a menudo representado por una secuencia que se conoce como el impulso unitario discreto o la delta de Dirac discreta. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \delta(n)= \left\{\begin{matrix} {1} &amp;amp; {n=0}&amp;amp; \\ 0&amp;amp; {n \neq0 }&amp;amp;\end{matrix}\right. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La relación entre el impulso unitario discreto y la Transformada de Fourier es especialmente importante, y esta relación se manifiesta a través de la propiedad de muestreo en el dominio de la frecuencia. La Transformada de Fourier de la delta de Dirac discreta es también conocida como una secuencia exponencial compleja. La Transformada de Fourier de la delta de Dirac discreta es igual a 1 para todas las frecuencias angulares ω. Esta propiedad tiene una implicación importante conocida como la propiedad de muestreo en frecuencia.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
[[File:Impulso unitario.png|thumbnail|&#039;&#039;&#039;Figura 1&#039;&#039;&#039;: Representación (continua) de un impulso unitario]]&lt;br /&gt;
El siguiente código de MATLAB permite generar un impulso unitario en el origen, que a continuación se representa:&amp;lt;ref&amp;gt;The MathWorks Inc. (2022).&#039;&#039;Funciones de impulso, escalón y rampa&#039;&#039; . Massachusetts: The MathWorks Inc. Consultado el 21/12/2023 de [https://es.mathworks.com/help/signal/gs/impulse-step-and-ramp-functions.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;syntaxhighlight lang=matlab&amp;gt;&lt;br /&gt;
t = (-1:0.01:1)&#039;;  % vector t de valores que representan la variable tiempo,&lt;br /&gt;
% con un intervalo de muestreo de 1 centésima de segundo entre -1 y 1 segundo.&lt;br /&gt;
impulse = t==0;    % Impulso en el segundo 0.&lt;br /&gt;
plot(t,impulse);   % Se muestra la gráfica.&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:Deltafft.png|thumbnail|&#039;&#039;&#039;Figura 2&#039;&#039;&#039;: Una señal impulso discreto (arriba) contiene todas las componentes espectrales posibles, con módulo unidad (abajo).]]&lt;br /&gt;
El siguiente código de MATLAB calcula las componentes espectrales de una función impulso discreta cualquiera, que a continuación se representan:&lt;br /&gt;
&amp;lt;syntaxhighlight lang=matlab&amp;gt;&lt;br /&gt;
% Una función impulso discreto cualquiera verifica&lt;br /&gt;
% que contiene todas las componentes espectrales&lt;br /&gt;
% posibles, con módulo unidad.&lt;br /&gt;
&lt;br /&gt;
d = [0 0 1 0 0 0 0 0]; % señal impulso cualquiera&lt;br /&gt;
D = fft(d);            % y su FFT&lt;br /&gt;
&lt;br /&gt;
subplot(2, 1, 1);&lt;br /&gt;
stem(d);&lt;br /&gt;
ylim([0 1.2]);&lt;br /&gt;
hold on;&lt;br /&gt;
subplot(2, 1, 2);&lt;br /&gt;
stem(abs(D));          % representamos el módulo&lt;br /&gt;
ylim([0 1.2]);&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la señal y la comunicación]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9246</id>
		<title>Draft:Respuesta al impulso</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9246"/>
		<updated>2023-12-28T09:47:28Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Referencia GlossaLAB relación&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definiciones ==&lt;br /&gt;
La respuesta al impulso de un sistema es la salida que presenta dicho sistema cuando a la entrada se produce un pulso infinitamente corto y de amplitud infinita. Este pulso es imposible de obtener en un sistema real pero se utiliza como pulso ideal para la realización de cálculos matemáticos. Este tipo de pulso está representado por la función delta de Dirac (δ).&amp;lt;ref&amp;gt;Frwiki.(2022).&#039;&#039;Distribución de Dirac. Introducción formal&#039;&#039;. Consultado el 20/12/2023 en [https://es.frwiki.wiki/wiki/Distribution_de_Dirac]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sistemas continuos ===&lt;br /&gt;
Un sistema continuo se refiere a un sistema cuyas entradas y salidas son funciones continuas en el tiempo. Cuando se habla de un sistema continuo en la definición de la delta de Dirac, se hace referencia a cómo el sistema responde o interactúa con una señal que contiene una delta de Dirac, es decir, cómo un sistema continuo responde a una entrada que contiene una delta de Dirac y la respuesta al impulso del sistema se utiliza para caracterizar esa interacción.&amp;lt;ref&amp;gt;Seoane-Pujol, I. (2023).Unidad didáctica 2:Sistemas, concepto y Presentación disponible en el aula virtual de la asignatura &#039;&#039;“ Métodos Numéricos y Transformadas&amp;quot;&#039;&#039;.  de la UDIMA. Consultado el 20/12/2023 en el Aula Virtual [https://aula.udima.es/course/view.php?id=48620]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En sistemas continuos la definición de la delta de Dirac sería la siguiente:  &amp;lt;math&amp;gt;\delta (t) = &lt;br /&gt;
\begin{cases} &lt;br /&gt;
\infty, &amp;amp; \text{si }t=0 \\ &lt;br /&gt;
0 &amp;amp; \text{si } t \neq\ 0 &lt;br /&gt;
\end{cases}&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;ref&amp;gt;Wikipedia.(2020).&#039;&#039;Función delta de Dirac. Introducción formal.&#039;&#039; Consultado el 20/12/2023 en [https://en.wikipedia.org/wiki/Dirac_delta_function?oldid=3459505]&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;Teniendo en cuenta esto, la respuesta al impulso &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, es la función que determina cómo el sistema afecta al impulso de entrada, dando lugar a la función &amp;lt;math&amp;gt;y(t)&amp;lt;/math&amp;gt;. Explicado de forma analítica:  &amp;lt;math&amp;gt;y(t) = x(t)* h(t)&amp;lt;/math&amp;gt;;&lt;br /&gt;
&lt;br /&gt;
Siendo &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt; la entrada al sistema, &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;h(t) la respuesta al impulso e &amp;lt;math&amp;gt;y(t)&amp;lt;/math&amp;gt; la salida del sistema.&amp;lt;br&amp;gt;Dicha salida se consigue hallar mediante una operación de convolución entre &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, definiéndose esta en sistemas continuos como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;y(t)= \int_{-\infty}^{\infty} \displaystyle x(r)*h(t-r) dr&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===  &#039;&#039;&#039;Sistemas discretos&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
Un sistema discreto se refiere a un sistema en el que las variables de entrada y salida son definidas solamente en puntos discretos en el tiempo o en el espacio, solo tienen valores en momentos específicos, en lugar de ser continuas en todo el dominio. Un sistema discreto en la definición de la delta de Dirac en señales implica el uso de secuencias discretas que actúan como impulsos en puntos específicos, de manera análoga a cómo la delta de Dirac actúa como un impulso en el dominio continuo del tiempo.&lt;br /&gt;
&lt;br /&gt;
En este caso la definición sería: &amp;lt;math&amp;gt;\delta (n) = &lt;br /&gt;
\begin{cases} &lt;br /&gt;
1, &amp;amp; \text{si }n=0 \\ &lt;br /&gt;
0 &amp;amp; \text{si } n \neq\ 0 &lt;br /&gt;
\end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En el caso de sistemas discretos, la operación de convolución entre la entrada y la respuesta al impulso se define de la siguiente manera:&amp;lt;br&amp;gt;&amp;lt;math&amp;gt;y[n]= \sum_{k=-\infty}^\infty\displaystyle x[n]*h[n-k] ;&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ejemplo conceptual:&#039;&#039;&#039;&amp;lt;br&amp;gt;Nos encontramos en una estudio de grabación, delante tenemos un medidor de sonido en forma de gráfica temporal. Nuestro impulso será el sonido que emite un globo al pincharse, se puede asemejar a un impulso de duración instantánea. Al pinchar el globo se observa en la gráfica como inicialmente se obtiene un pico de ruido seguido de varios picos más pequeños que finalmente desaparecen y vuelve a quedar la gráfica a cero. Bien, pues la respuesta al impulso sería el equivalente a cómo la sala de grabación afecta al impulso de tal forma que si conociéramos como cada punto de la sala afecta en la reflexión del sonido del impulso podríamos predecir la salida del sistema, es decir la gráfica de ruido final.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Supongamos que la respuesta al impulso de un sistema es h(t), entonces la respuesta y(t) a una entrada x(t) se puede expresar como su convolución. Si la entrada es un impulso unitario δ(t), entonces la respuesta al impulso es simplemente h(t). Por lo tanto, la respuesta al impulso al aplicar un impulso unitario sería:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
y(t)=\delta(t) * h(t) = h(t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Esto significa que la respuesta del sistema a un impulso unitario es igual a la propia respuesta al impulso del sistema. Podemos observar la cantidad de relación que tiene la respuesta al impulso con la señal impulso unitario. &amp;lt;ref&amp;gt;GlossaLAB.(2023).&#039;&#039;Señal impulso unitario.Teoría de la información.[https://www.glossalab.org/w/index.php?title=Se%C3%B1al_impulso_unitario&amp;amp;oldid=9171]&#039;&#039;&amp;lt;/ref&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Un ejemplo concreto, podríamos tener una función de respuesta al impulso &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
h(t)= e^(-t) * u(t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Donde u(t) es la función escalón unitario. En este caso, la respuesta al impulso al aplicar un impulso unitario sería la propia h(t)&lt;br /&gt;
&lt;br /&gt;
Para resolver este ejercicio en MATLAB, primero definiremos la función de respuesta al impulso h(t) y luego convolucionaremos con el impulso unitario. Aquí está el código MATLAB correspondiente:&amp;lt;ref&amp;gt;The MathWorks Inc. (2022). &#039;&#039;Convolución y multiplicación polinomial.&#039;&#039; Massachusetts: The MathWorks Inc. Consultado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/conv.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir la función de respuesta al impulso&lt;br /&gt;
t = 0:0.01:5;  % Definir el rango de tiempo&lt;br /&gt;
h = exp(-t) .* (t &amp;gt;= 0);  % h(t) = e^(-t)u(t)&lt;br /&gt;
&lt;br /&gt;
% Graficar la respuesta al impulso&lt;br /&gt;
figure;&lt;br /&gt;
subplot(2,1,1);&lt;br /&gt;
plot(t, h, &#039;LineWidth&#039;, 2);&lt;br /&gt;
title(&#039;Función de respuesta al impulso h(t)&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo&#039;);&lt;br /&gt;
ylabel(&#039;h(t)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
% Aplicar el impulso unitario (convolución)&lt;br /&gt;
delta = zeros(size(t));&lt;br /&gt;
delta(1) = 1;  &lt;br /&gt;
y = conv(delta, h) * 0.01;  &lt;br /&gt;
&lt;br /&gt;
% Graficar la respuesta al impulso al aplicar un impulso unitario&lt;br /&gt;
subplot(2,1,2);&lt;br /&gt;
t_conv = 0:0.01:(length(y)-1)*0.01;  % Rango de tiempo para la convolución&lt;br /&gt;
plot(t_conv, y, &#039;LineWidth&#039;, 2);&lt;br /&gt;
title(&#039;Respuesta al impulso al aplicar un impulso unitario&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo&#039;);&lt;br /&gt;
ylabel(&#039;y(t)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&#039;&#039;&lt;br /&gt;
&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
[[Category:Páginas con errores de matemáticas]]&lt;br /&gt;
[[Category:Páginas con errores de representación matemática]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Se%C3%B1al_impulso_unitario&amp;diff=9171</id>
		<title>Draft:Señal impulso unitario</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Se%C3%B1al_impulso_unitario&amp;diff=9171"/>
		<updated>2023-12-21T13:33:51Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_TSC&lt;br /&gt;
|Autores= José Antonio Salmerón Marín, [[User:Francisco Javier Herrero García]], [[User:Verónica_Velasco_López]], [[User:DGracia|Daniel Gracia Garallar]] y [[user:JDíaz|J.M. Díaz Nafría]]&lt;br /&gt;
|Docentes= [[user:JDíaz|J.M. Díaz Nafría]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Al igual que otras señales elementales, la &#039;&#039;&#039;delta de Dirac&#039;&#039;&#039; -para señales continuas- y el &#039;&#039;&#039;impulso unitario&#039;&#039;&#039; ó &#039;&#039;&#039;señal unitaria&#039;&#039;&#039; -para señales discretas- son señales que, aún no constituyendo señales de interés para el intercambio de información, son importantes para la caracterización de los sistemas encargados del transporte de las señales de información (filtros, canales de comunicación, equipos de línea... ). Ambas se utilizan para analizar la respuesta de sistemas a entradas específicas, resolver ecuaciones diferenciales, y proporcionar una representación simplificada de señales y sistemas en el análisis de señales y sistemas continuos y discretos.&amp;lt;ref&amp;gt;Seoane-Pujol, I. (2023).Unidad didáctica 2:Sistemas, concepto y Presentación disponible en el aula virtual de la asignatura &#039;&#039;“ Métodos Numéricos y Transformadas&amp;quot;&#039;&#039;. de la UDIMA. Consultado el 20/12/2023 en el Aula Virtual [https://aula.udima.es/course/view.php?id=48620]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Impulso unitario continuo (delta de Dirac)===&lt;br /&gt;
El &#039;&#039;&#039;impulso unitario&#039;&#039;&#039;, también denominado &#039;&#039;&#039;Delta de Dirac&#039;&#039;&#039;, es una función matemática que tiene propiedades especiales y se utiliza en el ámbito de los sistemas lineales e invariantes en el tiempo (LTI) y en el análisis de señales. La integral de la función es igual a uno. Una de las propiedades a destacar es:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;f(a) = \int_\R \delta(t-a)f(t) \ dt&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Castaño Giraldo, S.A.(2019).Análisis de Sistemas. Impulso Unitario. &#039;&#039;Control Automático Educación&#039;&#039;. Recuperado el 21/12/23  de [https://controlautomaticoeducacion.com/analisis-de-sistemas/impulso-unitario/]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Se puede expresar de forma no rigurosa como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \delta(t)= \left\{ \begin{matrix} \infty &amp;amp; t=0 \\ 0 &amp;amp; t \neq0 \end{matrix}\right. &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Juank Blog.(2011).&#039;&#039;Señales y sistemas. Tipos de señales&#039;&#039;. Colombia. Recuperado el 21/12/ 2023 de [https://juank1975.blogspot.com/2011/09/tipos-de-senales.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La relación entre el impulso unitario continuo y la transformada de Fourier está establecida por la propiedad de modulación en frecuencia, incluye términos que reflejan la modulación en frecuencia y la presencia de impulsos en el dominio de la frecuencia..La respuesta de un sistema al impulso unitario, &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, se conoce como respuesta en frecuencia del sistema, &amp;lt;math&amp;gt;H(f)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
===Impulso unitario discreto===&lt;br /&gt;
En el dominio discreto, el equivalente del impulso unitario continuo es a menudo representado por una secuencia que se conoce como el impulso unitario discreto o la delta de Dirac discreta. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \delta(n)= \left\{\begin{matrix} {1} &amp;amp; {n=0}&amp;amp; \\ 0&amp;amp; {n \neq0 }&amp;amp;\end{matrix}\right. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La relación entre el impulso unitario discreto y la Transformada de Fourier es especialmente importante, y esta relación se manifiesta a través de la propiedad de muestreo en el dominio de la frecuencia. La Transformada de Fourier de la delta de Dirac discreta es también conocida como una secuencia exponencial compleja. La Transformada de Fourier de la delta de Dirac discreta es igual a 1 para todas las frecuencias angulares ω. Esta propiedad tiene una implicación importante conocida como la propiedad de muestreo en frecuencia.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
[[File:Impulso unitario.png|thumbnail|&#039;&#039;&#039;Figura 1&#039;&#039;&#039;: Representación (continua) de un impulso unitario]]&lt;br /&gt;
El siguiente código de MATLAB permite generar un impulso unitario en el origen, que a continuación se representa:&amp;lt;ref&amp;gt;The MathWorks Inc. (2022).&#039;&#039;Funciones de impulso, escalón y rampa&#039;&#039; . Massachusetts: The MathWorks Inc. Consultado el 21/12/2023 de [https://es.mathworks.com/help/signal/gs/impulse-step-and-ramp-functions.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;syntaxhighlight lang=matlab&amp;gt;&lt;br /&gt;
t = (-1:0.01:1)&#039;;  % vector t de valores que representan la variable tiempo,&lt;br /&gt;
% con un intervalo de muestreo de 1 centésima de segundo entre -1 y 1 segundo.&lt;br /&gt;
impulse = t==0;    % Impulso en el segundo 0.&lt;br /&gt;
plot(t,impulse);   % Se muestra la gráfica.&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:Deltafft.png|thumbnail|&#039;&#039;&#039;Figura 2&#039;&#039;&#039;: Una señal impulso discreto (arriba) contiene todas las componentes espectrales posibles, con módulo unidad (abajo).]]&lt;br /&gt;
El siguiente código de MATLAB calcula las componentes espectrales de una función impulso discreta cualquiera, que a continuación se representan:&lt;br /&gt;
&amp;lt;syntaxhighlight lang=matlab&amp;gt;&lt;br /&gt;
% Una función impulso discreto cualquiera verifica&lt;br /&gt;
% que contiene todas las componentes espectrales&lt;br /&gt;
% posibles, con módulo unidad.&lt;br /&gt;
&lt;br /&gt;
d = [0 0 1 0 0 0 0 0]; % señal impulso cualquiera&lt;br /&gt;
D = fft(d);            % y su FFT&lt;br /&gt;
&lt;br /&gt;
subplot(2, 1, 1);&lt;br /&gt;
stem(d);&lt;br /&gt;
ylim([0 1.2]);&lt;br /&gt;
hold on;&lt;br /&gt;
subplot(2, 1, 2);&lt;br /&gt;
stem(abs(D));          % representamos el módulo&lt;br /&gt;
ylim([0 1.2]);&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la señal y la comunicación]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Se%C3%B1al_impulso_unitario&amp;diff=9170</id>
		<title>Draft:Señal impulso unitario</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Se%C3%B1al_impulso_unitario&amp;diff=9170"/>
		<updated>2023-12-21T13:31:00Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Modificación de referencias, formulación matemática y definiciones&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Cab0_TSC&lt;br /&gt;
|Autores= José Antonio Salmerón Marín, [[User:Francisco Javier Herrero García]], [[User:Verónica_Velasco_López]], [[User:DGracia|Daniel Gracia Garallar]] y [[user:JDíaz|J.M. Díaz Nafría]]&lt;br /&gt;
|Docentes= [[user:JDíaz|J.M. Díaz Nafría]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Definiciones==&lt;br /&gt;
Al igual que otras señales elementales, la &#039;&#039;&#039;delta de Dirac&#039;&#039;&#039; -para señales continuas- y el &#039;&#039;&#039;impulso unitario&#039;&#039;&#039; ó &#039;&#039;&#039;señal unitaria&#039;&#039;&#039; -para señales discretas- son señales que, aún no constituyendo señales de interés para el intercambio de información, son importantes para la caracterización de los sistemas encargados del transporte de las señales de información (filtros, canales de comunicación, equipos de línea... ). Ambas se utilizan para analizar la respuesta de sistemas a entradas específicas, resolver ecuaciones diferenciales, y proporcionar una representación simplificada de señales y sistemas en el análisis de señales y sistemas continuos y discretos.&lt;br /&gt;
&lt;br /&gt;
===Impulso unitario continuo (delta de Dirac)===&lt;br /&gt;
El &#039;&#039;&#039;impulso unitario&#039;&#039;&#039;, también denominado &#039;&#039;&#039;Delta de Dirac&#039;&#039;&#039;, es una función matemática que tiene propiedades especiales y se utiliza en el ámbito de los sistemas lineales e invariantes en el tiempo (LTI) y en el análisis de señales. La integral de la función es igual a uno. Una de las propiedades a destacar es:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;f(a) = \int_\R \delta(t-a)f(t) \ dt&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Castaño Giraldo, S.A.(2019).Análisis de Sistemas. Impulso Unitario. &#039;&#039;Control Automático Educación&#039;&#039;. Recuperado el 21/12/23  de [https://controlautomaticoeducacion.com/analisis-de-sistemas/impulso-unitario/]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Se puede expresar de forma no rigurosa como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \delta(t)= \left\{ \begin{matrix} \infty &amp;amp; t=0 \\ 0 &amp;amp; t \neq0 \end{matrix}\right. &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Juank Blog.(2011).&#039;&#039;Señales y sistemas. Tipos de señales&#039;&#039;. Colombia. Recuperado el 21/12/ 2023 de [https://juank1975.blogspot.com/2011/09/tipos-de-senales.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La relación entre el impulso unitario continuo y la transformada de Fourier está establecida por la propiedad de modulación en frecuencia, incluye términos que reflejan la modulación en frecuencia y la presencia de impulsos en el dominio de la frecuencia..La respuesta de un sistema al impulso unitario, &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, se conoce como respuesta en frecuencia del sistema, &amp;lt;math&amp;gt;H(f)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
===Impulso unitario discreto===&lt;br /&gt;
En el dominio discreto, el equivalente del impulso unitario continuo es a menudo representado por una secuencia que se conoce como el impulso unitario discreto o la delta de Dirac discreta. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \delta(n)= \left\{\begin{matrix} {1} &amp;amp; {n=0}&amp;amp; \\ 0&amp;amp; {n \neq0 }&amp;amp;\end{matrix}\right. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La relación entre el impulso unitario discreto y la Transformada de Fourier es especialmente importante, y esta relación se manifiesta a través de la propiedad de muestreo en el dominio de la frecuencia. La Transformada de Fourier de la delta de Dirac discreta es también conocida como una secuencia exponencial compleja. La Transformada de Fourier de la delta de Dirac discreta es igual a 1 para todas las frecuencias angulares ω. Esta propiedad tiene una implicación importante conocida como la propiedad de muestreo en frecuencia.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
[[File:Impulso unitario.png|thumbnail|&#039;&#039;&#039;Figura 1&#039;&#039;&#039;: Representación (continua) de un impulso unitario]]&lt;br /&gt;
El siguiente código de MATLAB permite generar un impulso unitario en el origen, que a continuación se representa:&amp;lt;ref&amp;gt;The MathWorks Inc. (2022).&#039;&#039;Funciones de impulso, escalón y rampa&#039;&#039; . Massachusetts: The MathWorks Inc. Consultado el 21/12/2023 de [https://es.mathworks.com/help/signal/gs/impulse-step-and-ramp-functions.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;syntaxhighlight lang=matlab&amp;gt;&lt;br /&gt;
t = (-1:0.01:1)&#039;;  % vector t de valores que representan la variable tiempo,&lt;br /&gt;
% con un intervalo de muestreo de 1 centésima de segundo entre -1 y 1 segundo.&lt;br /&gt;
impulse = t==0;    % Impulso en el segundo 0.&lt;br /&gt;
plot(t,impulse);   % Se muestra la gráfica.&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:Deltafft.png|thumbnail|&#039;&#039;&#039;Figura 2&#039;&#039;&#039;: Una señal impulso discreto (arriba) contiene todas las componentes espectrales posibles, con módulo unidad (abajo).]]&lt;br /&gt;
El siguiente código de MATLAB calcula las componentes espectrales de una función impulso discreta cualquiera, que a continuación se representan:&lt;br /&gt;
&amp;lt;syntaxhighlight lang=matlab&amp;gt;&lt;br /&gt;
% Una función impulso discreto cualquiera verifica&lt;br /&gt;
% que contiene todas las componentes espectrales&lt;br /&gt;
% posibles, con módulo unidad.&lt;br /&gt;
&lt;br /&gt;
d = [0 0 1 0 0 0 0 0]; % señal impulso cualquiera&lt;br /&gt;
D = fft(d);            % y su FFT&lt;br /&gt;
&lt;br /&gt;
subplot(2, 1, 1);&lt;br /&gt;
stem(d);&lt;br /&gt;
ylim([0 1.2]);&lt;br /&gt;
hold on;&lt;br /&gt;
subplot(2, 1, 2);&lt;br /&gt;
stem(abs(D));          % representamos el módulo&lt;br /&gt;
ylim([0 1.2]);&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
&lt;br /&gt;
[[Category:65) Telecomunicación y telecontrol]]&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la señal y la comunicación]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9167</id>
		<title>Draft:Respuesta al impulso</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9167"/>
		<updated>2023-12-21T12:36:06Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definiciones ==&lt;br /&gt;
La respuesta al impulso de un sistema es la salida que presenta dicho sistema cuando a la entrada se produce un pulso infinitamente corto y de amplitud infinita. Este pulso es imposible de obtener en un sistema real pero se utiliza como pulso ideal para la realización de cálculos matemáticos. Este tipo de pulso está representado por la función delta de Dirac (δ).&amp;lt;ref&amp;gt;Frwiki.(2022).&#039;&#039;Distribución de Dirac. Introducción formal&#039;&#039;. Consultado el 20/12/2023 en [https://es.frwiki.wiki/wiki/Distribution_de_Dirac]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sistemas continuos ===&lt;br /&gt;
Un sistema continuo se refiere a un sistema cuyas entradas y salidas son funciones continuas en el tiempo. Cuando se habla de un sistema continuo en la definición de la delta de Dirac, se hace referencia a cómo el sistema responde o interactúa con una señal que contiene una delta de Dirac, es decir, cómo un sistema continuo responde a una entrada que contiene una delta de Dirac y la respuesta al impulso del sistema se utiliza para caracterizar esa interacción.&amp;lt;ref&amp;gt;Seoane-Pujol, I. (2023).Unidad didáctica 2:Sistemas, concepto y Presentación disponible en el aula virtual de la asignatura &#039;&#039;“ Métodos Numéricos y Transformadas&amp;quot;&#039;&#039;.  de la UDIMA. Consultado el 20/12/2023 en el Aula Virtual [https://aula.udima.es/course/view.php?id=48620]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En sistemas continuos la definición de la delta de Dirac sería la siguiente:  &amp;lt;math&amp;gt;\delta (t) = &lt;br /&gt;
\begin{cases} &lt;br /&gt;
\infty, &amp;amp; \text{si }t=0 \\ &lt;br /&gt;
0 &amp;amp; \text{si } t \neq\ 0 &lt;br /&gt;
\end{cases}&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;ref&amp;gt;Wikipedia.(2020).&#039;&#039;Función delta de Dirac. Introducción formal.&#039;&#039; Consultado el 20/12/2023 en [https://en.wikipedia.org/wiki/Dirac_delta_function?oldid=3459505]&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;Teniendo en cuenta esto, la respuesta al impulso &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, es la función que determina cómo el sistema afecta al impulso de entrada, dando lugar a la función &amp;lt;math&amp;gt;y(t)&amp;lt;/math&amp;gt;. Explicado de forma analítica:  &amp;lt;math&amp;gt;y(t) = x(t)* h(t)&amp;lt;/math&amp;gt;;&lt;br /&gt;
&lt;br /&gt;
Siendo &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt; la entrada al sistema, &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;h(t) la respuesta al impulso e &amp;lt;math&amp;gt;y(t)&amp;lt;/math&amp;gt; la salida del sistema.&amp;lt;br&amp;gt;Dicha salida se consigue hallar mediante una operación de convolución entre &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt;x(t) y &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, definiéndose esta en sistemas continuos como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;y(t)= \int_{-\infty}^{\infty} \displaystyle x(r)*h(t-r) dr&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===  &#039;&#039;&#039;Sistemas discretos&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
Un sistema discreto se refiere a un sistema en el que las variables de entrada y salida son definidas solamente en puntos discretos en el tiempo o en el espacio, solo tienen valores en momentos específicos, en lugar de ser continuas en todo el dominio. Un sistema discreto en la definición de la delta de Dirac en señales implica el uso de secuencias discretas que actúan como impulsos en puntos específicos, de manera análoga a cómo la delta de Dirac actúa como un impulso en el dominio continuo del tiempo.&lt;br /&gt;
&lt;br /&gt;
En este caso la definición sería: &amp;lt;math&amp;gt;\delta (n) = &lt;br /&gt;
\begin{cases} &lt;br /&gt;
1, &amp;amp; \text{si }n=0 \\ &lt;br /&gt;
0 &amp;amp; \text{si } n \neq\ 0 &lt;br /&gt;
\end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En el caso de sistemas discretos, la operación de convolución entre la entrada y la respuesta al impulso se define de la siguiente manera:&amp;lt;br&amp;gt;&amp;lt;math&amp;gt;y[n]= \sum_{k=-\infty}^\infty\displaystyle x[n]*h[n-k] ;&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ejemplo conceptual:&#039;&#039;&#039;&amp;lt;br&amp;gt;Nos encontramos en una estudio de grabación, delante tenemos un medidor de sonido en forma de gráfica temporal. Nuestro impulso será el sonido que emite un globo al pincharse, se puede asemejar a un impulso de duración instantánea. Al pinchar el globo se observa en la gráfica como inicialmente se obtiene un pico de ruido seguido de varios picos más pequeños que finalmente desaparecen y vuelve a quedar la gráfica a cero. Bien, pues la respuesta al impulso sería el equivalente a cómo la sala de grabación afecta al impulso de tal forma que si conociéramos como cada punto de la sala afecta en la reflexión del sonido del impulso podríamos predecir la salida del sistema, es decir la gráfica de ruido final.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Supongamos que la respuesta al impulso de un sistema es h(t), entonces la respuesta y(t) a una entrada x(t) se puede expresar como su convolución. Si la entrada es un impulso unitario δ(t), entonces la respuesta al impulso es simplemente h(t). Por lo tanto, la respuesta al impulso al aplicar un impulso unitario sería:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
y(t)=\delta(t) * h(t) = h(t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Esto significa que la respuesta del sistema a un impulso unitario es igual a la propia respuesta al impulso del sistema. &lt;br /&gt;
&lt;br /&gt;
Un ejemplo concreto, podríamos tener una función de respuesta al impulso &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
h(t)= e^(-t) * u(t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Donde u(t) es la función escalón unitario. En este caso, la respuesta al impulso al aplicar un impulso unitario sería la propia h(t)&lt;br /&gt;
&lt;br /&gt;
Para resolver este ejercicio en MATLAB, primero definiremos la función de respuesta al impulso h(t) y luego convolucionaremos con el impulso unitario. Aquí está el código MATLAB correspondiente:&amp;lt;ref&amp;gt;The MathWorks Inc. (2022). &#039;&#039;Convolución y multiplicación polinomial.&#039;&#039; Massachusetts: The MathWorks Inc. Consultado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/conv.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir la función de respuesta al impulso&lt;br /&gt;
t = 0:0.01:5;  % Definir el rango de tiempo&lt;br /&gt;
h = exp(-t) .* (t &amp;gt;= 0);  % h(t) = e^(-t)u(t)&lt;br /&gt;
&lt;br /&gt;
% Graficar la respuesta al impulso&lt;br /&gt;
figure;&lt;br /&gt;
subplot(2,1,1);&lt;br /&gt;
plot(t, h, &#039;LineWidth&#039;, 2);&lt;br /&gt;
title(&#039;Función de respuesta al impulso h(t)&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo&#039;);&lt;br /&gt;
ylabel(&#039;h(t)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
% Aplicar el impulso unitario (convolución)&lt;br /&gt;
delta = zeros(size(t));&lt;br /&gt;
delta(1) = 1;  &lt;br /&gt;
y = conv(delta, h) * 0.01;  &lt;br /&gt;
&lt;br /&gt;
% Graficar la respuesta al impulso al aplicar un impulso unitario&lt;br /&gt;
subplot(2,1,2);&lt;br /&gt;
t_conv = 0:0.01:(length(y)-1)*0.01;  % Rango de tiempo para la convolución&lt;br /&gt;
plot(t_conv, y, &#039;LineWidth&#039;, 2);&lt;br /&gt;
title(&#039;Respuesta al impulso al aplicar un impulso unitario&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo&#039;);&lt;br /&gt;
ylabel(&#039;y(t)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&#039;&#039;[[Category:Páginas con errores de matemáticas]]&lt;br /&gt;
[[Category:Páginas con errores de representación matemática]]&#039;&#039;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9166</id>
		<title>Draft:Respuesta al impulso</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9166"/>
		<updated>2023-12-21T12:34:27Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Modifcación referencias y creación de código. IMPORTANTE: no consigo formular la exponencial correctamente.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Definiciones ==&lt;br /&gt;
La respuesta al impulso de un sistema es la salida que presenta dicho sistema cuando a la entrada se produce un pulso infinitamente corto y de amplitud infinita. Este pulso es imposible de obtener en un sistema real pero se utiliza como pulso ideal para la realización de cálculos matemáticos. Este tipo de pulso está representado por la función delta de Dirac (δ).&amp;lt;ref&amp;gt;Frwiki.(2022).&#039;&#039;Distribución de Dirac. Introducción formal&#039;&#039;. Consultado el 20/12/2023 en [https://es.frwiki.wiki/wiki/Distribution_de_Dirac]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sistemas continuos ===&lt;br /&gt;
Un sistema continuo se refiere a un sistema cuyas entradas y salidas son funciones continuas en el tiempo. Cuando se habla de un sistema continuo en la definición de la delta de Dirac, se hace referencia a cómo el sistema responde o interactúa con una señal que contiene una delta de Dirac, es decir, cómo un sistema continuo responde a una entrada que contiene una delta de Dirac y la respuesta al impulso del sistema se utiliza para caracterizar esa interacción.&amp;lt;ref&amp;gt;Seoane-Pujol, I. (2023).Unidad didáctica 2:Sistemas, concepto y Presentación disponible en el aula virtual de la asignatura &#039;&#039;“ Métodos Numéricos y Transformadas&amp;quot;&#039;&#039;.  de la UDIMA. Consultado el 20/12/2023 en el Aula Virtual [https://aula.udima.es/course/view.php?id=48620]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En sistemas continuos la definición de la delta de Dirac sería la siguiente:  &amp;lt;math&amp;gt;\delta (t) = &lt;br /&gt;
\begin{cases} &lt;br /&gt;
\infty, &amp;amp; \text{si }t=0 \\ &lt;br /&gt;
0 &amp;amp; \text{si } t \neq\ 0 &lt;br /&gt;
\end{cases}&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;ref&amp;gt;Wikipedia.(2020).&#039;&#039;Función delta de Dirac. Introducción formal.&#039;&#039; Consultado el 20/12/2023 en [https://en.wikipedia.org/wiki/Dirac_delta_function?oldid=3459505]&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;Teniendo en cuenta esto, la respuesta al impulso &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, es la función que determina cómo el sistema afecta al impulso de entrada, dando lugar a la función &amp;lt;math&amp;gt;y(t)&amp;lt;/math&amp;gt;. Explicado de forma analítica:  &amp;lt;math&amp;gt;y(t) = x(t)* h(t)&amp;lt;/math&amp;gt;;&lt;br /&gt;
&lt;br /&gt;
Siendo &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt; la entrada al sistema, &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;h(t) la respuesta al impulso e &amp;lt;math&amp;gt;y(t)&amp;lt;/math&amp;gt; la salida del sistema.&amp;lt;br&amp;gt;Dicha salida se consigue hallar mediante una operación de convolución entre &amp;lt;math&amp;gt;x(t)&amp;lt;/math&amp;gt;x(t) y &amp;lt;math&amp;gt;h(t)&amp;lt;/math&amp;gt;, definiéndose esta en sistemas continuos como:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;y(t)= \int_{-\infty}^{\infty} \displaystyle x(r)*h(t-r) dr&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===  &#039;&#039;&#039;Sistemas discretos&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
Un sistema discreto se refiere a un sistema en el que las variables de entrada y salida son definidas solamente en puntos discretos en el tiempo o en el espacio, solo tienen valores en momentos específicos, en lugar de ser continuas en todo el dominio. Un sistema discreto en la definición de la delta de Dirac en señales implica el uso de secuencias discretas que actúan como impulsos en puntos específicos, de manera análoga a cómo la delta de Dirac actúa como un impulso en el dominio continuo del tiempo.&lt;br /&gt;
&lt;br /&gt;
En este caso la definición sería: &amp;lt;math&amp;gt;\delta (n) = &lt;br /&gt;
\begin{cases} &lt;br /&gt;
1, &amp;amp; \text{si }n=0 \\ &lt;br /&gt;
0 &amp;amp; \text{si } n \neq\ 0 &lt;br /&gt;
\end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En el caso de sistemas discretos, la operación de convolución entre la entrada y la respuesta al impulso se define de la siguiente manera:&amp;lt;br&amp;gt;&amp;lt;math&amp;gt;y[n]= \sum_{k=-\infty}^\infty\displaystyle x[n]*h[n-k] ;&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ejemplo conceptual:&#039;&#039;&#039;&amp;lt;br&amp;gt;Nos encontramos en una estudio de grabación, delante tenemos un medidor de sonido en forma de gráfica temporal. Nuestro impulso será el sonido que emite un globo al pincharse, se puede asemejar a un impulso de duración instantánea. Al pinchar el globo se observa en la gráfica como inicialmente se obtiene un pico de ruido seguido de varios picos más pequeños que finalmente desaparecen y vuelve a quedar la gráfica a cero. Bien, pues la respuesta al impulso sería el equivalente a cómo la sala de grabación afecta al impulso de tal forma que si conociéramos como cada punto de la sala afecta en la reflexión del sonido del impulso podríamos predecir la salida del sistema, es decir la gráfica de ruido final.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Código ==&lt;br /&gt;
Supongamos que la respuesta al impulso de un sistema es h(t), entonces la respuesta y(t) a una entrada x(t) se puede expresar como su convolución. Si la entrada es un impulso unitario δ(t), entonces la respuesta al impulso es simplemente h(t). Por lo tanto, la respuesta al impulso al aplicar un impulso unitario sería:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
y(t)=\delta(t) * h(t) = h(t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Esto significa que la respuesta del sistema a un impulso unitario es igual a la propia respuesta al impulso del sistema. &lt;br /&gt;
&lt;br /&gt;
Un ejemplo concreto, podríamos tener una función de respuesta al impulso &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
h(t)= e^(-t) * u(t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Donde u(t) es la función escalón unitario. En este caso, la respuesta al impulso al aplicar un impulso unitario sería la propia h(t)&lt;br /&gt;
&lt;br /&gt;
Para resolver este ejercicio en MATLAB, primero definiremos la función de respuesta al impulso h(t) y luego convolucionaremos con el impulso unitario. Aquí está el código MATLAB correspondiente:&amp;lt;ref&amp;gt;The MathWorks Inc. (2022). &#039;&#039;Convolución y multiplicación polinomial.&#039;&#039; Massachusetts: The MathWorks Inc. Consultado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/conv.html]&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir la función de respuesta al impulso&lt;br /&gt;
t = 0:0.01:5;  % Definir el rango de tiempo&lt;br /&gt;
h = exp(-t) .* (t &amp;gt;= 0);  % h(t) = e^(-t)u(t)&lt;br /&gt;
&lt;br /&gt;
% Graficar la respuesta al impulso&lt;br /&gt;
figure;&lt;br /&gt;
subplot(2,1,1);&lt;br /&gt;
plot(t, h, &#039;LineWidth&#039;, 2);&lt;br /&gt;
title(&#039;Función de respuesta al impulso h(t)&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo&#039;);&lt;br /&gt;
ylabel(&#039;h(t)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
% Aplicar el impulso unitario (convolución)&lt;br /&gt;
delta = zeros(size(t));&lt;br /&gt;
delta(1) = 1;  &lt;br /&gt;
y = conv(delta, h) * 0.01;  &lt;br /&gt;
&lt;br /&gt;
% Graficar la respuesta al impulso al aplicar un impulso unitario&lt;br /&gt;
subplot(2,1,2);&lt;br /&gt;
t_conv = 0:0.01:(length(y)-1)*0.01;  % Rango de tiempo para la convolución&lt;br /&gt;
plot(t_conv, y, &#039;LineWidth&#039;, 2);&lt;br /&gt;
title(&#039;Respuesta al impulso al aplicar un impulso unitario&#039;);&lt;br /&gt;
xlabel(&#039;Tiempo&#039;);&lt;br /&gt;
ylabel(&#039;y(t)&#039;);&lt;br /&gt;
grid on;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&#039;&#039;Distribución de Dirac.&lt;br /&gt;
Respuesta a impulso.&lt;br /&gt;
Respuesta impulsiva.&#039;&#039; (s. f.). FRWIKI. Recuperado 19 de agosto de 2022, de https://es.frwiki.wiki/wiki/Distribution_de_Dirac&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Distribución de Dirac.&lt;br /&gt;
Respuesta a impulso.&lt;br /&gt;
Respuesta impulsiva.&#039;&#039; (2020, 12 enero). WIKIPEDIA. Recuperado 19 de agosto de 2022, de https://es.wikipedia.org/wiki/Respuesta_a_impulso#:~:text=La%20respuesta%20a%20un%20impulso,pico%20de%20amplitud%20infinitamente%20alto).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Distribución de Dirac.&lt;br /&gt;
Respuesta a impulso.&lt;br /&gt;
Respuesta impulsiva.&#039;&#039; (s. f.). FRWIKI. Recuperado 19 de agosto de 2022, de https://es.frwiki.wiki/wiki/R%C3%A9ponse_impulsionnelle&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;[[Category:Páginas con errores de matemáticas]]&lt;br /&gt;
[[Category:Páginas con errores de representación matemática]]&#039;&#039;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft_talk:Respuesta_al_impulso&amp;diff=9165</id>
		<title>Draft talk:Respuesta al impulso</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft_talk:Respuesta_al_impulso&amp;diff=9165"/>
		<updated>2023-12-21T11:58:55Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Respuesta a José María&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Estimada Irene:&lt;br /&gt;
&lt;br /&gt;
He corregido los errores que contenías las definiciones que habías introducido, por ejemplo, la delta en continua tiene un máximo que no es uno sino infinito. Además había errores de codificación de las ecuaciones. Si visitas las ediciones previas (desde el historia) podrás ver los errores que he corregido.&lt;br /&gt;
&lt;br /&gt;
En cualquier caso, querría hacer otras advertencias:&lt;br /&gt;
&lt;br /&gt;
* El artículo [[Señal impulso unitario]] debería referirse al hablar de las señales que ahí se definen y tratar de minimizar las redundancias. Como se indica en el enunciado de la actividad su objetivo es constructivo a partir del conjunto de contenidos que existen. Por tanto, debe establecerse relación siempre que sea posible.&lt;br /&gt;
* Las referencias no se han introducido ni en el formato normalizado que se ha indicado, ni usando la herramienta de citas que establece vínculos automáticos.&lt;br /&gt;
&lt;br /&gt;
Un saludo,&lt;br /&gt;
&lt;br /&gt;
JM&lt;br /&gt;
&lt;br /&gt;
== Respuesta  José María ==&lt;br /&gt;
Estimado José María:&lt;br /&gt;
&lt;br /&gt;
Muchas gracias por modificar mis errores. Ahora, voy a seguir añadiendo código y referencias correctas al artículo de Respuesta al impulso.&lt;br /&gt;
&lt;br /&gt;
Por otra parte, empezaré a cambiar y ampliar ,como bien me has indicado, el siguiente artículo de la señal impulso unitario ya que tienen bastante relación y seguro queda bien.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un saludo,&lt;br /&gt;
&lt;br /&gt;
Irene Salinero Bodas&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9164</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9164"/>
		<updated>2023-12-21T11:49:09Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Actualización de las referencias&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición==&lt;br /&gt;
La &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias.&amp;lt;ref&amp;gt;Díaz Nafría, J.M. (2020). Unidad 2:Entropía de una fuente discreta . PDF disponible en el aula virtual de la asignatura “&#039;&#039;Teoría de la Información&#039;&#039;.” de la UDIMA. Consultado el 19/12/2023 en Aula virtual[https://aula.udima.es/course/view.php?id=48605]&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta===&lt;br /&gt;
Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
A continuación se muestra un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables aleatorias discretas.&amp;lt;ref&amp;gt;The MathWorks Inc. (2022).&#039;&#039;Floating-point relative accuracy&#039;&#039;. Natick, Massachusetts: The MathWorks Inc. Recuperado el 19/12/2023 de: [https://es.mathworks.com/help/matlab/ref/eps.html]&amp;lt;/ref&amp;gt;&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir dos variables aleatorias discretas&lt;br /&gt;
X = [1, 2, 3]; % Valores posibles para la variable X&lt;br /&gt;
Y = [4, 5, 6]; % Valores posibles para la variable Y&lt;br /&gt;
&lt;br /&gt;
% Definir las probabilidades conjuntas P(X, Y)&lt;br /&gt;
P = [0.1, 0.2, 0.1; 0.2, 0.1, 0.1; 0.1, 0.1, 0.1];&lt;br /&gt;
&lt;br /&gt;
% Calcular la entropía conjunta H(X, Y)&lt;br /&gt;
H = -sum(sum(P .* log2(P + eps))); % &#039;eps&#039; se agrega para evitar el logaritmo de cero&lt;br /&gt;
&lt;br /&gt;
% Mostrar los resultados&lt;br /&gt;
disp(&#039;Probabilidades conjuntas:&#039;);&lt;br /&gt;
disp(P);&lt;br /&gt;
disp([&#039;Entropía conjunta H(X, Y): &#039;, num2str(H)]);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Utilizando la expresión matemática definida anteriormente, este código calcula la entropía conjunta utilizando como parámetros de entrada:&lt;br /&gt;
&lt;br /&gt;
* dos variables aleatorias discretas, &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, con valores posibles &amp;lt;math&amp;gt;[1, 2, 3]&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;[4, 5, 6]&amp;lt;/math&amp;gt;, respectivamente, y&lt;br /&gt;
* las probabilidades conjuntas en la matriz &amp;lt;math&amp;gt;P&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Referencias ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Talk:Entrop%C3%ADa_conjunta&amp;diff=9163</id>
		<title>Talk:Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Talk:Entrop%C3%ADa_conjunta&amp;diff=9163"/>
		<updated>2023-12-21T11:47:10Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: /* Respuesta a Julio y José María */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Comentarios de Julio tras las adiciones de Irene ==&lt;br /&gt;
Buenos días Irene,&lt;br /&gt;
&lt;br /&gt;
Muchas gracias por tu aportación al borrador que me he tomado la libertad de aportar sobre el concepto de &amp;quot;entropía conjunta&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Me gustaría realizar unas observaciones en las que pudiera mostrar una cierta discrepancia y que hago saber a través de este hilo de discusión a fin de que Alejandro García Tejero o José María Díaz Nafría puedan aportarnos su punto de vista.&lt;br /&gt;
&lt;br /&gt;
# No me parece del todo correcto el aplicar la etiqueta de formato &amp;quot;&amp;lt;nowiki&amp;gt;&amp;lt;big&amp;gt;&amp;quot; a todo el texto del artículo, pues rompe con el estilo seguido para el resto de artículos ya publicados. Puedo entender que el texto se pueda llegar a visualizar un tanto pequeño en ciertas resoluciones de pantalla, pero afortunadamente los navegadores actuales cumplen con las recomendaciones de accesibilidad WCAG 2.1 (e incluso con la más reciente 2.2) y permiten agrandarlo sin problema y sin necesidad de tener que modificar el formato original.&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
# Al subrayar el texto de &amp;quot;entropía conjunta&amp;quot; da la falsa sensación de ser un link a otra página cuando en realidad no lo es. En mi humilde opinión, sería más correcto ponerlo en letra cursiva.&lt;br /&gt;
# La mención que realizas en el primer párrafo sobre la relación entre entropías individuales y conjunta ya se encontraba reflejada en la primera versión del borrador, con lo que considero humildemente que pudiera resultar una información redundante en este punto.&lt;br /&gt;
# Cuando mencionas &amp;quot;Si X e Y son independientes, la entropía conjunta es igual &#039;&#039;&#039;al producto&#039;&#039;&#039; de sus entropías individuales.&amp;quot;, entiendo que quieres indicar que &amp;quot;Si X e Y son independientes, la entropía conjunta es igual &#039;&#039;&#039;a la suma&#039;&#039;&#039; de sus entropías individuales.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Muchas gracias por tu aportación e interés en el artículo que he iniciado y que confío en que podamos seguir mejorando entre todos.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Atentamente,&lt;br /&gt;
&lt;br /&gt;
[[User:Julio Garvía Honrado|Julio Garvía Honrado]] ([[User talk:Julio Garvía Honrado|talk]]) 14:28, 18 December 2023 (CET)&lt;br /&gt;
&lt;br /&gt;
== Respuesta a Julio e Irene ==&lt;br /&gt;
&lt;br /&gt;
Estimados Julio e Irene:&lt;br /&gt;
&lt;br /&gt;
Muchas gracias a ambos por vuestras contribuciones orientadas a aclarar un concepto bastante importante y que complementa el único que había al respecto, que era el de entropía individual.&lt;br /&gt;
&lt;br /&gt;
Estoy de acuerdo en todo lo que dice Julio, lo cual debe corregirse. A colación del comentario 3º de Julio, me gustaría subrayar que el objetivo de la actividad -según se describe al inicio del enunciado- es tratar de ofrecer una clarificación lo más sintética e integradora posible, de modo que es fundamental evitar las redundancias. De hecho, en la parte de código, Irene, añades la definición que ya había introducido Julio, por tanto lo que corresponde es establecer una relación a aquella definición.&lt;br /&gt;
&lt;br /&gt;
Permitidme algunos &#039;&#039;&#039;comentarios adicionales&#039;&#039;&#039;:&lt;br /&gt;
# Los títulos deben ser sencillos, es decir, sin referencias ni enlaces. Observaréis, en general, que la literatura no hace algo así. Las referencias se vinculan al texto y deben ser significativas.&lt;br /&gt;
# La siguiente referencia no es válida porque no corresponde a ningún documento que pueda encontrarse publicado -las referencias deben ser precisas-: Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&lt;br /&gt;
# La referencia de Mathworks tampoco es válida, por falta de especificidad y porque al tratarse de un recurso en línea no se ofrece la url. Observa este ejemplo de referencia de un documento de ayuda de Matlab usando estilo APA: The MathWorks Inc. (2022). &#039;&#039;Statistics and Machine Learning Toolbox Documentation&#039;&#039;. Natick, Massachusetts: The MathWorks Inc. Recuperado el 19/12/2023 de: https://www.mathworks.com/help/stats/index.html.&lt;br /&gt;
&lt;br /&gt;
Un saludo a ambos. Y ánimo que dándole un empujón nos va a quedar un buen artículo,&lt;br /&gt;
JM&lt;br /&gt;
&lt;br /&gt;
[[User:JDíaz|JDíaz]] ([[User talk:JDíaz|talk]]) 18:41, 19 December 2023 (CET)&lt;br /&gt;
&lt;br /&gt;
== Respuesta a Julio y  José María ==&lt;br /&gt;
Estimados Julio y José María:&lt;br /&gt;
&lt;br /&gt;
Primero de todo, disculparme por no contestar antes, estoy adaptándome a la plataforma y no había visto estos mensajes.&lt;br /&gt;
&lt;br /&gt;
En cuanto a los comentarios de Julio, toda la razón, estoy totalmente de acuerdo. Disculpa y gracias por hacer las respectivas modificaciones, queda mucho mejor de esa manera. Es muy interesante cómo escribiéndolo de otra manera o en otra formato varía el artículo. Está quedando muy bien.&lt;br /&gt;
&lt;br /&gt;
Por otra parte, he cambiado ahora mismo las referencias correspondientes, José María, creo que ahora están más completas con sus enlaces también.&lt;br /&gt;
&lt;br /&gt;
El artículo está quedando bastante bien, si creeís que lo podemos completar con algún otro detalle más, no dudéis en consultármelo para ponernos manos a la obra pero, en mi opinión, lo veo bastante completo.&lt;br /&gt;
&lt;br /&gt;
Muchas gracias a los dos, un saludo.&lt;br /&gt;
&lt;br /&gt;
Irene Salinero Bodas&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=File:Propiedades.png&amp;diff=9151</id>
		<title>File:Propiedades.png</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=File:Propiedades.png&amp;diff=9151"/>
		<updated>2023-12-20T16:57:21Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Propiedades de la respuesta al impulso&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9146</id>
		<title>Draft:Respuesta al impulso</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9146"/>
		<updated>2023-12-20T16:30:23Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== DEFINICIÓN ==&lt;br /&gt;
La respuesta al impulso de un sistema es la salida que presenta dicho sistema cuando a la entrada se produce un pulso infinitamente corto y de amplitud infinita. Este pulso es imposible de obtener en un sistema real pero se utiliza como pulso ideal para la realización de cálculos matemáticos. Este tipo de pulso está representado por la función delta de Dirac (δ).&amp;lt;ref&amp;gt;Frwiki.(2022).Distribución de Dirac. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== SISTEMAS CONTINUOS ===&lt;br /&gt;
Un sistema continuo se refiere a un sistema cuyas entradas y salidas son funciones continuas en el tiempo. Cuando se habla de un sistema continuo en la definición de la delta de Dirac, se hace referencia a cómo el sistema responde o interactúa con una señal que contiene una delta de Dirac, es decir, cómo un sistema continuo responde a una entrada que contiene una delta de Dirac y la respuesta al impulso del sistema se utiliza para caracterizar esa interacción.&amp;lt;ref&amp;gt;Seoane-Pujol, I. (2023).Métodos Numéricos y Transformadas. UDIMA.&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En sistemas continuos la definición de la delta de Dirac sería la siguiente:  &amp;lt;math&amp;gt;delta (t) = 1 ; t= 0; 0 =t \neq\ 0&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Teniendo en cuenta esto, la respuesta al impulso h(t), es la función que determina cómo el sistema afecta al impulso de entrada, dando lugar a la función y(t). Explicado de forma analítica:  &amp;lt;math&amp;gt;y(t) = x(t)* h(t)&amp;lt;/math&amp;gt;;&amp;lt;ref&amp;gt;Frwiki.(2022).Respuesta impulsiva.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Siendo x(t) la entrada al sistema, h(t) la respuesta al impulso e y(t) la salida del sistema.&amp;lt;br&amp;gt;Dicha salida se consigue hallar mediante una operación de convolución entre x(t) y h(t), definiéndose esta en sistemas continuos como:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;y(t)= \textstyle \int_{\inf}^{\inf} \displaystyle x(r)*h(t-r) dr;&lt;br /&gt;
\inf= -&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;Wikipedia.(2020).Distribución de Dirac. &amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===  &#039;&#039;&#039;SISTEMAS DISCRETOS&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un sistema discreto se refiere a un sistema en el que las variables de entrada y salida son definidas solamente en puntos discretos en el tiempo o en el espacio, solo tienen valores en momentos específicos, en lugar de ser continuas en todo el dominio. Un sistema discreto en la definición de la delta de Dirac en señales implica el uso de secuencias discretas que actúan como impulsos en puntos específicos, de manera análoga a cómo la delta de Dirac actúa como un impulso en el dominio continuo del tiempo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En este caso la definición sería: &amp;lt;math&amp;gt;delta [n] = 1 ; n= 0; 0 =n \neq\ 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En el caso de sistemas discretos, la operación de convolución entre la entrada y la respuesta al impulso se define de la siguiente manera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;math&amp;gt;y[n]=\textstyle \sum_{k=-inf}^\inf\displaystyle x[n]*h[n-k] ;&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ejemplo conceptual:&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nos encontramos en una estudio de grabación, delante tenemos un medidor de sonido en forma de gráfica temporal. Nuestro impulso será el sonido que emite un globo al pincharse, se puede asemejar a un impulso de duración instantánea. Al pinchar el globo se observa en la gráfica como inicialmente se obtiene un pico de ruido seguido de varios picos más pequeños que finalmente desaparecen y vuelve a quedar la gráfica a cero. Bien, pues la respuesta al impulso sería el equivalente a cómo la sala de grabación afecta al impulso de tal forma que si conociéramos como cada punto de la sala afecta en la reflexión del sonido del impulso podríamos predecir la salida del sistema, es decir la gráfica de ruido final.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== CÓDIGO ==&lt;br /&gt;
&amp;lt;ref&amp;gt;MathWorks.(1994-2023).Manuales de Referencia.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== REFERENCIAS ==&lt;br /&gt;
&#039;&#039;[[Category:Páginas con errores de matemáticas]]&lt;br /&gt;
[[Category:Páginas con errores de representación matemática]]&#039;&#039;&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9144</id>
		<title>Draft:Respuesta al impulso</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Respuesta_al_impulso&amp;diff=9144"/>
		<updated>2023-12-20T12:28:18Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== DEFINICIÓN ==&lt;br /&gt;
La respuesta al impulso de un sistema es la salida que presenta dicho sistema cuando a la entrada se produce un pulso infinitamente corto y de amplitud infinita. Este pulso es imposible de obtener en un sistema real pero se utiliza como pulso ideal para la realización de cálculos matemáticos. Este tipo de pulso está representado por la función delta de Dirac (δ).&lt;br /&gt;
&lt;br /&gt;
=== SISTEMAS CONTINUOS ===&lt;br /&gt;
Un sistema continuo se refiere a un sistema cuyas entradas y salidas son funciones continuas en el tiempo. Cuando se habla de un sistema continuo en la definición de la delta de Dirac, se hace referencia a cómo el sistema responde o interactúa con una señal que contiene una delta de Dirac, es decir, cómo un sistema continuo responde a una entrada que contiene una delta de Dirac y la respuesta al impulso del sistema se utiliza para caracterizar esa interacción.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En sistemas continuos la definición de la delta de Dirac sería la siguiente:  &amp;lt;math&amp;gt;delta (t) = 1 ; t= 0; 0 =t \neq\ 0&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Teniendo en cuenta esto, la respuesta al impulso h(t), es la función que determina cómo el sistema afecta al impulso de entrada, dando lugar a la función y(t). Explicado de forma analítica:  &amp;lt;math&amp;gt;y(t) = x(t)* h(t)&amp;lt;/math&amp;gt;;&lt;br /&gt;
&lt;br /&gt;
Siendo x(t) la entrada al sistema, h(t) la respuesta al impulso e y(t) la salida del sistema.&amp;lt;br&amp;gt;Dicha salida se consigue hallar mediante una operación de convolución entre x(t) y h(t), definiéndose esta en sistemas continuos como:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;y(t)= \textstyle \int_{\inf}^{\inf} \displaystyle x(r)*h(t-r) dr;&lt;br /&gt;
\inf= -&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===  &#039;&#039;&#039;SISTEMAS DISCRETOS&#039;&#039;&#039; ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un sistema discreto se refiere a un sistema en el que las variables de entrada y salida son definidas solamente en puntos discretos en el tiempo o en el espacio, solo tienen valores en momentos específicos, en lugar de ser continuas en todo el dominio. Un sistema discreto en la definición de la delta de Dirac en señales implica el uso de secuencias discretas que actúan como impulsos en puntos específicos, de manera análoga a cómo la delta de Dirac actúa como un impulso en el dominio continuo del tiempo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En este caso la definición sería: &amp;lt;math&amp;gt;delta [n] = 1 ; n= 0; 0 =n \neq\ 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En el caso de sistemas discretos, la operación de convolución entre la entrada y la respuesta al impulso se define de la siguiente manera:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;math&amp;gt;y[n]=\textstyle \sum_{k=-inf}^\inf\displaystyle x[n]*h[n-k] ;&lt;br /&gt;
&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Ejemplo conceptual:&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nos encontramos en una estudio de grabación, delante tenemos un medidor de sonido en forma de gráfica temporal. Nuestro impulso será el sonido que emite un globo al pincharse, se puede asemejar a un impulso de duración instantánea. Al pinchar el globo se observa en la gráfica como inicialmente se obtiene un pico de ruido seguido de varios picos más pequeños que finalmente desaparecen y vuelve a quedar la gráfica a cero. Bien, pues la respuesta al impulso sería el equivalente a cómo la sala de grabación afecta al impulso de tal forma que si conociéramos como cada punto de la sala afecta en la reflexión del sonido del impulso podríamos predecir la salida del sistema, es decir la gráfica de ruido final.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Referencias:&#039;&#039;&#039;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Distribución de Dirac.&lt;br /&gt;
Respuesta a impulso.&lt;br /&gt;
Respuesta impulsiva.&#039;&#039; (s. f.). FRWIKI. Recuperado 19 de agosto de 2022, de https://es.frwiki.wiki/wiki/Distribution_de_Dirac&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Distribución de Dirac.&lt;br /&gt;
Respuesta a impulso.&lt;br /&gt;
Respuesta impulsiva.&#039;&#039; (2020, 12 enero). WIKIPEDIA. Recuperado 19 de agosto de 2022, de https://es.wikipedia.org/wiki/Respuesta_a_impulso#:~:text=La%20respuesta%20a%20un%20impulso,pico%20de%20amplitud%20infinitamente%20alto).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Distribución de Dirac.&lt;br /&gt;
Respuesta a impulso.&lt;br /&gt;
Respuesta impulsiva.&#039;&#039; (s. f.). FRWIKI. Recuperado 19 de agosto de 2022, de https://es.frwiki.wiki/wiki/R%C3%A9ponse_impulsionnelle&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Páginas con errores de matemáticas]]&lt;br /&gt;
[[Category:Páginas con errores de representación matemática]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9122</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9122"/>
		<updated>2023-12-19T12:06:53Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: He añadido un código interesante para calcular la entropía&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==&amp;lt;big&amp;gt;Definición&amp;lt;/big&amp;gt;&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
&amp;lt;big&amp;gt;La &amp;lt;u&amp;gt;entropía conjunta&amp;lt;/u&amp;gt; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias. Si X e Y son independientes, la entropía conjunta es igual al producto de sus entropías individuales. Sin embargo, si X e Y están correlacionadas, será menor que la suma de las entropías individuales, ya que parte de la información se comparte entre ellas.&amp;lt;ref&amp;gt;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;lt;/ref&amp;gt;&amp;lt;/big&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;.&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;big&amp;gt;Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;&amp;lt;/big&amp;gt; ===&lt;br /&gt;
&amp;lt;big&amp;gt;Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
= &amp;lt;big&amp;gt;Código&amp;lt;/big&amp;gt; =&lt;br /&gt;
&amp;lt;big&amp;gt;Vamos a mostrar un ejemplo simple de cómo calcular la entropía conjunta en Matlab para dos variables discretas.&amp;lt;ref&amp;gt;MathWorks.(1994-2023).Manuales de Referencia.&amp;lt;/ref&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definir dos variables aleatorias discretas&lt;br /&gt;
X = [1, 2, 3]; % Valores posibles para la variable X&lt;br /&gt;
Y = [4, 5, 6]; % Valores posibles para la variable Y&lt;br /&gt;
&lt;br /&gt;
% Definir las probabilidades conjuntas P(X, Y)&lt;br /&gt;
P = [0.1, 0.2, 0.1; 0.2, 0.1, 0.1; 0.1, 0.1, 0.1];&lt;br /&gt;
&lt;br /&gt;
% Calcular la entropía conjunta H(X, Y)&lt;br /&gt;
H = -sum(sum(P .* log2(P + eps))); % &#039;eps&#039; se agrega para evitar el logaritmo de cero&lt;br /&gt;
&lt;br /&gt;
% Mostrar los resultados&lt;br /&gt;
disp(&#039;Probabilidades conjuntas:&#039;);&lt;br /&gt;
disp(P);&lt;br /&gt;
disp([&#039;Entropía conjunta H(X, Y): &#039;, num2str(H)]);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&amp;lt;big&amp;gt;Este código define dos variables aleatorias discretas, x e y, con valores posibles [1, 2, 3] y [4, 5, 6], respectivamente. Luego, define las probabilidades conjuntas en la matriz P. La entropía conjunta se calcula utilizando la fórmula de entropía:&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
H(X,Y)= -(\sum)x(\sum)y*P(x,y)*\log2(P(x,y))&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;Donde P(x,y) es la probabilidad conjunta de los valores x e y de las variables X e Y.&amp;lt;/big&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== &amp;lt;big&amp;gt;Referencias&amp;lt;/big&amp;gt; ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9121</id>
		<title>Draft:Codificación de canal</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9121"/>
		<updated>2023-12-19T11:56:12Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: /* Referencias */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{cab_ST&lt;br /&gt;
|Autores=Mario José Ruiz Asenjo&lt;br /&gt;
|Observaciones=&lt;br /&gt;
*Como clarificación del concepto de codificación de canal es un poco insuficiente. Por una parte solo se hace alusión a la capacidad de corrección de errores, que sin duda es importante, pero sin olvidar que la capacidad de detección es aún más amplia. Por otra se centra en un tipo muy específico. No se mencionan los convolucionales, ni los cíclicos o los polinómicos que suponen una categoría dentro de los de bloque en los que se encuentran mucho códigos.&lt;br /&gt;
*Para que el código fuera más general sería preferible expresar el código de bloque como una aplicación inyectiva de un espacio de menor dimensión en otro de mayor, y dentro de esta aplicación los códigos en bloque lineales pueden expresarse mediante una operación matricial, así como describir la operación básica de los convolucionales que también es sencilla. Eso lo haría más intuitivo y clarificador para quien quiera enterarse de en qué consisten los códigos de bloque en general.&lt;br /&gt;
*La solución del Reed-Solomon aunque sea muy usada, tiene el problema de que no tanta gente entiende de campos de Galois (y desde luego no está dentro de vuestra formación básica), aunque sean muy empleados en criptografía.&lt;br /&gt;
*Las referencias no están en estilo APA ni se incluyen su invocación dentro del texto.&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
La codificación de canal es un proceso esencial en la comunicación de datos, diseñado para mejorar la fiabilidad de la transmisión a través de un canal propenso a errores. No se limita únicamente a la corrección de errores, sino que abarca estrategias para detectar y corregirlos ya que pueden ocurrir durante la transmisión de información.  Existen diferentes tipos de códigos de canal, cada uno diseñado para abordar diferentes aspectos de la transmisión de datos :&lt;br /&gt;
&lt;br /&gt;
=== Capacidad de Detección y Corrección de Errores: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Corrección de Errores:&amp;lt;/u&amp;gt; esenciales para corregir los errores que puedan ocurrir durante la transmisión. Estos códigos incluyen, entre otros, códigos Reed-Solomon y códigos BCH (cíclicos y no cíclicos). Se trabaja por bloques, añadiendo &#039;&#039;q&#039;&#039; bits de redundancia a cada bloque de &#039;&#039;p&#039;&#039; bits. &lt;br /&gt;
&lt;br /&gt;
En cuanto a uno de los más conocido son los &#039;&#039;Códigos Reed‐Solomon:&#039;&#039;&lt;br /&gt;
:Un código RS &amp;lt;math&amp;gt;( n , k )&amp;lt;/math&amp;gt;, a partir de un bloque de datos de entrada de &#039;&#039;k&#039;&#039; símbolos, genera otro de salida de &#039;&#039;n&#039;&#039; símbolos que contiene a los &#039;&#039;k&#039;&#039; anteriores más &#039;&#039;n&#039;&#039; − &#039;&#039;k&#039;&#039; símbolos de chequeo, y donde cada uno de estos símbolos contiene &#039;&#039;m&#039;&#039; bits, cumpliéndose además que: &lt;br /&gt;
:&amp;lt;math&amp;gt;n=2*m-1&amp;lt;/math&amp;gt;&lt;br /&gt;
:Como a partir de un bloque de &#039;&#039;k&#039;&#039; símbolos se genera uno nuevo de &#039;&#039;n&#039;&#039; símbolos, se dice que la tasa de código (codification ratio) es &#039;&#039;k&#039;&#039;/&#039;&#039;n&#039;&#039;. El ratio da una idea de la redundancia del código. No son códigos de gran redundancia y, sin embargo, su capacidad de corrección de errores es bastante grande.&amp;lt;ref&amp;gt;Flores-Asenjo,SJ.(2023).Efecto del entrelazado en los códigos de Reed-Solomon. Universidad Politécnica de Valencia&amp;lt;/ref&amp;gt;&lt;br /&gt;
:Además, opera sobre un campo finito, comúnmente conocido como campo de Galois. Aunque los campos de Galois pueden ser un concepto avanzado, podemos describir Reed-Solomon de manera más accesible. Si denotamos el polinomio de paridad para un bloque de datos como P(X), y los datos originales como D(X), entonces el mensaje transmitido M(X) se obtiene concatenando los bits de D(X) y P(X).&lt;br /&gt;
:&lt;br /&gt;
:&amp;lt;math&amp;gt;M(X)=D(X)+P(X)&amp;lt;/math&amp;gt;&lt;br /&gt;
:&lt;br /&gt;
:En el receptor, el polinomio recibido es R(X). La corrección de errores implica encontrar el polinomio E(X) que representa los errores y restarlo de R(X) para obtener el polinomio D(X).  &lt;br /&gt;
:&lt;br /&gt;
:&amp;lt;math&amp;gt;D(X)=R(X)-E(X)&amp;lt;/math&amp;gt;&lt;br /&gt;
:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Detección de Errores:&amp;lt;/u&amp;gt; Además de corregir errores, algunos códigos se centran en detectar la presencia de errores. Los códigos de detección de errores, como los códigos de redundancia cíclica (CRC), se utilizan para identificar la posibilidad de errores en los datos transmitidos.&amp;lt;ref&amp;gt;Díaz-Nafría, JM.; Seoane-Pujol. (2023).Sistemas de Transmisión. Comunicaciones ópticas. UDIMA.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Categorías Específicas de Códigos de Canal: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Convolucionales:&amp;lt;/u&amp;gt; Estos códigos utilizan registros de desplazamiento y operaciones de combinación para codificar la información. Son eficaces para corregir errores en secuencias de bits.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Cíclicos:&amp;lt;/u&amp;gt; Los códigos cíclicos son una clase especial de códigos lineales que poseen propiedades cíclicas. Son eficientes en términos de implementación y utilizados en diversas aplicaciones de comunicación.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Polinómicos:&amp;lt;/u&amp;gt; Algunos códigos, como los códigos Reed-Solomon, se basan en polinomios para realizar operaciones algebraicas sobre los datos.&lt;br /&gt;
&lt;br /&gt;
=== Códigos de Bloque y Otros Enfoques: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos de Bloque:&amp;lt;/u&amp;gt; Engloba códigos como los códigos Hamming y los códigos Reed-Solomon, que operan en bloques fijos de datos y son utilizados para detectar y corregir errores.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Concatenados:&amp;lt;/u&amp;gt; Combina diferentes tipos de códigos para aprovechar sus fortalezas individuales, logrando una mayor eficiencia en términos de corrección y detección de errores.&amp;lt;ref&amp;gt;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
El comando que permite en Matlab codificar con Reed Solomon es &amp;lt;code&amp;gt;code = rsenc(msg,n,k)&amp;lt;/code&amp;gt;, donde &#039;&#039;n&#039;&#039; es el número de símbolos del bloque de salida, &#039;&#039;k&#039;&#039; el de entrada y msg representa el mensaje a codificar, que ha de estar conformado como un array de &#039;&#039;k&#039;&#039; columnas conteniendo elementos de un campo de Galois (Galois field array).&lt;br /&gt;
&lt;br /&gt;
La salida code también se obtendrá en formato similar, pero conteniendo n columnas. Para generar los arrays con los mensajes, se utiliza el comando &amp;lt;code&amp;gt;x_gf = gf(x,m)&amp;lt;/code&amp;gt;, donde m es el número de bits por símbolo, x es una matriz conteniendo el mensaje con los símbolos en formato decimal, y la salida &amp;lt;code&amp;gt;x_gf&amp;lt;/code&amp;gt; es un array de elementos de GF(2m).&lt;br /&gt;
&lt;br /&gt;
Así, para codificar en Matlab dicho mensaje con el código RS(7,3):&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
k =3;       % longitud de los bloques de entrada , en símbolos&lt;br /&gt;
m =3;       % número de bits por símbolo&lt;br /&gt;
n =2^m -1;  % longitud de los bloques codificados , en símbolos&lt;br /&gt;
% El mensaje se definen sobre un GF (2^m)&lt;br /&gt;
% La matriz se conforma con k columnas&lt;br /&gt;
% Cada elemento puede tomar valores entre 0 y 2^m -1&lt;br /&gt;
msg = gf ([5 2 3; 0 1 7; 3 6 1] ,m); &lt;br /&gt;
% mensaje codificado:&lt;br /&gt;
codedMsg = rsenc (msg ,n,k)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para representar un código de bloque lineal como una aplicación inyectiva de un espacio de menor dimensión en uno de mayor mediante una operación matricial en MATLAB, podemos utilizar matrices para definir la codificación y decodificación.&lt;br /&gt;
&lt;br /&gt;
Para un código de bloque lineal, consideremos una matriz G que describe la transformación de un espacio de información de dimensión k a un espacio de código de dimensión n. La codificación se realiza multiplicando el vector de información m de dimensión k por esta matriz G para obtener el vector de código c de dimensión n.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de la matriz de codificación G (ejemplo)&lt;br /&gt;
G = [1 0 1; 1 1 1];&lt;br /&gt;
&lt;br /&gt;
% Vector de información (ejemplo)&lt;br /&gt;
m = [1; 0]; % Vector de información de dimensión k&lt;br /&gt;
&lt;br /&gt;
% Codificación: c = m * G&lt;br /&gt;
c = m&#039; * G; &lt;br /&gt;
&lt;br /&gt;
disp(&#039;Vector de información:&#039;);&lt;br /&gt;
disp(m);&lt;br /&gt;
disp(&#039;Matriz de codificación G:&#039;);&lt;br /&gt;
disp(G);&lt;br /&gt;
disp(&#039;Vector de código:&#039;);&lt;br /&gt;
disp(c);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para los códigos convolucionales, la implementación generalmente involucra registros de desplazamiento y operaciones de combinación.&amp;lt;ref&amp;gt;MathWorks.(1994-2023).Manuales de Referencia.&amp;lt;/ref&amp;gt; &amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de los polinomios generadores del codificador convolucional (ejemplo)&lt;br /&gt;
generatorPolynomials = [5 7; 4 5]; &lt;br /&gt;
&lt;br /&gt;
% Secuencia de información de entrada (ejemplo)&lt;br /&gt;
inputSequence = [1 0 1 1 0]; &lt;br /&gt;
&lt;br /&gt;
% Codificación convolucional&lt;br /&gt;
trellis = poly2trellis(3, generatorPolynomials); % Definición de la estructura de trellis&lt;br /&gt;
codedSequence = convenc(inputSequence, trellis); % Codificación convolucional&lt;br /&gt;
&lt;br /&gt;
disp(&#039;Secuencia de información de entrada:&#039;);&lt;br /&gt;
disp(inputSequence);&lt;br /&gt;
disp(&#039;Secuencia codificada (convolucional):&#039;);&lt;br /&gt;
disp(codedSequence);&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9120</id>
		<title>Draft:Codificación de canal</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9120"/>
		<updated>2023-12-19T11:55:42Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{cab_ST&lt;br /&gt;
|Autores=Mario José Ruiz Asenjo&lt;br /&gt;
|Observaciones=&lt;br /&gt;
*Como clarificación del concepto de codificación de canal es un poco insuficiente. Por una parte solo se hace alusión a la capacidad de corrección de errores, que sin duda es importante, pero sin olvidar que la capacidad de detección es aún más amplia. Por otra se centra en un tipo muy específico. No se mencionan los convolucionales, ni los cíclicos o los polinómicos que suponen una categoría dentro de los de bloque en los que se encuentran mucho códigos.&lt;br /&gt;
*Para que el código fuera más general sería preferible expresar el código de bloque como una aplicación inyectiva de un espacio de menor dimensión en otro de mayor, y dentro de esta aplicación los códigos en bloque lineales pueden expresarse mediante una operación matricial, así como describir la operación básica de los convolucionales que también es sencilla. Eso lo haría más intuitivo y clarificador para quien quiera enterarse de en qué consisten los códigos de bloque en general.&lt;br /&gt;
*La solución del Reed-Solomon aunque sea muy usada, tiene el problema de que no tanta gente entiende de campos de Galois (y desde luego no está dentro de vuestra formación básica), aunque sean muy empleados en criptografía.&lt;br /&gt;
*Las referencias no están en estilo APA ni se incluyen su invocación dentro del texto.&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
La codificación de canal es un proceso esencial en la comunicación de datos, diseñado para mejorar la fiabilidad de la transmisión a través de un canal propenso a errores. No se limita únicamente a la corrección de errores, sino que abarca estrategias para detectar y corregirlos ya que pueden ocurrir durante la transmisión de información.  Existen diferentes tipos de códigos de canal, cada uno diseñado para abordar diferentes aspectos de la transmisión de datos :&lt;br /&gt;
&lt;br /&gt;
=== Capacidad de Detección y Corrección de Errores: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Corrección de Errores:&amp;lt;/u&amp;gt; esenciales para corregir los errores que puedan ocurrir durante la transmisión. Estos códigos incluyen, entre otros, códigos Reed-Solomon y códigos BCH (cíclicos y no cíclicos). Se trabaja por bloques, añadiendo &#039;&#039;q&#039;&#039; bits de redundancia a cada bloque de &#039;&#039;p&#039;&#039; bits. &lt;br /&gt;
&lt;br /&gt;
En cuanto a uno de los más conocido son los &#039;&#039;Códigos Reed‐Solomon:&#039;&#039;&lt;br /&gt;
:Un código RS &amp;lt;math&amp;gt;( n , k )&amp;lt;/math&amp;gt;, a partir de un bloque de datos de entrada de &#039;&#039;k&#039;&#039; símbolos, genera otro de salida de &#039;&#039;n&#039;&#039; símbolos que contiene a los &#039;&#039;k&#039;&#039; anteriores más &#039;&#039;n&#039;&#039; − &#039;&#039;k&#039;&#039; símbolos de chequeo, y donde cada uno de estos símbolos contiene &#039;&#039;m&#039;&#039; bits, cumpliéndose además que: &lt;br /&gt;
:&amp;lt;math&amp;gt;n=2*m-1&amp;lt;/math&amp;gt;&lt;br /&gt;
:Como a partir de un bloque de &#039;&#039;k&#039;&#039; símbolos se genera uno nuevo de &#039;&#039;n&#039;&#039; símbolos, se dice que la tasa de código (codification ratio) es &#039;&#039;k&#039;&#039;/&#039;&#039;n&#039;&#039;. El ratio da una idea de la redundancia del código. No son códigos de gran redundancia y, sin embargo, su capacidad de corrección de errores es bastante grande.&amp;lt;ref&amp;gt;Flores-Asenjo,SJ.(2023).Efecto del entrelazado en los códigos de Reed-Solomon. Universidad Politécnica de Valencia&amp;lt;/ref&amp;gt;&lt;br /&gt;
:Además, opera sobre un campo finito, comúnmente conocido como campo de Galois. Aunque los campos de Galois pueden ser un concepto avanzado, podemos describir Reed-Solomon de manera más accesible. Si denotamos el polinomio de paridad para un bloque de datos como P(X), y los datos originales como D(X), entonces el mensaje transmitido M(X) se obtiene concatenando los bits de D(X) y P(X).&lt;br /&gt;
:&lt;br /&gt;
:&amp;lt;math&amp;gt;M(X)=D(X)+P(X)&amp;lt;/math&amp;gt;&lt;br /&gt;
:&lt;br /&gt;
:En el receptor, el polinomio recibido es R(X). La corrección de errores implica encontrar el polinomio E(X) que representa los errores y restarlo de R(X) para obtener el polinomio D(X).  &lt;br /&gt;
:&lt;br /&gt;
:&amp;lt;math&amp;gt;D(X)=R(X)-E(X)&amp;lt;/math&amp;gt;&lt;br /&gt;
:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Detección de Errores:&amp;lt;/u&amp;gt; Además de corregir errores, algunos códigos se centran en detectar la presencia de errores. Los códigos de detección de errores, como los códigos de redundancia cíclica (CRC), se utilizan para identificar la posibilidad de errores en los datos transmitidos.&amp;lt;ref&amp;gt;Díaz-Nafría, JM.; Seoane-Pujol. (2023).Sistemas de Transmisión. Comunicaciones ópticas. UDIMA.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Categorías Específicas de Códigos de Canal: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Convolucionales:&amp;lt;/u&amp;gt; Estos códigos utilizan registros de desplazamiento y operaciones de combinación para codificar la información. Son eficaces para corregir errores en secuencias de bits.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Cíclicos:&amp;lt;/u&amp;gt; Los códigos cíclicos son una clase especial de códigos lineales que poseen propiedades cíclicas. Son eficientes en términos de implementación y utilizados en diversas aplicaciones de comunicación.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Polinómicos:&amp;lt;/u&amp;gt; Algunos códigos, como los códigos Reed-Solomon, se basan en polinomios para realizar operaciones algebraicas sobre los datos.&lt;br /&gt;
&lt;br /&gt;
=== Códigos de Bloque y Otros Enfoques: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos de Bloque:&amp;lt;/u&amp;gt; Engloba códigos como los códigos Hamming y los códigos Reed-Solomon, que operan en bloques fijos de datos y son utilizados para detectar y corregir errores.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Concatenados:&amp;lt;/u&amp;gt; Combina diferentes tipos de códigos para aprovechar sus fortalezas individuales, logrando una mayor eficiencia en términos de corrección y detección de errores.&amp;lt;ref&amp;gt;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
El comando que permite en Matlab codificar con Reed Solomon es &amp;lt;code&amp;gt;code = rsenc(msg,n,k)&amp;lt;/code&amp;gt;, donde &#039;&#039;n&#039;&#039; es el número de símbolos del bloque de salida, &#039;&#039;k&#039;&#039; el de entrada y msg representa el mensaje a codificar, que ha de estar conformado como un array de &#039;&#039;k&#039;&#039; columnas conteniendo elementos de un campo de Galois (Galois field array).&lt;br /&gt;
&lt;br /&gt;
La salida code también se obtendrá en formato similar, pero conteniendo n columnas. Para generar los arrays con los mensajes, se utiliza el comando &amp;lt;code&amp;gt;x_gf = gf(x,m)&amp;lt;/code&amp;gt;, donde m es el número de bits por símbolo, x es una matriz conteniendo el mensaje con los símbolos en formato decimal, y la salida &amp;lt;code&amp;gt;x_gf&amp;lt;/code&amp;gt; es un array de elementos de GF(2m).&lt;br /&gt;
&lt;br /&gt;
Así, para codificar en Matlab dicho mensaje con el código RS(7,3):&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
k =3;       % longitud de los bloques de entrada , en símbolos&lt;br /&gt;
m =3;       % número de bits por símbolo&lt;br /&gt;
n =2^m -1;  % longitud de los bloques codificados , en símbolos&lt;br /&gt;
% El mensaje se definen sobre un GF (2^m)&lt;br /&gt;
% La matriz se conforma con k columnas&lt;br /&gt;
% Cada elemento puede tomar valores entre 0 y 2^m -1&lt;br /&gt;
msg = gf ([5 2 3; 0 1 7; 3 6 1] ,m); &lt;br /&gt;
% mensaje codificado:&lt;br /&gt;
codedMsg = rsenc (msg ,n,k)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para representar un código de bloque lineal como una aplicación inyectiva de un espacio de menor dimensión en uno de mayor mediante una operación matricial en MATLAB, podemos utilizar matrices para definir la codificación y decodificación.&lt;br /&gt;
&lt;br /&gt;
Para un código de bloque lineal, consideremos una matriz G que describe la transformación de un espacio de información de dimensión k a un espacio de código de dimensión n. La codificación se realiza multiplicando el vector de información m de dimensión k por esta matriz G para obtener el vector de código c de dimensión n.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de la matriz de codificación G (ejemplo)&lt;br /&gt;
G = [1 0 1; 1 1 1];&lt;br /&gt;
&lt;br /&gt;
% Vector de información (ejemplo)&lt;br /&gt;
m = [1; 0]; % Vector de información de dimensión k&lt;br /&gt;
&lt;br /&gt;
% Codificación: c = m * G&lt;br /&gt;
c = m&#039; * G; &lt;br /&gt;
&lt;br /&gt;
disp(&#039;Vector de información:&#039;);&lt;br /&gt;
disp(m);&lt;br /&gt;
disp(&#039;Matriz de codificación G:&#039;);&lt;br /&gt;
disp(G);&lt;br /&gt;
disp(&#039;Vector de código:&#039;);&lt;br /&gt;
disp(c);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para los códigos convolucionales, la implementación generalmente involucra registros de desplazamiento y operaciones de combinación.&amp;lt;ref&amp;gt;MathWorks.(1994-2023).Manuales de Referencia.&amp;lt;/ref&amp;gt; &amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de los polinomios generadores del codificador convolucional (ejemplo)&lt;br /&gt;
generatorPolynomials = [5 7; 4 5]; &lt;br /&gt;
&lt;br /&gt;
% Secuencia de información de entrada (ejemplo)&lt;br /&gt;
inputSequence = [1 0 1 1 0]; &lt;br /&gt;
&lt;br /&gt;
% Codificación convolucional&lt;br /&gt;
trellis = poly2trellis(3, generatorPolynomials); % Definición de la estructura de trellis&lt;br /&gt;
codedSequence = convenc(inputSequence, trellis); % Codificación convolucional&lt;br /&gt;
&lt;br /&gt;
disp(&#039;Secuencia de información de entrada:&#039;);&lt;br /&gt;
disp(inputSequence);&lt;br /&gt;
disp(&#039;Secuencia codificada (convolucional):&#039;);&lt;br /&gt;
disp(codedSequence);&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
*Flores-Asenjo,SJ.(2023).Efecto del entrelazado en los códigos de Reed-Solomon. Universidad Politécnica de Valencia &lt;br /&gt;
*Díaz-Nafría, JM.; Seoane-Pujol. (2023).Sistemas de Transmisión. Comunicaciones ópticas. UDIMA.&lt;br /&gt;
*Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&lt;br /&gt;
*MathWorks.(1994-2023).Manuales de Referencia.[[https://es.mathworks.com/]]&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9119</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9119"/>
		<updated>2023-12-19T11:51:32Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Hola, en esta edición he ampliado la definición ya que estaba expuesta directamente la formulación matemática. Además, añadiendo su respectiva referencia.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
&amp;lt;small&amp;gt;La &amp;lt;u&amp;gt;entropía conjunta&amp;lt;/u&amp;gt; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias. Si X e Y son independientes, la entropía conjunta es igual al producto de sus entropías individuales. Sin embargo, si X e Y están correlacionadas, será menor que la suma de las entropías individuales, ya que parte de la información se comparte entre ellas.&amp;lt;/small&amp;gt;&amp;lt;ref&amp;gt;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;lt;/ref&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;.&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;/small&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;small&amp;gt;Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;&amp;lt;/small&amp;gt; ===&lt;br /&gt;
&amp;lt;small&amp;gt;Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== &amp;lt;big&amp;gt;Referencias&amp;lt;/big&amp;gt; ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9117</id>
		<title>Draft:Codificación de canal</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9117"/>
		<updated>2023-12-19T10:47:15Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{cab_ST&lt;br /&gt;
|Autores=Mario José Ruiz Asenjo&lt;br /&gt;
|Observaciones=&lt;br /&gt;
*Como clarificación del concepto de codificación de canal es un poco insuficiente. Por una parte solo se hace alusión a la capacidad de corrección de errores, que sin duda es importante, pero sin olvidar que la capacidad de detección es aún más amplia. Por otra se centra en un tipo muy específico. No se mencionan los convolucionales, ni los cíclicos o los polinómicos que suponen una categoría dentro de los de bloque en los que se encuentran mucho códigos.&lt;br /&gt;
*Para que el código fuera más general sería preferible expresar el código de bloque como una aplicación inyectiva de un espacio de menor dimensión en otro de mayor, y dentro de esta aplicación los códigos en bloque lineales pueden expresarse mediante una operación matricial, así como describir la operación básica de los convolucionales que también es sencilla. Eso lo haría más intuitivo y clarificador para quien quiera enterarse de en qué consisten los códigos de bloque en general.&lt;br /&gt;
*La solución del Reed-Solomon aunque sea muy usada, tiene el problema de que no tanta gente entiende de campos de Galois (y desde luego no está dentro de vuestra formación básica), aunque sean muy empleados en criptografía.&lt;br /&gt;
*Las referencias no están en estilo APA ni se incluyen su invocación dentro del texto.&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
La codificación de canal es un proceso esencial en la comunicación de datos, diseñado para mejorar la fiabilidad de la transmisión a través de un canal propenso a errores. No se limita únicamente a la corrección de errores, sino que abarca estrategias para detectar y corregirlos ya que pueden ocurrir durante la transmisión de información.  Existen diferentes tipos de códigos de canal, cada uno diseñado para abordar diferentes aspectos de la transmisión de datos :&lt;br /&gt;
&lt;br /&gt;
=== Capacidad de Detección y Corrección de Errores: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Corrección de Errores:&amp;lt;/u&amp;gt; esenciales para corregir los errores que puedan ocurrir durante la transmisión. Estos códigos incluyen, entre otros, códigos Reed-Solomon y códigos BCH (cíclicos y no cíclicos). Se trabaja por bloques, añadiendo &#039;&#039;q&#039;&#039; bits de redundancia a cada bloque de &#039;&#039;p&#039;&#039; bits. &lt;br /&gt;
&lt;br /&gt;
En cuanto a uno de los más conocido son los &#039;&#039;Códigos Reed‐Solomon:&#039;&#039;&lt;br /&gt;
:Un código RS &amp;lt;math&amp;gt;( n , k )&amp;lt;/math&amp;gt;, a partir de un bloque de datos de entrada de &#039;&#039;k&#039;&#039; símbolos, genera otro de salida de &#039;&#039;n&#039;&#039; símbolos que contiene a los &#039;&#039;k&#039;&#039; anteriores más &#039;&#039;n&#039;&#039; − &#039;&#039;k&#039;&#039; símbolos de chequeo, y donde cada uno de estos símbolos contiene &#039;&#039;m&#039;&#039; bits, cumpliéndose además que: &lt;br /&gt;
:&amp;lt;math&amp;gt;n=2*m-1&amp;lt;/math&amp;gt;&lt;br /&gt;
:Como a partir de un bloque de &#039;&#039;k&#039;&#039; símbolos se genera uno nuevo de &#039;&#039;n&#039;&#039; símbolos, se dice que la tasa de código (codification ratio) es &#039;&#039;k&#039;&#039;/&#039;&#039;n&#039;&#039;. El ratio da una idea de la redundancia del código. No son códigos de gran redundancia y, sin embargo, su capacidad de corrección de errores es bastante grande.&lt;br /&gt;
:Además, opera sobre un campo finito, comúnmente conocido como campo de Galois. Aunque los campos de Galois pueden ser un concepto avanzado, podemos describir Reed-Solomon de manera más accesible. Si denotamos el polinomio de paridad para un bloque de datos como P(X), y los datos originales como D(X), entonces el mensaje transmitido M(X) se obtiene concatenando los bits de D(X) y P(X).&lt;br /&gt;
:&lt;br /&gt;
:&amp;lt;math&amp;gt;M(X)=D(X)+P(X)&amp;lt;/math&amp;gt;&lt;br /&gt;
:&lt;br /&gt;
:En el receptor, el polinomio recibido es R(X). La corrección de errores implica encontrar el polinomio E(X) que representa los errores y restarlo de R(X) para obtener el polinomio D(X).  &lt;br /&gt;
:&lt;br /&gt;
:&amp;lt;math&amp;gt;D(X)=R(X)-E(X)&amp;lt;/math&amp;gt;&lt;br /&gt;
:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Detección de Errores:&amp;lt;/u&amp;gt; Además de corregir errores, algunos códigos se centran en detectar la presencia de errores. Los códigos de detección de errores, como los códigos de redundancia cíclica (CRC), se utilizan para identificar la posibilidad de errores en los datos transmitidos.&lt;br /&gt;
&lt;br /&gt;
=== Categorías Específicas de Códigos de Canal: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Convolucionales:&amp;lt;/u&amp;gt; Estos códigos utilizan registros de desplazamiento y operaciones de combinación para codificar la información. Son eficaces para corregir errores en secuencias de bits.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Cíclicos:&amp;lt;/u&amp;gt; Los códigos cíclicos son una clase especial de códigos lineales que poseen propiedades cíclicas. Son eficientes en términos de implementación y utilizados en diversas aplicaciones de comunicación.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Polinómicos:&amp;lt;/u&amp;gt; Algunos códigos, como los códigos Reed-Solomon, se basan en polinomios para realizar operaciones algebraicas sobre los datos.&lt;br /&gt;
&lt;br /&gt;
=== Códigos de Bloque y Otros Enfoques: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos de Bloque:&amp;lt;/u&amp;gt; Engloba códigos como los códigos Hamming y los códigos Reed-Solomon, que operan en bloques fijos de datos y son utilizados para detectar y corregir errores.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Concatenados:&amp;lt;/u&amp;gt; Combina diferentes tipos de códigos para aprovechar sus fortalezas individuales, logrando una mayor eficiencia en términos de corrección y detección de errores.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
El comando que permite en Matlab codificar con Reed Solomon es &amp;lt;code&amp;gt;code = rsenc(msg,n,k)&amp;lt;/code&amp;gt;, donde &#039;&#039;n&#039;&#039; es el número de símbolos del bloque de salida, &#039;&#039;k&#039;&#039; el de entrada y msg representa el mensaje a codificar, que ha de estar conformado como un array de &#039;&#039;k&#039;&#039; columnas conteniendo elementos de un campo de Galois (Galois field array).&lt;br /&gt;
&lt;br /&gt;
La salida code también se obtendrá en formato similar, pero conteniendo n columnas. Para generar los arrays con los mensajes, se utiliza el comando &amp;lt;code&amp;gt;x_gf = gf(x,m)&amp;lt;/code&amp;gt;, donde m es el número de bits por símbolo, x es una matriz conteniendo el mensaje con los símbolos en formato decimal, y la salida &amp;lt;code&amp;gt;x_gf&amp;lt;/code&amp;gt; es un array de elementos de GF(2m).&lt;br /&gt;
&lt;br /&gt;
Así, para codificar en Matlab dicho mensaje con el código RS(7,3):&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
k =3;       % longitud de los bloques de entrada , en símbolos&lt;br /&gt;
m =3;       % número de bits por símbolo&lt;br /&gt;
n =2^m -1;  % longitud de los bloques codificados , en símbolos&lt;br /&gt;
% El mensaje se definen sobre un GF (2^m)&lt;br /&gt;
% La matriz se conforma con k columnas&lt;br /&gt;
% Cada elemento puede tomar valores entre 0 y 2^m -1&lt;br /&gt;
msg = gf ([5 2 3; 0 1 7; 3 6 1] ,m); &lt;br /&gt;
% mensaje codificado:&lt;br /&gt;
codedMsg = rsenc (msg ,n,k)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para representar un código de bloque lineal como una aplicación inyectiva de un espacio de menor dimensión en uno de mayor mediante una operación matricial en MATLAB, podemos utilizar matrices para definir la codificación y decodificación.&lt;br /&gt;
&lt;br /&gt;
Para un código de bloque lineal, consideremos una matriz G que describe la transformación de un espacio de información de dimensión k a un espacio de código de dimensión n. La codificación se realiza multiplicando el vector de información m de dimensión k por esta matriz G para obtener el vector de código c de dimensión n.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de la matriz de codificación G (ejemplo)&lt;br /&gt;
G = [1 0 1; 1 1 1];&lt;br /&gt;
&lt;br /&gt;
% Vector de información (ejemplo)&lt;br /&gt;
m = [1; 0]; % Vector de información de dimensión k&lt;br /&gt;
&lt;br /&gt;
% Codificación: c = m * G&lt;br /&gt;
c = m&#039; * G; &lt;br /&gt;
&lt;br /&gt;
disp(&#039;Vector de información:&#039;);&lt;br /&gt;
disp(m);&lt;br /&gt;
disp(&#039;Matriz de codificación G:&#039;);&lt;br /&gt;
disp(G);&lt;br /&gt;
disp(&#039;Vector de código:&#039;);&lt;br /&gt;
disp(c);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para los códigos convolucionales, la implementación generalmente involucra registros de desplazamiento y operaciones de combinación. &amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de los polinomios generadores del codificador convolucional (ejemplo)&lt;br /&gt;
generatorPolynomials = [5 7; 4 5]; &lt;br /&gt;
&lt;br /&gt;
% Secuencia de información de entrada (ejemplo)&lt;br /&gt;
inputSequence = [1 0 1 1 0]; &lt;br /&gt;
&lt;br /&gt;
% Codificación convolucional&lt;br /&gt;
trellis = poly2trellis(3, generatorPolynomials); % Definición de la estructura de trellis&lt;br /&gt;
codedSequence = convenc(inputSequence, trellis); % Codificación convolucional&lt;br /&gt;
&lt;br /&gt;
disp(&#039;Secuencia de información de entrada:&#039;);&lt;br /&gt;
disp(inputSequence);&lt;br /&gt;
disp(&#039;Secuencia codificada (convolucional):&#039;);&lt;br /&gt;
disp(codedSequence);&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
*Flores-Asenjo,SJ.(2023).Efecto del entrelazado en los códigos de Reed-Solomon. Universidad Politécnica de Valencia &lt;br /&gt;
*Díaz-Nafría, JM.; Seoane-Pujol. (2023).Sistemas de Transmisión. Comunicaciones ópticas. UDIMA.&lt;br /&gt;
*Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&lt;br /&gt;
*MathWorks.(1994-2023).Manuales de Referencia.[[https://es.mathworks.com/]]&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9116</id>
		<title>Draft:Codificación de canal</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9116"/>
		<updated>2023-12-19T10:34:47Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Hola, acabo de finalizar mi edición. He ampliado la definición de los conceptos más importantes, el código, formulación matemática y corregido el formato de las referencias al estilo APA. He hecho todos los cambios siguiendo las condiciones y observaciones dadas por el docente.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{cab_ST&lt;br /&gt;
|Autores=Mario José Ruiz Asenjo&lt;br /&gt;
|Observaciones=&lt;br /&gt;
*Como clarificación del concepto de codificación de canal es un poco insuficiente. Por una parte solo se hace alusión a la capacidad de corrección de errores, que sin duda es importante, pero sin olvidar que la capacidad de detección es aún más amplia. Por otra se centra en un tipo muy específico. No se mencionan los convolucionales, ni los cíclicos o los polinómicos que suponen una categoría dentro de los de bloque en los que se encuentran mucho códigos.&lt;br /&gt;
*Para que el código fuera más general sería preferible expresar el código de bloque como una aplicación inyectiva de un espacio de menor dimensión en otro de mayor, y dentro de esta aplicación los códigos en bloque lineales pueden expresarse mediante una operación matricial, así como describir la operación básica de los convolucionales que también es sencilla. Eso lo haría más intuitivo y clarificador para quien quiera enterarse de en qué consisten los códigos de bloque en general.&lt;br /&gt;
*La solución del Reed-Solomon aunque sea muy usada, tiene el problema de que no tanta gente entiende de campos de Galois (y desde luego no está dentro de vuestra formación básica), aunque sean muy empleados en criptografía.&lt;br /&gt;
*Las referencias no están en estilo APA ni se incluyen su invocación dentro del texto.&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
La codificación de canal es un proceso esencial en la comunicación de datos, diseñado para mejorar la fiabilidad de la transmisión a través de un canal propenso a errores. No se limita únicamente a la corrección de errores, sino que abarca estrategias para detectar y corregirlos ya que pueden ocurrir durante la transmisión de información.  Existen diferentes tipos de códigos de canal, cada uno diseñado para abordar diferentes aspectos de la transmisión de datos :&lt;br /&gt;
&lt;br /&gt;
=== Capacidad de Detección y Corrección de Errores: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Corrección de Errores:&amp;lt;/u&amp;gt; esenciales para corregir los errores que puedan ocurrir durante la transmisión. Estos códigos incluyen, entre otros, códigos Reed-Solomon y códigos BCH (cíclicos y no cíclicos). Se trabaja por bloques, añadiendo &#039;&#039;q&#039;&#039; bits de redundancia a cada bloque de &#039;&#039;p&#039;&#039; bits. &lt;br /&gt;
&lt;br /&gt;
En cuanto a uno de los más conocido son los &#039;&#039;Códigos Reed‐Solomon:&#039;&#039;&lt;br /&gt;
:Un código RS(n,k), a partir de un bloque de datos de entrada de &#039;&#039;k&#039;&#039; símbolos, genera otro de salida de &#039;&#039;n&#039;&#039; símbolos que contiene a los &#039;&#039;k&#039;&#039; anteriores más &#039;&#039;n&#039;&#039; − &#039;&#039;k&#039;&#039; símbolos de chequeo, y donde cada uno de estos símbolos contiene &#039;&#039;m&#039;&#039; bits, cumpliéndose además que: &lt;br /&gt;
:&#039;&#039;n&#039;&#039; = 2&#039;&#039;m&#039;&#039; − 1. Como a partir de un bloque de &#039;&#039;k&#039;&#039; símbolos se genera uno nuevo de &#039;&#039;n&#039;&#039; símbolos, se dice que la tasa de código (codification ratio) es &#039;&#039;k&#039;&#039;/&#039;&#039;n&#039;&#039;. El ratio da una idea de la redundancia del código. No son códigos de gran redundancia y, sin embargo, su capacidad de corrección de errores es bastante grande.&lt;br /&gt;
:Además, opera sobre un campo finito, comúnmente conocido como campo de Galois. Aunque los campos de Galois pueden ser un concepto avanzado, podemos describir Reed-Solomon de manera más accesible. Si denotamos el polinomio de paridad para un bloque de datos como P(X), y los datos originales como D(X), entonces el mensaje transmitido M(X) se obtiene concatenando los bits de D(X) y P(X).&lt;br /&gt;
:&lt;br /&gt;
:&#039;&#039;&#039;M(X)=D(X)+P(X)&#039;&#039;&#039; &lt;br /&gt;
:&lt;br /&gt;
:En el receptor, el polinomio recibido es R(X). La corrección de errores implica encontrar el polinomio E(X) que representa los errores y restarlo de R(X) para obtener el polinomio D(X).  &lt;br /&gt;
:&lt;br /&gt;
:&#039;&#039;&#039;D(X)=R(X)−E(X)&#039;&#039;&#039;&lt;br /&gt;
:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Detección de Errores:&amp;lt;/u&amp;gt; Además de corregir errores, algunos códigos se centran en detectar la presencia de errores. Los códigos de detección de errores, como los códigos de redundancia cíclica (CRC), se utilizan para identificar la posibilidad de errores en los datos transmitidos.&lt;br /&gt;
&lt;br /&gt;
=== Categorías Específicas de Códigos de Canal: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Convolucionales:&amp;lt;/u&amp;gt; Estos códigos utilizan registros de desplazamiento y operaciones de combinación para codificar la información. Son eficaces para corregir errores en secuencias de bits.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Cíclicos:&amp;lt;/u&amp;gt; Los códigos cíclicos son una clase especial de códigos lineales que poseen propiedades cíclicas. Son eficientes en términos de implementación y utilizados en diversas aplicaciones de comunicación.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Polinómicos:&amp;lt;/u&amp;gt; Algunos códigos, como los códigos Reed-Solomon, se basan en polinomios para realizar operaciones algebraicas sobre los datos.&lt;br /&gt;
&lt;br /&gt;
=== Códigos de Bloque y Otros Enfoques: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos de Bloque:&amp;lt;/u&amp;gt; Engloba códigos como los códigos Hamming y los códigos Reed-Solomon, que operan en bloques fijos de datos y son utilizados para detectar y corregir errores.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Concatenados:&amp;lt;/u&amp;gt; Combina diferentes tipos de códigos para aprovechar sus fortalezas individuales, logrando una mayor eficiencia en términos de corrección y detección de errores.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
El comando que permite en Matlab codificar con Reed Solomon es &amp;lt;code&amp;gt;code = rsenc(msg,n,k)&amp;lt;/code&amp;gt;, donde &#039;&#039;n&#039;&#039; es el número de símbolos del bloque de salida, &#039;&#039;k&#039;&#039; el de entrada y msg representa el mensaje a codificar, que ha de estar conformado como un array de &#039;&#039;k&#039;&#039; columnas conteniendo elementos de un campo de Galois (Galois field array).&lt;br /&gt;
&lt;br /&gt;
La salida code también se obtendrá en formato similar, pero conteniendo n columnas. Para generar los arrays con los mensajes, se utiliza el comando &amp;lt;code&amp;gt;x_gf = gf(x,m)&amp;lt;/code&amp;gt;, donde m es el número de bits por símbolo, x es una matriz conteniendo el mensaje con los símbolos en formato decimal, y la salida &amp;lt;code&amp;gt;x_gf&amp;lt;/code&amp;gt; es un array de elementos de GF(2m).&lt;br /&gt;
&lt;br /&gt;
Así, para codificar en Matlab dicho mensaje con el código RS(7,3):&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
k =3;       % longitud de los bloques de entrada , en símbolos&lt;br /&gt;
m =3;       % número de bits por símbolo&lt;br /&gt;
n =2^m -1;  % longitud de los bloques codificados , en símbolos&lt;br /&gt;
% El mensaje se definen sobre un GF (2^m)&lt;br /&gt;
% La matriz se conforma con k columnas&lt;br /&gt;
% Cada elemento puede tomar valores entre 0 y 2^m -1&lt;br /&gt;
msg = gf ([5 2 3; 0 1 7; 3 6 1] ,m); &lt;br /&gt;
% mensaje codificado:&lt;br /&gt;
codedMsg = rsenc (msg ,n,k)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para representar un código de bloque lineal como una aplicación inyectiva de un espacio de menor dimensión en uno de mayor mediante una operación matricial en MATLAB, podemos utilizar matrices para definir la codificación y decodificación.&lt;br /&gt;
&lt;br /&gt;
Para un código de bloque lineal, consideremos una matriz G que describe la transformación de un espacio de información de dimensión k a un espacio de código de dimensión n. La codificación se realiza multiplicando el vector de información m de dimensión k por esta matriz G para obtener el vector de código c de dimensión n.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de la matriz de codificación G (ejemplo)&lt;br /&gt;
G = [1 0 1; 1 1 1];&lt;br /&gt;
&lt;br /&gt;
% Vector de información (ejemplo)&lt;br /&gt;
m = [1; 0]; % Vector de información de dimensión k&lt;br /&gt;
&lt;br /&gt;
% Codificación: c = m * G&lt;br /&gt;
c = m&#039; * G; &lt;br /&gt;
&lt;br /&gt;
disp(&#039;Vector de información:&#039;);&lt;br /&gt;
disp(m);&lt;br /&gt;
disp(&#039;Matriz de codificación G:&#039;);&lt;br /&gt;
disp(G);&lt;br /&gt;
disp(&#039;Vector de código:&#039;);&lt;br /&gt;
disp(c);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para los códigos convolucionales, la implementación generalmente involucra registros de desplazamiento y operaciones de combinación. &amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de los polinomios generadores del codificador convolucional (ejemplo)&lt;br /&gt;
generatorPolynomials = [5 7; 4 5]; &lt;br /&gt;
&lt;br /&gt;
% Secuencia de información de entrada (ejemplo)&lt;br /&gt;
inputSequence = [1 0 1 1 0]; &lt;br /&gt;
&lt;br /&gt;
% Codificación convolucional&lt;br /&gt;
trellis = poly2trellis(3, generatorPolynomials); % Definición de la estructura de trellis&lt;br /&gt;
codedSequence = convenc(inputSequence, trellis); % Codificación convolucional&lt;br /&gt;
&lt;br /&gt;
disp(&#039;Secuencia de información de entrada:&#039;);&lt;br /&gt;
disp(inputSequence);&lt;br /&gt;
disp(&#039;Secuencia codificada (convolucional):&#039;);&lt;br /&gt;
disp(codedSequence);&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
*Flores-Asenjo,SJ.(2023).Efecto del entrelazado en los códigos de Reed-Solomon. Universidad Politécnica de Valencia &lt;br /&gt;
*Díaz-Nafría, JM.; Seoane-Pujol. (2023).Sistemas de Transmisión. Comunicaciones ópticas. UDIMA.&lt;br /&gt;
*Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&lt;br /&gt;
*MathWorks.(1994-2023).Manuales de Referencia.[[https://es.mathworks.com/]]&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9006</id>
		<title>Draft:Codificación de canal</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9006"/>
		<updated>2023-12-18T11:50:56Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: Buenas, he ampliado el concepto de definición así como los tipos de códigos que existen. Además, he añadido código interesante de Matlab. Aún me queda por cambiar las referencias.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{cab_ST&lt;br /&gt;
|Autores=Mario José Ruiz Asenjo&lt;br /&gt;
|Observaciones=&lt;br /&gt;
*Como clarificación del concepto de codificación de canal es un poco insuficiente. Por una parte solo se hace alusión a la capacidad de corrección de errores, que sin duda es importante, pero sin olvidar que la capacidad de detección es aún más amplia. Por otra se centra en un tipo muy específico. No se mencionan los convolucionales, ni los cíclicos o los polinómicos que suponen una categoría dentro de los de bloque en los que se encuentran mucho códigos.&lt;br /&gt;
*Para que el código fuera más general sería preferible expresar el código de bloque como una aplicación inyectiva de un espacio de menor dimensión en otro de mayor, y dentro de esta aplicación los códigos en bloque lineales pueden expresarse mediante una operación matricial, así como describir la operación básica de los convolucionales que también es sencilla. Eso lo haría más intuitivo y clarificador para quien quiera enterarse de en qué consisten los códigos de bloque en general.&lt;br /&gt;
*La solución del Reed-Solomon aunque sea muy usada, tiene el problema de que no tanta gente entiende de campos de Galois (y desde luego no está dentro de vuestra formación básica), aunque sean muy empleados en criptografía.&lt;br /&gt;
*Las referencias no están en estilo APA ni se incluyen su invocación dentro del texto.&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
La codificación de canal es un proceso esencial en la comunicación de datos, diseñado para mejorar la fiabilidad de la transmisión a través de un canal propenso a errores. No se limita únicamente a la corrección de errores, sino que abarca estrategias para detectar y corregirlos ya que pueden ocurrir durante la transmisión de información.  Existen diferentes tipos de códigos de canal, cada uno diseñado para abordar diferentes aspectos de la transmisión de datos :&lt;br /&gt;
&lt;br /&gt;
=== Capacidad de Detección y Corrección de Errores: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Corrección de Errores:&amp;lt;/u&amp;gt; esenciales para corregir los errores que puedan ocurrir durante la transmisión. Estos códigos incluyen, entre otros, códigos Reed-Solomon y códigos BCH (cíclicos y no cíclicos). Se trabaja por bloques, añadiendo &#039;&#039;q&#039;&#039; bits de redundancia a cada bloque de &#039;&#039;p&#039;&#039; bits. &lt;br /&gt;
&lt;br /&gt;
En cuanto a uno de los más conocido son los &#039;&#039;Códigos Reed‐Solomon:&#039;&#039;&lt;br /&gt;
:Un código RS(n,k), a partir de un bloque de datos de entrada de &#039;&#039;k&#039;&#039; símbolos, genera otro de salida de &#039;&#039;n&#039;&#039; símbolos que contiene a los &#039;&#039;k&#039;&#039; anteriores más &#039;&#039;n&#039;&#039; − &#039;&#039;k&#039;&#039; símbolos de chequeo, y donde cada uno de estos símbolos contiene &#039;&#039;m&#039;&#039; bits, cumpliéndose además que: &lt;br /&gt;
:&#039;&#039;n&#039;&#039; = 2&#039;&#039;m&#039;&#039; − 1. Como a partir de un bloque de &#039;&#039;k&#039;&#039; símbolos se genera uno nuevo de &#039;&#039;n&#039;&#039; símbolos, se dice que la tasa de código (codification ratio) es &#039;&#039;k&#039;&#039;/&#039;&#039;n&#039;&#039;. El ratio da una idea de la redundancia del código. No son códigos de gran redundancia y, sin embargo, su capacidad de corrección de errores es bastante grande.&lt;br /&gt;
:Además, opera sobre un campo finito, comúnmente conocido como campo de Galois. Aunque los campos de Galois pueden ser un concepto avanzado, podemos describir Reed-Solomon de manera más accesible. Si denotamos el polinomio de paridad para un bloque de datos como P(X), y los datos originales como D(X), entonces el mensaje transmitido M(X) se obtiene concatenando los bits de D(X) y P(X).&lt;br /&gt;
:&lt;br /&gt;
:&#039;&#039;&#039;M(X)=D(X)+P(X)&#039;&#039;&#039; &lt;br /&gt;
:&lt;br /&gt;
:En el receptor, el polinomio recibido es R(X). La corrección de errores implica encontrar el polinomio E(X) que representa los errores y restarlo de R(X) para obtener el polinomio D(X).  &lt;br /&gt;
:&lt;br /&gt;
:&#039;&#039;&#039;D(X)=R(X)−E(X)&#039;&#039;&#039;&lt;br /&gt;
:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Detección de Errores:&amp;lt;/u&amp;gt; Además de corregir errores, algunos códigos se centran en detectar la presencia de errores. Los códigos de detección de errores, como los códigos de redundancia cíclica (CRC), se utilizan para identificar la posibilidad de errores en los datos transmitidos.&lt;br /&gt;
&lt;br /&gt;
=== Categorías Específicas de Códigos de Canal: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Convolucionales:&amp;lt;/u&amp;gt; Estos códigos utilizan registros de desplazamiento y operaciones de combinación para codificar la información. Son eficaces para corregir errores en secuencias de bits.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Cíclicos:&amp;lt;/u&amp;gt; Los códigos cíclicos son una clase especial de códigos lineales que poseen propiedades cíclicas. Son eficientes en términos de implementación y utilizados en diversas aplicaciones de comunicación.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Polinómicos:&amp;lt;/u&amp;gt; Algunos códigos, como los códigos Reed-Solomon, se basan en polinomios para realizar operaciones algebraicas sobre los datos.&lt;br /&gt;
&lt;br /&gt;
=== Códigos de Bloque y Otros Enfoques: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos de Bloque:&amp;lt;/u&amp;gt; Engloba códigos como los códigos Hamming y los códigos Reed-Solomon, que operan en bloques fijos de datos y son utilizados para detectar y corregir errores.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Concatenados:&amp;lt;/u&amp;gt; Combina diferentes tipos de códigos para aprovechar sus fortalezas individuales, logrando una mayor eficiencia en términos de corrección y detección de errores.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
El comando que permite en Matlab codificar con Reed Solomon es &amp;lt;code&amp;gt;code = rsenc(msg,n,k)&amp;lt;/code&amp;gt;, donde &#039;&#039;n&#039;&#039; es el número de símbolos del bloque de salida, &#039;&#039;k&#039;&#039; el de entrada y msg representa el mensaje a codificar, que ha de estar conformado como un array de &#039;&#039;k&#039;&#039; columnas conteniendo elementos de un campo de Galois (Galois field array).&lt;br /&gt;
&lt;br /&gt;
La salida code también se obtendrá en formato similar, pero conteniendo n columnas. Para generar los arrays con los mensajes, se utiliza el comando &amp;lt;code&amp;gt;x_gf = gf(x,m)&amp;lt;/code&amp;gt;, donde m es el número de bits por símbolo, x es una matriz conteniendo el mensaje con los símbolos en formato decimal, y la salida &amp;lt;code&amp;gt;x_gf&amp;lt;/code&amp;gt; es un array de elementos de GF(2m).&lt;br /&gt;
&lt;br /&gt;
Así, para codificar en Matlab dicho mensaje con el código RS(7,3):&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
k =3;       % longitud de los bloques de entrada , en símbolos&lt;br /&gt;
m =3;       % número de bits por símbolo&lt;br /&gt;
n =2^m -1;  % longitud de los bloques codificados , en símbolos&lt;br /&gt;
% El mensaje se definen sobre un GF (2^m)&lt;br /&gt;
% La matriz se conforma con k columnas&lt;br /&gt;
% Cada elemento puede tomar valores entre 0 y 2^m -1&lt;br /&gt;
msg = gf ([5 2 3; 0 1 7; 3 6 1] ,m); &lt;br /&gt;
% mensaje codificado:&lt;br /&gt;
codedMsg = rsenc (msg ,n,k)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para representar un código de bloque lineal como una aplicación inyectiva de un espacio de menor dimensión en uno de mayor mediante una operación matricial en MATLAB, podemos utilizar matrices para definir la codificación y decodificación.&lt;br /&gt;
&lt;br /&gt;
Para un código de bloque lineal, consideremos una matriz G que describe la transformación de un espacio de información de dimensión k a un espacio de código de dimensión n. La codificación se realiza multiplicando el vector de información m de dimensión k por esta matriz G para obtener el vector de código c de dimensión n.&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de la matriz de codificación G (ejemplo)&lt;br /&gt;
G = [1 0 1; 1 1 1];&lt;br /&gt;
&lt;br /&gt;
% Vector de información (ejemplo)&lt;br /&gt;
m = [1; 0]; % Vector de información de dimensión k&lt;br /&gt;
&lt;br /&gt;
% Codificación: c = m * G&lt;br /&gt;
c = m&#039; * G; &lt;br /&gt;
&lt;br /&gt;
disp(&#039;Vector de información:&#039;);&lt;br /&gt;
disp(m);&lt;br /&gt;
disp(&#039;Matriz de codificación G:&#039;);&lt;br /&gt;
disp(G);&lt;br /&gt;
disp(&#039;Vector de código:&#039;);&lt;br /&gt;
disp(c);&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para los códigos convolucionales, la implementación generalmente involucra registros de desplazamiento y operaciones de combinación. &amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
% Definición de los polinomios generadores del codificador convolucional (ejemplo)&lt;br /&gt;
generatorPolynomials = [5 7; 4 5]; &lt;br /&gt;
&lt;br /&gt;
% Secuencia de información de entrada (ejemplo)&lt;br /&gt;
inputSequence = [1 0 1 1 0]; &lt;br /&gt;
&lt;br /&gt;
% Codificación convolucional&lt;br /&gt;
trellis = poly2trellis(3, generatorPolynomials); % Definición de la estructura de trellis&lt;br /&gt;
codedSequence = convenc(inputSequence, trellis); % Codificación convolucional&lt;br /&gt;
&lt;br /&gt;
disp(&#039;Secuencia de información de entrada:&#039;);&lt;br /&gt;
disp(inputSequence);&lt;br /&gt;
disp(&#039;Secuencia codificada (convolucional):&#039;);&lt;br /&gt;
disp(codedSequence);&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
*Apuntes de la Universidad Politécnica de Valencia [[https://riunet.upv.es/bitstream]]&lt;br /&gt;
*Apuntes de la asignatura &#039;&#039;Sistemas de Transmisión. Comunicaciones ópticas&#039;&#039; de la UDIMA.&lt;br /&gt;
*Apuntes de la asignatura &#039;&#039;Teoría de la información&#039;&#039; de la UDIMA.&lt;br /&gt;
*Manuales de referencia de Mathworks [[https://es.mathworks.com/]]&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9005</id>
		<title>Draft:Codificación de canal</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Codificaci%C3%B3n_de_canal&amp;diff=9005"/>
		<updated>2023-12-18T11:44:31Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{cab_ST&lt;br /&gt;
|Autores=Mario José Ruiz Asenjo&lt;br /&gt;
|Observaciones=&lt;br /&gt;
*Como clarificación del concepto de codificación de canal es un poco insuficiente. Por una parte solo se hace alusión a la capacidad de corrección de errores, que sin duda es importante, pero sin olvidar que la capacidad de detección es aún más amplia. Por otra se centra en un tipo muy específico. No se mencionan los convolucionales, ni los cíclicos o los polinómicos que suponen una categoría dentro de los de bloque en los que se encuentran mucho códigos.&lt;br /&gt;
*Para que el código fuera más general sería preferible expresar el código de bloque como una aplicación inyectiva de un espacio de menor dimensión en otro de mayor, y dentro de esta aplicación los códigos en bloque lineales pueden expresarse mediante una operación matricial, así como describir la operación básica de los convolucionales que también es sencilla. Eso lo haría más intuitivo y clarificador para quien quiera enterarse de en qué consisten los códigos de bloque en general.&lt;br /&gt;
*La solución del Reed-Solomon aunque sea muy usada, tiene el problema de que no tanta gente entiende de campos de Galois (y desde luego no está dentro de vuestra formación básica), aunque sean muy empleados en criptografía.&lt;br /&gt;
*Las referencias no están en estilo APA ni se incluyen su invocación dentro del texto.&lt;br /&gt;
}}&lt;br /&gt;
==Definiciones==&lt;br /&gt;
La codificación de canal es un proceso esencial en la comunicación de datos, diseñado para mejorar la fiabilidad de la transmisión a través de un canal propenso a errores. No se limita únicamente a la corrección de errores, sino que abarca estrategias para detectar y corregirlos ya que pueden ocurrir durante la transmisión de información.  Existen diferentes tipos de códigos de canal, cada uno diseñado para abordar diferentes aspectos de la transmisión de datos :&lt;br /&gt;
&lt;br /&gt;
=== Capacidad de Detección y Corrección de Errores: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Corrección de Errores:&amp;lt;/u&amp;gt; esenciales para corregir los errores que puedan ocurrir durante la transmisión. Estos códigos incluyen, entre otros, códigos Reed-Solomon y códigos BCH (cíclicos y no cíclicos). Se trabaja por bloques, añadiendo &#039;&#039;q&#039;&#039; bits de redundancia a cada bloque de &#039;&#039;p&#039;&#039; bits. &lt;br /&gt;
&lt;br /&gt;
En cuanto a uno de los más conocido son los &#039;&#039;Códigos Reed‐Solomon:&#039;&#039;&lt;br /&gt;
:Un código RS(n,k), a partir de un bloque de datos de entrada de &#039;&#039;k&#039;&#039; símbolos, genera otro de salida de &#039;&#039;n&#039;&#039; símbolos que contiene a los &#039;&#039;k&#039;&#039; anteriores más &#039;&#039;n&#039;&#039; − &#039;&#039;k&#039;&#039; símbolos de chequeo, y donde cada uno de estos símbolos contiene &#039;&#039;m&#039;&#039; bits, cumpliéndose además que: &lt;br /&gt;
:&#039;&#039;n&#039;&#039; = 2&#039;&#039;m&#039;&#039; − 1. Como a partir de un bloque de &#039;&#039;k&#039;&#039; símbolos se genera uno nuevo de &#039;&#039;n&#039;&#039; símbolos, se dice que la tasa de código (codification ratio) es &#039;&#039;k&#039;&#039;/&#039;&#039;n&#039;&#039;. El ratio da una idea de la redundancia del código. No son códigos de gran redundancia y, sin embargo, su capacidad de corrección de errores es bastante grande.&lt;br /&gt;
:Además, opera sobre un campo finito, comúnmente conocido como campo de Galois. Aunque los campos de Galois pueden ser un concepto avanzado, podemos describir Reed-Solomon de manera más accesible. Si denotamos el polinomio de paridad para un bloque de datos como P(X), y los datos originales como D(X), entonces el mensaje transmitido M(X) se obtiene concatenando los bits de D(X) y P(X).&lt;br /&gt;
:&#039;&#039;&#039;M(X)=D(X)+P(X)&#039;&#039;&#039;  En el receptor, el polinomio recibido es R(X). La corrección de errores implica encontrar el polinomio E(X) que representa los errores y restarlo de R(X) para obtener el polinomio D(X).  &#039;&#039;&#039;D(X)=R(X)−E(X)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Detección de Errores:&amp;lt;/u&amp;gt; Además de corregir errores, algunos códigos se centran en detectar la presencia de errores. Los códigos de detección de errores, como los códigos de redundancia cíclica (CRC), se utilizan para identificar la posibilidad de errores en los datos transmitidos.&lt;br /&gt;
&lt;br /&gt;
=== Categorías Específicas de Códigos de Canal: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Convolucionales:&amp;lt;/u&amp;gt; Estos códigos utilizan registros de desplazamiento y operaciones de combinación para codificar la información. Son eficaces para corregir errores en secuencias de bits.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Cíclicos:&amp;lt;/u&amp;gt; Los códigos cíclicos son una clase especial de códigos lineales que poseen propiedades cíclicas. Son eficientes en términos de implementación y utilizados en diversas aplicaciones de comunicación.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Polinómicos:&amp;lt;/u&amp;gt; Algunos códigos, como los códigos Reed-Solomon, se basan en polinomios para realizar operaciones algebraicas sobre los datos.&lt;br /&gt;
&lt;br /&gt;
=== Códigos de Bloque y Otros Enfoques: ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos de Bloque:&amp;lt;/u&amp;gt; Engloba códigos como los códigos Hamming y los códigos Reed-Solomon, que operan en bloques fijos de datos y son utilizados para detectar y corregir errores.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;u&amp;gt;Códigos Concatenados:&amp;lt;/u&amp;gt; Combina diferentes tipos de códigos para aprovechar sus fortalezas individuales, logrando una mayor eficiencia en términos de corrección y detección de errores.&lt;br /&gt;
&lt;br /&gt;
==Código==&lt;br /&gt;
El comando que permite en Matlab codificar con Reed Solomon es &amp;lt;code&amp;gt;code = rsenc(msg,n,k)&amp;lt;/code&amp;gt;, donde &#039;&#039;n&#039;&#039; es el número de símbolos del bloque de salida, &#039;&#039;k&#039;&#039; el de entrada y msg representa el mensaje a codificar, que ha de estar conformado como un array de &#039;&#039;k&#039;&#039; columnas conteniendo elementos de un campo de Galois (Galois field array).&lt;br /&gt;
&lt;br /&gt;
La salida code también se obtendrá en formato similar, pero conteniendo n columnas. Para generar los arrays con los mensajes, se utiliza el comando &amp;lt;code&amp;gt;x_gf = gf(x,m)&amp;lt;/code&amp;gt;, donde m es el número de bits por símbolo, x es una matriz conteniendo el mensaje con los símbolos en formato decimal, y la salida &amp;lt;code&amp;gt;x_gf&amp;lt;/code&amp;gt; es un array de elementos de GF(2m).&lt;br /&gt;
&lt;br /&gt;
Así, para codificar en Matlab dicho mensaje con el código RS(7,3):&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
k =3;       % longitud de los bloques de entrada , en símbolos&lt;br /&gt;
m =3;       % número de bits por símbolo&lt;br /&gt;
n =2^m -1;  % longitud de los bloques codificados , en símbolos&lt;br /&gt;
% El mensaje se definen sobre un GF (2^m)&lt;br /&gt;
% La matriz se conforma con k columnas&lt;br /&gt;
% Cada elemento puede tomar valores entre 0 y 2^m -1&lt;br /&gt;
msg = gf ([5 2 3; 0 1 7; 3 6 1] ,m); &lt;br /&gt;
% mensaje codificado:&lt;br /&gt;
codedMsg = rsenc (msg ,n,k)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;Para representar un código de bloque lineal como una aplicación inyectiva de un espacio de menor dimensión en uno de mayor mediante una operación matricial en MATLAB, podemos utilizar matrices para definir la codificación y decodificación.&lt;br /&gt;
&lt;br /&gt;
Para un código de bloque lineal, consideremos una matriz G que describe la transformación de un espacio de información de dimensión k a un espacio de código de dimensión n. La codificación se realiza multiplicando el vector de información m de dimensión k por esta matriz G para obtener el vector de código c de dimensión n.&lt;br /&gt;
&lt;br /&gt;
==Referencias==&lt;br /&gt;
*Apuntes de la Universidad Politécnica de Valencia [[https://riunet.upv.es/bitstream]]&lt;br /&gt;
*Apuntes de la asignatura &#039;&#039;Sistemas de Transmisión. Comunicaciones ópticas&#039;&#039; de la UDIMA.&lt;br /&gt;
*Apuntes de la asignatura &#039;&#039;Teoría de la información&#039;&#039; de la UDIMA.&lt;br /&gt;
*Manuales de referencia de Mathworks [[https://es.mathworks.com/]]&lt;br /&gt;
&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Sistemas de transmisión]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=User:Irene_Salinero&amp;diff=9004</id>
		<title>User:Irene Salinero</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=User:Irene_Salinero&amp;diff=9004"/>
		<updated>2023-12-18T11:29:29Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;¡Hola!&lt;br /&gt;
&lt;br /&gt;
Soy Irene Salinero, estudiante del grado de tecnologías de telecomunicación. Tengo ganas de aprender, aportar y estudiar cosas nuevas para poder aclarar conceptos para un futuro mejor. Siempre camino hacia el éxito.&lt;br /&gt;
&lt;br /&gt;
UDIMA&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9003</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9003"/>
		<updated>2023-12-18T11:27:49Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: /* Referencias */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
&amp;lt;big&amp;gt;La &amp;lt;u&amp;gt;entropía conjunta&amp;lt;/u&amp;gt; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias. Si X e Y son independientes, la entropía conjunta es igual al producto de sus entropías individuales. Sin embargo, si X e Y están correlacionadas, será menor que la suma de las entropías individuales, ya que parte de la información se comparte entre ellas.&amp;lt;/big&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;.&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;big&amp;gt;Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;&amp;lt;/big&amp;gt; ===&lt;br /&gt;
&amp;lt;big&amp;gt;Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&amp;lt;references group=&amp;quot;Díaz-Nafría, JM.; García-Tejero, A. (2023).Teoría de la información. UDIMA.&amp;quot; /&amp;gt;&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9002</id>
		<title>Entropía conjunta</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Entrop%C3%ADa_conjunta&amp;diff=9002"/>
		<updated>2023-12-18T11:03:30Z</updated>

		<summary type="html">&lt;p&gt;Irene Salinero: /* Definición[1] */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Definición&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;López-García, C.; Fernández-Veiga, M. (2013). &#039;&#039;Teoría de la información y codificación.&#039;&#039; Santiago de Compostela: Andavira. &amp;lt;/ref&amp;gt;==&lt;br /&gt;
&amp;lt;big&amp;gt;La &amp;lt;u&amp;gt;entropía conjunta&amp;lt;/u&amp;gt; es un concepto en teoría de la información que describe la incertidumbre asociada con dos o más variables aleatorias. Es una medida de la cantidad promedio de información compartida entre estas variables en un sistema, es decir, mide cuánta información promedio se necesita para describir conjuntamente las dos variables aleatorias. Si X e Y son independientes, la entropía conjunta es igual al producto de sus entropías individuales. Sin embargo, si X e Y están correlacionadas, será menor que la suma de las entropías individuales, ya que parte de la información se comparte entre ellas.&amp;lt;/big&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;Dadas dos variables aleatorias discretas &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de rango discreto y finito &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;X=\{x_1, x_2 ... x_n\}&amp;lt;/math&amp;gt; e &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;Y=\{y_1, y_2 ... y_m\}&amp;lt;/math&amp;gt; con funciones de probabilidad &amp;lt;math&amp;gt;p_x(x) = P(X=x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;p_y(y) = P(Y=y)&amp;lt;/math&amp;gt;, se define la &#039;&#039;&#039;entropía conjunta&#039;&#039;&#039; de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; como la entropía de la variable aleatoria bidimensional &amp;lt;math&amp;gt;(X, Y)&amp;lt;/math&amp;gt;, con rango discreto y finito &amp;lt;math&amp;gt;X \times Y = \{ f(x_i, y_i): x_i \in X; y_i \in Y\} &amp;lt;/math&amp;gt; y función de probabilidad &amp;lt;math&amp;gt;p(x,y) = P(X=x, Y=y)&amp;lt;/math&amp;gt;.&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== &amp;lt;big&amp;gt;Teorema de relación entre las [[Entropía o cantidad de información|entropías individuales]] y la conjunta&amp;lt;ref name=&amp;quot;:0&amp;quot; /&amp;gt;&amp;lt;/big&amp;gt; ===&lt;br /&gt;
&amp;lt;big&amp;gt;Se verifica en general que la entropía conjunta de dos variables aleatorias no puede superar a la suma de las entropías de dichas variables aleatorias consideradas por separado.&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) \leq H(X) + H(Y)&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;Siendo condición necesaria y suficiente que las variables aleatorias  &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; sean independientes entre sí para que se cumpla que&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;big&amp;gt;&amp;lt;math&amp;gt;H(X,Y) = H(X) + H(Y)&amp;lt;/math&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&amp;lt;references /&amp;gt;2.  Díaz-Nafría, JM.; García-Tejero, A. (2023).&#039;&#039;Teoría de la información&#039;&#039;. UDIMA.&lt;br /&gt;
[[Category:GlossaLAB.edu]]&lt;br /&gt;
[[Category:Teoría de la información]]&lt;/div&gt;</summary>
		<author><name>Irene Salinero</name></author>
	</entry>
</feed>