<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=FerPerGar</id>
	<title>glossaLAB - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=FerPerGar"/>
	<link rel="alternate" type="text/html" href="https://www.glossalab.org/wiki/Special:Contributions/FerPerGar"/>
	<updated>2026-04-30T20:49:17Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.43.6</generator>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Inform%C3%B3n&amp;diff=30673</id>
		<title>Draft:Informón</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Inform%C3%B3n&amp;diff=30673"/>
		<updated>2026-01-04T21:18:25Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-05&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)// Daniel Sánchez (Daniel.sanchez.mu)&lt;br /&gt;
|Has publication status=glossaLAB:In review&lt;br /&gt;
}}&lt;br /&gt;
== Definición ==&lt;br /&gt;
En el ámbito de la Inteligencia Artificial (IA), un &#039;&#039;&#039;informón&#039;&#039;&#039; es una unidad mínima de información significativa que un sistema puede utilizar para resolver problemas complejos. Su concepto surge para cuantificar cuánta información es relevante y efectiva en la toma de decisiones de sistemas que operan en entornos con múltiples variables, donde el cálculo exhaustivo de todas las combinaciones sería inviable.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
I_k = f(V_k, R)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde la función &amp;lt;math&amp;gt;f&amp;lt;/math&amp;gt; cuantifica qué parte de la información contenida en &amp;lt;math&amp;gt;V_k&amp;lt;/math&amp;gt; resulta relevante y utilizable para un objetivo de decisión específico.&lt;br /&gt;
&lt;br /&gt;
== Interpretaciones ==&lt;br /&gt;
El concepto de informón permite comprender cómo los sistemas de IA gestionan la información en entornos complejos. Se puede interpretar desde varias perspectivas:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Reducción de incertidumbre:&#039;&#039;&#039; un informón representa la información que contribuye a disminuir la incertidumbre sobre el estado de un sistema o la predicción de un resultado. Por ejemplo, en un sistema de predicción del clima, la información sobre la presión atmosférica y la humedad puede constituir un informón que reduce significativamente la incertidumbre sobre la probabilidad de lluvia en un día concreto.&lt;br /&gt;
* &#039;&#039;&#039;Información relevante frente a información redundante:&#039;&#039;&#039; los informones ayudan a priorizar datos que tienen un impacto real en la toma de decisiones, descartando información redundante o irrelevante. Esto permite al sistema trabajar de manera más eficiente, evitando cálculos innecesarios.&lt;br /&gt;
* &#039;&#039;&#039;Medida de eficiencia informativa:&#039;&#039;&#039; en un proceso de decisión automatizado, la presencia de informones indica que el sistema puede resolver problemas complejos sin necesidad de analizar exhaustivamente todas las variables posibles. Por ejemplo, un sistema de recomendación puede usar como informón la información sobre los géneros de películas preferidos por un usuario, ignorando temporalmente otras variables menos relevantes.&lt;br /&gt;
&lt;br /&gt;
En resumen, un informón no es simplemente un dato, sino una unidad de información significativa que tiene un valor funcional en la resolución de problemas dentro de un sistema de IA.&lt;br /&gt;
&lt;br /&gt;
== Propiedades ==&lt;br /&gt;
Los informones presentan varias propiedades esenciales que permiten caracterizar su uso en sistemas de inteligencia artificial:&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Modularidad:&#039;&#039;&#039; un sistema puede contener múltiples informones, cada uno asociado a distintos subconjuntos de variables. Esta organización modular facilita la gestión de la información y permite que el sistema tome decisiones específicas en contextos determinados.&lt;br /&gt;
# &#039;&#039;&#039;No aditividad completa:&#039;&#039;&#039; la suma de todos los informones relevantes no necesariamente equivale a la entropía total del sistema, debido a la existencia de información redundante o superpuesta entre distintos informones. Por ejemplo, dos informones que contienen parcialmente la misma información sobre sensores de un robot no sumarán linealmente en términos de conocimiento total.&lt;br /&gt;
# &#039;&#039;&#039;Medida de eficiencia:&#039;&#039;&#039; la cuantificación de informones permite evaluar la eficiencia del sistema, mostrando qué tan bien se utiliza la información disponible para la toma de decisiones. Esto es útil en sistemas con restricciones computacionales o de tiempo, donde analizar toda la información posible sería costoso.&lt;br /&gt;
# &#039;&#039;&#039;Contextualidad:&#039;&#039;&#039; un informón tiene relevancia en un contexto específico. La misma unidad de información puede ser más o menos significativa dependiendo del objetivo del sistema y de las variables que se consideren críticas.&lt;br /&gt;
&lt;br /&gt;
Estas propiedades hacen que los informones sean un concepto clave para analizar la capacidad informativa de sistemas de IA y su eficiencia en la resolución de problemas complejos.&lt;br /&gt;
&lt;br /&gt;
== Aplicaciones ==&lt;br /&gt;
El concepto de informón tiene aplicaciones prácticas en múltiples campos de la inteligencia artificial y sistemas basados en información:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sistemas de recomendación:&#039;&#039;&#039; en plataformas de streaming o comercio electrónico, los informones representan información sobre las preferencias del usuario, como géneros, productos comprados o hábitos de consumo. Esta información permite generar recomendaciones precisas sin necesidad de analizar exhaustivamente todo el catálogo disponible. Por ejemplo, un informón puede ser “el usuario suele ver películas de ciencia ficción los fines de semana”, lo que ayuda a reducir la incertidumbre sobre qué contenido sugerir.&lt;br /&gt;
* &#039;&#039;&#039;Robótica y navegación:&#039;&#039;&#039; en robots autónomos, los informones pueden representar datos de sensores sobre obstáculos, condiciones del terreno o ubicación de objetos. Esta información selectiva permite planificar rutas más eficientes y seguras sin procesar toda la información del entorno. Por ejemplo, un robot explorador puede usar informones de sensores de proximidad para decidir el mejor camino a seguir en tiempo real.&lt;br /&gt;
* &#039;&#039;&#039;Procesamiento de lenguaje natural:&#039;&#039;&#039; los informones pueden representar palabras o frases clave dentro de un texto que son relevantes para comprender el significado o generar respuestas. Esto permite a los sistemas de IA centrarse en la información más significativa y reducir la complejidad del análisis.&lt;br /&gt;
* &#039;&#039;&#039;Optimización de sistemas complejos:&#039;&#039;&#039; en sistemas que manejan grandes volúmenes de datos, los informones permiten identificar qué información es realmente útil para alcanzar un objetivo, evitando el análisis exhaustivo de datos irrelevantes y optimizando recursos computacionales.&lt;br /&gt;
&lt;br /&gt;
En todos estos casos, los informones ayudan a los sistemas de IA a operar de manera eficiente, enfocándose en la información que realmente contribuye a la resolución de problemas o a la toma de decisiones.&lt;br /&gt;
&lt;br /&gt;
== Véase también ==&lt;br /&gt;
&lt;br /&gt;
* [[Teoría de la información]]&lt;br /&gt;
* [[Entropía o cantidad de información|Entropía]]&lt;br /&gt;
* [[Información mutua]]&lt;br /&gt;
* [[Artificial Intelligence|Inteligencia artificial]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
# Shannon, C. E. (1948). &#039;&#039;A Mathematical Theory of Communication&#039;&#039;. Bell System Technical Journal.&lt;br /&gt;
# Russell, S., &amp;amp; Norvig, P. (2020). &#039;&#039;Artificial Intelligence: A Modern Approach&#039;&#039;. Pearson.&lt;br /&gt;
# Liu, B. et al. (2021). &#039;&#039;Information Units and AI Decision Making&#039;&#039;. Journal of Artificial Intelligence Research.&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=30672</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=30672"/>
		<updated>2026-01-04T21:16:47Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:In review&lt;br /&gt;
}}&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa. En este apartado hablaremos de las entropías conjunta, marginal y relativa, para después entender el concepto de información mutua, que nos ayudará a tener una medida de cantidad de información que contiene una variable aleatoria en relación con otra.&lt;br /&gt;
&lt;br /&gt;
== Entropía conjunta y entropía marginal ==&lt;br /&gt;
Antes de entrar en la entropía relativa, tenemos que entender dos conceptos más, la entropía marginal y la entropía conjunta.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Entropía marginal:&#039;&#039;&#039; Es la cantidad de información que contiene una variable aleatoria por sí sola, y se define por la siguiente fórmula, basada en la distribución de probabilidad marginal:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X) = -\sum_{x\in X} p(x)\log_2p(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* &#039;&#039;&#039;Entropía conjunta:&#039;&#039;&#039; La entropía conjunta describe la cantidad de información media que se necesita para describir dos variables aleatorias. Esto es, la entropía de una variable aleatoria bidimensional, en la que entran las dos variables aleatorias del conjunto:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;[[Entropía conjunta]]&amp;lt;/ref&amp;gt;&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler D(p||q)&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;, es la medida de cuanta distancia hay entre dos distribuciones. Se mide cuanta ineficiencia surge al asumir que una distribución es &#039;q&#039; cuando en realidad es &#039;p&#039;.&lt;br /&gt;
&lt;br /&gt;
Así, la entropía relativa entre dos distribuciones de probabilidad p(x) y q(x) sería la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D(p || q) = \overset{}{\underset{x\in\text{x}}{\Sigma}} p(x) log_2\left ( \frac{p(x)}{q(x)} \right ) = E_p log_2\left ( \frac{p(x)}{q(x)} \right ) &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es importante aclarar que, como se puede ver con la fórmula descrita, D(p || q) ≠ D(q || p) salvo que la distancia entre las dos sea 0, entonces sí que serían iguales. &lt;br /&gt;
&lt;br /&gt;
A partir de todo lo comentado podemos observar que la entropía relativa es siembre no negativa, y 0 solo si p = q.&lt;br /&gt;
&lt;br /&gt;
== Información Mutua ==&lt;br /&gt;
Un concepto muy relacionado en cuanto a sistemas de la información se trata es el concepto de &amp;quot;información mutua&amp;quot;, que mide la cantidad de información de una variable aleatoria sobre otra variable aleatoria. Esto quiere decir, a partir del conocimiento disponible de una variable aleatoria, se puede reducir la incertidumbre de la segunda. &lt;br /&gt;
&lt;br /&gt;
Para entender su funcionamiento, lo tratamos con un ejemplo: Sean dos variables X e Y, que tienen una función de probabilidad conjunta de p(X,Y), y unas de probabilidad marginal p(X) y p(Y), la información mutua I(X,Y) es la entropía relativa entre la distribución conjunta y el producto de las distribuciones marginales (p(X)p(Y)): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;I(X,Y) = \sum_{x\in X} \sum_{y\in Y}p(X, Y)\log_2\frac{p(X,Y)}{p(X),p(Y)}=\sigma(p(X,Y)&#039;||p(X)p(Y) = E_{p(X,Y)}log_2\frac{p(X,Y)}{p(X),p(Y)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Es fácil demostrar que, en definitiva, la información mutua no es más que la intersección entre las entropías marginales de las dos variables aleatorias, y podemos calcularlo de la siguiente forma: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;I(X,Y) = H(X) - H(X/Y) = H(Y) - H(Y/X)&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Aplicación en entornos reales ==&lt;br /&gt;
La información mutua, y por ende, la entropía relativa, son conceptos muy relevantes en la teoría de la información, y puede usarse en técnicas de Machine Learning, muy relevantes en el mundo actual para la mejora de cualquier modelo de Inteligencia Artificial (IA), haciéndolos más eficientes y capaces de relacionar más conceptos que los definidos por el programador en primera instancia, que pueden quedarse obsoletos o estar incompletos dependiendo de la complejidad del modelo en cuestión.&lt;br /&gt;
&lt;br /&gt;
Un ejemplo claro de uso sería en el aprendizaje profundo supervisado, donde la pérdida de entropía cruzada (directamente relacionada con la entropía relativa) es fundamental para la clasificación del conocimiento. Al minimizar la distancia entre cada variable, las redes neuronales funcionan mejor, optimizando sus búsquedas y el proceso de aprendizaje.&amp;lt;ref&amp;gt;Bishop, C. M. (2016). &#039;&#039;Pattern Recognition and Machine Learning&#039;&#039;. Springer.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aunque en primera instancia pueda parecer una abstracción matemática, la entropía relativa es una métrica fundamental para cuantificar y optimizar el &amp;quot;coste&amp;quot; de la discrepancia informativa. Esta capacidad permite a los sistemas de IA modernos ir más allá de la mera acumulación de información: les ofrece un principio matemático para refinar su heurística, optimizar su arquitectura interna y mejorar continuamente sus procesos de razonamiento y toma de decisiones de forma eficiente y automatizada.&lt;br /&gt;
&lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft_talk:Inteligencia_de_negocio&amp;diff=29012</id>
		<title>Draft talk:Inteligencia de negocio</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft_talk:Inteligencia_de_negocio&amp;diff=29012"/>
		<updated>2025-12-24T11:54:07Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: Propuestas de mejora en el artículo&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Buenos días Rodrigo,&lt;br /&gt;
&lt;br /&gt;
El artículo me ha parecido muy interesante, da una visión de lo que es el BI que podría entender cualquier persona.&lt;br /&gt;
&lt;br /&gt;
Mi propuesta de mejora sería incluir más información sobre cómo se relacionan los distintos elementos en el BI, a lo mejor con un gráfico como el que se puede ver en la siguiente url: https://es.slideshare.net/slideshow/componentes-de-business-intelligence/39725160&lt;br /&gt;
&lt;br /&gt;
También podría incorporarse información sobre el ciclo de vida del KDD:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Integración y recopilación&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Selección, limpieza y transformación&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Minería de Datos&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Evaluación e Interpretación&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Difusión y uso&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Y por terminar, incluir herramientas que pueden ayudar a un usuario con prácticas de BI, como puede ser [https://orangedatamining.com/ Orange Data Mining].&lt;br /&gt;
&lt;br /&gt;
En general creo que es un artículo muy completo, pero añadiendo lo comentado iríamos a un siguiente nivel de conocimiento.&lt;br /&gt;
&lt;br /&gt;
Sobre KDD incluyo un documento que realicé en la asignatura de Business Intelligence por si fuera de ayuda:&lt;br /&gt;
&lt;br /&gt;
== Introducción: ==&lt;br /&gt;
Para empezar con este survey, debemos explicar qué es KDD.&lt;br /&gt;
&lt;br /&gt;
Sus siglas significan Knowledge Discovery in Databases, que en español se traduce como “descubrimiento de conocimiento en bases de datos”.&lt;br /&gt;
&lt;br /&gt;
La adquisición de conocimiento es la habilidad que gana una empresa para ayudar al negocio a solucionar problemas, tomar decisiones y/o mejorar sus procesos a partir de los datos que almacena cada día con su ejercicio habitual.&lt;br /&gt;
&lt;br /&gt;
KDD es un proceso que ayuda a extraer este conocimiento. Es un proceso con un orden lógico, pero iterativo, ya que de una fase superior se puede volver a una anterior para mejorar el resultado obtenido.&lt;br /&gt;
&lt;br /&gt;
El conocimiento descubierto por este proceso debe aportar valor al negocio. Para ello, debe ser algo que no se pueda extraer directamente de los datos almacenados, que sea novedoso, no algo que ya se conociera previamente; y útil, ya que, si no resuelve ninguna necesidad o no aporta información nueva, este conocimiento no vale para nada.&lt;br /&gt;
&lt;br /&gt;
= Fases de KDD: =&lt;br /&gt;
KDD es un proceso de 5 pasos, Integración y recopilación de información; selección, limpieza y transformación del dato extraído; minería del dato; Evaluación e Interpretación del modelo; y difusión y uso del conocimiento adquirido:&lt;br /&gt;
&lt;br /&gt;
== 1.     Integración y recopilación: ==&lt;br /&gt;
En esta primera fase, se integran todas las fuentes de datos de la empresa en un único repositorio de datos, llamado Data Warehouse.&lt;br /&gt;
&lt;br /&gt;
Para llevar a cabo esto, se utiliza un proceso denominado “ETL”, Extracción, Transformación y Carga (Load) de la información. Toda la información se organizará en torno a acciones propias de la empresa, como puede ser la adquisición de un seguro, que tiene asociadas un número de dimensiones o propiedades (rango de edad del asegurado, años de carné, rango salarial…).&lt;br /&gt;
&lt;br /&gt;
=== Técnicas y particularidades: ===&lt;br /&gt;
Esta información integrada en el Data Warehouse ya es posible utilizarla para extraer métricas y reportes para negocio. Para ello se pueden aprovechar, entre otras, las herramientas OLAP (On-Line Analytical Processing), que permiten explotar este modelo tridimensional para la generación de informes y el estudio de tendencias a partir de tablas dinámicas de &#039;&#039;Microsoft Excel&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== 2.     Selección, limpieza y transformación: ==&lt;br /&gt;
Estos datos, que hemos visto que se pueden explotar ya, aún no están configurados para poder extraer conocimiento, siguen estando “en bruto” y hay que realizar varios pasos antes de poder estudiar la información.&lt;br /&gt;
&lt;br /&gt;
En este paso, se debe eliminar todo dato redundante o que no aporta valor, ya sea por tratarse de información errónea o de valores no encontrados en el modelo (selección y limpieza), para después transformarlo en un contenido apto para aplicar técnicas de minería de datos.&lt;br /&gt;
&lt;br /&gt;
=== Técnicas y particularidades: ===&lt;br /&gt;
Existen varias herramientas, para el limpiado de los datos y su correcta transformación, como OpenRefine, que es una herramienta Open-Source (de código abierto, todo el mundo puede descargar el código fuente y modificarlo para adaptarlo a sus necesidades). Esta permite trabajar con bases de datos locales y remotas, y tiene una interfaz gráfica muy amigable, parecida a un Excel.&lt;br /&gt;
&lt;br /&gt;
== 3.     Minería de Datos: ==&lt;br /&gt;
La minería de datos consiste en la aplicación de una o varias técnicas que nos permiten extraer, a través de los datos transformados, patrones o modelos con los que obtener el conocimiento buscado.&lt;br /&gt;
&lt;br /&gt;
Dentro de la minería, se encuentran cinco tareas:&lt;br /&gt;
&lt;br /&gt;
·        &#039;&#039;&#039;Clasificación&#039;&#039;&#039; de los datos, obteniendo datos cualitativos con los que aportar información “clasificable” de cada persona que contrata un seguro (por seguir con el ejemplo ya utilizado), como puede ser &#039;&#039;rango_de_edad&#039;&#039;, donde diferenciar entre joven, mediana edad o anciano.&lt;br /&gt;
&lt;br /&gt;
·        &#039;&#039;&#039;Regresión&#039;&#039;&#039;: muy parecido a la clasificación, pero por esta técnica se obtienen valores cuantitativos, como podría ser numero_accidentes, para indicar cuantos accidentes ha tenido un cliente a lo largo de su contrato.&lt;br /&gt;
&lt;br /&gt;
·        &#039;&#039;&#039;Clustering&#039;&#039;&#039;: Agrupación de datos a partir de factores comunes, como puede ser &#039;&#039;rango_de_edad,&#039;&#039; con lo que agrupas a los clientes en función de su edad.&lt;br /&gt;
&lt;br /&gt;
·        &#039;&#039;&#039;Asociación&#039;&#039;&#039;: Búsqueda de conexiones entre diferentes dimensiones. Por ejemplo, puede tener relación el color del coche con el número de accidentes en los que se ha visto involucrado un cliente.&lt;br /&gt;
&lt;br /&gt;
·        &#039;&#039;&#039;Detección de atípicos&#039;&#039;&#039;: en esta tarea, se busca encontrar todo comportamiento diferente al previsto por el modelo, todo lo que se sale de la norma.&lt;br /&gt;
&lt;br /&gt;
=== Técnicas y particularidades: ===&lt;br /&gt;
Para realizar las tareas definidas arriba, existen numerosas herramientas, como puede ser KNIME, muy utilizada por tener una versión gratuita y no necesitar conocimientos de programación para el minado de datos. Esta usa técnicas de minado como puede ser K-medias, utilizado para clusterizar la información.&lt;br /&gt;
&lt;br /&gt;
== 4.     Evaluación e Interpretación: ==&lt;br /&gt;
Una vez se dispone de un modelo, hay que dar paso a la interpretación y evaluación del dato.&lt;br /&gt;
&lt;br /&gt;
Se debe revisar que el dato obtenido es, como ya comentábamos más arriba, útil, de calidad. Si el dato no nos proporciona información concreta e interesante, se deberá volver a las fases anteriores para refinar el modelo.&lt;br /&gt;
&lt;br /&gt;
Cuando se determina que un modelo es de calidad, se tiene que expresar la información de manera que lo vaya a entender el negocio, con términos comprensibles.&lt;br /&gt;
&lt;br /&gt;
=== Técnicas y particularidades: ===&lt;br /&gt;
Para validar la calidad del dato existen varias técnicas, unas más complejas que otras.&lt;br /&gt;
&lt;br /&gt;
La más simple es la revisión del modelo a partir de datos conocidos, ya que si negocio reconoce un comportamiento en el modelo que no se corresponde con su experiencia, el modelo no es válido. Otra técnica muy usada es la validación cruzada, que consiste en dividir el modelo en dos y hacer pruebas con los dos nuevos modelos. El que menos fallos reporte, será el modelo que utilizar.&lt;br /&gt;
&lt;br /&gt;
== 5.     Difusión y uso: ==&lt;br /&gt;
Todo conocimiento, como ya hemos indicado, debe ser útil, y para ello se debe “usar”.&lt;br /&gt;
&lt;br /&gt;
Nos es interesante saber que todos los jóvenes con coche amarillo son más propensos a tener accidentes, pero si les seguimos cobrando igual que a una persona de mediana edad (menos propenso a tener accidentes), la aseguradora está perdiendo dinero. Por ello, es muy importante difundir el conocimiento dentro de la empresa para poder actuar correctamente y mejorar el rendimiento de la empresa.&lt;br /&gt;
&lt;br /&gt;
=== Técnicas y particularidades: ===&lt;br /&gt;
Para la difusión de este conocimiento, se pueden realizar informes a partir de los modelos obtenidos. Estos informes pueden ser en Excel, a través de extracciones de los modelos, como ya hemos hablado, o con herramientas más intuitivas y atractivas para el negocio, como pueden ser PowerBI o SAP, que son herramientas de modelado más adaptadas a esta necesidad.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Conclusiones:&lt;br /&gt;
&lt;br /&gt;
A partir de este ejercicio, hemos sido capaces de conocer el funcionamiento del proceso de KDD, por el cual el negocio de cualquier empresa puede obtener conocimiento para mejorar su forma de tomar decisiones y optimizar el funcionamiento de su empresa, a partir de los datos que tienen disponibles.&lt;br /&gt;
&lt;br /&gt;
Se han repasado las distintas fases de KDD, integración; selección, limpieza y transformación; minería de datos; evaluación del modelo; y difusión y uso; aportando técnicas de uso para cada una de ellas.&lt;br /&gt;
&lt;br /&gt;
= Bibliografía: =&lt;br /&gt;
·        KDD Process in data mining: &amp;lt;nowiki&amp;gt;https://www.geeksforgeeks.org/kdd-process-in-data-mining/&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        KDD platform: &amp;lt;nowiki&amp;gt;https://mnrva.io/kdd-platform.html&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        OLAP: &amp;lt;nowiki&amp;gt;https://docs.microsoft.com/es-es/system-center/scsm/olap-cubes-overview?view=sc-sm-2019&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        Unidades 1 y 2 del curso&lt;br /&gt;
&lt;br /&gt;
·        Video explicativo de KDD: &amp;lt;nowiki&amp;gt;https://www.youtube.com/watch?v=UPNhLvzN6UQ&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        Data cleaning tolos: &amp;lt;nowiki&amp;gt;https://careerfoundry.com/en/blog/data-analytics/best-data-cleaning-tools/&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        OpenRefine: &amp;lt;nowiki&amp;gt;https://openrefine.org/&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        El proceso de descubrimiento de conocimiento en bases de datos: &amp;lt;nowiki&amp;gt;https://ediciones.ucc.edu.co/index.php/ucc/catalog/download/36/40/230-1?inline=1&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        KNIME: &amp;lt;nowiki&amp;gt;https://www.knime.com/&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        &amp;lt;nowiki&amp;gt;https://cepobia.com/knime-una-ventana-de-oportunidades-en-data-science/&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        &amp;lt;nowiki&amp;gt;https://hub.knime.com/knime/extensions/org.knime.features.base/latest/org.knime.base.node.mine.cluster.kmeans.ClusterNodeFactory2&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
·        KDD: &amp;lt;nowiki&amp;gt;https://ri.uaemex.mx/bitstream/handle/20.500.11799/64109/secme-12408.pdf?sequence=1&amp;amp;isAllowed=y&amp;lt;/nowiki&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un saludo y Felices Fiestas.&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft_talk:Inform%C3%B3n&amp;diff=29011</id>
		<title>Draft talk:Informón</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft_talk:Inform%C3%B3n&amp;diff=29011"/>
		<updated>2025-12-24T11:27:50Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: /* Revisión */ new section&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Hola Fernando&lt;br /&gt;
&lt;br /&gt;
Soy Germán Alonso, compañero de Udima, me gastaría completar tu información con la relación del Informon en la IA. Tengo un documento de la materia de IA donde la profesora Aurora Martínez  Rey hace una muy buena explicación al respecto. &lt;br /&gt;
&lt;br /&gt;
Te adjunto lo que me gastaría agregar:&lt;br /&gt;
&lt;br /&gt;
== 1. Definición y Naturaleza Ontológica del Informón ==&lt;br /&gt;
En el marco teórico de la Inteligencia Artificial (IA) y la Teoría de Sistemas, el &#039;&#039;&#039;informón&#039;&#039;&#039; se conceptualiza como la unidad elemental de información que posee validez semántica para un sistema, dotándolo de la capacidad para ejecutar procesos de toma de decisiones. Ontológicamente, el informón representa una evolución respecto al dato crudo; mientras que los datos convencionales pueden limitarse a ser conjuntos de señales o símbolos aislados, el valor del informón reside en su interpretación y en la pertinencia del contexto bajo el cual se aplica.&lt;br /&gt;
&lt;br /&gt;
Desde una perspectiva formal, el informón es la entidad operativa que manipulan los sistemas inteligentes. Su naturaleza es polivalente, ya que puede manifestarse como un dato, una noticia estructurada o conocimiento explícito. Es el insumo fundamental que permite al sistema no solo almacenar registros, sino generar nueva información y representar conocimiento complejo dentro de bases de datos y sistemas expertos&lt;br /&gt;
&lt;br /&gt;
== 2. Taxonomía y Tipología de los Informones ==&lt;br /&gt;
La literatura clasifica los informones en tres categorías jerárquicas, dependiendo de su nivel de abstracción, estructura y función dentro del sistema informático.&lt;br /&gt;
&lt;br /&gt;
=== 2.1. Informones Tipo Dato ===&lt;br /&gt;
Esta categoría corresponde al nivel más básico de la jerarquía. Los informones tipo dato se alojan comúnmente en bases de datos y constituyen los registros discretos que el sistema emplea como materia prima para sus inferencias. A pesar de su simplicidad, se diferencian del ruido o la señal pura porque poseen el contexto mínimo necesario para ser procesados por el sistema. Un informón tipo dato sería el registro de una transacción individual, tal como &amp;quot;Retiro de 50€ en el cajero automático X a las 14:00 horas&amp;quot;. Este registro numérico y temporal, almacenado en el historial del cliente, constituye la unidad mínima de información operativa&lt;br /&gt;
&lt;br /&gt;
=== 2.2. Informones Tipo Noticia ===&lt;br /&gt;
Estos informones representan un nivel intermedio que implica agregación y contextualización. Se definen como información estructurada que aporta una visión situacional, análoga a un informe o reporte generado por un sistema de información. Su función principal es sintética e informativa, proporcionando una &amp;quot;foto&amp;quot; del estado de una situación. En el contexto de un sistema de monitorización de tráfico urbano, un informón tipo noticia no sería la velocidad de un coche individual, sino un boletín de estado generado automáticamente que indica: &amp;quot;Congestión severa en la Avenida Principal con un tiempo de retraso estimado de 20 minutos&amp;quot;. Este informe sintetiza múltiples datos para ofrecer un contexto accionable&lt;br /&gt;
&lt;br /&gt;
=== 2.3. Informones Tipo Conocimiento ===&lt;br /&gt;
Constituyen el nivel superior de complejidad y abstracción. Estos informones son los componentes fundamentales de las bases de conocimiento y se estructuran frecuentemente mediante ontologías. Describen conceptualizaciones consensuadas y relaciones lógicas que el sistema utiliza para realizar inferencias deductivas y tomar decisiones ante problemas no triviales. En el ámbito de la conducción autónoma, un informón tipo conocimiento sería la regla ontológica que establece: &amp;quot;Si el objeto detectado es un &#039;peatón&#039; y su trayectoria se interseca con la del vehículo, ENTONCES la acción obligatoria es &#039;frenar&#039;&amp;quot;. No es un dato estadístico ni un reporte, sino una regla lógica de comportamiento que permite al vehículo inferir una situación de peligro y actuar en consecuencia.&lt;br /&gt;
&lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Martinez, M. A. La Inteligencia Artificial, los problemas y las bases teóricas para su solución.&lt;br /&gt;
&lt;br /&gt;
== Proposal ==&lt;br /&gt;
&lt;br /&gt;
Buenas, Fernando.&lt;br /&gt;
&lt;br /&gt;
Lo primero de todo, pensaba que al editar y enviar se enviaba para validación primero y luego aprobación, pero a mi me aparece lo que he redactado. Solicitaré asistencia sobre este tema porque veo que se puede ir a una versión anterior.&lt;br /&gt;
&lt;br /&gt;
Por otro lado, soy compañero en la UDIMA. Te dejo lo que he estado trabajando estos días por si te es de ayuda:&lt;br /&gt;
&lt;br /&gt;
== Definición ==&lt;br /&gt;
En el ámbito de la Inteligencia Artificial (IA), un &#039;&#039;&#039;informón&#039;&#039;&#039; es una unidad mínima de información significativa que un sistema puede utilizar para resolver problemas complejos. Su concepto surge para cuantificar cuánta información es relevante y efectiva en la toma de decisiones de sistemas que operan en entornos con múltiples variables, donde el cálculo exhaustivo de todas las combinaciones sería inviable.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
I_k = f(V_k, R)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde la función &amp;lt;math&amp;gt;f&amp;lt;/math&amp;gt; cuantifica qué parte de la información contenida en &amp;lt;math&amp;gt;V_k&amp;lt;/math&amp;gt; resulta relevante y utilizable para un objetivo de decisión específico.&lt;br /&gt;
&lt;br /&gt;
== Interpretaciones ==&lt;br /&gt;
El concepto de informón permite comprender cómo los sistemas de IA gestionan la información en entornos complejos. Se puede interpretar desde varias perspectivas:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Reducción de incertidumbre:&#039;&#039;&#039; un informón representa la información que contribuye a disminuir la incertidumbre sobre el estado de un sistema o la predicción de un resultado. Por ejemplo, en un sistema de predicción del clima, la información sobre la presión atmosférica y la humedad puede constituir un informón que reduce significativamente la incertidumbre sobre la probabilidad de lluvia en un día concreto.&lt;br /&gt;
* &#039;&#039;&#039;Información relevante frente a información redundante:&#039;&#039;&#039; los informones ayudan a priorizar datos que tienen un impacto real en la toma de decisiones, descartando información redundante o irrelevante. Esto permite al sistema trabajar de manera más eficiente, evitando cálculos innecesarios.&lt;br /&gt;
* &#039;&#039;&#039;Medida de eficiencia informativa:&#039;&#039;&#039; en un proceso de decisión automatizado, la presencia de informones indica que el sistema puede resolver problemas complejos sin necesidad de analizar exhaustivamente todas las variables posibles. Por ejemplo, un sistema de recomendación puede usar como informón la información sobre los géneros de películas preferidos por un usuario, ignorando temporalmente otras variables menos relevantes.&lt;br /&gt;
&lt;br /&gt;
En resumen, un informón no es simplemente un dato, sino una unidad de información significativa que tiene un valor funcional en la resolución de problemas dentro de un sistema de IA.&lt;br /&gt;
&lt;br /&gt;
== Propiedades ==&lt;br /&gt;
Los informones presentan varias propiedades esenciales que permiten caracterizar su uso en sistemas de inteligencia artificial:&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Modularidad:&#039;&#039;&#039; un sistema puede contener múltiples informones, cada uno asociado a distintos subconjuntos de variables. Esta organización modular facilita la gestión de la información y permite que el sistema tome decisiones específicas en contextos determinados.&lt;br /&gt;
# &#039;&#039;&#039;No aditividad completa:&#039;&#039;&#039; la suma de todos los informones relevantes no necesariamente equivale a la entropía total del sistema, debido a la existencia de información redundante o superpuesta entre distintos informones. Por ejemplo, dos informones que contienen parcialmente la misma información sobre sensores de un robot no sumarán linealmente en términos de conocimiento total.&lt;br /&gt;
# &#039;&#039;&#039;Medida de eficiencia:&#039;&#039;&#039; la cuantificación de informones permite evaluar la eficiencia del sistema, mostrando qué tan bien se utiliza la información disponible para la toma de decisiones. Esto es útil en sistemas con restricciones computacionales o de tiempo, donde analizar toda la información posible sería costoso.&lt;br /&gt;
# &#039;&#039;&#039;Contextualidad:&#039;&#039;&#039; un informón tiene relevancia en un contexto específico. La misma unidad de información puede ser más o menos significativa dependiendo del objetivo del sistema y de las variables que se consideren críticas.&lt;br /&gt;
&lt;br /&gt;
Estas propiedades hacen que los informones sean un concepto clave para analizar la capacidad informativa de sistemas de IA y su eficiencia en la resolución de problemas complejos.&lt;br /&gt;
&lt;br /&gt;
== Aplicaciones ==&lt;br /&gt;
El concepto de informón tiene aplicaciones prácticas en múltiples campos de la inteligencia artificial y sistemas basados en información:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sistemas de recomendación:&#039;&#039;&#039; en plataformas de streaming o comercio electrónico, los informones representan información sobre las preferencias del usuario, como géneros, productos comprados o hábitos de consumo. Esta información permite generar recomendaciones precisas sin necesidad de analizar exhaustivamente todo el catálogo disponible. Por ejemplo, un informón puede ser “el usuario suele ver películas de ciencia ficción los fines de semana”, lo que ayuda a reducir la incertidumbre sobre qué contenido sugerir.&lt;br /&gt;
* &#039;&#039;&#039;Robótica y navegación:&#039;&#039;&#039; en robots autónomos, los informones pueden representar datos de sensores sobre obstáculos, condiciones del terreno o ubicación de objetos. Esta información selectiva permite planificar rutas más eficientes y seguras sin procesar toda la información del entorno. Por ejemplo, un robot explorador puede usar informones de sensores de proximidad para decidir el mejor camino a seguir en tiempo real.&lt;br /&gt;
* &#039;&#039;&#039;Procesamiento de lenguaje natural:&#039;&#039;&#039; los informones pueden representar palabras o frases clave dentro de un texto que son relevantes para comprender el significado o generar respuestas. Esto permite a los sistemas de IA centrarse en la información más significativa y reducir la complejidad del análisis.&lt;br /&gt;
* &#039;&#039;&#039;Optimización de sistemas complejos:&#039;&#039;&#039; en sistemas que manejan grandes volúmenes de datos, los informones permiten identificar qué información es realmente útil para alcanzar un objetivo, evitando el análisis exhaustivo de datos irrelevantes y optimizando recursos computacionales.&lt;br /&gt;
&lt;br /&gt;
En todos estos casos, los informones ayudan a los sistemas de IA a operar de manera eficiente, enfocándose en la información que realmente contribuye a la resolución de problemas o a la toma de decisiones.&lt;br /&gt;
&lt;br /&gt;
== Véase también ==&lt;br /&gt;
&lt;br /&gt;
* [[Teoría de la información]]&lt;br /&gt;
* [[Entropía o cantidad de información|Entropía]]&lt;br /&gt;
* [[Información mutua]]&lt;br /&gt;
* [[Artificial Intelligence|Inteligencia artificial]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
# Shannon, C. E. (1948). &#039;&#039;A Mathematical Theory of Communication&#039;&#039;. Bell System Technical Journal.&lt;br /&gt;
# Russell, S., &amp;amp; Norvig, P. (2020). &#039;&#039;Artificial Intelligence: A Modern Approach&#039;&#039;. Pearson.&lt;br /&gt;
# Liu, B. et al. (2021). &#039;&#039;Information Units and AI Decision Making&#039;&#039;. Journal of Artificial Intelligence Research.&lt;br /&gt;
&lt;br /&gt;
== Revisión ==&lt;br /&gt;
&lt;br /&gt;
Hola Daniel,&lt;br /&gt;
Vi que completaste el apartado, perdona que no lo viera antes porque no me apareció ninguna notificación. Como ha pasado cierto tiempo, completé otro artículo diferente, el de Entropía Relativa, muy relacionada con nuestra asignatura, así que no hay ningún problema.&lt;br /&gt;
Muchas gracias.&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28918</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28918"/>
		<updated>2025-12-23T11:59:24Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa. En este apartado hablaremos de las entropías conjunta, marginal y relativa, para después entender el concepto de información mutua, que nos ayudará a tener una medida de cantidad de información que contiene una variable aleatoria en relación con otra.&lt;br /&gt;
&lt;br /&gt;
== Entropía conjunta y entropía marginal ==&lt;br /&gt;
Antes de entrar en la entropía relativa, tenemos que entender dos conceptos más, la entropía marginal y la entropía conjunta.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Entropía marginal:&#039;&#039;&#039; Es la cantidad de información que contiene una variable aleatoria por sí sola, y se define por la siguiente fórmula, basada en la distribución de probabilidad marginal:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X) = -\sum_{x\in X} p(x)\log_2p(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* &#039;&#039;&#039;Entropía conjunta:&#039;&#039;&#039; La entropía conjunta describe la cantidad de información media que se necesita para describir dos variables aleatorias. Esto es, la entropía de una variable aleatoria bidimensional, en la que entran las dos variables aleatorias del conjunto:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;[[Entropía conjunta]]&amp;lt;/ref&amp;gt;&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler D(p||q)&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;, es la medida de cuanta distancia hay entre dos distribuciones. Se mide cuanta ineficiencia surge al asumir que una distribución es &#039;q&#039; cuando en realidad es &#039;p&#039;.&lt;br /&gt;
&lt;br /&gt;
Así, la entropía relativa entre dos distribuciones de probabilidad p(x) y q(x) sería la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D(p || q) = \overset{}{\underset{x\in\text{x}}{\Sigma}} p(x) log_2\left ( \frac{p(x)}{q(x)} \right ) = E_p log_2\left ( \frac{p(x)}{q(x)} \right ) &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es importante aclarar que, como se puede ver con la fórmula descrita, D(p || q) ≠ D(q || p) salvo que la distancia entre las dos sea 0, entonces sí que serían iguales. &lt;br /&gt;
&lt;br /&gt;
A partir de todo lo comentado podemos observar que la entropía relativa es siembre no negativa, y 0 solo si p = q.&lt;br /&gt;
&lt;br /&gt;
== Información Mutua ==&lt;br /&gt;
Un concepto muy relacionado en cuanto a sistemas de la información se trata es el concepto de &amp;quot;información mutua&amp;quot;, que mide la cantidad de información de una variable aleatoria sobre otra variable aleatoria. Esto quiere decir, a partir del conocimiento disponible de una variable aleatoria, se puede reducir la incertidumbre de la segunda. &lt;br /&gt;
&lt;br /&gt;
Para entender su funcionamiento, lo tratamos con un ejemplo: Sean dos variables X e Y, que tienen una función de probabilidad conjunta de p(X,Y), y unas de probabilidad marginal p(X) y p(Y), la información mutua I(X,Y) es la entropía relativa entre la distribución conjunta y el producto de las distribuciones marginales (p(X)p(Y)): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;I(X,Y) = \sum_{x\in X} \sum_{y\in Y}p(X, Y)\log_2\frac{p(X,Y)}{p(X),p(Y)}=\sigma(p(X,Y)&#039;||p(X)p(Y) = E_{p(X,Y)}log_2\frac{p(X,Y)}{p(X),p(Y)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Es fácil demostrar que, en definitiva, la información mutua no es más que la intersección entre las entropías marginales de las dos variables aleatorias, y podemos calcularlo de la siguiente forma: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;I(X,Y) = H(X) - H(X/Y) = H(Y) - H(Y/X)&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Aplicación en entornos reales ==&lt;br /&gt;
La información mutua, y por ende, la entropía relativa, son conceptos muy relevantes en la teoría de la información, y puede usarse en técnicas de Machine Learning, muy relevantes en el mundo actual para la mejora de cualquier modelo de Inteligencia Artificial (IA), haciéndolos más eficientes y capaces de relacionar más conceptos que los definidos por el programador en primera instancia, que pueden quedarse obsoletos o estar incompletos dependiendo de la complejidad del modelo en cuestión.&lt;br /&gt;
&lt;br /&gt;
Un ejemplo claro de uso sería en el aprendizaje profundo supervisado, donde la pérdida de entropía cruzada (directamente relacionada con la entropía relativa) es fundamental para la clasificación del conocimiento. Al minimizar la distancia entre cada variable, las redes neuronales funcionan mejor, optimizando sus búsquedas y el proceso de aprendizaje.&amp;lt;ref&amp;gt;Bishop, C. M. (2016). &#039;&#039;Pattern Recognition and Machine Learning&#039;&#039;. Springer.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aunque en primera instancia pueda parecer una abstracción matemática, la entropía relativa es una métrica fundamental para cuantificar y optimizar el &amp;quot;coste&amp;quot; de la discrepancia informativa. Esta capacidad permite a los sistemas de IA modernos ir más allá de la mera acumulación de información: les ofrece un principio matemático para refinar su heurística, optimizar su arquitectura interna y mejorar continuamente sus procesos de razonamiento y toma de decisiones de forma eficiente y automatizada.&lt;br /&gt;
&lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28913</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28913"/>
		<updated>2025-12-23T11:09:20Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa. En este apartado hablaremos de las entropías conjunta, marginal y relativa, para después entender el concepto de información mutua, que nos ayudará a tener una medida de cantidad de información que contiene una variable aleatoria en relación con otra.&lt;br /&gt;
&lt;br /&gt;
== Entropía conjunta y entropía marginal ==&lt;br /&gt;
Antes de entrar en la entropía relativa, tenemos que entender dos conceptos más, la entropía marginal y la entropía conjunta.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Entropía marginal:&#039;&#039;&#039; Es la cantidad de información que contiene una variable aleatoria por sí sola, y se define por la siguiente fórmula, basada en la distribución de probabilidad marginal:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X) = -\sum_{x\in X} p(x)\log_2p(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* &#039;&#039;&#039;Entropía conjunta:&#039;&#039;&#039; La entropía conjunta describe la cantidad de información media que se necesita para describir dos variables aleatorias. Esto es, la entropía de una variable aleatoria bidimensional, en la que entran las dos variables aleatorias del conjunto:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;[[Entropía conjunta]]&amp;lt;/ref&amp;gt;&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler D(p||q)&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;, es la medida de cuanta distancia hay entre dos distribuciones. Se mide cuanta ineficiencia surge al asumir que una distribución es &#039;q&#039; cuando en realidad es &#039;p&#039;.&lt;br /&gt;
&lt;br /&gt;
Así, la entropía relativa entre dos distribuciones de probabilidad p(x) y q(x) sería la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D(p || q) = \overset{}{\underset{x\in\text{x}}{\Sigma}} p(x) log_2\left ( \frac{p(x)}{q(x)} \right ) = E_p log_2\left ( \frac{p(x)}{q(x)} \right ) &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es importante aclarar que, como se puede ver con la fórmula descrita, D(p || q) ≠ D(q || p) salvo que la distancia entre las dos sea 0, entonces sí que serían iguales. &lt;br /&gt;
&lt;br /&gt;
A partir de todo lo comentado podemos observar que la entropía relativa es siembre no negativa, y 0 solo si p = q.&lt;br /&gt;
&lt;br /&gt;
== Información Mutua ==&lt;br /&gt;
Un concepto muy relacionado en cuanto a sistemas de la información se trata es el concepto de &amp;quot;información mutua&amp;quot;, que mide la cantidad de información de una variable aleatoria sobre otra variable aleatoria. Esto quiere decir, a partir del conocimiento disponible de una variable aleatoria, se puede reducir la incertidumbre de la segunda. &lt;br /&gt;
&lt;br /&gt;
Para entender su funcionamiento, lo tratamos con un ejemplo: Sean dos variables X e Y, que tienen una función de probabilidad conjunta de p(X,Y), y unas de probabilidad marginal p(X) y p(Y), la información mutua I(X,Y) es la entropía relativa entre la distribución conjunta y el producto de las distribuciones marginales (p(X)p(Y)): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;I(X,Y) = \sum_{x\in X} \sum_{y\in Y}p(X, Y)\log_2\frac{p(X,Y)}{p(X),p(Y)}=\sigma(p(X,Y)&#039;||p(X)p(Y) = E_{p(X,Y)}log_2\frac{p(X,Y)}{p(X),p(Y)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Es fácil demostrar que, en definitiva, la información mutua no es más que la intersección entre las entropías marginales de las dos variables aleatorias, y podemos calcularlo de la siguiente forma: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;I(X,Y) = H(X) - H(X/Y) = H(Y) - H(Y/X)&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Aplicación en entornos reales ==&lt;br /&gt;
La información mutua, y por ende, la entropía relativa, son conceptos muy relevantes en la teoría de la información, y puede usarse en técnicas de Machine Learning, muy relevantes en el mundo actual para el aprendizaje de cualquier entorno de Inteligencia Artificial (IA), ya que todas las IAs modernas necesitan tener una base de conocimiento expandible que les ayude a mejorar en sus razonamientos, sus formas de llegar a un mismo resultado de forma más óptima mejorando la heurística.&lt;br /&gt;
&lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28862</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28862"/>
		<updated>2025-12-22T18:22:26Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa. En este apartado hablaremos de las entropías conjunta, marginal y relativa, para después entender el concepto de información mutua, que nos ayudará a tener una medida de cantidad de información de una variable a partir de otra.&lt;br /&gt;
&lt;br /&gt;
== Entropía conjunta y entropía marginal ==&lt;br /&gt;
Antes de entrar en la entropía relativa, tenemos que entender dos conceptos más, la entropía marginal y la entropía conjunta.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Entropía marginal:&#039;&#039;&#039; Es la cantidad información que contiene una variable aleatoria por sí sola, y se define por la siguiente fórmula:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X) = -\sum_{x\in X} p(x)\log_2p(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* &#039;&#039;&#039;Entropía conjunta:&#039;&#039;&#039; La entropía conjunta describe la cantidad de información media que se necesita para describir dos variables aleatorias. Esto es, la entropía de una variable aleatoria bidimensional, en la que entran las dos variables aleatorias del conjunto:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;[[Entropía conjunta]]&amp;lt;/ref&amp;gt;&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler D(p||q)&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;, es la medida de cuanta distancia hay entre dos distribuciones. Se mide cuanta ineficiencia surge al asumir que una distribución es &#039;q&#039; cuando en realidad es &#039;p&#039;.&lt;br /&gt;
&lt;br /&gt;
Así, la entropía relativa entre dos distribuciones de probabilidad p(x) y q(x) sería la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D(p || q) = \overset{}{\underset{x\in\text{x}}{\Sigma}} p(x) log_2\left ( \frac{p(x)}{q(x)} \right ) = E_p log_2\left ( \frac{p(x)}{q(x)} \right ) &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es importante aclarar que, como se puede ver con la fórmula descrita, D(p || q) ≠ D(q || p) salvo que la distancia entre las dos sea 0, entonces sí que serían iguales. &lt;br /&gt;
&lt;br /&gt;
A partir de todo lo comentado podemos observar que la entropía relativa es siembre no negativa, y 0 solo si p = q.&lt;br /&gt;
&lt;br /&gt;
== Información Mutua ==&lt;br /&gt;
Un concepto muy relacionado en cuanto a sistemas de la información se trata es el concepto de &amp;quot;información mutua&amp;quot;, que mide la cantidad de información de una variable aleatoria sobre otra variable aleatoria. Esto quiere decir, a partir del conocimiento disponible de una variable aleatoria, se puede reducir la incertidumbre de la segunda. &lt;br /&gt;
&lt;br /&gt;
Para entender su funcionamiento, lo tratamos con un ejemplo: &lt;br /&gt;
&lt;br /&gt;
Sean dos variables X e Y, que tienen una función de probabilidad conjunta de p(X,Y), y unas de probabilidad marginal p(X) y p(Y), la información mutua I(X,Y) es la entropía relativa entre la distribución conjunta y el producto de las distribuciones marginales (p(X)p(Y)): &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;I(X,Y) = \sum_{x\in X} \sum_{y\in Y}p(X, Y)\log_2\frac{p(X,Y)}{p(X),p(Y)}=\sigma(p(X,Y)&#039;||p(X)p(Y) = E_{p(X,Y)}log_2\frac{p(X,Y)}{p(X),p(Y)}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Es fácil demostrar que al final la información mutua no es más que la intersección entre las entropías marginales de las dos variables aleatorias. &lt;br /&gt;
&lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28861</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28861"/>
		<updated>2025-12-22T18:05:43Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa. En este apartado hablaremos de las entropías conjunta, marginal y relativa, para después entender el concepto de información mutua, que nos ayudará a tener una medida de cantidad de información de una variable a partir de otra.&lt;br /&gt;
&lt;br /&gt;
== Entropía conjunta y entropía marginal ==&lt;br /&gt;
Antes de entrar en la entropía relativa, tenemos que entender dos conceptos más, la entropía marginal y la entropía conjunta.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Entropía marginal:&#039;&#039;&#039; Es la cantidad información que contiene una variable aleatoria por sí sola, y se define por la siguiente fórmula:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X) = -\sum_{x\in X} p(x)\log_2p(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* &#039;&#039;&#039;Entropía conjunta:&#039;&#039;&#039; La entropía conjunta describe la cantidad de información media que se necesita para describir dos variables aleatorias. Esto es, la entropía de una variable aleatoria bidimensional, en la que entran las dos variables aleatorias del conjunto:&lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;[[Entropía conjunta]]&amp;lt;/ref&amp;gt;&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler D(p||q)&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;, es la medida de cuanta distancia hay entre dos distribuciones. Se mide cuanta ineficiencia surge al asumir que una distribución es &#039;q&#039; cuando en realidad es &#039;p&#039;.&lt;br /&gt;
&lt;br /&gt;
Así, la entropía relativa entre dos distribuciones de probabilidad p(x) y q(x) sería la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D(p || q) = \overset{}{\underset{x\in\text{x}}{\Sigma}} p(x) log_2\left ( \frac{p(x)}{q(x)} \right ) = E_p log_2\left ( \frac{p(x)}{q(x)} \right ) &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es importante aclarar que, como se puede ver con la fórmula descrita, D(p || q) ≠ D(q || p) salvo que la distancia entre las dos sea 0, entonces sí que serían iguales. &lt;br /&gt;
&lt;br /&gt;
A partir de todo lo comentado podemos observar que la entropía relativa es siembre no negativa, y 0 solo si p = q.&lt;br /&gt;
&lt;br /&gt;
== Información Mutua ==&lt;br /&gt;
Un concepto muy relacionado en cuanto a sistemas de la información se trata es el concepto de &amp;quot;información mutua&amp;quot;, que mide la cantidad de información de una variable aleatoria sobre otra variable aleatoria. Esto quiere decir, &lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28858</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28858"/>
		<updated>2025-12-22T17:56:54Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa. En este apartado hablaremos de las entropías conjunta, marginal y relativa, para después entender el concepto de información mutua, que nos ayudará a tener una medida de cantidad de información de una variable a partir de otra.&lt;br /&gt;
&lt;br /&gt;
== Entropía conjunta y entropía marginal ==&lt;br /&gt;
Antes de entrar en la entropía relativa, tenemos que entender dos conceptos más, la entropía conjunta y la entropía marginal.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Entropía conjunta:&#039;&#039;&#039; Teniendo la entropía, que es la información que contiene una palabra, la entropía conjunta describe la cantidad de información media que se necesita para describir dos variables aleatorias. Esto es, la entropía de una variable aleatoria bidimensional, en la que entran las dos variables aleatorias del conjunto: &lt;br /&gt;
&amp;lt;math&amp;gt;H(X,Y) = \sum_{i=1}^n \sum_{j=1}^m p(x_i, y_j)\log\frac{1}{p(x_i, y_j)}&amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;[[Entropía conjunta]]&amp;lt;/ref&amp;gt; &lt;br /&gt;
* &#039;&#039;&#039;Entropía marginal:&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
== Entropía marginal ==&lt;br /&gt;
&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler D(p||q)&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;, es la medida de cuanta distancia hay entre dos distribuciones. Se mide cuanta ineficiencia surge al asumir que una distribución es &#039;q&#039; cuando en realidad es &#039;p&#039;.&lt;br /&gt;
&lt;br /&gt;
Así, la entropía relativa entre dos distribuciones de probabilidad p(x) y q(x) sería la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D(p || q) = \overset{}{\underset{x\in\text{x}}{\Sigma}} p(x) log_2\left ( \frac{p(x)}{q(x)} \right ) = E_p log_2\left ( \frac{p(x)}{q(x)} \right ) &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es importante aclarar que, como se puede ver con la fórmula descrita, D(p || q) ≠ D(q || p) salvo que la distancia entre las dos sea 0, entonces sí que serían iguales. &lt;br /&gt;
&lt;br /&gt;
A partir de todo lo comentado podemos observar que la entropía relativa es siembre no negativa, y 0 solo si p = q.&lt;br /&gt;
&lt;br /&gt;
== Información Mutua ==&lt;br /&gt;
Un concepto muy relacionado en cuanto a sistemas de la información se trata es el concepto de &amp;quot;información mutua&amp;quot;, que mide la cantidad de información de una variable aleatoria sobre otra variable aleatoria. Esto quiere decir, &lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28853</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28853"/>
		<updated>2025-12-22T17:33:57Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa. En este apartado hablaremos de las entropías conjunta, marginal y relativa, para después entender el concepto de información mutua, que nos ayudará a tener una medida de cantidad de información de una variable a partir de otra.&lt;br /&gt;
&lt;br /&gt;
== Entropía conjunta ==&lt;br /&gt;
&lt;br /&gt;
== Entropía marginal ==&lt;br /&gt;
&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler D(p||q)&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;, es la medida de cuanta distancia hay entre dos distribuciones. Se mide cuanta ineficiencia surge al asumir que una distribución es &#039;q&#039; cuando en realidad es &#039;p&#039;.&lt;br /&gt;
&lt;br /&gt;
Así, la entropía relativa entre dos distribuciones de probabilidad p(x) y q(x) sería la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D(p || q) = \overset{}{\underset{x\in\text{x}}{\Sigma}} p(x) log_2\left ( \frac{p(x)}{q(x)} \right ) = E_p log_2\left ( \frac{p(x)}{q(x)} \right ) &amp;lt;/math&amp;gt;&amp;lt;ref&amp;gt;&#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es importante aclarar que, como se puede ver con la fórmula descrita, D(p || q) ≠ D(q || p) salvo que la distancia entre las dos sea 0, entonces sí que serían iguales. &lt;br /&gt;
&lt;br /&gt;
A partir de todo lo comentado podemos observar que la entropía relativa es siembre no negativa, y 0 solo si p = q.&lt;br /&gt;
&lt;br /&gt;
== Información Mutua ==&lt;br /&gt;
Un concepto muy relacionado en cuanto a sistemas de la información se trata es el concepto de &amp;quot;información mutua&amp;quot;, que mide la cantidad de información de una variable aleatoria sobre otra variable aleatoria. Esto quiere decir, &lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28796</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28796"/>
		<updated>2025-12-22T12:51:44Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa, que trataremos en profundidad en este apartado.&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler D(p||q)&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;, es la medida de cuanta distancia hay entre dos distribuciones. Se mide cuanta ineficiencia surge al asumir que una distribución es &#039;q&#039; cuando en realidad es &#039;p&#039;.&lt;br /&gt;
&lt;br /&gt;
Así, la entropía relativa entre dos distribuciones de probabilidad p(x) y q(x) sería la siguiente:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;D(p || q) = \overset{}{\underset{x\in\text{x}}{\Sigma}} p(x) log_2\left ( \frac{p(x)}{q(x)} \right ) = &amp;lt;/math&amp;gt;&lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
* &#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28787</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28787"/>
		<updated>2025-12-22T12:15:43Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;Clausius, R. J. E. (1982). &#039;&#039;Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen: (1850)&#039;&#039;.&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
Dentro de la entropía, conseguimos distinguir diversas variantes, como la entropía conjunta, marginal, condicional, y la entropía relativa, que trataremos en profundidad en este apartado.&lt;br /&gt;
&lt;br /&gt;
La entropía relativa, también conocida como la distancia de Kullback Leibler&amp;lt;ref&amp;gt;Kullback, S.; Leibler, R.A. (1951). «On Information and Sufficiency». &#039;&#039;Annals of Mathematical Statistics&#039;&#039; &#039;&#039;&#039;22&#039;&#039;&#039; (1): 79-86. &amp;lt;small&amp;gt;MR 39968&amp;lt;/small&amp;gt;. &amp;lt;small&amp;gt;doi:&amp;lt;/small&amp;gt;https://dx.doi.org/10.1214%2Faoms%2F1177729694&amp;lt;/ref&amp;gt;&lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;br /&gt;
* &#039;&#039;Fundamentos de los sistemas de información&#039;&#039; (CEF-UDIMA). (s. f.). https://drive.google.com/file/d/1XV0J9vGIg97HlmTirJOCfAqf0uFnO4qW/view?usp=sharing&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28703</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28703"/>
		<updated>2025-12-21T18:40:44Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius&amp;lt;ref&amp;gt;[http://gallica.bnf.fr/ark:/12148/bpt6k15164w/f384.table]&amp;lt;/ref&amp;gt; en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001)&amp;lt;ref&amp;gt;Shannon, C. E. (1948). A Mathematical Theory of Communication. En &#039;&#039;Bell System Technical Journal&#039;&#039; (Vol. 27, Número 4, pp. 623-656). &amp;lt;nowiki&amp;gt;https://doi.org/10.1002/j.1538-7305.1948.tb00917.x&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Por ejemplo, en la frase &amp;quot;la liebre corre más que la tortuga&amp;quot;, &#039;la&#039;, repetida dos veces y &#039;que&#039;, no aportan ninguna información nueva, mientras que &#039;liebre&#039;, &#039;corre&#039;, &#039;más&#039; y &#039;tortuga&#039; aportan conocimiento al sistema para entender que la liebre es más rápida. Para encontrar más información sobre la entropía, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
== Entropía relativa ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Bibliografía ==&lt;br /&gt;
&lt;br /&gt;
* Fernández Boyero, Y. (2019). Entropía relativa y riesgo de modelo en derivados de renta variable.&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28702</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28702"/>
		<updated>2025-12-21T18:22:00Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001) el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Para más información, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
== Entropía relativa ==&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28701</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28701"/>
		<updated>2025-12-21T18:14:44Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001) el que usó el término para otro objetivo: dilucidar cuanta información contiene una palabra dentro de un texto. Para más información, acudir al apartado correspondiente: [[Draft:Entropía]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28700</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28700"/>
		<updated>2025-12-21T18:06:18Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
El término &amp;quot;&#039;&#039;entropía&#039;&#039;&amp;quot; fue acuñado por primera vez por el físico alemán Rudolf Clausius en 1850 a partir del griego &#039;&#039;ἐντροπία&#039;&#039; (evolución, o transformación), para definir una forma de medir el equilibrio de un sistema termodinámico.&lt;br /&gt;
&lt;br /&gt;
En sistemas de información fue el matemático Claude E. Shannon (1916-2001) el que usó el término para&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28699</id>
		<title>Draft:Entropía relativa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Entrop%C3%ADa_relativa&amp;diff=28699"/>
		<updated>2025-12-21T17:50:43Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: Created page with &amp;quot;{{Proposal |Was created on date=2025-12-21 |Belongs to clarus=Sistemas e información |Has author=Fernando Pérez García (FerPerGar) |Has publication status=glossaLAB:Open }}&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-21&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Inform%C3%B3n&amp;diff=28278</id>
		<title>Draft:Informón</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Inform%C3%B3n&amp;diff=28278"/>
		<updated>2025-12-06T09:02:55Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: Formato e información&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-05&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
En el ámbito de la Inteligencia Artificial (IA), la información es clave para que un sistema pueda resolver problemas complejos en un entorno real, donde hay demasiadas variables para que se pueda calcular todo sin reglas o conceptos que ayuden a encontrar soluciones de forma más eficiente.&lt;br /&gt;
&lt;br /&gt;
El concepto informón surge en este ámbito para definir y numerar cuanta información se puede utilizar en un sistema y así resolver problemas que de otra forma serían inviables.&lt;br /&gt;
&lt;br /&gt;
Un informón&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Inform%C3%B3n&amp;diff=28244</id>
		<title>Draft:Informón</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Inform%C3%B3n&amp;diff=28244"/>
		<updated>2025-12-05T12:55:21Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: Comienzo del desarrollo del concepto &amp;quot;informón&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-05&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;br /&gt;
El concepto informón surge en el ámbito de la Inteligencia Artificial (IA) para definir y numerar cuanta información se tiene disponible para que pueda acceder la es la unidad básica de información la propia IA.&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=Draft:Inform%C3%B3n&amp;diff=28243</id>
		<title>Draft:Informón</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=Draft:Inform%C3%B3n&amp;diff=28243"/>
		<updated>2025-12-05T12:49:43Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: Created page with &amp;quot;{{Proposal |Was created on date=2025-12-05 |Belongs to clarus=Sistemas e información |Has author=Fernando Pérez García (FerPerGar) |Has publication status=glossaLAB:Open }}&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Proposal&lt;br /&gt;
|Was created on date=2025-12-05&lt;br /&gt;
|Belongs to clarus=Sistemas e información&lt;br /&gt;
|Has author=Fernando Pérez García (FerPerGar)&lt;br /&gt;
|Has publication status=glossaLAB:Open&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=User:FerPerGar&amp;diff=27353</id>
		<title>User:FerPerGar</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=User:FerPerGar&amp;diff=27353"/>
		<updated>2025-11-06T17:07:48Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Person&lt;br /&gt;
|Given name=Fernando&lt;br /&gt;
|Family name=Pérez García&lt;br /&gt;
|Sex=Male&lt;br /&gt;
|Country=Spain&lt;br /&gt;
|Institution=Universidad a Distancia de Madrid (UDIMA)&lt;br /&gt;
|Professional category=Technicians and associate professionals&lt;br /&gt;
|Academic degree=Professional Degree&lt;br /&gt;
|KD of expertise=ITIL, Scrum, BI, Databases&lt;br /&gt;
|Current academic institution=Universidad a Distancia de Madrid (UDIMA)&lt;br /&gt;
|Current academic level=Bachelor’s Degree&lt;br /&gt;
|Current academic degree=Technology Information&lt;br /&gt;
|input language=EN (English)&lt;br /&gt;
}}&lt;br /&gt;
System and Networks Adminsitration (ISEP CEU)&lt;br /&gt;
&lt;br /&gt;
I´m working at NTTData maintaining and designing IT Governance Processes.&lt;br /&gt;
&lt;br /&gt;
Currently studying this subject for the Information Technology Degree at UDIMA.&lt;br /&gt;
[[Category:Person]]&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=User:FerPerGar&amp;diff=27273</id>
		<title>User:FerPerGar</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=User:FerPerGar&amp;diff=27273"/>
		<updated>2025-11-06T16:26:20Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Person&lt;br /&gt;
|Given name=Fernando&lt;br /&gt;
|Family name=Pérez García&lt;br /&gt;
|Sex=Male&lt;br /&gt;
|Country=Spain&lt;br /&gt;
|Institution=Universidad a Distancia de Madrid (UDIMA)&lt;br /&gt;
|Professional category=Technicians and associate professionals&lt;br /&gt;
|Academic degree=Professional Degree&lt;br /&gt;
|KD of expertise=ITIL, Scrum, BI, Databases&lt;br /&gt;
|Current academic institution=Universidad a Distancia de Madrid (UDIMA)&lt;br /&gt;
|Current academic level=Bachelor’s Degree&lt;br /&gt;
|Current academic degree=Technology Information&lt;br /&gt;
|input language=EN (English)&lt;br /&gt;
}}&lt;br /&gt;
System and Networks Adminsitration (ISEP CEU)&lt;br /&gt;
&lt;br /&gt;
I´m working at NTTData maintaining and designing IT Governance Processes.&lt;br /&gt;
[[Category:Person]]&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=User:FerPerGar&amp;diff=27255</id>
		<title>User:FerPerGar</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=User:FerPerGar&amp;diff=27255"/>
		<updated>2025-11-06T16:21:19Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Person&lt;br /&gt;
|Given name=Fernando&lt;br /&gt;
|Family name=Pérez García&lt;br /&gt;
|Sex=Male&lt;br /&gt;
|Country=Spain&lt;br /&gt;
|Institution=Universidad a Distancia de Madrid (UDIMA)&lt;br /&gt;
|Professional category=Technicians and associate professionals&lt;br /&gt;
|Academic degree=Professional Degree&lt;br /&gt;
|KD of expertise=ITIL, Scrum, BI, Databases&lt;br /&gt;
|Current academic institution=Universidad a Distancia de Madrid (UDIMA)&lt;br /&gt;
|Current academic level=Bachelor’s Degree&lt;br /&gt;
|Current academic degree=Technology Information&lt;br /&gt;
|input language=EN (English)&lt;br /&gt;
}}&lt;br /&gt;
[[Category:Person]]&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=User:FerPerGar&amp;diff=27014</id>
		<title>User:FerPerGar</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=User:FerPerGar&amp;diff=27014"/>
		<updated>2025-11-05T12:02:10Z</updated>

		<summary type="html">&lt;p&gt;FerPerGar: create user page&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Person}}[[Category:Person]]&lt;/div&gt;</summary>
		<author><name>FerPerGar</name></author>
	</entry>
</feed>