Jump to content

Talk:Codificación de fuente

From glossaLAB

Una vez realizada la supervisión por parte del docente encargado de la materia en la que originalmente se ha planteado el artículo, visto su nivel de generalidad al nivel de los dominios de conocimiento: "Teoría de la señal y la comunicación" y el aún más general de "Telecomunicación", y tras haber completado el artículo para cubrir la materia con extensión y profundidad suficiente, se requiere la supervisión de otro experto en la materia que valide la suficiencia del artículo en su estado actual en el nivel de generalidad correspondiente.

Se deberá añadir a continuación, mediante "Añadir tema", la evaluación del revisor indicando su nombre y los comentarios a los que el docente responsable deberá dar respuesta.

José María Díaz Nafría [JDíaz] (discusión) 01:29 10 jun 2023 (UTC)

Revisión 1

Revisor: Antonio Jesús Muñoz Montoro [Antonio J. Muñoz-Montoro]

Comentarios:

Decisión respecto a su publicación:

Firma:


Respuesta a las revisiones

Autor responsable: José María Díaz Nafría [JDíaz]

Respuesta a la revisión 1:

Firma:

Propuestas posteriores al inicio de la revisión del artículo

Sugerencia de función de Matlab para codificación Huffman (Oscar Montalvo)

Estimado Oscar:

Por una parte la función que mencionas no pertenece ni a las funciones canónicas de matlab, ni en sus extensiones o en el repositorio de desarrollos por pare de usuarios, por tanto no es adecuado. Por otra parte, determinar la tasa de comprensión dependerá del formato de codificación inicial, por tanto, a partir de solo las probabilidades no podría determinarse. Lo que sí podría hacerse es determinar la entropía de la fuente como sum(prob.*log2(1./prob)) y si lo comparamos con la longitud promedio de dígitos binarios del código, devuelta por la función huffmandict(), podemos obtener la eficiencia del codigo.

Cordialmente,

José María Díaz Nafría [JDíaz] (talk) 04:13, 22 January 2024 (CET)

Buenas noches,

El código es correcto, pero solamente como comentario, se podría encontrar el código Huffman empleando la función propuesta en la AEC huffman5, donde además podemos obtener la compresión del código:

% Obtener el código huffman, y la tasa de compresión
[CODIGO, COMPRESION] = huffman5(prob);
% Mostrar el código Huffman y la tasa de compresión
disp('Las palabras código son:');
disp(CODIGO);
disp('La tasa de compresión es:');
disp(COMPRESION);

Oscar Montalvo 15:40 21 dic 2023

Ejemplo en Python propuesto por Rafael Medina

A continuación se presenta un ejemplo complementario que ilustra la relación entre la entropía de una fuente y la longitud media de un código de longitud variable. Se asignan códigos más cortos a los símbolos más probables, y se compara el resultado con la entropía teórica de la fuente.

import math

# Probabilidades de la fuente
symbols = ['A', 'B', 'C', 'D']
probs = [0.5, 0.25, 0.15, 0.10]

# Asignación de códigos sencilla: prefijos más cortos a símbolos más probables
codebook = {'A': '0', 'B': '10', 'C': '110', 'D': '111'}

# Cálculo de la longitud media del código
avg_length = sum(probs[i] * len(codebook[symbols[i]]) for i in range(len(symbols)))

# Cálculo de la entropía de la fuente
entropy = -sum(p * math.log2(p) for p in probs)

print("Código asignado:", codebook)
print(f"Longitud media del código: {avg_length:.3f} bits/símbolo")
print(f"Entropía de la fuente: {entropy:.3f} bits/símbolo")

Salida esperada:

Código asignado: {'A': '0', 'B': '10', 'C': '110', 'D': '111'}
Longitud media del código: 1.650 bits/símbolo
Entropía de la fuente: 1.742 bits/símbolo

El resultado muestra que la longitud media del código se aproxima al valor de la entropía de la fuente, cumpliendo el principio de la codificación eficiente.

Rafael Medina González [Rmedina], Nov. 2025

This website only uses its own cookies for technical purposes; it does not collect or transfer users' personal data without their knowledge. However, it contains links to third-party websites with third-party privacy policies, which you can accept or reject when you access them.