Alfabeto
Colección |
---|
glossariumBITri |
Curador |
José María Díaz Nafría |
Autor(es) |
José María Díaz Nafría |
Fecha de publicación |
2016 |
Identificador |
1: 3 |
Tipo de artículo |
concepto |
José María Díaz Nafría (2016). Alfabeto. glossariumBITri, 1: 3.
Originalmente el término alfabeto (I. alphabeth, F. alphabet, A. Alphabet; procedente del latín alphabētum, y este del griego ἄλφα, alfa, y βῆτα, beta) ha sido usado para referirse al sistema de escritura en el que existe una relativa correspondencia entre los símbolos (letras) y los fonemas de la lengua hablada, en contraste con las escrituras en las que la correspondencia se establece con morfemas o sílabas. Sin embargo, su uso se ha extendido al conjunto de símbolos empleados en un sistema de comunicación. Es a este sentido al que normalmente se recurre en teoría de la comunicación y en particular en el modelo de transmisión de información (especialmente en el plano sintáctico, como es el caso de la TMC); designando así el conjunto finito de símbolos o mensajes que constituyen el código que debe ser conocido tanto por el emisor como por el receptor. Se puede decir que dos son las características fundamentales que caracterizan un alfabeto en cuanto a su rendimiento en la eficiencia comunicativa: 1) su adecuación a las limitaciones del canal de comunicación (por ejemplo, que los trazos puedan o no ser discontinuos, o que su contenido espectral esté dentro de un determinado margen); 2) la diferenciabilidad de sus símbolos componentes. La primera en cuanto a que solo será efectiva aquella parte del símbolo que haya logrado atravesar el canal, y la segunda porque de ella depende la mejor o peor recepción de la comunicación en contextos ruidosos, ya que tal y como demostró Kotelnikov (1959), la probabilidad de error en la detección de los símbolos es una función que depende de tales diferencias (medidas en términos de energía respecto a la densidad espectral de ruido). Cuando se trata de alfabetos procedentes de lenguajes naturales éstos exhiben características relevantes a la hora de plantear su eficaz codificación para la transmisión mediante canales artificiales: 1) la frecuencia estadística de cada símbolo y 2) la dependencia estadística entre un símbolo y sus adyacentes (o probabilidad de que se transmita un símbolo j cuando el anterior era i o una secuencia dada) . La observación -por parte de Alexader Vail- de la primera característica en la elaboración del código Morse fue fundamental para el éxito del telégrafo de Morse (Oslin, 1992), y tal vez jugó un importante papel heurístico en la elaboración del concepto de medida de la información, especialmente por parte de Hartley y Shannon (Lundheim 2002, Segal 2003). Este último, en su famosa "Mathematical Theory of Communication", da cuenta de ambas características para la determinación de la "entropía" (o cantidad de información) de la fuente (Shannon 1948).
Referencias
- KOTELNIKOV, V.A. (1959). The Theory of Optimum Noise Immunity. Russia 1956, EE.UU.: McGraw Hill.
- LUNDHEIM, L. (2002). “On Shannon and "Shannon's Formula", Telektronikk (special issue on "Information theory and its applications") vol. 98, no. 1-2002, pp. 20-29.
- OSLIN, G.P. (1992). The story of telecommunications. Macon GA (EE.UU.): Mercer University Press.
- SEGAL, J. (2003). Le Zéro et le Un. Histoire de la notion scientifique d'information. Paris: Syllepse.
- SHANNON, C. E. (1948), “A Mathematical Theory of Communication”. The Bell System Technical Journal, Vol. 27 (July, October), pp. 379–423, 623–656.