Comunicación (teoría de la)
Teoría que se ocupa de la transmisión de la información en todas las formas.
La teoría de la Comunicación a la que suele llamársele erróneamente *Teoría de la Información*, fue establecida por C.L. SHANNON y W. WEAVER en 1949 (M.T.C.).
Establece por primera vez de manera absolutamente general las condiciones de la transmisión correcta de la información.
Incluye el estudio de los códigos, de los canales, de los emisores y receptores, de las perturbaciones que deforman o destruyen la información, y de las condiciones para contrarrestar esos efectos negativos. En la medida de lo necesario, cuantifica la información en su proceso de transmisión.
"... la información se transmite de un punto a otro sólo en la medida que el sistema de transmisión no es aleatorio, sino organizado..." (K. BERRIEN - G. & S.S., p. 25).
Ello justifica el hecho de que la entropía sea proporcional al negativo de la información, como lo demostraron SHANNON y WEAVER.
La Teoría de la Comunicación es aplicable, en principio, a cualquier modo de transmisión de la información: nerviosa - sonora - electrónica - lingüística - etc.
Pero por otra parte, von FOERSTER señala que la llamada Teoría de la Comunicación no pasa de ser una simple Teoría de la Tecnología de la Comunicación.
Se definen, a continuación, los principales términos que tienen una relación directa con la Teoría de la Comunicación.
- Bit
-
- Unidad de incertidumbre o de información, en la teoría matemática de la información.
- Cifra, en un sistema binario de numeración (R. ESCARPIT - T.G.I.C., p. 198).
- Fragmento de información que representa una elección entre dos posibilidades, tales como 0 y 1 (M. ARBIB - O. y S.C., p. 52).
- PIERCE la define como la medida universal de la cantidad de información, en términos de elección o incertidumbre. Representa la elección entre dos posibilidades igualmente probables, lo cual reduce la incertidumbre a la mitad. (La medida más general de la incertidumbre es la entropía).
- La cantidad de bits necesaria para eliminar toda incertidumbre es igual al logaritmo base 2 de la cantidad de elementos entre los cuales se debe decidir. Por ejemplo, para elegir un objeto entre ocho, por eliminación progresiva, se necesitan tres operaciones sucesivas, de lógica binaria o sea Log 2 8.
- Byte
- Agrupamiento de varios bits
- El más común es el OCTETO, que permite identificar una posibilidad entre 256 (2^8 = 256).
- El kilobyte vale 1000 bytes y el megabyte vale un millón de bytes.
- El término es de uso universal en todos los idiomas.
- Canal
- El conducto o medio que lleva el mensaje del emisor al receptor (J. SINGH - T.I.L.C., p. 24).
- Un canal puede ser material (cable telefónico), o inmaterial (ondas luminosas, sonoras o herzianas).
- J. MILLER usa el término “canal” en un sentido diferente.
- Capacidad
-
- Cantidad máxima de información que un sistema puede contener o procesar.
- Variedad disponible en cada momento en un canal para transmitir información (W.R. ASHBY - I.C., p. 247).
- La capacidad de una memoria se mide en bits, y la de un canal, en bits por segundo.
- La definición de ASHBY ensancha considerablemente el entendimiento de la noción.
- Código
- Codificador - Decodificador - ver el rubro “código”
- Compatibilidad
- Propiedad de dos sistemas de comunicación que pueden interconectarse sin pérdida de información (R. ESCARPIT - T.G.I.C., p. 199).
- Emisor
- Subsistema que transmite, por un canal, mensajes en forma de modulaciones de la energía vectora (Adapt. de R. ESCARPIT - T.G.I.C., p. 199). El mensaje debe ser codificado en forma adecuada, tanto para su transmisión por el canal, como para su interpretación por el receptor. Ver también “Emisor”, en el listado de taxonomía de los 20 subsistemas críticos de J. MILLER.
- Metron
- Aspecto cuantitativo y medible de la información.
- Noción introducida por GABOR y McKAY, que la oponen a “Logon”, que se refiere al significado que adquiere la información a partir de su entorno semántico. La información se mide (o puede medirse) cuando se transmite. La medición se hace, por ejemplo, en bits.
- Se trata de una palabra griega correspondiente a un concepto aún poco difundido. No se conocen traducciones a otros idiomas.
- Receptor
- Subsistema que recibe algún mensaje transmitido por un emisor en un código comprensible para él.
- En un sentido algo diferente, el subsistema “ingestor” de J. MILLER es también un receptor.
- Redundancia
- Repetición de la misma información dentro de un mensaje. Las redundancias constituyen una condición esencial de la satisfactoria recepción de un mensaje. Sin ninguna redundancia, un mensaje se torna casi inevitablemente incomprensible, ya que las perturbaciones (ruido) en los canales son prácticamente inevitable.
- Ruido
- Perturbación en un mensaje que disminuye su contenido en información y compromete su satisfactoria transmisión.
- El ruido tiene como efecto tornar incomprensible el mensaje, si no interviene un grado suficiente de redundancia. Tanto el ruido como la redundancia necesaria son cuantificables.
- Debe destacarse que lo que es ruido en un mensaje, puede tener significado en otro. Además, podemos no poseer el código o conocer el lenguaje apropiado, en el cual la señal aparentemente desprovista de significado para nosotros, transmitiría información interpretable por otro receptor.
- El ruido, por otra parte, disminuye la redundancia cuando ésta existe. Además, en un sistema (y no meramente en un canal de comunicación), un ruido desorganizador puede provocar una reorganización. En tal caso, el ruido acoplado a un elemento de redundancia específico puede generar la aparición de un nuevo significado y un aumento de la complejidad.
- “El ruido es un producto necesario de la tensión entre los varios subsistemas o capas del sistema” (P. VOLTES BOU - T.G.S.e M., p. 31).
- Señal
- Impulso energético que, ligado a un significado en un código, puede usarse para transmitir un mensaje por un canal. (J. de ROSNAY - M., p. 158).
- Dice COUFFIGNAL (Cib., p. 45) que una señal es un elemento (o código) que no puede descomponer en partes, en cualquier lenguaje (o código). Según Charles MORRIS, una señal es “un signo que no es un símbolo, es decir, que no es producido por su intérprete, ni puede sustituir a otro signo con el que sea sinónimo” (S.L. y C., p. 336).
- Transductor
- Dispositivo que cambia el código o el soporte de una información que recibe, pero conserva su significado.
- Corresponde a la vez a los subsistemas “decodificador” y “codificador” de J. MILLER.