Información
- Conjunto de mensajes capaces de desencadenar acciones (J. de ROSNAY - M., p. 158).
La condición esencial es, obviamente, que los mensajes sean comprensibles por el receptor (u observador). Ello implica una problemática compleja que tiene que ver con la formación de los significados, con su codificación semántica y física, y con su correcta transmisión.
Vale la pena citar esta otra definición de uno de los autores más reflexivos sobre el tema:
- El factor que realiza trabajo lógico sobre la orientación del sistema (MAC-KAY en W. BUCKLEY - S.T.M.S., p. 81).
Sin embargo no parece del todo seguro que toda información pueda reducirse, en última instancia, a un "trabajo lógico".
- Conjunto organizado de datos que otorga un significado a un fragmento del universo, en función de un conocimiento preexistente.
En un Sistema Experto, por ejemplo, los datos se transforman en información sólo por la acción del motor de inferencias, que incluye el conocimiento preexistente.
Joel de ROSNAY recuerda que ARISTOTELES introdujo una distinción entre información como "adquisición de conocimientos" (resultado de la actividad de un observador) y la información como "poder de organización" (M., p. 158).
- Información (Cantidad de)
- Medida, sobre un gran número de mensajes escritos en el mismo lenguaje, con el mismo alfabeto, de la probabilidad promedio de aparición de las letras o símbolos del alfabeto, multiplicada por el número de letras o símbolos del mensaje (H. ATLAN - C.F., p. 45).
- H. ATLAN agrega: "En todos los casos, la cantidad de información de un sistema mide el grado de improbabilidad de que el ensamble de los distintos componentes sea un efecto de azar" y "Mayor es el número de elementos diferentes del sistema, mayor es su cantidad de información, en vista de la mayor improbabilidad de poder constituirlo tal cual es, ensamblando sus componentes al azar".
- Curiosamente, y hasta paradójicamente, el sistema más difícil de reproducir desde el punto de vista de la información que contiene, sería el sistema totalmente entropizado como, por ejemplo, un volumen de gas sometido sólo al movimiento Browniano. De ahí la antinomia entre la entropía termodinámica y la neguentropía informacional (ver León BRILLOUIN - S. et T.I.).
- Es muy importante destacar que la cantidad de información en un mensaje puede medirse sin referencia a su significado "...esta información shannoniana, reducida a la incertidumbre probabilista, no tiene más que un interés operativo" (H. ATLAN - C.F., p. 36) (como, por ejemplo, en el problema de descifrar mensajes codificados).
- H. ATLAN dice, además: "La probabilidad de presencia de un signo sirve para medir la cantidad de información - sin significado definido - comunicada por este signo...
- "La utilización, por Shannon, de las probabilidades para medir la información sin significado definido, es la misma que la de BOLTZMANN para medir el grado de desorden molecular, en una muestra de materia" (H. ATLAN - C.F., p. 33).
- Información distribuída
- Producto de la cantidad absoluta de información por el número de personas que la comparten (L. BRILLOUIN - S. et T.I., p. 226). Al distribuirse, la información no aumenta, cualitativamente al menos. Pero como el que la emite no la pierde, tampoco disminuye.