Shannon, Claude Elwood (es)
| Colección | GlossariumBITri |
|---|---|
| Autor | Jérôme Segal |
| Editor | Jérôme Segal |
| Año | 2010 |
| Vol. (núm.) | 1(1) |
| ID | ◀ 1076 ▶ |
| Tipo de objeto | Autor |
| Dominio | Comunicación, MTC, Criptografía, Ingeniería, Teoría de la información |
(n. Petoskey, Michigan, 30 abril 1916, m. Medford, Massachusetts, 24 febrero 2001).
Shannon es ante todo conocido como pionero de la era de la información a raíz de haber demostrado en su artículo germinal “A Mathematical Theory of Communication” (1948) que la información podía definirse y medirse como noción científica. El artículo hizo nacer la teoría de la información que abarca, por una lado, aplicaciones metafóricas en muy diferentes disciplinas que van desde la biología a la lingüística, pasando por la termodinámica o la física cuántica, y por otro, una disciplina técnica de esencia matemática, basada en conceptos cruciales como el de capacidad de canal. Shannon en ningún momento demostró especial entusiasmo por el primer tipo de aplicaciones informacionales, centrando su interés en los aspectos técnicos y haciendo también contribuciones significativas a otros campos, como la criptografía, la inteligencia artificial, y áreas en las que sus ideas estaban enraizadas y pudieron aplicarse fácil y rigurosamente, como fueron la telecomunicación y la teoría de código.
Años formativos
Claude Elwood Shannon era hijo de Claude Shannon Sr. (1862-1934), un hombre de negocios que además fue juez de testamentarías, y Mabel Wolf Shannon (1880-1945), directora de un centro de secundaria. Hasta los 16 años vivió en Gaylord, Michigan. Su juventud tendría una influencia decisiva en su vida científica: su abuelo trabajaba como reparador e ideó varios objetos. A la edad de su graduación en secundaria, el joven Shannon ya había construido un barco teledirigido y un sistema telegráfico para comunicarse con un amigo a aproximadamente una milla de distancia usando alambres de espinos. Conseguía algo de dinero arreglando diversos aparatos eléctricos y admiraba a Edison, con quien más tarde descubrió compartir un ancestro común.
Shannon dejó Gaylord en 1932 para acudir a la Universidad de Michigan, donde estudió ingeniería eléctrica y matemáticas, licenciándose (B.Sc.) en ambos campos en 1936. Trabajó en el mantenimiento de un analizador diferencial construido por Vannevar Bush (1890-1974), quien se convertiría en su mentor. En el departamento de Bush, Shannon escribió su tesis de maestría “Symbolic Analysis of Relay and Switching Circuits”, presentada en 1937. Shannon recordó al respecto:
La máquina principal era mecánica... y disponía de un complejo sistema de control con relés. La parte de relés me interesó. Había aprendido lógica simbólica y me di cuenta de que el álgebra booleana era justo lo que hacía falta para ocuparse de los circuitos de relés y de conmutación... ¡Ese fue el principio de mi gran carrera! (Sloane y Wyner, 1993: xxv)
Su estudio trató circuitos basados en relés y unidades de conmutación, desarrollando un método riguroso para el análisis y la síntesis de circuitos. Este planteamiento dual se manifestó en una carta enviada a Bush en febrero de 1939, donde escribió que prácticamente todos los sistemas de comunicación podían acomodarse a la forma: , donde es una función genérica del tiempo representando la inteligencia a transmitir.
En 1940 obtuvo el doctorado en matemáticas con la tesis “An Algebra for Theoretical Genetics”, tras lo cual se incorporó a los Laboratorios Bell, donde trabajaría de 1941 a 1956.
El impacto de la 2ª Guerra Mundial
De 1940 en adelante, Shannon quedó involucrado en investigación bélica mediante dos proyectos principales:
- Artillería antiaérea: Trabajó con Richard B. Blackman y Hendrik Bode en el informe “Data Smoothing and Prediction in Fire-Control Systems”. Establecieron una analogía entre el suavizado de datos y el problema de separar una señal del ruido en sistemas de comunicación.
- Criptografía: Trabajó en el sistema X de comunicaciones seguras y coincidió con Alan Turing. Su contribución se encuentra en el informe de 1945 “A Mathematical Theory of Cryptography”, donde aportó definiciones de redundancia, equivocidad e información. Para cuantificar la incertidumbre, propuso la fórmula:
donde era una medida de la incertidumbre. Según se cuenta, John von Neumann le aconsejó llamarlo entropía porque nadie sabía realmente qué era, lo que le daría ventaja en los debates.
De la criptografía a la teoría de la comunicación
Shannon publicó en 1948 su artículo “A Mathematical Theory of Communication” en el Bell System Technical Journal. Para Shannon el proceso de comunicación era estocástico por naturaleza. Su esquema general proponía una fuente de información que entrega un mensaje, codificado por un transmisor en una señal. La señal recibida es la suma de la señal transmitida y un inevitable ruido.
Su teoría demostró que es posible enviar mensajes con exactitud arbitraria siempre que el ritmo de transmisión no exceda la capacidad de canal (). Introdujo el bit (contracción de binary digit) como unidad de información. Estableció que la longitud promedio de un mensaje tiene un límite mínimo proporcional a la entropía de la fuente.
Para el caso de fuentes continuas, definió la capacidad de un canal de banda perturbado con ruido térmico blanco de potencia y potencia de transmisión como:
Entropía e información
La obra de Shannon, junto con la de Norbert Wiener, dio lugar a la denominada cibernética y a la teoría de la información. Rápidamente se establecieron conexiones con la lingüística (donde colaboró con Roman Jakobson) y la biología. En 1953, Herman Branson calculaba la cantidad de información contenida en un humano, llegando a la conclusión de que bits.
Ante la explosión de aplicaciones a veces inconsistentes, Shannon escribió en 1956 su famoso editorial “The Bandwagon”, advirtiendo que la importancia de la teoría se estaba inflando por encima de sus auténticos méritos técnicos.
Shannon como pionero en inteligencia artificial
Shannon fue coautor de la propuesta para el Dartmouth Summer Research Project on Artificial Intelligence (1955), que acuñó el término inteligencia artificial. Presentó el ratón electromecánico Teseo, capaz de aprender el camino en un laberinto. En su artículo de 1950 “Programming a Computer for Playing Chess”, sentó las bases del ajedrez computacional mediante funciones de evaluación y el procedimiento mini-max.

Claude Shannon con un ratón mecánico, dotado de super-memoria y con posibilidad de aprender el camino a través del laberinto sin errores después de una única vuelta de entrenamiento. (Hulton Archive/Getty Images).
Un legado complejo
En 1956 dejó los Laboratorios Bell por el MIT. En las décadas posteriores se interesó por la teoría de inversión y los juegos de azar, visitando Las Vegas con Ed Thorp para probar sus ideas sobre gestión de cartera. Nunca abandonó la construcción de máquinas excéntricas como el THROBAC o dispositivos para resolver el cubo de Rubik.
Sus contribuciones tecnológicas hoy son la base de los discos compactos, las comunicaciones espaciales y la información cuántica basada en qubits. Shannon falleció en 2001 tras luchar contra la enfermedad de Alzheimer.
Nota (1): En referencia a la expresión inglesa “jump on the bandwagon”, similar a la castellana “subirse al carro”.
Referencias
- Sloane, N. J. A. y Wyner, A. D., eds. (1993). Claude Elwood Shannon: Collected Papers. Piscataway, NJ: IEEE Press.
- Shannon, C. E. (1948). “A Mathematical Theory of Communication”. En: Bell System Technical Journal, vol. 27, pp. 379–423, 623–656.
- Shannon, C. E. y Weaver, W. (1949). The Mathematical Theory of Communication. Urbana: University of Illinois Press.
- Shannon, C. E. (1950). “Programming a Computer for Playing Chess”. En: Philosophical Magazine, vol. 41, pp. 256–275.
- Shannon, C. E. (1951). “Prediction and Entropy in Printed English”. En: Bell System Technical Journal, vol. 30, pp. 50–64.
- Shannon, C. E. (1956). “The Bandwagon”. En: IRE Transactions on Information Theory, vol. 2, p. 3.
- Berrou, C. y Glavieux, A. (1996). “Near Optimum Error Correcting Coding and Decoding: Turbo-Codes”. En: IEEE Transactions on Communications, vol. 44, pp. 1261–1271.
- Hartley, R. V. L. (1928). “Transmission of Information”. En: Bell System Technical Journal, vol. 7, pp. 535–563.
- Quastler, H., ed. (1953). Essays on the Use of Information Theory in Biology. Urbana: University of Illinois Press.
- Segal, J. (2003). Le Zéro et le un: Histoire de la notion scientifique d’information. Paris: Syllepse.
- Wiener, N. (1948). Cybernetics, or Control and Communication in the Animal and the Machine. Paris, France: Hermann et Cie.
- Yockey, H. P. (1992). Information Theory and Molecular Biology. Cambridge, U.K.: Cambridge University Press.
- Yockey, H. P. (2005). Information Theory, Evolution, and the Origin of Life. Cambridge, U.K.: Cambridge University Press.