Bureaucrats, curator, Interface administrators, Administrators (Semantic MediaWiki), Curators (Semantic MediaWiki), Editors (Semantic MediaWiki), Suppressors, Administrators
2,256
edits
(Introducción de las correcciones propuestas por Rosa por correo en septiembre 2016.) |
|||
Line 33: | Line 33: | ||
La información enviada de una fuente digital cuando se transmite el j-ésimo mensaje (dejamos de lado las fuentes analógicas por el hecho de que el conjunto de mensajes potenciales es, en principio, ilimitado) está dada por: | La información enviada de una fuente digital cuando se transmite el j-ésimo mensaje (dejamos de lado las fuentes analógicas por el hecho de que el conjunto de mensajes potenciales es, en principio, ilimitado) está dada por: | ||
<math>I_j = \log_2\Bigl(\frac{1}{p_j}\Bigr)</math> [bits] (1) | :<math>I_j = \log_2\Bigl(\frac{1}{p_j}\Bigr)</math> [bits] (1) | ||
Donde ''p<sub>j</sub>'' es la probabilidad de transmitir el j-ésimo mensaje. De esta definición se deduce que los mensajes que tienen una menor probabilidad de ocurrencia (valores más pequeños para ''p<sub>j</sub>'') suministran más información (valores grandes de ''I<sub>j</sub>''). También se observa que la medida de información depende sólo de la probabilidad del envío del mensaje y no de la posible interpretación del contenido en referencia a si tiene sentido o no. No obstante, esa probabilidad de transmisión de mensaje, aparentemente objetiva como caracterización de la fuente, ¿no refleja a su vez la incertidumbre del receptor respecto a que va a transmitirse? De hecho, podría argumentarse que el transmisor o la fuente sí podría saber lo que va a transmitir antes de hacerlo, el que desde luego lo desconoce es el receptor. El código usado, que en el modelo de la TMC es un componente compartido por el transmisor y el receptor, crea una simetría que puede hacer confundir este hecho: la incertidumbre pertenece propiamente al receptor. | Donde ''p<sub>j</sub>'' es la probabilidad de transmitir el j-ésimo mensaje. De esta definición se deduce que los mensajes que tienen una menor probabilidad de ocurrencia (valores más pequeños para ''p<sub>j</sub>'') suministran más información (valores grandes de ''I<sub>j</sub>''). También se observa que la medida de información depende sólo de la probabilidad del envío del mensaje y no de la posible interpretación del contenido en referencia a si tiene sentido o no. No obstante, esa probabilidad de transmisión de mensaje, aparentemente objetiva como caracterización de la fuente, ¿no refleja a su vez la incertidumbre del receptor respecto a que va a transmitirse? De hecho, podría argumentarse que el transmisor o la fuente sí podría saber lo que va a transmitir antes de hacerlo, el que desde luego lo desconoce es el receptor. El código usado, que en el modelo de la TMC es un componente compartido por el transmisor y el receptor, crea una simetría que puede hacer confundir este hecho: la incertidumbre pertenece propiamente al receptor. | ||
Si se piensa en estos términos, la caracterización matemática de la información propuesta en (1) es extraordinariamente natural. Si el mensaje a transmitir tiene probabilidad 1/2, es equivalente al resultado de lanzar una moneda. O es cara o es cruz, basta responder con un sí o un no a una pregunta bien planteada para saber lo que fue el caso. Si la probabilidad fuera de 1/4, por ejemplo, 1 de 4 posibles mensajes equiprobables, nos bastará plantear dos preguntas (esto es el log<sub>2</sub>4). En general si la probabilidad es 1/''M'', bastarán ''N''=log<sub>2</sub>''M'' distinciones binarias; o a la inversa si hacemos ''N'' distinciones binarias consecutivas podemos referirnos a 2<sup>''N''</sup> casos diferentes equiprobables. Por tanto, puede generalizarse que la cantidad de información mínima que se requiere, en términos de distinciones binarias ''N'' para saber lo que es el caso (si se plantean preguntas adecuadas) es precisamente lo descrito por (1). La utilización del logaritmo en base 2, propuesta por Hartley, es uno de los puntos de partida sobre los que Shannon desarrolla la TMC. | Si se piensa en estos términos, la caracterización matemática de la información propuesta en (1) es extraordinariamente natural. Si el mensaje a transmitir tiene probabilidad 1/2, es equivalente al resultado de lanzar una moneda. O es cara o es cruz, basta responder con un sí o un no a una pregunta bien planteada para saber lo que fue el caso. Si la probabilidad fuera de 1/4, por ejemplo, 1 de 4 posibles mensajes equiprobables, nos bastará plantear dos preguntas (esto es el log<sub>2</sub>4). En general si la probabilidad es 1/''M'', bastarán ''N''=log<sub>2</sub>''M'' distinciones binarias; o a la inversa si hacemos ''N'' distinciones binarias consecutivas podemos referirnos a 2<sup>''N''</sup> casos diferentes equiprobables. Por tanto, puede generalizarse que la cantidad de información mínima que se requiere, en términos de distinciones binarias ''N'' para saber lo que es el caso (si se plantean preguntas adecuadas) es precisamente lo descrito por (1). La utilización del logaritmo en base 2, propuesta por Hartley, es uno de los puntos de partida sobre los que Shannon desarrolla la TMC. | ||
[[Category:06) Teoría de la comunicación en general (incl. teoría de la información)]] | |||
[[Category:65) Telecomunicación y telecontrol]] | |||
[[Category:GlossariumBITri]] | |||
[[Category:Teoría de la información]] | |||
[[Category:Teoría de la señal y la comunicación]] | |||
== 4. Entropía, capacidad de canal y recepción óptima == | == 4. Entropía, capacidad de canal y recepción óptima == |