Jump to content

Receptor: Difference between revisions

no edit summary
No edit summary
Line 6: Line 6:
| Número = 3
| Número = 3
| ID =  1
| ID =  1
| Tipo de artículo = concepto
}}
}}


Line 39: Line 40:
Si se piensa en estos términos, la caracterización matemática de la información propuesta en (1) es extraordinariamente natural. Si el mensaje a transmitir tiene probabilidad 1/2, es equivalente al resultado de lanzar una moneda. O es cara o es cruz, basta responder con un sí o un no a una pregunta bien planteada para saber lo que fue el caso. Si la probabilidad fuera de 1/4, por ejemplo, 1 de 4 posibles mensajes equiprobables, nos bastará plantear dos preguntas (esto es el log<sub>2</sub>4). En general si la probabilidad es 1/''M'', bastarán ''N''=log<sub>2</sub>''M'' distinciones binarias; o a la inversa si hacemos ''N'' distinciones binarias consecutivas podemos referirnos a 2<sup>''N''</sup> casos diferentes equiprobables. Por tanto, puede generalizarse que la cantidad de información mínima que se requiere, en términos de distinciones binarias ''N'' para saber lo que es el caso (si se plantean preguntas adecuadas) es precisamente lo descrito por (1). La utilización del logaritmo en base 2, propuesta por Hartley, es uno de los puntos de partida sobre los que Shannon desarrolla la TMC.
Si se piensa en estos términos, la caracterización matemática de la información propuesta en (1) es extraordinariamente natural. Si el mensaje a transmitir tiene probabilidad 1/2, es equivalente al resultado de lanzar una moneda. O es cara o es cruz, basta responder con un sí o un no a una pregunta bien planteada para saber lo que fue el caso. Si la probabilidad fuera de 1/4, por ejemplo, 1 de 4 posibles mensajes equiprobables, nos bastará plantear dos preguntas (esto es el log<sub>2</sub>4). En general si la probabilidad es 1/''M'', bastarán ''N''=log<sub>2</sub>''M'' distinciones binarias; o a la inversa si hacemos ''N'' distinciones binarias consecutivas podemos referirnos a 2<sup>''N''</sup> casos diferentes equiprobables. Por tanto, puede generalizarse que la cantidad de información mínima que se requiere, en términos de distinciones binarias ''N'' para saber lo que es el caso (si se plantean preguntas adecuadas) es precisamente lo descrito por (1). La utilización del logaritmo en base 2, propuesta por Hartley, es uno de los puntos de partida sobre los que Shannon desarrolla la TMC.


[[Category:06) Teoría de la comunicación en general (incl. teoría de la información)]]
 
[[Category:65) Telecomunicación y telecontrol]]
 
[[Category:GlossariumBITri]]
 
[[Category:Teoría de la información]]
 
[[Category:Teoría de la señal y la comunicación]]
 


== 4. Entropía, capacidad de canal y recepción óptima ==
== 4. Entropía, capacidad de canal y recepción óptima ==
Line 62: Line 63:
Hasta aquí, al igual que en la TMC, nos hemos movido en un terreno fundamentalmente sintáctico de la comunicación. La consideración de algunos problemas semánticos fundamentales requiere transgredir los umbrales del modelo de comunicación de la TMC.
Hasta aquí, al igual que en la TMC, nos hemos movido en un terreno fundamentalmente sintáctico de la comunicación. La consideración de algunos problemas semánticos fundamentales requiere transgredir los umbrales del modelo de comunicación de la TMC.


[[Category:06) Teoría de la comunicación en general (incl. teoría de la información)]]
 
[[Category:65) Telecomunicación y telecontrol]]
 
[[Category:GlossariumBITri]]
 
[[Category:Teoría de la información]]
 
[[Category:Teoría de la señal y la comunicación]]
 


== 5. Reducción de incertidumbre vs emergencia de significados ==
== 5. Reducción de incertidumbre vs emergencia de significados ==