Jump to content

Receptor: Difference between revisions

no edit summary
No edit summary
No edit summary
Line 9: Line 9:
}}
}}


De un modo muy general se entiende por '''receptor''' (I. ''receptor,'' F. ''Récepteur,'' A. ''Empfänger'') a la persona o cosa que se encuentra en el lado receptor durante el acto comunicativo; es decir, el que recibe. Cuando nos referimos a comunicación, cabe pensarse en el proceso mediante el cual se puede transmitir una información a través de un mensaje desde un transmisor hasta un receptor. Éste es, de hecho, el punto de vista de la ''Teoría Matemática de la Comunicación'' (TMC, '''→''' [[Shannon, Claude Elwood|''Shannon'']], ''[[Comunicación]]''). Trataremos esta perspectiva y la relevancia que tiene la incertidumbre del receptor para el concepto shannoniano de información, pero así mismo trataremos de ir más allá de las intenciones de la TMC para abordar aspectos fundamentales del significado y de la relación entre información y conocimiento.
De un modo muy general se entiende por '''receptor''' (I. ''receptor,'' F. ''Récepteur,'' A. ''Empfänger'') a la persona o cosa que se encuentra en el lado receptor durante el acto comunicativo; es decir, el que recibe. Cuando nos referimos a comunicación, cabe pensarse en el proceso mediante el cual se puede transmitir una información a través de un mensaje desde un transmisor hasta un receptor. Éste es, de hecho, el punto de vista de la ''Teoría Matemática de la Comunicación'' (TMC, [[Shannon, Claude Elwood|''Shannon'']], ''[[Comunicación]]''). Trataremos esta perspectiva y la relevancia que tiene la incertidumbre del receptor para el concepto shannoniano de información, pero así mismo trataremos de ir más allá de las intenciones de la TMC para abordar aspectos fundamentales del significado y de la relación entre información y conocimiento.


== 1. El receptor como componente esencial del modelo de comunicación ==
== 1. El receptor como componente esencial del modelo de comunicación ==
Line 30: Line 30:


== 3. La medida de la información desde el punto de vista de la incertidumbre del receptor ==
== 3. La medida de la información desde el punto de vista de la incertidumbre del receptor ==
Se ha mencionado el intercambio de información, pero ¿qué es exactamente la información y cómo se mide? Lograr una medida de la información constituía un aspecto fundamental para lograr los objetivos de la TMC. En la medida que podemos cuantificar los recursos disponibles en términos de: 1) el ancho de banda que puede cursar el medio (recurriendo a las relaciones desarrolladas por Nyquist) y 2) la potencia disponible a la entrada del receptor respecto a la potencia de las perturbaciones o ruido en ese mismo punto (siguiendo las relaciones propuestas por Hartley). Se requiere entonces poder determinar de igual modo la cantidad de información que puede ser intercambiada con dichos recursos. Shannon lo logra mediante una caracterización que es conmesurable con dichos recursos ('''→'''''[[Teoremas fundamentales de Shannon]]''). Pero además lo logra refiriéndose a una noción general de la información: la sorpresa que se siente cuando se recibe un mensaje. Por ejemplo, el mensaje “El océano ha sido destruido por una explosión nuclear” contendrá más información que el mensaje “Hoy está lloviendo” (Couch, 2008). Si se nos comunica algo acerca de una situación que conocemos en todos sus detalles no se nos está informando en absoluto (al menos acerca de esa situación) por mucho que en el proceso comunicativo se haya producido intercambio de señales.
Se ha mencionado el intercambio de información, pero ¿qué es exactamente la información y cómo se mide? Lograr una medida de la información constituía un aspecto fundamental para lograr los objetivos de la TMC. En la medida que podemos cuantificar los recursos disponibles en términos de: 1) el ancho de banda que puede cursar el medio (recurriendo a las relaciones desarrolladas por Nyquist) y 2) la potencia disponible a la entrada del receptor respecto a la potencia de las perturbaciones o ruido en ese mismo punto (siguiendo las relaciones propuestas por Hartley). Se requiere entonces poder determinar de igual modo la cantidad de información que puede ser intercambiada con dichos recursos. Shannon lo logra mediante una caracterización que es conmesurable con dichos recursos (''[[Teoremas fundamentales de Shannon]]''). Pero además lo logra refiriéndose a una noción general de la información: la sorpresa que se siente cuando se recibe un mensaje. Por ejemplo, el mensaje “El océano ha sido destruido por una explosión nuclear” contendrá más información que el mensaje “Hoy está lloviendo” (Couch, 2008). Si se nos comunica algo acerca de una situación que conocemos en todos sus detalles no se nos está informando en absoluto (al menos acerca de esa situación) por mucho que en el proceso comunicativo se haya producido intercambio de señales.


La información enviada de una fuente digital cuando se transmite el j-ésimo mensaje (dejamos de lado las fuentes analógicas por el hecho de que el conjunto de mensajes potenciales es, en principio, ilimitado) está dada por:
La información enviada de una fuente digital cuando se transmite el j-ésimo mensaje (dejamos de lado las fuentes analógicas por el hecho de que el conjunto de mensajes potenciales es, en principio, ilimitado) está dada por:
Line 39: Line 39:


Si se piensa en estos términos, la caracterización matemática de la información propuesta en (1) es extraordinariamente natural. Si el mensaje a transmitir tiene probabilidad 1/2, es equivalente al resultado de lanzar una moneda. O es cara o es cruz, basta responder con un sí o un no a una pregunta bien planteada para saber lo que fue el caso. Si la probabilidad fuera de 1/4, por ejemplo, 1 de 4 posibles mensajes equiprobables, nos bastará plantear dos preguntas (esto es el log<sub>2</sub>4). En general si la probabilidad es 1/''M'', bastarán ''N''=log<sub>2</sub>''M'' distinciones binarias; o a la inversa si hacemos ''N'' distinciones binarias consecutivas podemos referirnos a 2<sup>''N''</sup> casos diferentes equiprobables. Por tanto, puede generalizarse que la cantidad de información mínima que se requiere, en términos de distinciones binarias ''N'' para saber lo que es el caso (si se plantean preguntas adecuadas) es precisamente lo descrito por (1). La utilización del logaritmo en base 2, propuesta por Hartley, es uno de los puntos de partida sobre los que Shannon desarrolla la TMC.
Si se piensa en estos términos, la caracterización matemática de la información propuesta en (1) es extraordinariamente natural. Si el mensaje a transmitir tiene probabilidad 1/2, es equivalente al resultado de lanzar una moneda. O es cara o es cruz, basta responder con un sí o un no a una pregunta bien planteada para saber lo que fue el caso. Si la probabilidad fuera de 1/4, por ejemplo, 1 de 4 posibles mensajes equiprobables, nos bastará plantear dos preguntas (esto es el log<sub>2</sub>4). En general si la probabilidad es 1/''M'', bastarán ''N''=log<sub>2</sub>''M'' distinciones binarias; o a la inversa si hacemos ''N'' distinciones binarias consecutivas podemos referirnos a 2<sup>''N''</sup> casos diferentes equiprobables. Por tanto, puede generalizarse que la cantidad de información mínima que se requiere, en términos de distinciones binarias ''N'' para saber lo que es el caso (si se plantean preguntas adecuadas) es precisamente lo descrito por (1). La utilización del logaritmo en base 2, propuesta por Hartley, es uno de los puntos de partida sobre los que Shannon desarrolla la TMC.


== 4. Entropía, capacidad de canal y recepción óptima ==
== 4. Entropía, capacidad de canal y recepción óptima ==
Line 55: Line 49:
:<math>H=-\sum_j p_j\log_2(p_j)</math> [bits]  (2)
:<math>H=-\sum_j p_j\log_2(p_j)</math> [bits]  (2)


Con esta caracterización la TMC logra el objetivo antes mencionado de lograr que los recursos del canal sean conmensurables con la información a transmitir por el canal. La ''capacidad del canal'' supone precisamente el nexo entre la máxima información que puede llegar a recibir el receptor y los recursos de ancho de banda y relación señal a ruido (S/N) ('''→'''[[Teoremas fundamentales de Shannon|''Teoremas fundamentales de Shannon'']]).
Con esta caracterización la TMC logra el objetivo antes mencionado de lograr que los recursos del canal sean conmensurables con la información a transmitir por el canal. La ''capacidad del canal'' supone precisamente el nexo entre la máxima información que puede llegar a recibir el receptor y los recursos de ancho de banda y relación señal a ruido (S/N) ([[Teoremas fundamentales de Shannon|''Teoremas fundamentales de Shannon'']]).


Para aproximarse al límite al que se refiere la '''[[capacidad de canal]],''' el medio de transmisión debe ser eficiente y confiable, reduciendo en lo posible las dificultades de transmisión, tales como, la atenuación, el ruido y las interferencias, que pueden distorsionar o eliminar la información. Del mismo modo, tanto transmisor como receptor deben regirse por protocolos de comunicaciones, para que, hablando en el mismo idioma, la comunicación pueda realizarse de forma exitosa. Por lo tanto, una vez recibido el mensaje, el receptor lo decodifica, procesa, extrae la información y proporciona una respuesta, haciendo posible una comunicación dúplex (''full-duplex'') (v. [[modos de transmisión]]).
Para aproximarse al límite al que se refiere la '''[[capacidad de canal]],''' el medio de transmisión debe ser eficiente y confiable, reduciendo en lo posible las dificultades de transmisión, tales como, la atenuación, el ruido y las interferencias, que pueden distorsionar o eliminar la información. Del mismo modo, tanto transmisor como receptor deben regirse por protocolos de comunicaciones, para que, hablando en el mismo idioma, la comunicación pueda realizarse de forma exitosa. Por lo tanto, una vez recibido el mensaje, el receptor lo decodifica, procesa, extrae la información y proporciona una respuesta, haciendo posible una comunicación dúplex (''full-duplex'') (v. [[modos de transmisión]]).
Line 62: Line 56:


Hasta aquí, al igual que en la TMC, nos hemos movido en un terreno fundamentalmente sintáctico de la comunicación. La consideración de algunos problemas semánticos fundamentales requiere transgredir los umbrales del modelo de comunicación de la TMC.
Hasta aquí, al igual que en la TMC, nos hemos movido en un terreno fundamentalmente sintáctico de la comunicación. La consideración de algunos problemas semánticos fundamentales requiere transgredir los umbrales del modelo de comunicación de la TMC.


== 5. Reducción de incertidumbre vs emergencia de significados ==
== 5. Reducción de incertidumbre vs emergencia de significados ==
Definida la información en los términos de la TMC, obsérvese, como se decía antes, que la probabilidad de ocurrencia de los mensajes no implica una referencia puramente objetiva del comportamiento del transmisor, sino más bien el estado de incertidumbre del receptor. Antes de haberse producido la transmisión éste no sabe lo que va a ser el caso, pero existe un conocimiento tácito de la fuente de información: sabe que este mensaje es más probable que aquel, etc., e incluso hay algunos mensajes que son simplemente imposibles. Consideremos precisamente estos. Su probabilidad sería 0 y según el modelo de la TMC la información que aporta sería infinita. Cuando tratamos de hacer el promedio de todos los mensajes para caracterizar la "entropía" shannoniana de la fuente ('''→'''''Shannon'') no sabemos qué hacer: considerar la cantidad infinita de información de estos mensajes archi-raros con un peso cero, o simplemente descartarlos para no caer en camisas de once varas. Esta constituye, de hecho, lo que Floridi denomina la ''paradoja de Bar Hillel-Carnap'' (Floridi, 2011).  
Definida la información en los términos de la TMC, obsérvese, como se decía antes, que la probabilidad de ocurrencia de los mensajes no implica una referencia puramente objetiva del comportamiento del transmisor, sino más bien el estado de incertidumbre del receptor. Antes de haberse producido la transmisión éste no sabe lo que va a ser el caso, pero existe un conocimiento tácito de la fuente de información: sabe que este mensaje es más probable que aquel, etc., e incluso hay algunos mensajes que son simplemente imposibles. Consideremos precisamente estos. Su probabilidad sería 0 y según el modelo de la TMC la información que aporta sería infinita. Cuando tratamos de hacer el promedio de todos los mensajes para caracterizar la "entropía" shannoniana de la fuente ('''→'''''Shannon'') no sabemos qué hacer: considerar la cantidad infinita de información de estos mensajes archi-raros con un peso cero, o simplemente descartarlos para no caer en camisas de once varas. Esta constituye, de hecho, lo que Floridi denomina la ''paradoja de Bar Hillel-Carnap'' (Floridi, 2011).  


La paradoja es en realidad solo aparente ya que matemáticamente puede demostrarse que la fórmula de la entropía shannoniana (2) es convergente y esos términos no aportan nada al valor global. Pero lo relevante para entender el punto de vista de la TMC es que ésta considera que el conjunto de posibles mensajes es finito. La reducción que hace la TMC de la comunicación –a solamente sus aspectos sintácticos– deja de lado la emergencia de los significados (Díaz Nafría, 2011; Díaz y Al Hadithi, 2009). Podemos decir que la caracterización sintáctica de la comunicación hace un retrato ''ergódico'' de la misma y por tanto deja de lado que pueda decirse algo nuevo, lo cual es evidentemente una característica esencial de la comunicación en el proceso de permanente adaptación de los comunicandos a las circunstancias cambiantes (''Contexto''). Esto debe tenerse en cuenta –a nuestro juicio–  a la hora de aplicar el modelo de incertidumbre a un estudio de la información que considere los aspectos semánticos: el conjunto de mensajes es en última instancia abierto pero podemos reducir la complejidad de nuestro caso de estudio descartando aquellos cuya probabilidad sea muy reducida y considerando el modelo resultante como localmente válido. Donde esta validez puede referirse a un punto de ''metaestabilidad'' del sistema de comunicación (constituido por los comunicandos, los medios de comunicación y el conjunto de referentes, lo cual necesariamente incluye el contexto, '''→'''''Comunicación'') y por tanto con la conciencia de que necesariamente cambiará en el tiempo.
La paradoja es en realidad solo aparente ya que matemáticamente puede demostrarse que la fórmula de la entropía shannoniana (2) es convergente y esos términos no aportan nada al valor global. Pero lo relevante para entender el punto de vista de la TMC es que ésta considera que el conjunto de posibles mensajes es finito. La reducción que hace la TMC de la comunicación –a solamente sus aspectos sintácticos– deja de lado la emergencia de los significados (Díaz Nafría, 2011; Díaz y Al Hadithi, 2009). Podemos decir que la caracterización sintáctica de la comunicación hace un retrato ''ergódico'' de la misma y por tanto deja de lado que pueda decirse algo nuevo, lo cual es evidentemente una característica esencial de la comunicación en el proceso de permanente adaptación de los comunicandos a las circunstancias cambiantes (''Contexto''). Esto debe tenerse en cuenta –a nuestro juicio–  a la hora de aplicar el modelo de incertidumbre a un estudio de la información que considere los aspectos semánticos: el conjunto de mensajes es en última instancia abierto pero podemos reducir la complejidad de nuestro caso de estudio descartando aquellos cuya probabilidad sea muy reducida y considerando el modelo resultante como localmente válido. Donde esta validez puede referirse a un punto de ''metaestabilidad'' del sistema de comunicación (constituido por los comunicandos, los medios de comunicación y el conjunto de referentes, lo cual necesariamente incluye el contexto, v. ''[[Comunicación]]'') y por tanto con la conciencia de que necesariamente cambiará en el tiempo.


== 6. Información potencial vs actual y la relación entre información y conocimiento ==
== 6. Información potencial vs actual y la relación entre información y conocimiento ==