<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Lucas+D%C3%ADaz</id>
	<title>glossaLAB - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://www.glossalab.org/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Lucas+D%C3%ADaz"/>
	<link rel="alternate" type="text/html" href="https://www.glossalab.org/wiki/Special:Contributions/Lucas_D%C3%ADaz"/>
	<updated>2026-04-30T22:34:41Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.43.6</generator>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=DGS:Causalidad&amp;diff=39285</id>
		<title>DGS:Causalidad</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=DGS:Causalidad&amp;diff=39285"/>
		<updated>2026-04-30T11:38:52Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Article DGS&lt;br /&gt;
| Pending human revision = 1&lt;br /&gt;
| ID = 35&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| Curator = Charles François&lt;br /&gt;
| Collection = Diccionario de Teoría General de Sistemas y Cibernética&lt;br /&gt;
| Author = Charles François&lt;br /&gt;
| Date = 1992&lt;br /&gt;
| Type = glossaLAB:definition&lt;br /&gt;
| en = Causality&lt;br /&gt;
| fr = Causalité&lt;br /&gt;
| it = Causalità&lt;br /&gt;
| pt = Causalidade&lt;br /&gt;
| de = Kausalität&lt;br /&gt;
| See also = DGS:Autopoiesis // DGS:Determinismo // DGS:Autogénesis // DGS:Cibernética // DGS:Juego de la vida // DGS:Morfogénesis // DGS:Teoría general de sistemas // DGS:Estabilidad // DGS:Proceso // DGS:Interrelación // DGS:Elemento // DGS:Crecimiento // DGS:Retroalimentación // DGS:Estructura // DGS:Interacción // DGS:Constricción // DGS:Entorno // DGS:Organización&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{DGS_Nota&lt;br /&gt;
| Nota preliminar&lt;br /&gt;
| A partir de la aparición de la Microfísica, de la [[DGS:Cibernética|Cibernética]] y de la [[DGS:Teoría general de sistemas|Teoría General de Sistemas]], la noción de causa ha perdido en las ciencias su aparente sencillez y se formuló una reinterpretación científica afín a los distintos conceptos de causa tradicionales en filosofía.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
;Causalidad circular:{{subterm anchor|Causalidad circular}}&lt;br /&gt;
:Situación en la que el efecto resulta de una (o varias) causas, pero retroactúa sobre éstas, terminando por aparecer una simetría entre causa y efectos ([[DGS:Bibliografía#WALLISER|B. WALLISER]] - S.M. p. 52).&lt;br /&gt;
:Considerada bajo este ángulo, la tradicional paradoja del huevo y la gallina cede el lugar al estudio del “funcionamiento del mecanismo global”. ([[DGS:Bibliografía#WALLISER|B. WALLISER]] - S.M., p. 52)&lt;br /&gt;
&lt;br /&gt;
;Causalidad lineal:{{subterm anchor|Causalidad lineal}}&lt;br /&gt;
:Relación causal sin retroacción donde la causa coincide con el “antes” y el efecto con el “después”.&lt;br /&gt;
:Es la causalidad clásica, de esencia estrictamente determinística. Supone la [[DGS:Estabilidad|estabilidad]] absoluta de las condiciones generales del [[DGS:Proceso|proceso]] en el sistema. (“Et ceteris paribus”).&lt;br /&gt;
:&amp;lt;blockquote&amp;gt;“...es frecuentemente eficiente en la descripción de cambios en una perspectiva no sistémica y a corto plazo” ([[DGS:Bibliografía#JANTSCH|E. JANTSCH]] - D.f.E., p. 118)&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
;Causalidad múltiple:{{subterm anchor|Causalidad múltiple}}&lt;br /&gt;
:Situación en la que el efecto resulta de la convergencia en un lugar y momento preciso, de varias causas independientes unas de otras.&lt;br /&gt;
&lt;br /&gt;
;Causalidad mutua:{{subterm anchor|Causalidad mutua}}&lt;br /&gt;
:Propiedad resultante del establecimiento de [[DGS:Interrelación|interrelaciones]] simultáneas entre dos o varios grupos de [[DGS:Elemento|elementos]], en [[DGS:Crecimiento|crecimiento]] ([[DGS:Bibliografía#MARUYAMA|M. MARUYAMA]]: “Mutual Causality in General Systems”, en [[DGS:Bibliografía#MILSUM|J.H. MILSUM]] - P.F., p. 80-100).&lt;br /&gt;
:El concepto se debe a [[DGS:Bibliografía#MARUYAMA|Magoroh MARUYAMA]], quien comenta:&lt;br /&gt;
:&amp;lt;blockquote&amp;gt;“Este tipo de [[DGS:Retroalimentación|retroalimentaciones]] puede incrementar la [[DGS:Estructura|estructuración]] dentro del sistema, y debería ser considerado aparte de la cuestión de saber si el sistema es abierto o cerrado. Son las [[DGS:Interacción|interacciones]] internas las que importan aquí” ([[DGS:Bibliografía#MARUYAMA|M. MARUYAMA]] en [[DGS:Bibliografía#JANTSCH|E. JANTSCH]] &amp;amp; [[DGS:Bibliografía#WADDINGTON|C. WADDINGTON]] - E &amp;amp; C, p. 201).&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
:La causalidad mutua presenta las características principales (estado inicial - reglas de [[DGS:Crecimiento|crecimiento]]) que deben permitir la [[DGS:Autogénesis|autogénesis]]. Una de las condiciones es que haya [[DGS:Constricción|constricciones]] que limiten el [[DGS:Crecimiento|crecimiento]] mutuo, por el carácter finito del [[DGS:Entorno|entorno]], por ejemplo.&lt;br /&gt;
:Como esto depende, obviamente, de las reglas originales de [[DGS:Organización|organización]] y [[DGS:Crecimiento|crecimiento]] del sistema, tiene que ver con la fase de [[DGS:Morfogénesis|morfogénesis]] del sistema [[DGS:Autopoiesis|autopoiético]].&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Teor%C3%ADa_algor%C3%ADtmica_de_la_informaci%C3%B3n&amp;diff=39268</id>
		<title>gB:Teoría algorítmica de la información</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Teor%C3%ADa_algor%C3%ADtmica_de_la_informaci%C3%B3n&amp;diff=39268"/>
		<updated>2026-04-29T08:59:16Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 2&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1003&lt;br /&gt;
| Curator = Mark Burgin&lt;br /&gt;
| Author = Mark Burgin&lt;br /&gt;
| Date = 2016&lt;br /&gt;
| Knowledge Domains = 02//06//Teoría de códigos//Teoría de la complejidad&lt;br /&gt;
| Type = Concept:Theory&lt;br /&gt;
| en = Algorithmic Information Theory&lt;br /&gt;
| fr = Axiomatique de l&#039;information algorithmique&lt;br /&gt;
| de = Axiomatik für die algorithmische Information&lt;br /&gt;
| Also = gB:Algorithmic information theory&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|teoría algorítmica de la información}} se basa en el concepto de [[gB:Kolmogorov complexity|complejidad de Kolmogorov o algorítmica]] de los objetos, ofreciendo métodos para la medida de la información intrínseca relacionada con los objetos a través de la longitud de su descripción algorítmica (v. también [[gB:Algorithmic information|información algorítmica]]). Esta medida fue introducida y estudiada por tres autores: Ray {{gb_em|Solomonoff}} (1964), Andrey {{gb_em|Kolmogorov}} (1965) y Gregory {{gb_em|Chaitin}} (1966).&lt;br /&gt;
&lt;br /&gt;
La aproximación algorítmica explica una propiedad fundamental de la información que la vincula con los medios empleados para acceder a ella o utilizarla. Desde este punto de vista, la información no se considera como una propiedad inherente de diferentes objetos, sino relacionada con los algoritmos que usan, extraen o producen información. En este contexto, un sistema (persona) con algoritmos más potentes para la extracción y gestión de la información puede lograr más información desde el mismo portador de información y usa mejor esta información que el sistema que dispone de algoritmos más pobres y capacidades más limitadas. Esto se encuentra alineado a la comprensión convencional de la noción de información. Así, el sistema (persona) que dispone de un código &#039;&#039;C&#039;&#039; puede leer textos codificados en &#039;&#039;C&#039;&#039;, mientras que aquellos que no disponen de dicho código no pueden leer tales textos. Como resultado, la {{gb_em|eficiencia}} o {{gb_em|complejidad}} de los algoritmos se convierte en una medida de la información en contraste con la aproximación tradicional según la cual la información es tratada como incertidumbre o diversidad. La eficiencia es el problema clave y una característica fundamental de cualquier actividad. Consecuentemente, las medidas de la eficiencia y complejidad proveen medios para la medida de la información como una esencia dinámica.&lt;br /&gt;
&lt;br /&gt;
La teoría algorítmica de la información ha sido aplicada a un amplio rango de áreas, incluida la teoría de la computación, combinatoria, medicina, biología, neurofisiología, física, economía, ingeniería de hardware y software, teoría de la probabilidad, estadística, razonamiento inductivo y aprendizaje automático.&lt;br /&gt;
&lt;br /&gt;
== Objetos y sistemas simbólicos ==&lt;br /&gt;
Los objetos en la teoría algorítmica de la información son {{gb_em|cadenas}} de {{gb_em|símbolos}}, ya que la representación más habitual de la información recurre a símbolos y, por otra parte, es posible representar otras estructuras codificadas mediante cadenas de símbolos. Resulta natural interpretar dichas cadenas como caracteres o textos en algún lenguaje. Esto supone que la información es presentada y procesada en forma simbólica y todos los modelos son representados por sus modelos simbólicos (semióticos). Los modelos exactos tienen una estructura matemática. La principal cuestión es cuánta información necesitamos para reconstruir (computar) una cadena determinada (palabra). Así, la aproximación tradicional en la teoría algorítmica de la información solamente trata información simbólica. Esta cuestión relaciona la información con la complejidad porque la medida de la información necesaria aparece aquí como una medida de la complejidad de la reconstrucción de la cadena.&lt;br /&gt;
&lt;br /&gt;
== El sentido reconstructivo de la información algorítmica ==&lt;br /&gt;
La {{gb_em|reconstrucción/computación}} de una cadena de símbolos es una acción que es realizada como un proceso. Su complejidad depende de los medios utilizados para hacer la reconstrucción. Para precisar esta idea se recurre al concepto de algoritmo. Esto es, las cadenas son reconstruidas por algoritmos. Los algoritmos operan en el dominio de cadenas y este dominio usualmente contiene todas las cadenas finitas de algún alfabeto. En este contexto, un algoritmo (también puede hablarse de autómata o computador) usa una cadena de símbolos &#039;&#039;z&#039;&#039; y eventualmente produce otra cadena &#039;&#039;x&#039;&#039;, como se representa en la siguiente figura.&lt;br /&gt;
&lt;br /&gt;
[[File:Información algorítmica-ES.png|thumbnail|400px|&#039;&#039;&#039;Figura 1&#039;&#039;&#039;: Cadenas de símbolos de entrada y salida de un sistema algorítmico. &#039;&#039;x&#039;&#039;: objeto de reconstrucción, &#039;&#039;z&#039;&#039;: información necesaria para la reconstrucción de &#039;&#039;x&#039;&#039; por parte del sistema algorítmico.]]&lt;br /&gt;
&lt;br /&gt;
La cadena de entrada es una portadora de información relativa a la cadena de salida, es decir, la cadena que vamos a reconstruir/computar. Es posible considerar la cadena de entrada &#039;&#039;z&#039;&#039; como el programa que ha sido entregado al algoritmo/máquina para la computación de &#039;&#039;x&#039;&#039;. Este programa provee información sobre &#039;&#039;x&#039;&#039; para un algoritmo (dispositivo computacional). De esta manera los investigadores llegan a la medida de la información (complejidad) de una cadena de símbolos, que constituye el concepto fundamental de la teoría. Obsérvese que con frecuencia al contenido informacional de una cadena se lo denomina complejidad de Kolmogorov. Es decir, el contenido informacional &amp;lt;math&amp;gt;C(x)&amp;lt;/math&amp;gt; de una cadena &#039;&#039;x&#039;&#039; es la cantidad mínima de información requerida para reconstruir la cadena. En la aproximación convencional, dicha cantidad de la entrada de información es medida por el tamaño de la portadora de información y, como las portadoras son cadenas de símbolos, el volumen de una cadena &#039;&#039;z&#039;&#039; es la longitud &amp;lt;math&amp;gt;l(z)&amp;lt;/math&amp;gt; de dicha cadena. Así, la longitud del programa más corto para el cálculo de la cadena de salida &#039;&#039;x&#039;&#039; nos indica la medida de la información necesaria para reconstruir/computar esta cadena.&lt;br /&gt;
&lt;br /&gt;
== Versiones de la medida de la información algorítmica ==&lt;br /&gt;
Aunque la medida de la información antes referida es la más popular en la teoría algorítmica de la información, se han introducido otras versiones de medida algorítmica de la información, siendo las más conocidas: &lt;br /&gt;
* {{gb_em|Complejidad uniforme}} &amp;lt;math&amp;gt;KR(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* {{gb_em|Complejidad autodelimitada}} (o libre de prefijo) &amp;lt;math&amp;gt;K(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* {{gb_em|Complejidad monótona}} &amp;lt;math&amp;gt;K_m(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* {{gb_em|Complejidad condicional de Kolmogorov}} &amp;lt;math&amp;gt;CD(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* {{gb_em|Complejidad de Kolmogorov temporalmente acotada}} &amp;lt;math&amp;gt;C^t(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* {{gb_em|Complejidad de Kolmogorov espacialmente acotada}} &amp;lt;math&amp;gt;C^s(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
* {{gb_em|Complejidad de Kolmogorov acotada por recursos}} &amp;lt;math&amp;gt;C^{t,s}(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Adicionalmente, la teoría de la información algorítmica ha sido extendida a procesos infinitos, palabras infinitas (Chaitin, 1976; 1977), [[gB:Super-recursive Kolmogorov complexity|algoritmos super-recursivos]] (Burgin, 1995, 2005, 2016c; Schmidhuber, 2002) y computación cuántica (Svozil, 1996; Vitanyi, 1999; 2001). Cada nuevo desarrollo de la teoría algorítmica de la información ha estado vinculado a la consideración de diferentes clases de algoritmos como medios de adquisición, procesado y utilización. En principio, solo las clases sub-recursivas (es decir, subclases de la clase de todas las máquinas de Turing, tales como la clase de todas las máquinas de Turing autolimitadas) han sido usadas con este propósito. Posteriormente, [[gB:Super-recursive Kolmogorov complexity|algoritmos super-recursivos]] más potentes, tales como máquinas de Turing inductivas han sido aplicadas al estudio de la información algorítmica (Burgin, 2016).&lt;br /&gt;
&lt;br /&gt;
La existencia de una gran variedad de aproximaciones y medidas algorítmicas de la información ha dado lugar a la necesidad de una aproximación unificada, la cual ha sido introducida y desarrollada por Burgin bajo la denominación de [[gB:Axiomatics for algorithmic information|teoría axiomática de la información]] (Burgin 1982; 1990; 2005; 2010).&lt;br /&gt;
&lt;br /&gt;
=== Sentido de la información común vs. algorítmico: objeto vs. portador de información ===&lt;br /&gt;
Un problema esencial en torno a la complejidad algorítmica como medida de la información está relacionado con la información info-teorética. Se asume de un modo general que la complejidad algorítmica de una cadena binaria &#039;&#039;x&#039;&#039; mide la cantidad de información en dicha cadena. Así, de acuerdo a la teoría algorítmica de la información, las secuencias aleatorias tendrían una complejidad máxima en cuanto a que por definición una secuencia aleatoria no puede tener un algoritmo generador que sea más corto que la simple reproducción literal de la secuencia. Esto supone que el contenido informacional de una secuencia aleatoria es máximo.&lt;br /&gt;
&lt;br /&gt;
Algunos físicos fueron los primeros en llamar la atención respecto a esta peculiaridad. Por ejemplo, Richard Feynman (1996) escribió:&lt;br /&gt;
&lt;br /&gt;
&amp;gt; &amp;quot;¿Cómo es posible que una cadena aleatoria contenga alguna información, por no hablar de que su cantidad sea máxima? ¡Seguramente debemos estar usando una definición incorrecta de ‘información’!...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Para eliminar estas contradicciones y discrepancias frecuentes en la teoría algorítmica de la información y para resolver el problema de la comprensión correcta del significado de la función &amp;lt;math&amp;gt;C(x)&amp;lt;/math&amp;gt;, resulta más adecuado considerar &amp;lt;math&amp;gt;C(x)&amp;lt;/math&amp;gt; y todas sus versiones como medidas de información &#039;&#039;acerca de&#039;&#039; &#039;&#039;x&#039;&#039; o la cantidad de información &#039;&#039;de&#039;&#039; &#039;&#039;x&#039;&#039; con el objetivo específico de construir o reconstruir &#039;&#039;x&#039;&#039;. Esto significa que en realidad &#039;&#039;x&#039;&#039; no sea la portadora de información medida por &amp;lt;math&amp;gt;C(x)&amp;lt;/math&amp;gt;, sino el objeto de esta información. Así, no sorprende que algunas personas o máquinas requieran más información respecto a una secuencia aleatoria con objeto de reconstruirla que acerca de una obra de arte, tal como un poema de Dante o una novela de Cervantes.&lt;br /&gt;
&lt;br /&gt;
=== Aspectos temporales y semióticos de la información algorítmica con respecto a otros sentidos de información ===&lt;br /&gt;
Con objeto de reconciliar el sentido común acerca de la información con el que proporciona la teoría algorítmica de la información, resulta fructífera la distinción temporal entre información potencial y actual introducida por Weizsäcker (1985) (Lyre, 2002). En nuestro caso, mientras la portadora &#039;&#039;z&#039;&#039; antes mencionada representa información potencial (es decir, la posibilidad de reconstruir &#039;&#039;x&#039;&#039;), el objeto de información &#039;&#039;x&#039;&#039; representa información actual cuando el sistema algorítmico la ha reconstruido en efecto. Mediante una abstracción de los recursos algorítmicos y en consecuencia vinculándolo a recursos supuestamente óptimos, se pierde la especificidad de &#039;&#039;z&#039;&#039; respecto a un sistema algorítmico dado y solo prevalece el objetivo de reconstrucción, &#039;&#039;x&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
Desde este punto de vista, la información algorítmica puede verse como información actual. Por el contrario, el concepto de información provisto por la {{gb_em|Teoría Matemática de la Comunicación (TMC)}}, la [[gB:Entropía o cantidad de información|entropía informacional]], se refiere exclusivamente al grado de incertidumbre en el receptor antes de ser informado, es decir, abstrayendo el resultado de recepción específico. Esto muestra que la entropía informacional ofrece un carácter fundamentalmente potencial, complementario al de la información algorítmica.&lt;br /&gt;
&lt;br /&gt;
La distinción semiótica entre aspectos sintácticos y semánticos permite captar otras diferencias relevantes entre la información algorítmica y otros sentidos del concepto de información. Según Lyre (2002), la información algorítmica —a diferencia de la información de [[gB:Shannon, Claude Elwood (es)|Shannon]]— refleja a la vez aspectos semánticos y sintácticos: &amp;quot;El contenido de información algorítmica mide la información actual bajo aspectos tanto sintácticos como semánticos&amp;quot; (Lyre 2002, p. 38). En nuestro contexto, &#039;&#039;x&#039;&#039; puede ser contemplado como el valor semántico de la información o proceso (obsérvese que &#039;&#039;x&#039;&#039; puede ser tanto un conjunto de operaciones con un efecto particular sobre el entorno, por ejemplo, un proceso de fabricación; por tanto, refleja no solo aspectos semánticos sino también pragmáticos), mientras que &#039;&#039;z&#039;&#039; representa su valor sintáctico. En la forma invariante de la información algorítmica, &#039;&#039;z&#039;&#039; corresponde a los recursos sintácticos mínimos para referir la semántica del objeto representado por &#039;&#039;x&#039;&#039;. Por el contrario, es bien sabido que la TMC restringe programáticamente la información a su dimensión sintáctica.&lt;br /&gt;
&lt;br /&gt;
Estas mismas dimensiones son empleadas en los sentidos corrientes de información. Cuando consideramos que necesitamos información, esta es contemplada de un modo potencial. Mientras que cuando decimos que tenemos la información que alguien necesita, esta es contemplada en su valor actual, aunque de lo que realmente disponemos es de un &#039;&#039;z&#039;&#039; que eventualmente podría compartirse, y suponemos que el destinatario dispone de los recursos algorítmicos (al igual que nosotros) para reconstruir un cierto &#039;&#039;x&#039;&#039;, por el que —por algún motivo— está interesado. Así, disponer de &#039;&#039;z&#039;&#039; es prácticamente equivalente a tener &#039;&#039;x&#039;&#039;. Aunque normalmente no se formula de esa manera, resulta claro que &#039;&#039;z&#039;&#039; tiene un valor sintáctico mientras que &#039;&#039;x&#039;&#039; lo tiene semántico.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
* Burgin, M. (1982). “Generalized Kolmogorov complexity and duality in theory of computations”. En: {{gb_em|Soviet Math. Dokl.}}, vol. 25, n.º 3, pp. 19–23.&lt;br /&gt;
* Burgin, M. (1990). “Generalized Kolmogorov Complexity and other Dual Complexity Measures”. En: {{gb_em|Cybernetics}}, n.º 4, pp. 21–29.&lt;br /&gt;
* Burgin, M. (2005). {{gb_em|Super-recursive algorithms}}. Monographs in computer science. Springer.&lt;br /&gt;
* Burgin, M. (2010). {{gb_em|Theory of Information: Fundamentality, Diversity and Unification}}. Singapur: World Scientific Publishing.&lt;br /&gt;
* Chaitin, G. J. (1969). “On the Simplicity and Speed of Programs for Computing Infinite Sets of Natural Numbers”. En: {{gb_em|Journal of the ACM}}, n.º 16, p. 407.&lt;br /&gt;
* Chaitin, G. J. (1987). {{gb_em|Algorithmic Information Theory}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* Feynman, R. (1996). {{gb_em|Lectures on Computation}}. Reading, Mass.: Addison-Wesley, p. 120.&lt;br /&gt;
* Kolmogorov, A. N. (1965). “Three Approaches to the Quantitative Definition of Information”. En: {{gb_em|Problems of Information Transmission}}, vol. 1, n.º 1, pp. 1–7.&lt;br /&gt;
* Lyre, H. (2002). {{gb_em|Informationstheorie}}. Múnich: Wilhelm Fink Verlag.&lt;br /&gt;
* Solomonoff, R. (Marzo 1964). “A Formal Theory of Inductive Inference Part I”. En: {{gb_em|Information and Control}}, vol. 7, n.º 7, pp. 1–22.&lt;br /&gt;
* Solomonoff, R. (Junio 1964). “A Formal Theory of Inductive Inference Part II”. En: {{gb_em|Information and Control}}, vol. 7, n.º 2, pp. 224–254.&lt;br /&gt;
* Weizsäcker, C. F. (1985). {{gb_em|Aufbau der Physik}}. Múnich: Hanser.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Virtual_(es)&amp;diff=39267</id>
		<title>gB:Virtual (es)</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Virtual_(es)&amp;diff=39267"/>
		<updated>2026-04-29T08:55:10Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1092&lt;br /&gt;
| Curator = Margarita Vázquez&lt;br /&gt;
| Author = Margarita Vázquez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = cognición//sociedad de la información//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = virtual&lt;br /&gt;
| fr = virtual(elle)&lt;br /&gt;
| de = virtuell&lt;br /&gt;
| Also = gB:Virtual (es)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Si buscamos {{gb_em|virtual}} en el diccionario nos encontramos: &amp;quot;Que tiene virtud y eficacia para producir un efecto, pero que no lo produce de presente. Que tiene existencia aparente y no real&amp;quot;. Vemos así lo virtual como potencialidad, capacidad de ser. Las cosas tal y como se experimenta que podrían ser. Algo absurdo nunca es virtual. Para ser considerado algo virtual tiene que tener plausibilidad en la experiencia. Es como las ilusiones perceptivas: aunque nos expliquen que algo es una ilusión perceptiva, no podemos evitar el seguir experimentándola (al contrario de lo que sucede, por ejemplo, cuando se nos explica una falacia lógica). También en lo virtual, aunque sepamos que es ficticio, no podemos evitar la sensación de realidad, de vivencia.&lt;br /&gt;
&lt;br /&gt;
Lo virtual es un tipo especial de {{gb_em|simulación}}. La diferencia de lo virtual con otros tipos de simulaciones puede radicar en la forma de la percepción de lo vivido. Mientras que con un modelo de simulación uno es normalmente consciente de que está planteando hipótesis y viendo qué sucede con ellas, planteando distintos escenarios para elegir una política de acción, con lo virtual uno normalmente intenta vivir experiencias en un nuevo escenario (como en los juegos, ahora tan extendidos, de vidas virtuales). El problema es si esas experiencias se viven como reales o no. ¿Se tiene la misma percepción de lo vivido al simular un modelo en general y al experimentar con realidades virtuales?&lt;br /&gt;
&lt;br /&gt;
Lo virtual también puede ser interpretado como un concepto con un cierto componente engañoso; por ejemplo, reconstrucciones del pasado que se asumen o predicciones del futuro que se venden como inevitables. Es una {{gb_em|realidad virtual}} cuando para que una ciudad opte a tener el distintivo de patrimonio de la humanidad de la UNESCO no es suficiente con tener calles bonitas o casas bien conservadas, sino que se necesita que tenga una &amp;quot;Idea&amp;quot; detrás. Cosas como que haya sido trazada con una mentalidad ilustrada pueden servir y, así, se reconstruye el pasado para que este se venda. La idea solo tiene que ser creíble, y en la medida en que lo sea, casi todos acabarán creyéndola (sea o no cierta). &lt;br /&gt;
&lt;br /&gt;
Últimamente la televisión, tanto los canales generalistas como los temáticos (National Geographic y demás), se ha llenado de documentales de reconstrucción del pasado y del futuro. Vemos programas sobre la evolución realizados con técnicas asombrosas o espacios de investigación sobre el asesinato de algún antiguo emperador egipcio. Cuando los vemos, tenemos la sensación de estar asistiendo a algo real y que lo que allí nos muestran es la Verdad. Aunque sepamos que no hay información suficiente para saber lo que ocurrió, nos creemos lo que nos cuentan, los programas nos enganchan, porque nos lo cuentan de una manera atractiva y didáctica. &lt;br /&gt;
&lt;br /&gt;
También nos anuncian en los informativos que ya podemos conocer el verdadero rostro de Jesucristo (o de Nefertiti) y nos lo muestran, pero cuando escuchamos más atentamente nos enteramos de que es una reconstrucción a partir de cráneos de individuos de la época y lugar. Como si no tuvieran derecho a ser diferentes de sus congéneres. En algunos casos, como en predicciones del futuro reflejadas en una serie de datos, no tenemos imágenes. Parece que en la ausencia de imágenes no habría realidad virtual. No lo creo así. Me parece que lo característico de lo virtual es la percepción por parte del usuario de eso como real. Si una serie de datos ficticios es percibida como real, es en alguna medida una realidad virtual.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Simon, H. (1973). {{gb_em|The Sciences of the Artificial}}. Boston: MIT Press.&lt;br /&gt;
* Vázquez, M. (1995). “En torno a los conceptos de modelo, sistema y simulación”. En: Broncano, F. (ed.), {{gb_em|Nuevas meditaciones sobre la técnica}}. Madrid: Trotta, pp. 81-97.&lt;br /&gt;
* Vázquez, M., Liz, M. y Aracil, J. (1996). “Knowledge and Reality: Some Conceptual Issues in System Dynamics Modelling”. En: {{gb_em|System Dynamics Review}}, vol. 12, n.º 1, pp. 21-37.&lt;br /&gt;
* Wikipédia (2010). “Virtuel”. En: {{gb_em|L’encyclopédie libre}}. [En línea]. Wikimedia Foundation. &amp;lt;http://fr.wikipedia.org/wiki/Virtuel&amp;gt; [Consultado: 04/2010].&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Usabilidad&amp;diff=39266</id>
		<title>gB:Usabilidad</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Usabilidad&amp;diff=39266"/>
		<updated>2026-04-29T08:54:09Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1090&lt;br /&gt;
| Curator = Mario Pérez-Montoro&lt;br /&gt;
| Author = Mario Pérez-Montoro//José María Díaz-Nafría//Mehrad Golkhosravi&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Gestión de la información//diseño//informática&lt;br /&gt;
| Type = Concept:concepto//Concept:disciplina&lt;br /&gt;
| en = usability&lt;br /&gt;
| fr = utilisabilité, usabilité&lt;br /&gt;
| de = Benutzerfreundlichkeit, Benutzungsfreundlichkeit&lt;br /&gt;
| Also = gB:Usability&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|usabilidad}} es una disciplina cuyo principal objetivo es intervenir en el diseño de objetos y recursos para conseguir que estos sean más cómodos y fáciles de utilizar por parte de sus usuarios.&lt;br /&gt;
&lt;br /&gt;
En el contexto del software y las páginas web, el término “usabilidad” se utiliza para describir la disciplina encargada de velar por el grado de facilidad que ofrece un recurso digital para ser aprovechado y utilizado por un usuario; es decir, es la responsable del grado en el que el diseño de ese recurso facilita o entorpece su aprovechamiento y uso.&lt;br /&gt;
&lt;br /&gt;
Fuera del ámbito informático, la noción de usabilidad es próxima a la de {{gb_em|ergonomía}}, que a su vez cuenta con una larga tradición en el campo de la organización del trabajo.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Clark, J. (2003). {{gb_em|Building Accessible Websites}}. Indianápolis: New Riders.&lt;br /&gt;
* Dix, A. (2004). {{gb_em|Human-Computer Interaction}} (3.ª ed.). Harlow: Pearson Education.&lt;br /&gt;
* Nielsen, J. (1993). {{gb_em|Usability Engineering}}. Londres: Academic Press.&lt;br /&gt;
* Nielsen, J. (2000). {{gb_em|Designing Web Usability: The Practice of Simplicity}}. Indianápolis: New Riders Publishing.&lt;br /&gt;
* Nielsen, J. y Tahir, M. (2001). {{gb_em|Homepage Usability: 50 Websites Deconstructed}}. Indianápolis: New Riders Publishing.&lt;br /&gt;
* Nielsen, J. y Loranger, H. (2006). {{gb_em|Prioritizing Web Usability}}. Berkeley, CA: New Riders Press.&lt;br /&gt;
* Norman, D. (1990). {{gb_em|The Design of Everyday Things}}. Nueva York: Doubleday.&lt;br /&gt;
* Rubin, J. (1994). {{gb_em|Handbook of Usability Testing: How to Plan, Design, and Conduct Effective Tests}}. Nueva York: John Wiley.&lt;br /&gt;
* Spence, R. (2007). {{gb_em|Information Visualization}}. Harlow: Addison-Wesley.&lt;br /&gt;
* Thatcher, J. (2002). {{gb_em|Constructing Accessible Web Sites}}. Birmingham: Glasshaus.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Teor%C3%ADa_Unificada_de_la_Informaci%C3%B3n_(TUI)&amp;diff=39265</id>
		<title>gB:Teoría Unificada de la Información (TUI)</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Teor%C3%ADa_Unificada_de_la_Informaci%C3%B3n_(TUI)&amp;diff=39265"/>
		<updated>2026-04-29T08:53:17Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1088&lt;br /&gt;
| Curator = Wolfgang Hofkirchner&lt;br /&gt;
| Author = José María Díaz-Nafría//Wolfgang Hofkirchner&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Ciencia de la información//Transdisciplinar&lt;br /&gt;
| Type = Concept:Teoría&lt;br /&gt;
| en = Unified Theory of Information -UTI&lt;br /&gt;
| fr = théorie unifiée de l&#039;information&lt;br /&gt;
| de = Vereinheitlichte Theorie der Information&lt;br /&gt;
| Also = gB:Unified theory of information (UTI)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Aunque el término anglosajón fue usado por {{gb_em|Kerns Powers}} (1956) con el objeto de &amp;quot;proveer una teoría matemática unificada para el tratamiento de todos los procesos estadísticos por medio de los cuales la información es transportada en sistemas de comunicación”, se usa actualmente como una propuesta mucho más ambiciosa. A diferencia de la propuesta de Powers, no pretende limitarse al plano sintáctico ni al problema técnico. &lt;br /&gt;
&lt;br /&gt;
La {{gb_em|Teoría Unificada de la Información (TUI)}} aspira a una articulación teórica que abarque todos los procesos y estructuras relacionados con la creación, transformación y cristalización de la información en contextos cognitivos, comunicativos y cooperativos, mediante la fusión —supuestamente viable— de los conceptos de {{gb_em|auto-organización}} y {{gb_em|semiosis}} (&#039;&#039;[[gB:Auto-reestructuración|auto-reestructuración]], [[gB:Auto-reproducción|auto-reproducción]], [[gB:Auto-re-creación|auto-re-creación]]&#039;&#039;).&lt;br /&gt;
&lt;br /&gt;
== Desarrollo y fundamentos ==&lt;br /&gt;
El intento de lograr una teoría comprensiva se funda en la necesidad (relativamente urgente) de desarrollar un marco teórico coherente a la altura de las dificultades y problemas que suponen la emergencia de la llamada {{gb_em|sociedad de la información}}. Para ello, persigue un desarrollo interdisciplinar que se nutre de nociones elaboradas en la cibernética, la biología, la psicología, la sociología o la semiótica. &lt;br /&gt;
&lt;br /&gt;
Su desarrollo ha sido promovido por Peter Fleissner, Wolfgang Hofkirchner, Norbert Fenzl, Gottfried Stockiger y Christian Fuchs, que tomaron —aunque modificándolas— las posiciones y propuestas teóricas de Michael Conrad, Pedro Marijuán, Koichiro Matsuno, Tom Stonier, Søren Brier, John Collier y Dail Doucette, entre otros. La mayor parte de estos investigadores, y a pesar de sus diferencias respecto a la viabilidad de una teoría unificada, han contribuido a la cimentación de una nueva {{gb_em|Ciencia de la Información}} (Capurro et al., 1999; Hofkirchner, 2008; Marijuán, 2008).&lt;br /&gt;
&lt;br /&gt;
== Críticas ==&lt;br /&gt;
Rafael Capurro y Birger Hjørland (2003) critican la teoría en el sentido de que asume un punto de vista global de una realidad no observable y, como tal, representaría una postura más metafísica que estrictamente científica.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Capurro, R., Fleissner, P. y Hofkirchner, W. (1999). “Is a Unified Theory of Information Feasible? A Trialogue”. En: Hofkirchner, W. (ed.), {{gb_em|The quest for a unified theory of information}}. Ámsterdam: Gordon and Breach, pp. 9-30. [En línea] &amp;lt;https://www.capurro.de/trialog.htm&amp;gt; [Consultado: 31/07/2025].&lt;br /&gt;
* Capurro, R. y Hjørland, B. (2003). “The Concept of Information”. En: {{gb_em|Annual Review of Information Science and Technology}}, ed. B. Cronin, vol. 37, n.º 8, pp. 343-411.&lt;br /&gt;
* Hofkirchner, W. (ed.) (1999). {{gb_em|The quest for a unified theory of information. Proceedings of the Second International Conference on the Foundations of Information Science}}. Ámsterdam: Gordon and Breach.&lt;br /&gt;
* Hofkirchner, W. y Stockinger, G. (2003). “Towards a Unified Theory of Information”. En: {{gb_em|404nOtF0und}}, vol. 1, n.º 24. [En línea] &amp;lt;https://doi.org/10.1016/0303-2647(95)01597-3&amp;gt; [Consultado: 20/07/2009].&lt;br /&gt;
* Hofkirchner, W. (2008). “How to Achieve a Unified Theory of Information”. En: Díaz Nafría, J. M. y Salto Alemany, F. (eds.), {{gb_em|¿Qué es información?}}. León: Universidad de León.&lt;br /&gt;
* Marijuán, P. (2008). “The advancement of Information Science. Is a new way of thinking necessary?”. En: Díaz Nafría, J. M. y Salto Alemany, F. (eds.), {{gb_em|¿Qué es información?}}. León: Universidad de León.&lt;br /&gt;
* Powers, K. (1956). {{gb_em|A Unified Theory of Information}}. Cambridge, EE. UU.: Massachusetts Institute of Technology.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Teorema_de_Turing&amp;diff=39264</id>
		<title>gB:Teorema de Turing</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Teorema_de_Turing&amp;diff=39264"/>
		<updated>2026-04-29T08:45:50Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1083&lt;br /&gt;
| Curator = Francisco Salto Alemany&lt;br /&gt;
| Author = Francisco Salto Alemany&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = uso&lt;br /&gt;
| Type = Concept:teorema&lt;br /&gt;
| en = Turing&#039;s halting theorem&lt;br /&gt;
| fr = théorème de Turing&lt;br /&gt;
| de = Turings Satz&lt;br /&gt;
| Also = gB:Turing’s halting theorem&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Idea básica ==&lt;br /&gt;
Nos resulta intuitivo pensar que muchos de los problemas en los que nos vemos envueltos en la vida ordinaria no tienen solución computacional. “¿Me amaría aún si yo hubiese actuado de otro modo?”, “¿Estuvo realmente Moisés flotando en el Nilo?” no son preguntas que intuitivamente admitan una respuesta computacional. Otros problemas teóricos y científicos son también, al menos aparentemente, insolubles en términos computacionales. Por {{gb_em|computable}} entenderemos siempre aquí computable en sentido estándar, esto es, capaz de ser resuelto por medios finitos, precisos y recursivos.&lt;br /&gt;
&lt;br /&gt;
Sí es sorprendente y de alto interés teórico el que (a) se demuestre rigurosamente que determinados problemas son insolubles por cualquier computación, y (b) tales problemas sean formulables aritméticamente. Imaginemos que introducimos arbitrarias secuencias finitas en un sistema dotado de estas reglas: (1) responde “sí” si la secuencia codifica un programa que termina, (2) responde “no” si no lo hace (no codifica un programa o no termina). Este es el {{gb_em|problema de la parada}} de Turing, para el que demostró que no existe un procedimiento algorítmico de decisión. El interés de este resultado de indecibilidad computacional es que permite demostrar la indecibilidad de cuantos problemas plantean tareas que permitan decidirlo. Rice generaliza y extiende los resultados de Turing para cualquier propiedad no trivial de funciones parciales.&lt;br /&gt;
&lt;br /&gt;
Es de interés advertir que este y otros resultados limitativos de la lógica, como la incompletud, no nos enseñan que nosotros podamos demostrar resultados inaccesibles a ningún ordenador. Podemos, y esto no es sorprendente, creerlos.&lt;br /&gt;
&lt;br /&gt;
== Conceptos ==&lt;br /&gt;
La idea general de computación suele hacerse matemáticamente precisa mediante la noción de {{gb_em|recursión}}. La {{gb_em|tesis de Church}} establece que todas las funciones computables son recursivas. Bajo este supuesto, todas las funciones computables son definibles en el lenguaje de la aritmética formal, o bien, indistintamente, mediante los algoritmos de las máquinas de Turing.&lt;br /&gt;
&lt;br /&gt;
De este modo, a cada programa o cómputo M corresponde un número natural n que es su código o índice M&amp;lt;sub&amp;gt;n&amp;lt;/sub&amp;gt;. El resultado de introducir una entrada o input k en la máquina M da como resultado una secuencia M(k). En consecuencia, los lenguajes de computación se aplican a sí mismos, como un cómputo puede aplicarse sobre su propio código (M&amp;lt;sub&amp;gt;m&amp;lt;/sub&amp;gt;(m)), y esta es fuente tanto de fructíferas aplicaciones como de limitaciones lógicas de la computabilidad.&lt;br /&gt;
&lt;br /&gt;
Decimos que un conjunto es {{gb_em|recursivamente enumerable}} si y solo si es definible en el lenguaje RE de la aritmética formal de primer orden (básicamente es el lenguaje estándar sin negación y cuantificación acotada). De modo equivalente, decimos que un lenguaje es recursivamente enumerable si contiene todas las cadenas finitas que codifican una máquina de Turing y una entrada, de manera que la máquina se para en ese input. Un conjunto (un problema, un lenguaje) es recursivo si tanto él mismo como su complemento son recursivamente enumerables.&lt;br /&gt;
&lt;br /&gt;
Por ejemplo, consideremos el problema TERMINA que consiste en determinar, dado un programa con código m y una entrada n para ese programa, si el programa termina o no en n. El problema TERMINA(m,n) es recursivamente enumerable, puesto que existe algún programa que acepta TERMINA, en el sentido de terminar si su entrada está en TERMINA, y no hacerlo en caso contrario. Un programa que computa TERMINA, termina en alguna entrada n.&lt;br /&gt;
&lt;br /&gt;
Consideremos ahora el complemento NOTERMINA del problema TERMINA. Si existe un programa para él, terminará si su entrada está en NOTERMINA, y en caso contrario no terminará. Como veremos, NOTERMINA no es recursivamente enumerable, y por tanto TERMINA no es recursivo. Este es informalmente el curso de la argumentación siguiente.&lt;br /&gt;
&lt;br /&gt;
== Pruebas ==&lt;br /&gt;
* {{gb_em|Teorema de enumeración}}: Hay una relación diádica T(x,y) que es recursivamente enumerable y enumera recursivamente todos los conjuntos recursivamente enumerables. Esto es, para cualquier conjunto C recursivamente enumerable hay un código e tal que C={n:T(e,n)}.&lt;br /&gt;
&amp;gt; **Prueba**: Sea R&amp;lt;sub&amp;gt;e&amp;lt;/sub&amp;gt; el conjunto {x:T(e,x)}. T&amp;lt;sub&amp;gt;e&amp;lt;/sub&amp;gt; es recursivamente enumerable, pues tanto T como e son definibles en el lenguaje RE. Puesto que C es por hipótesis también recursivamente enumerable, es definido por una fórmula en una variable libre x. Sea e el código o número de Gödel de esa fórmula. Por tanto C=T&amp;lt;sub&amp;gt;e&amp;lt;/sub&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|Cierto teorema “diagonal”}}: La relación diagonal no es computable (recursiva).&lt;br /&gt;
&amp;gt; **Prueba**: Sea K el conjunto {x:T(x,x)}. K es recursivamente enumerable, pero su complemento –K no lo es. Si lo fuese, -K=T&amp;lt;sub&amp;gt;e&amp;lt;/sub&amp;gt; para algún e. Pero para todo x, por definición de complemento, x pertenece a –K si y solo si x no pertenece a T&amp;lt;sub&amp;gt;x&amp;lt;/sub&amp;gt;. En el caso particular de e, tenemos que e pertenece a –K si y solo si e no pertenece a T&amp;lt;sub&amp;gt;e&amp;lt;/sub&amp;gt;, esto es, si y solo si e no pertenece a –K, lo que es una contradicción clásica.&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|Teorema de parada}}: TERMINA no es computable (recursiva).&lt;br /&gt;
&amp;gt; **Prueba**: Supongamos por &#039;&#039;reductio&#039;&#039; que la función en dos argumentos t(m,n) fuese computable, siendo t(m,n)=1 o t(m,n)=0 dependiendo de si la máquina m, tomando como entrada n, termina o no. Si lo fuese, la función diagonal t(n,n)=t’(n) lo sería, lo cual es imposible por el anterior teorema diagonal.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Boolos, G., Burgess, J. y Jeffrey, R. (2003). {{gb_em|Computability and Logic}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* Copeland, J. (2009). “The Turing Archive”. [En línea] http://www.alanturing.net/turing_archive/ [Consultado: 20/12/2009].&lt;br /&gt;
* Fitting, M. (2000). {{gb_em|Notes on Incompleteness and Undecidability}}. Nueva York: CUNY.&lt;br /&gt;
* Kripke, S. (1995). {{gb_em|Elementary Recursion Theory and its applications to formal Systems}}. Princeton, MS.&lt;br /&gt;
* Papadimitriou, C. H. (1995). {{gb_em|Computational Complexity}}. Reading (Mass.): Addison Wesley.&lt;br /&gt;
* Salto, F. (2006). “Verdad y Recursividad”. En: Méndez, J. (ed.), {{gb_em|Artículos de segunda Mano}}. Salamanca: Varona, pp. 51-156.&lt;br /&gt;
* Smullyan, R. (1994). {{gb_em|Diagonalization and Self-reference}}. Oxford: Clarendon Press.&lt;br /&gt;
* Turing, A. (1937). “Computability and λ-Definability”. En: {{gb_em|Journal of Symbolic Logic}}, vol. 2, pp. 153-163.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Valor_de_verdad&amp;diff=39263</id>
		<title>gB:Valor de verdad</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Valor_de_verdad&amp;diff=39263"/>
		<updated>2026-04-29T08:44:23Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1091&lt;br /&gt;
| Curator = Manuel Campos Havidich&lt;br /&gt;
| Author = Manuel Campos Havidich&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = epistemología//semántica//teoría del Conocimiento&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = truth value&lt;br /&gt;
| fr = valeur de vérité&lt;br /&gt;
| de = Wahrheitswert&lt;br /&gt;
| Also = gB:Truth value&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Las {{gb_em|representaciones proposicionales}} no fallidas expresan condiciones sobre el mundo que pueden o no ser satisfechas por él. Si son satisfechas, decimos que las representaciones son verdaderas. Si no, decimos que son falsas. Las representaciones proposicionales fallidas pueden no expresar ninguna condición sobre el mundo y, por tanto, no tener {{gb_em|valor de verdad}}.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Millikan, R. (2004). {{gb_em|Varieties of Meaning: The Jean-Nicod lectures 2002}}. Cambridge: MIT Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Mapas_conceptuales&amp;diff=39262</id>
		<title>gB:Mapas conceptuales</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Mapas_conceptuales&amp;diff=39262"/>
		<updated>2026-04-29T08:43:01Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1059&lt;br /&gt;
| Curator = Jorge Morato-Lara&lt;br /&gt;
| Author = Jorge Morato-Lara&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Comunicación técnica//enseñanza//praxis&lt;br /&gt;
| Type = Concept:recurso&lt;br /&gt;
| en = topic maps&lt;br /&gt;
| fr = schéma conceptuel&lt;br /&gt;
| de = Begriffslandkarte&lt;br /&gt;
| Also = gB:Topic maps&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Un {{gb_em|mapa conceptual}} es un recurso gráfico para representar el conocimiento dentro de un contexto determinado. Se trata de una serie de nodos rotulados e interrelacionados entre sí. Las relaciones suelen estar rotuladas a su vez, contextualizando el vínculo entre los nodos y simplificando su comprensión.&lt;br /&gt;
&lt;br /&gt;
Originalmente fueron definidos como recurso de aprendizaje por {{gb_em|Joseph Novak}}. En ellos, dibujos e imágenes se pueden intercalar en el gráfico para mejorar la comprensión. No existe una estandarización estricta sobre la forma de representar los nodos y las relaciones, ni está limitada la tipología de estas últimas.&lt;br /&gt;
&lt;br /&gt;
== Propuestas de estandarización ==&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|Topic Maps}}: El estándar {{gb_em|ISO 13250:2003}} es un recurso que normaliza la expresión de los conceptos y relaciones de un área de conocimiento. Los conceptos (&#039;&#039;topics&#039;&#039;) se relacionan entre sí (&#039;&#039;associations&#039;&#039;) y se referencian con recursos de información relevantes (&#039;&#039;occurrences&#039;&#039;). Se trata de una propuesta relacionada con la Web Semántica. El {{gb_em|Topic Map}} está codificado en XML para mejorar la interoperabilidad. Aunque se han probado diferentes formas de visualizarlos, este no es su principal objetivo, por lo que estrictamente no son mapas conceptuales tradicionales.&lt;br /&gt;
* {{gb_em|Diagramas UML y modelos Entidad-Relación}}: El {{gb_em|UML}} (Unified Modelling Language), junto con el modelo de {{gb_em|Entidad-Relación}}, son recursos gráficos utilizados en ingeniería del software. Su objetivo es mejorar la transmisión del conocimiento entre clientes y desarrolladores, facilitando el diseño. Los diagramas de UML se dividen en:&lt;br /&gt;
# {{gb_em|Diagramas de estructura}}: clases, componentes, objetos, despliegue, paquetes.&lt;br /&gt;
# {{gb_em|Diagramas de comportamiento}}: muestran cómo cambian los estados o actividades.&lt;br /&gt;
# {{gb_em|Diagramas de interacción}}: flujo de datos y control (secuencia, comunicación, tiempos).&lt;br /&gt;
UML está respaldado por el consorcio {{gb_em|Object Management Group}} (OMG).&lt;br /&gt;
&lt;br /&gt;
== Propuestas relacionadas ==&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|Redes semánticas}}: Concepto muy próximo donde las relaciones entre conceptos tienen un carácter semántico. La principal diferencia es su evolución: mientras los mapas conceptuales se desarrollaron en la pedagogía (enfatizando la comprensión gráfica), las redes semánticas proceden de la computación y la inteligencia artificial (enfatizando la inferencia y la codificación).&lt;br /&gt;
* {{gb_em|Redes sociales}}: Tipo de red semántica en la que los nodos son individuos u organizaciones. Desde el estudio del {{gb_em|número de Erdős}} (y posteriormente el {{gb_em|número de Bacon}}), se han propuesto métricas para su estudio, como la {{gb_em|centralidad}} o la {{gb_em|cohesión}}.&lt;br /&gt;
* {{gb_em|Mapa de un sitio web}}: En la navegación web, el usuario puede desorientarse fácilmente; los mapas conceptuales resuelven este problema plasmando las rutas de navegación de manera explícita. Un mapa de sitio tradicional no es un mapa conceptual &#039;&#039;per se&#039;&#039;, ya que solo muestra la estructura jerárquica sin una abstracción del contenido.&lt;br /&gt;
* {{gb_em|Mapa conceptual de navegación}}: Surge de la fusión de un mapa de contenidos web con un mapa conceptual. Representa gráficamente todo el contenido del sitio y facilita la navegación dirigida.&lt;br /&gt;
&lt;br /&gt;
== Editores de mapas conceptuales ==&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|DigiDocMap}}: Editor gratuito desarrollado por el laboratorio digital del Máster Online en Documentación Digital (Universidad Pompeu Fabra).&lt;br /&gt;
* {{gb_em|CMapTools}}: Desarrollado por el {{gb_em|Institute for Human and Machine Cognition}} (University of West Florida). Permite interconectar múltiples mapas y exportarlos en formatos como .jpg, .html o .pdf.&lt;br /&gt;
* {{gb_em|Mindman}}: Aplicación para acceso individual o colectivo. Admite enlaces a imágenes, listas y diversos formatos (Excel, PowerPoint, PDF).&lt;br /&gt;
* {{gb_em|Inspiration}}: Herramienta orientada a la creación de gráficos a partir de ideas, permitiendo integrar partes textuales complejas.&lt;br /&gt;
* {{gb_em|Visimap}}: Se basa en la simplicidad de sus gráficos y en el uso de mapas visuales (mapas mentales).&lt;br /&gt;
&lt;br /&gt;
== Aplicaciones ==&lt;br /&gt;
Son herramientas con gran utilidad {{gb_em|didáctica}}, puesto que facilitan el aprendizaje visual de los contenidos. También se utilizan para la {{gb_em|toma de decisiones}} y la comunicación de información compleja. Dada la saturación de datos en la red, la integración de mapas conceptuales con la navegación web ofrece enormes posibilidades.&lt;br /&gt;
&lt;br /&gt;
== Recursos ==&lt;br /&gt;
&lt;br /&gt;
* DigiDoc Map (En línea) &amp;lt;http://www.mapasconceptuales.com&amp;gt; [Consultado: 01/09/2009]&lt;br /&gt;
* CMapTools (En línea) &amp;lt;http://www.cmaptools.com&amp;gt; [Consultado: 01/09/2009]&lt;br /&gt;
* Mindman (En línea) &amp;lt;http://www.mindman.com&amp;gt; [Consultado: 01/09/2009]&lt;br /&gt;
* Inspiration (En línea) &amp;lt;https://www.inspiration-at.com/inspiration-maps/&amp;gt; [Consultado: 31/07/2025]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Allan, M. y Quillian, M. R. (1969). “Retrieval time from semantic memory”. En: {{gb_em|Journal of verbal learning and verbal behavior}}, vol. 8, n.º 2, pp. 240–248.&lt;br /&gt;
* Cañas, A. J., Kenneth, M. F., Coffey, J., et al. (2000). “Herramientas Para Construir y Compartir Modelos de Conocimiento Basados en Mapas Conceptuales”. En: {{gb_em|Revista De Informática Educativa}}, vol. 13, n.º 2, pp. 145-158.&lt;br /&gt;
* Jacobson, I., Booch, G. y Rumbagh, J. (1998). {{gb_em|The Unified Software Development Process}}. Addison Wesley Longman.&lt;br /&gt;
* Moreiro, J. A., Sánchez-Cuadrado, S. y Morato, J. (2003). “Panorámica y tendencias en Topic Maps”. En: {{gb_em|Hipertext.net}}, n.º 1.&lt;br /&gt;
* Novak, J. D. y Gowin, D. B. (1984). {{gb_em|Learning How to Learn}}. Cambridge University Press. doi: [https://doi.org/10.1017/CBO9781139173469 10.1017/CBO9781139173469]&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Tesauro&amp;diff=39261</id>
		<title>gB:Tesauro</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Tesauro&amp;diff=39261"/>
		<updated>2026-04-29T08:38:22Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1089&lt;br /&gt;
| Curator = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Author = Eva Carbonero//Jorge Morato-Lara&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = organización de la información//recuperación de Información&lt;br /&gt;
| Type = Concept:Concepto//Concept:recurso&lt;br /&gt;
| en = thesaurus&lt;br /&gt;
| fr = thésaurus&lt;br /&gt;
| de = Thesaurus&lt;br /&gt;
| Also = gB:Thesaurus&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Un {{gb_em|tesauro}} es un instrumento de control terminológico para la representación sistemática de un dominio particular del conocimiento de manera normalizada. Se trata de un lenguaje controlado formalmente organizado mediante relaciones explícitas entre conceptos. Los tesauros se han utilizado tradicionalmente para la indización documental.&lt;br /&gt;
&lt;br /&gt;
Los términos pueden ordenarse de manera alfabética, sistemática o gráfica, y presentan notación específica: notas de alcance, relaciones jerárquicas, asociativas, de equivalencia, etc.&lt;br /&gt;
&lt;br /&gt;
&amp;gt; **Ejemplo de uso:**&lt;br /&gt;
&amp;gt; &lt;br /&gt;
&amp;gt; **AUTOMÓVIL**&lt;br /&gt;
&amp;gt; TG Vehículo autopropulsado&lt;br /&gt;
&amp;gt; TE ambulancia&lt;br /&gt;
&amp;gt; TE taxi&lt;br /&gt;
&amp;gt; TR conductor&lt;br /&gt;
&amp;gt; UP coche&lt;br /&gt;
&amp;gt; NA Término creado por J.M. en 2009&lt;br /&gt;
&amp;gt; &lt;br /&gt;
&amp;gt; *(Donde TG representa término genérico, TE término específico, TR término relacionado, UP usado por, y NA nota de alcance).*&lt;br /&gt;
&lt;br /&gt;
== Componentes del Tesauro ==&lt;br /&gt;
Los tesauros se componen de:&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|Descriptores}}: Términos normalizados que componen el tesauro.&lt;br /&gt;
* {{gb_em|No descriptores}}: Términos no aceptados que deben remitir a los descriptores (términos normalizados).&lt;br /&gt;
* {{gb_em|Relaciones jerárquicas}}: Término Genérico (TG) / Término Específico (TE). Hacen referencia a los términos conceptualmente superiores o inferiores al término de la entrada. En la bibliografía pueden encontrarse distintos tipos de relaciones jerárquicas: género/especie, todo/parte, relaciones de ejemplo y relaciones polijerárquicas.&lt;br /&gt;
* {{gb_em|Relaciones asociativas}}: Término Relacionado (TR). Hace referencia a los términos conceptualmente relacionados al término de la entrada.&lt;br /&gt;
* {{gb_em|Relaciones de equivalencia}}: USE / Usado Por (UP). Esta notación remite del término no aceptado al término aceptado.&lt;br /&gt;
* {{gb_em|Notas de alcance}}: Nota de Alcance (NA). Esta nota aclaratoria delimita conceptualmente al término de la entrada.&lt;br /&gt;
&lt;br /&gt;
== Características de los tesauros ==&lt;br /&gt;
* {{gb_em|Monolingües o plurilingües}}.&lt;br /&gt;
* {{gb_em|Polijerárquicos o monojerárquicos}}: La polijerarquía se da cuando un término puede tener más de un término genérico en el mismo tesauro.&lt;br /&gt;
* Los términos de indización no tienen que ser necesariamente unitérminos; podemos encontrar frases adjetivadas, frases preposicionales, siglas o acrónimos (si su uso está extendido), etc.&lt;br /&gt;
* {{gb_em|Multidisciplinariedad}}: Los dominios o áreas de conocimiento pueden presentar solapamiento con otras áreas. La inclusión de estas áreas puede dar lugar a ambigüedad del término (p. ej., polisemia), perjudicando el rendimiento del tesauro.&lt;br /&gt;
* {{gb_em|Visualización y formalización}}: La propuesta original de los tesauros se hizo en una época en la que los ordenadores personales estaban poco desarrollados, por lo que las primeras propuestas definían salidas para imprimir en papel mediante la visualización jerárquica y alfabética. Con el desarrollo de la Web y la necesidad de interoperabilidad entre sistemas informáticos, se propuso la formalización en XML, frecuentemente bajo el modelado RDF/RDFS. También se ha propuesto un vocabulario para referirse a los distintos elementos del tesauro, denominado SKOS-Core, si bien existen otros vocabularios similares como Zthes, BS8723, MADS o el PSI de tesauros para el estándar Topic Maps.&lt;br /&gt;
&lt;br /&gt;
== Diferencia entre Ontologías y Tesauros ==&lt;br /&gt;
El debate entre tesauros y {{gb_em|ontologías}} sigue abierto. El tesauro tiene una estructura marcada y un tipo de relaciones determinadas, mientras que la ontología presenta más posibilidades, contemplando la polijerarquía que muchos tesauros no soportan.&lt;br /&gt;
&lt;br /&gt;
Las diferencias no las convierten en herramientas desconectadas. Conceptualmente tienen una función similar, pero el tesauro tiene su origen en el mundo impreso y la ontología es inconcebible fuera del entorno digital. La situación actual es la de trasladar el formato tradicional del tesauro a la web (RDF/XML), ofreciendo todas las ventajas de esta, aunque en muchos casos resulta insuficiente.&lt;br /&gt;
&lt;br /&gt;
Para la publicación de ontologías en la WWW se emplea el lenguaje de marcado {{gb_em|OWL}} (Ontology Web Language), construido sobre {{gb_em|RDF}} y codificado en {{gb_em|XML}}. Podríamos decir que son una versión más completa y que presentan más posibilidades que los tesauros; posiblemente dentro de unos años el debate termine y se considere a los tesauros simplemente como los predecesores de las ontologías.&lt;br /&gt;
&lt;br /&gt;
Debe también distinguirse el tesauro de la {{gb_em|taxonomía}}, en cuanto a que esta última es una mera estructura jerárquica para esquematizar conceptos de un área del conocimiento.&lt;br /&gt;
&lt;br /&gt;
== Metodología para su construcción ==&lt;br /&gt;
# En primer lugar deben determinarse las necesidades del centro y decidir si es necesario crear un tesauro &#039;&#039;ex novo&#039;&#039;, adoptar uno preexistente, etc.&lt;br /&gt;
# Selección de términos.&lt;br /&gt;
# Seleccionar el software para la construcción del tesauro; se analizarán las herramientas existentes y se valorará la posibilidad de adquirir software propietario, emplear uno gratuito, etc.&lt;br /&gt;
# Construcción del tesauro propiamente dicha, mediante un comité de expertos, empleando el método deductivo (de los términos genéricos a los más específicos) o el método inductivo (de los términos específicos a los más genéricos).&lt;br /&gt;
# Formación de los usuarios que manejarán el tesauro.&lt;br /&gt;
# Mantenimiento del tesauro (actualización periódica de los términos).&lt;br /&gt;
&lt;br /&gt;
== Ejemplos de tesauros funcionales en línea ==&lt;br /&gt;
* {{gb_em|Canadian literacy thesaurus}}: Vocabulario controlado bilingüe del área de literatura para adultos. Tanto la terminología como la estructura del tesauro reflejan las diversas prácticas literarias regionales y las actividades alrededor de Canadá. El sistema de búsqueda es mediante listado alfabético o palabras clave. Emplea el software Multites.&lt;br /&gt;
* {{gb_em|CAB Thesaurus}}: Vocabulario controlado de más de 48.000 términos de todas las ciencias de la vida. Enfocado al ámbito de las bibliotecas académicas, gubernamentales y corporativas, para navegar, indizar, buscar, catalogar y organizar bases de datos y el manejo de intranets. Permite indizar tanto información digital como textual.&lt;br /&gt;
&lt;br /&gt;
== Software para la creación de tesauros ==&lt;br /&gt;
* {{gb_em|ThManager}}: Herramienta gratuita para crear y visualizar vocabularios controlados (tesauros, taxonomías y listas de clasificación). Es multiplataforma (Windows, Unix y Java), multilingüe, y está codificada con Dublin Core y SKOS. Permite extraer términos relacionados mediante WordNet.&lt;br /&gt;
* {{gb_em|Multites}}: Herramienta que permite crear y gestionar tesauros, taxonomías y otro tipo de vocabularios controlados. Se puede exportar a XML y HTML.&lt;br /&gt;
* {{gb_em|Domain Reuse}}: Permite crear, gestionar, importar y exportar tesauros mediante informes completos. Es software propietario.&lt;br /&gt;
* {{gb_em|TemaTres}}: Software libre para crear tesauros multilingües en línea con gran variedad de formatos de exportación.&lt;br /&gt;
* {{gb_em|TCS}}: Se trata de uno de los editores más completos y flexibles. Tiene una excelente integración con el entorno Web.&lt;br /&gt;
&lt;br /&gt;
== Conclusiones ==&lt;br /&gt;
No siempre es necesaria la construcción de un tesauro, puesto que existen otras herramientas que, dependiendo de las necesidades del centro, pueden resultar igualmente satisfactorias y requieren de una menor elaboración (es el caso de las taxonomías).&lt;br /&gt;
&lt;br /&gt;
Un tesauro conlleva un elevado coste inicial que se amortiza a lo largo del tiempo con su uso; sin embargo, es necesario destinar recursos continuos a su mantenimiento, puesto que un tesauro no actualizado es un tesauro inservible.&lt;br /&gt;
&lt;br /&gt;
Para obtener el máximo rendimiento de un tesauro, poder actualizarlo cómodamente e interrelacionarlo con otros, es conveniente editarlo o crearlo en línea empleando estándares (como RDF/XML o el esquema SKOS-Core).&lt;br /&gt;
&lt;br /&gt;
== Recursos relacionados ==&lt;br /&gt;
* CAB Thesaurus. [En línea].&lt;br /&gt;
* Canadian literacy thesaurus. [En línea].&lt;br /&gt;
* Domain Reuse. [En línea].&lt;br /&gt;
* TCS-10. [En línea].&lt;br /&gt;
* ThManager. [En línea].&lt;br /&gt;
* TemaTres. [En línea].&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
* Aichinson, J. y Dextre, S. (2004). “The Thesaurus: A Historical Viewpoint with a Look to the Future”. En: {{gb_em|Cataloging &amp;amp; Classification Quarterly}}, vol. 37, n.º 3/4, pp. 5-21.&lt;br /&gt;
* Lancaster, F. W. (1995). {{gb_em|El control del vocabulario en la recuperación de la información}}. Valencia: Universitat de València, p. 286.&lt;br /&gt;
* Slype, G. van. (1991). {{gb_em|Lenguajes de indización: concepción, construcción y utilización en los sistemas documentales}}. Madrid: Fundación Germán Sánchez Ruipérez, p. 200.&lt;br /&gt;
* Pérez Agüera, J. R. (2004). “Automatización de tesauros y su utilización en la Web Semántica”. En: {{gb_em|BID: textos universitaris de biblioteconomia i documentació}}, n.º 13. [En línea].&lt;br /&gt;
* ISO (1986). {{gb_em|ISO-2788: 1986. Guidelines for the Establishment and Development of Monolingual Thesauri}}. Ginebra: ISO.&lt;br /&gt;
* Sánchez-Cuadrado, S., Morato, J., et al. (2007). “Definición de una metodología para la construcción de Sistemas de Organización del Conocimiento a partir de un corpus documental en Lenguaje Natural”. En: {{gb_em|Procesamiento del Lenguaje Natural}}, n.º 39, pp. 213-220.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:L%C3%B3gica_temporal&amp;diff=39260</id>
		<title>gB:Lógica temporal</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:L%C3%B3gica_temporal&amp;diff=39260"/>
		<updated>2026-04-29T08:35:07Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1058&lt;br /&gt;
| Curator = Margarita Vázquez&lt;br /&gt;
| Author = Margarita Vázquez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = lógica&lt;br /&gt;
| Type = Concept:teoría&lt;br /&gt;
| en = temporal logic&lt;br /&gt;
| fr = logique temporelle&lt;br /&gt;
| de = temporäre logik&lt;br /&gt;
| Also = gB:Temporal logic&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Desde los tiempos de Aristóteles (e, incluso antes, los estoicos), los filósofos han intentado formalizar el tiempo. Es a mediados del siglo XX, a partir de la obra de {{gb_em|Arthur Prior}}, cuando la {{gb_em|lógica temporal}} se desarrolla de manera considerable, construyéndose sistemas para representar distintos tipos de tiempo (tiempo lineal, tiempo infinito, tiempo ramificado…). La creación de la {{gb_em|semántica de mundos posibles}} facilitó enormemente la semántica de dichos sistemas. Estos sistemas han encontrado aplicación en muchos campos, siendo los más representativos la lingüística y la informática.&lt;br /&gt;
&lt;br /&gt;
== Formalización y operadores ==&lt;br /&gt;
Los sistemas de lógica temporal pueden tener una base de lógica proposicional o de primer orden. En ambos casos se añaden operadores para representar el pasado (&amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;P&amp;lt;/math&amp;gt; y &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;H&amp;lt;/math&amp;gt;) y el futuro (&amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;F&amp;lt;/math&amp;gt; y &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;G&amp;lt;/math&amp;gt;). También se pueden incluir operadores que representen intervalos. &lt;br /&gt;
&lt;br /&gt;
La semántica más habitual se basa en la noción de {{gb_em|momento}}. Estos momentos se suceden por una {{gb_em|relación de ulterioridad}} (antes/después). Así, si afirmamos &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;m_0 &amp;lt; m_1&amp;lt;/math&amp;gt; significa que el momento &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;m_0&amp;lt;/math&amp;gt; es previo al momento &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;m_1&amp;lt;/math&amp;gt;. La relación de ulterioridad tendrá distintas propiedades dependiendo del tipo de tiempo que estemos tratando, aunque siempre será irreflexiva. Por ejemplo, si un tiempo es transitivo, la relación de ulterioridad tendrá la propiedad transitiva, y sintácticamente se introducirán los axiomas que la representen:&lt;br /&gt;
&lt;br /&gt;
{{eq|&amp;lt;math&amp;gt;FFA \to FA \quad \text{y} \quad PPA \to PA&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Sistemas avanzados ==&lt;br /&gt;
Existen sistemas de lógica temporal que son multimodales y bidimensionales, como el sistema de tiempo indeterminista {{gb_em|HN1}}, que combina operadores temporales y modales, y en cuya semántica la evaluación se hace en dos índices (momento e historia).&lt;br /&gt;
&lt;br /&gt;
En la actualidad, se están desarrollando sistemas de {{gb_em|lógica temporal híbrida}}, que aumentan la expresividad de los mismos al permitir hacer referencia en la sintaxis a los momentos específicos.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Prior, A. (1967). {{gb_em|Past, Present and Future}}. Oxford: Oxford University Press.&lt;br /&gt;
* Blackburn, P. (1994). “Tense, Temporal Reference and Tense Logic”. En: {{gb_em|Journal of Semantics}}, vol. 11, pp. 83-101.&lt;br /&gt;
* Gabbay, D., Hodkinson, I. y Reynolds, M. (1994). {{gb_em|Temporal Logic. Mathematical Foundations and Computational Aspects. Volume 1}}. Oxford: Oxford University Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Taxonom%C3%ADa&amp;diff=39259</id>
		<title>gB:Taxonomía</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Taxonom%C3%ADa&amp;diff=39259"/>
		<updated>2026-04-29T08:33:10Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1080&lt;br /&gt;
| Curator = José Antonio Moreiro&lt;br /&gt;
| Author = José Antonio Moreiro&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Gestión de la información y del Conocimiento//Organización del conocimiento//semántica&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = taxonomy&lt;br /&gt;
| fr = taxonomie&lt;br /&gt;
| de = taxonomie&lt;br /&gt;
| Also = gB:Taxonomy&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Una {{gb_em|taxonomía}} es la clasificación o categorización de un conjunto de objetos de forma jerárquica. Se establece entre ellos una relación esquemática de generalización-especialización, a partir de una semántica simple que puede mostrarse preferentemente mediante estructuras arborescentes. Las taxonomías están presentes en todos los {{gb_em|esquemas, tesauros, modelos conceptuales y ontologías}}.&lt;br /&gt;
&lt;br /&gt;
== Componentes básicos ==&lt;br /&gt;
Los componentes básicos de una taxonomía son:&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|Estructura clasificatoria jerárquica}}: (contexto específico) con determinados niveles de profundidad.&lt;br /&gt;
* {{gb_em|Etiquetas}}: (lista de términos que dan nombre a los conceptos). Son los elementos de la estructura y se agrupan en bloques temáticos.&lt;br /&gt;
* {{gb_em|Admisión de facetas no jerárquicas}}: con lo que obtiene dinamismo y pluralidad de enfoques en los asuntos.&lt;br /&gt;
&lt;br /&gt;
== Aplicación corporativa ==&lt;br /&gt;
Las taxonomías se aplican en el mundo empresarial e institucional para organizar y gestionar sus recursos de información digitales, buscando categorizarlos, ojearlos y navegar por ellos. Sus principales características en este ámbito son:&lt;br /&gt;
&lt;br /&gt;
* Sirven para organizar procesos corporativos concretos desde unos lenguajes particulares desatendidos por tesauros y clasificaciones.&lt;br /&gt;
* Emplean los términos válidos dentro de una institución.&lt;br /&gt;
* Pueden acompañarse de definiciones para determinar el uso concreto.&lt;br /&gt;
* Están orientadas al usuario.&lt;br /&gt;
* Se accede a los ítems de interés enlazando recursos a partir de sus correspondientes categorías.&lt;br /&gt;
* Dentro de cada categoría se va estrechando el campo de búsqueda.&lt;br /&gt;
* Se basan en razones internas: los propios usuarios clasifican los conceptos dentro de jerarquías.&lt;br /&gt;
* Su estructura es fácil de modificar de acuerdo con las necesidades de cada momento e integran las nuevas áreas de interés.&lt;br /&gt;
&lt;br /&gt;
Una taxonomía organiza no solo los contenidos propios de una organización, sino también los servicios que ofrece, sus productos y cuanto se deriva de la experiencia y datos sobre los recursos humanos.&lt;br /&gt;
&lt;br /&gt;
== Naturaleza y evolución ==&lt;br /&gt;
Las taxonomías heredan, por una parte, la clasificación jerárquica propia de los esquemas de clasificación y, por otra, las entradas terminológicas que caracterizan a los tesauros. En su sentido actual sirven para categorizar recursos con objeto de buscar y navegar por la Web. Si la idea inicial de una taxonomía parte de una estructura jerárquica de categorías válida para clasificar documentos, luego percibimos que se trata de una forma de organizar consistentemente grandes cantidades de datos sirviéndonos de un vocabulario controlado.&lt;br /&gt;
&lt;br /&gt;
Por todo ello, podemos afirmar que las taxonomías generan sus estructuras jerárquicas de acuerdo con un contexto y unos usuarios determinados. Mezclan así un lenguaje de descripción y unas necesidades de información, al manifestar en su estructura los usos y necesidades de una organización.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Daconta, M., Obrst, L. y Smith, K. (2003). {{gb_em|The Semantic Web. A guide to the future of XML, Web services, and Knowledge management}}. Indianapolis: Wiley Publishing.&lt;br /&gt;
* Conway, S. y Sligar, C. (2002). “Building taxonomies”. En: {{gb_em|Unlocking knowledge assets}}. Redmont: Microsoft Press, pp. 105-124.&lt;br /&gt;
* Gilchrist, A. (2003). “Thesauri, taxonomies and ontologies: an etymological note”. En: {{gb_em|Journal of Documentation}}, vol. 59, n.º 1, pp. 7-18.&lt;br /&gt;
* Moreiro González, J. A., Morato, J., Sánchez-Cuadrado, S. y Rodríguez Barquín, B. A. (2006). “Categorización de los conceptos en el análisis de contenido: su señalamiento desde la Retórica clásica hasta los {{gb_em|Topic Maps}}”. En: {{gb_em|Revista Investigación Bibliotecológica: archivonomía, bibliotecología e información}}, vol. 20, n.º 40, pp. 13-31.&lt;br /&gt;
* Wzhongong, W., Chaudry, A. S. y Khoo, C. (2006). “Potential and prospects of taxonomies for content organization”. En: {{gb_em|Knowledge Organization}}, vol. 33, n.º 3, pp. 160-169.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Teor%C3%ADa_de_sistemas&amp;diff=39258</id>
		<title>gB:Teoría de sistemas</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Teor%C3%ADa_de_sistemas&amp;diff=39258"/>
		<updated>2026-04-29T08:31:34Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1087&lt;br /&gt;
| Curator = Peter Karl Fleissner&lt;br /&gt;
| Author = Peter Karl Fleissner&lt;br /&gt;
| Translator = Francisco Salto Alemany&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = transdisciplinar&lt;br /&gt;
| Type = Concept:teoría&lt;br /&gt;
| en = System Theory&lt;br /&gt;
| fr = Théorie des Systêmes&lt;br /&gt;
| de = Systemstheorie&lt;br /&gt;
| Also = gB:System theory&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|teoría de sistemas}} (TS) es un modo específico de reflejar la totalidad estructurada de objetos materiales o mentales, su cambio cuantitativo o cualitativo y su relación con su entorno. Representa la descripción, diseño, objetivación e interpretación estructurada de esta totalidad. Al describir, la TS selecciona ciertos aspectos esenciales de la realidad percibida; al diseñar, la TS (re)construye esta totalidad en cierto modo; al objetivizar, transforma esta construcción mental en un lenguaje científico y/o expresiones matemáticas; al interpretar, la TS vincula la totalidad a su contexto filosófico, político o científico.&lt;br /&gt;
&lt;br /&gt;
La TS se ocupa de las relaciones entre estructura, función y dinámica de un sistema, de las relaciones entre sus elementos o partes y el sistema total, de las relaciones entre el sistema y su entorno, y de la identificación y clasificación de sistemas.&lt;br /&gt;
&lt;br /&gt;
== Orígenes y necesidad contemporánea ==&lt;br /&gt;
El animado desarrollo de fuerzas productivas en el último siglo basado en las revoluciones científicas ha aportado los fundamentos para una comprensión más profunda de totalidades. Pero al mismo tiempo, la especialización extrema de la ciencia y la investigación ha generado una necesidad creciente de la TS para afrontar problemas prácticos complejos en la vida contemporánea.&lt;br /&gt;
&lt;br /&gt;
Aunque el pensamiento en términos de sistema puede rastrearse hasta el antiguo Egipto, la {{gb_em|teoría de sistemas}} se desarrolló como un campo de estudio —especialmente tras las guerras mundiales— con el trabajo de Ludwig von Bertalanffy, William Ross Ashby, Gregory Bateson, Kenneth E. Boulding, C. West Churchman, Heinz von Förster, Paul Lazarsfeld, Kurt Lewin, Warren McCulloch, John von Neumann, Margaret Mead, Anatol Rapoport, Norbert Wiener y otros en los años 1950. Este desarrollo fue especialmente catalizado por la cooperación en la {{gb_em|Society for General Systems Research}} y las {{gb_em|Conferencias Macy}} (organizadas en los Estados Unidos por la Fundación Josiah Macy, Jr.) entre 1946 y 1953.&lt;br /&gt;
&lt;br /&gt;
== Ramas y aplicaciones ==&lt;br /&gt;
Existen versiones específicas de teorías de sistemas en campos como la {{gb_em|cibernética}} y la {{gb_em|teoría de sistemas adaptativos}}. Sus aplicaciones pueden encontrarse en una amplia variedad de disciplinas, entre las que destacan:&lt;br /&gt;
&lt;br /&gt;
* Matemáticas y computación ({{gb_em|teoría de control}})&lt;br /&gt;
* Dinámica de sistemas (Jay Forrester)&lt;br /&gt;
* Modelización basada en agentes e ingeniería de sistemas&lt;br /&gt;
* Bioquímica y teorías de sistemas vivos&lt;br /&gt;
* Antropología, sociología y cibernética social&lt;br /&gt;
* Economía, ciencias políticas, historia y arqueología&lt;br /&gt;
* Psicología de sistemas, dinámica de grupos y teorías de organización&lt;br /&gt;
* Ecología&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Bertalanffy, L. von (1950). “An Outline for General Systems Theory”. En: {{gb_em|British Journal for the Philosophy of Science}}, vol. 1, n.º 2, pp. 134-165.&lt;br /&gt;
* Wikipedia (2009). “Systems Theory”. [En línea]. &amp;amp;lt;http://en.wikipedia.org/wiki/Systems_theory&amp;amp;gt; [Acceso: 02/11/09]&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Sistema&amp;diff=39257</id>
		<title>gB:Sistema</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Sistema&amp;diff=39257"/>
		<updated>2026-04-29T08:29:28Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1078&lt;br /&gt;
| Curator = Margarita Vázquez&lt;br /&gt;
| Author = Margarita Vázquez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Teoría de sistemas//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = system&lt;br /&gt;
| fr = système&lt;br /&gt;
| de = System&lt;br /&gt;
| Also = gB:System&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La idea de concebir la realidad como un todo o una serie de estructuras o sistemas interconectados es, quizás, tan antigua como el hombre mismo. Y, además, parece estar profundamente enraizada en nuestro conocimiento ordinario.&lt;br /&gt;
&lt;br /&gt;
== Evolución e historia del concepto ==&lt;br /&gt;
La historia de las ideas nos ha legado una inmensa cantidad de problemas y desarrollos muy ligados a la noción de sistema (por ejemplo, la relación entre los todos y las partes o las causas y los fines). En nuestros días, autores como Bertalanffy, Wiener, Thom, Prigogine y Mandelbrot han puesto de relieve la necesidad de un enfoque sistémico dentro de la ciencia. &lt;br /&gt;
&lt;br /&gt;
Bertalanffy es considerado como el creador de la {{gb_em|Teoría de sistemas}}. Define un sistema como un complejo de elementos interactuantes. Dadas unas condiciones, un elemento se comportará de una determinada forma. Cuando estas condiciones varíen, el comportamiento también variará. Para Bertalanffy lo característico de los sistemas es que el todo aporta algo más que las partes independientes, tomadas aisladamente, debido a las interacciones existentes entre ellas.&lt;br /&gt;
&lt;br /&gt;
== Formalización ==&lt;br /&gt;
El significado del término “sistema” no es unívoco, sino que cada autor parece darle un significado diferente. Es por ello que han sido propuestas una serie de formalizaciones (Klir, Bunge, Zeigler, etc.). Estas formalizaciones permiten aclarar gran parte de las nociones intuitivas acerca de las relaciones entre los sistemas y su entorno, acerca de la distinción entre los sistemas naturales y los artificiales, acerca de la complejidad estructural de los sistemas, acerca de las relaciones entre los sistemas y sus modelos, etc.&lt;br /&gt;
&lt;br /&gt;
== Modelado y simulación ==&lt;br /&gt;
El concepto de sistema se ha relacionado habitualmente con los de {{gb_em|modelo}} y {{gb_em|simulación}}. Una acepción del término modelo es la de sistema simulado. Existen distintas técnicas de modelado de sistemas (por ejemplo, la {{gb_em|dinámica de sistemas}}).&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Aracil, J. (1986). {{gb_em|Máquinas, sistemas y modelos. Un ensayo sobre sistémica}}. Madrid: Editorial Tecnos.&lt;br /&gt;
* Bertalanffy, L. (1967). {{gb_em|General System Theory}}. Nueva York: George Braziller.&lt;br /&gt;
* Bunge, M. (1979). {{gb_em|Treatise on Basic Philosophy. Vol. 4, Ontology II: A World of Systems}}. Dordrecht y Boston: Reidel Publishing Company.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Sorpresa&amp;diff=39256</id>
		<title>gB:Sorpresa</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Sorpresa&amp;diff=39256"/>
		<updated>2026-04-29T08:28:14Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1079&lt;br /&gt;
| Curator = Margarita Vázquez&lt;br /&gt;
| Author = Margarita Vázquez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = comportamiento//epistemología//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = surprise&lt;br /&gt;
| fr = surprise&lt;br /&gt;
| de = Befremden, Überraschung&lt;br /&gt;
| Also = gB:Surprise&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|sorpresa}} puede ser intuitivamente caracterizada como un estado epistémico provocado por la no satisfacción de una {{gb_em|expectativa}}. Para que se dé propiamente un estado de sorpresa es necesario que exista previamente un {{gb_em|trasfondo de expectativas}} y que tales expectativas no se cumplan. Incluso bastaría aquí la expectativa general e implícita de no encontrar nada que llame la atención. El concepto ordinario de sorpresa implica, por tanto, la noción de expectativa y también algo capaz de provocar la no satisfacción de las mismas (puede ser un hecho, una información, etc.).&lt;br /&gt;
&lt;br /&gt;
== Características y graduación ==&lt;br /&gt;
El concepto ordinario de sorpresa admite grados. Puede darse una mayor o menor sorpresa. Este rasgo es muy importante. La {{gb_em|intensidad de la sorpresa}} estaría determinada por lo intensas que puedan ser las expectativas que no se satisfacen.&lt;br /&gt;
&lt;br /&gt;
Otro importante rasgo se desprendería del hecho de que las expectativas de un sujeto cambien con el tiempo. La sorpresa no es un estado duradero, no puede mantenerse durante mucho tiempo. Dicho de modo más preciso, la capacidad de sorpresa es inversamente proporcional a la capacidad del sujeto para habituarse a situaciones inesperadas generando nuevas expectativas respecto a ellas.&lt;br /&gt;
&lt;br /&gt;
== Análisis probabilístico ==&lt;br /&gt;
Parte del concepto ordinario de sorpresa puede ser analizado en términos de {{gb_em|probabilidades}}. Si utilizamos el espacio de probabilidades entre 0 y 1 como una medida de las expectativas que los sujetos pueden tener respecto de un estado de cosas &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;p&amp;lt;/math&amp;gt;, entonces podemos representar los diferentes estados de sorpresa del siguiente modo: &lt;br /&gt;
&lt;br /&gt;
* &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;\text{prob}(p) = 1&amp;lt;/math&amp;gt; permitiría representar el estado epistémico en el que el darse &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;p&amp;lt;/math&amp;gt; no produciría sorpresa alguna (&amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;p&amp;lt;/math&amp;gt; sería un suceso considerado “seguro”).&lt;br /&gt;
* &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;\text{prob}(p) = 0&amp;lt;/math&amp;gt; permitiría representar el estado epistémico en el que el darse &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;p&amp;lt;/math&amp;gt; produciría una sorpresa máxima (&amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;p&amp;lt;/math&amp;gt; sería un suceso considerado “imposible”).&lt;br /&gt;
* &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;0 &amp;lt; \text{prob}(p) &amp;lt; 1&amp;lt;/math&amp;gt; permitiría representar todos los restantes estados intermedios de sorpresa.&lt;br /&gt;
&lt;br /&gt;
== Implicaciones cognitivas y conductuales ==&lt;br /&gt;
La sorpresa formaría parte de los {{gb_em|sistemas de alerta}} que permiten que un sujeto responda de manera eficiente a cambios en su entorno. Por ello, la sorpresa es un estado epistémico estrechamente conectado con nuestros deseos, {{gb_em|emociones}}, preferencias, etc., y en último término se vincula con nuestra {{gb_em|acción}}. &lt;br /&gt;
&lt;br /&gt;
Ciertamente, la sorpresa es un potente generador de cambios en nuestras {{gb_em|creencias}}. Pero la sorpresa puede también generar de manera muy automática y directa respuestas conductuales, sin que se requieran modificaciones previas en los sistemas de creencias. No existe actualmente ningún análisis detallado y profundo de la sorpresa, ni filosófico ni científico, pero no hay duda de que está en el centro mismo de nuestras capacidades cognitivas y prácticas.&lt;br /&gt;
&lt;br /&gt;
== La paradoja del examen sorpresa ==&lt;br /&gt;
La sorpresa ha sido también discutida en filosofía con relación a la {{gb_em|paradoja del examen sorpresa}} (también conocida como paradoja del ahorcamiento inesperado), donde la paradoja surge de anunciar una sorpresa en un periodo de tiempo determinado (por ejemplo, “la próxima semana habrá un examen sorpresa”).&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Dretske, F. I. (1981). {{gb_em|Knowledge and the Flow of Information}}. Cambridge, MA: MIT Press.&lt;br /&gt;
* Hall, N. (1999). “How To Set A Surprise Exam”. En: {{gb_em|Mind}}, vol. 108, pp. 647–703.&lt;br /&gt;
* Shannon, C. E. y Weaver, W. (1949). {{gb_em|The Mathematical Theory of Communication}}. Urbana: University of Illinois Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Web_social&amp;diff=39255</id>
		<title>gB:Web social</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Web_social&amp;diff=39255"/>
		<updated>2026-04-29T08:23:45Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1095&lt;br /&gt;
| Curator = Jorge Morato-Lara&lt;br /&gt;
| Author = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = ICT//Internet//sociedad de la información&lt;br /&gt;
| Type = Concept:concepto//Concept:recursos&lt;br /&gt;
| en = Social Web&lt;br /&gt;
| fr = Web Social&lt;br /&gt;
| de = soziales Netzwerk&lt;br /&gt;
| Also = gB:Social web&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|Web Social}} comprende un conjunto de recursos y prácticas que permiten a los usuarios socializar entre ellos. En la literatura sobre el tema el término {{gb_em|Web 2.0}} se utiliza frecuentemente como sinónimo. En otras ocasiones {{gb_em|Web 2.0}} se utiliza para referirse al conjunto de tecnologías centradas en la interacción social, enfatizando un conjunto de aplicaciones de software, muchas de las cuales son gratuitas.&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|Web 2.0}} se interpreta, en esta segunda acepción, como una plataforma donde los usuarios son el elemento principal. En este contexto, es el usuario el que decide si un recurso tiene valor, cómo describirlo, cómo hacerlo público y cómo utilizarlo. Ejemplos de estas aplicaciones son {{gb_em|Flickr}} o {{gb_em|YouTube}}, ambas muestran la gran vitalidad actual de la propuesta. Esta aproximación se basa en la implicación y colaboración de los usuarios, la cual requiere de interfaces amigables y usables. La arquitectura de estos sitios, además, permite a los usuarios describir los recursos mediante etiquetas. En oposición a la {{gb_em|Web Semántica}}, esta Web carece de una autoridad centralizada que organice y estandarice la forma en la que esta web es gestionada. Esta aproximación, aunque con algunas ventajas, impide que las aplicaciones informáticas puedan acceder a los recursos de una forma predeterminada.&lt;br /&gt;
&lt;br /&gt;
== Evolución del término ==&lt;br /&gt;
Fue {{gb_em|Dale Dougherty}} de O’Reilly Media la persona que propuso el término {{gb_em|Web 2.0}} en un seminario con Craig Cline de MediaLive. La charla trataba de la evolución de Internet, y cómo muchos servicios colaborativos y para uso compartido de recursos estaban emergiendo de forma natural. El término fue utilizado más tarde, en 2004, en la {{gb_em|Conferencia Web 2.0}}. En un solo año el término contaba con 10 millones de referencias en Google, a pesar de tener una definición extremadamente ambigua. Hay que destacar que a diferencia de la {{gb_em|Web Semántica}}, esta {{gb_em|Web Social}} tuvo una evolución autónoma y no dirigida.&lt;br /&gt;
&lt;br /&gt;
== Web Semántica y Web Social ==&lt;br /&gt;
La {{gb_em|Web Social}} y la {{gb_em|Web Semántica}} representan aproximaciones con un gran potencial para el desarrollo de aplicaciones para el usuario final. Ambas intentan proponer mecanismos para compartir información y recursos. La {{gb_em|Web Social}} se ha presentado como un estadio intermedio de la {{gb_em|Web Semántica}}, aunque obviamente sus planteamientos son divergentes. La {{gb_em|Web Social}} está centrada en las personas, mientras que la {{gb_em|Web Semántica}} se orienta a las aplicaciones software. Una de las consecuencias es que utilizan diferentes lenguajes para describir recursos: la {{gb_em|Web Social}} el lenguaje natural y la semántica lenguajes controlados con axiomas y lógica. La {{gb_em|Web Social}} muestra una semántica muy próxima al usuario y unas interfaces simples con apenas restricciones. La {{gb_em|Web Semántica}} enfatiza el valor de la semántica formal, en detrimento de la legibilidad. Todo esto produce que la {{gb_em|Web Social}} sea utilizada en una mayor proporción que la {{gb_em|Web Semántica}}.&lt;br /&gt;
&lt;br /&gt;
== Dimensiones de la Web Social y de la Web Semántica ==&lt;br /&gt;
A primera vista puede parecer que ambas Web son contradictorias. En realidad son dos dimensiones diferentes de la Web: la {{gb_em|usabilidad}} perseguida por la {{gb_em|Web Social}} y la {{gb_em|interoperabilidad}} de la {{gb_em|Web Semántica}}. Usabilidad e interoperabilidad entre aplicaciones son funciones indispensables para el desarrollo de la Web.&lt;br /&gt;
&lt;br /&gt;
== Evolución de la Web Social y la Web Semántica ==&lt;br /&gt;
Existen recursos que por su naturaleza adquieren un mayor potencial cuando son utilizados en un contexto interoperable. Otros recursos no tienen esta característica, pero su éxito depende de contar con un gran número de usuarios. En ambos casos la {{gb_em|Web Social}} y la {{gb_em|Web Semántica}} son independientes.&lt;br /&gt;
&lt;br /&gt;
Pero existen recursos que necesitan usabilidad e interoperabilidad; en este caso la {{gb_em|Web 3.0}} representa una posible solución. Una web que fusione ambos enfoques. Una de las aproximaciones seguidas aquí son las {{gb_em|folksontologías}}, es decir, convertir las &#039;&#039;[[gB:folksonomía|folksonomías]]&#039;&#039; en ontologías.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* O’Reilly, T. (2007). “What is Web 2.0: Design Patterns and Business Models for the Next Generation of Software”. En: {{gb_em|Communications &amp;amp; Strategies}}, n.º 1, p. 17.&lt;br /&gt;
* Gruber, T. (2005). “Ontology of Folksonomy: A Mash-Up of Apples and Oranges”. En: {{gb_em|International Journal on Semantic Web and Information Systems}}, vol. 3, n.º 1, pp. 1-11.&lt;br /&gt;
* Morato, J., Sánchez-Cuadrado, S., Fraga, A. y Andreadakis, Y. (2008). “Semantic Web or Web 2.0? Socialization of the Semantic Web”. En: {{gb_em|First World Summit on the Knowledge Society}}. Atenas.&lt;br /&gt;
* Treese, W. (2006). “Web 2.0: is it really different?”. En: {{gb_em|netWorker}}, vol. 10, n.º 2, pp. 15-17.&lt;br /&gt;
* Van Damme, C., Hepp, M. y Siorpaes, K. (2007). “FolksOntology: An Integrated Approach for Turning Folksonomies into Ontologies”. En: {{gb_em|ESWC 2007. Proceedings of the Workshop Bridging the Gap between Semantic Web and Web 2.0}}. Innsbruck.&lt;br /&gt;
* Van der Henst, C. (2006). “¿Qué es la Web 2.0?”. [En línea].&lt;br /&gt;
* Vander Wal, T. (2004). “Folksonomy”. En: {{gb_em|Vanderwal.net}}.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Web_social&amp;diff=39254</id>
		<title>gB:Web social</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Web_social&amp;diff=39254"/>
		<updated>2026-04-29T08:21:19Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1095&lt;br /&gt;
| Curator = Jorge Morato-Lara&lt;br /&gt;
| Author = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = ICT//Internet//sociedad de la información&lt;br /&gt;
| Type = Concept:concepto//Concept:recursos&lt;br /&gt;
| en = Social Web&lt;br /&gt;
| fr = Web Social&lt;br /&gt;
| de = soziales Netzwerk&lt;br /&gt;
| Also = gB:Social web&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|Web Social}} comprende un conjunto de recursos y prácticas que permiten a los usuarios socializar entre ellos. En la literatura sobre el tema el término {{gb_em|Web 2.0}} se utiliza frecuentemente como sinónimo. En otras ocasiones {{gb_em|Web 2.0}} se utiliza para referirse al conjunto de tecnologías centradas en la interacción social, enfatizando un conjunto de aplicaciones de software, muchas de las cuales son gratuitas.&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|Web 2.0}} se interpreta, en esta segunda acepción, como una plataforma donde los usuarios son el elemento principal. En este contexto, es el usuario el que decide si un recurso tiene valor, cómo describirlo, cómo hacerlo público y cómo utilizarlo. Ejemplos de estas aplicaciones son {{gb_em|Flickr}} o {{gb_em|YouTube}}, ambas muestran la gran vitalidad actual de la propuesta. Esta aproximación se basa en la implicación y colaboración de los usuarios, la cual requiere de interfaces amigables y usables. La arquitectura de estos sitios, además, permite a los usuarios describir los recursos mediante etiquetas. En oposición a la {{gb_em|Web Semántica}}, esta Web carece de una autoridad centralizada que organice y estandarice la forma en la que esta web es gestionada. Esta aproximación, aunque con algunas ventajas, impide que las aplicaciones informáticas puedan acceder a los recursos de una forma predeterminada.&lt;br /&gt;
&lt;br /&gt;
== Evolución del término ==&lt;br /&gt;
Fue {{gb_em|Dale Dougherty}} de O’Reilly Media la persona que propuso el término {{gb_em|Web 2.0}} en un seminario con Craig Cline de MediaLive. La charla trataba de la evolución de Internet, y cómo muchos servicios colaborativos y para uso compartido de recursos estaban emergiendo de forma natural. El término fue utilizado más tarde, en 2004, en la {{gb_em|Conferencia Web 2.0}}. En un solo año el término contaba con 10 millones de referencias en Google, a pesar de tener una definición extremadamente ambigua. Hay que destacar que a diferencia de la {{gb_em|Web Semántica}}, esta {{gb_em|Web Social}} tuvo una evolución autónoma y no dirigida.&lt;br /&gt;
&lt;br /&gt;
== Web Semántica y Web Social ==&lt;br /&gt;
La {{gb_em|Web Social}} y la {{gb_em|Web Semántica}} representan aproximaciones con un gran potencial para el desarrollo de aplicaciones para el usuario final. Ambas intentan proponer mecanismos para compartir información y recursos. La {{gb_em|Web Social}} se ha presentado como un estadio intermedio de la {{gb_em|Web Semántica}}, aunque obviamente sus planteamientos son divergentes. La {{gb_em|Web Social}} está centrada en las personas, mientras que la {{gb_em|Web Semántica}} se orienta a las aplicaciones software. Una de las consecuencias es que utilizan diferentes lenguajes para describir recursos: la {{gb_em|Web Social}} el lenguaje natural y la semántica lenguajes controlados con axiomas y lógica. La {{gb_em|Web Social}} muestra una semántica muy próxima al usuario y unas interfaces simples con apenas restricciones. La {{gb_em|Web Semántica}} enfatiza el valor de la semántica formal, en detrimento de la legibilidad. Todo esto produce que la {{gb_em|Web Social}} sea utilizada en una mayor proporción que la {{gb_em|Web Semántica}}.&lt;br /&gt;
&lt;br /&gt;
== Dimensiones de la Web Social y de la Web Semántica ==&lt;br /&gt;
A primera vista puede parecer que ambas Web son contradictorias. En realidad son dos dimensiones diferentes de la Web: la {{gb_em|usabilidad}} perseguida por la {{gb_em|Web Social}} y la {{gb_em|interoperabilidad}} de la {{gb_em|Web Semántica}}. Usabilidad e interoperabilidad entre aplicaciones son funciones indispensables para el desarrollo de la Web.&lt;br /&gt;
&lt;br /&gt;
== Evolución de la Web Social y la Web Semántica ==&lt;br /&gt;
Existen recursos que por su naturaleza adquieren un mayor potencial cuando son utilizados en un contexto interoperable. Otros recursos no tienen esta característica, pero su éxito depende de contar con un gran número de usuarios. En ambos casos la {{gb_em|Web Social}} y la {{gb_em|Web Semántica}} son independientes.&lt;br /&gt;
&lt;br /&gt;
Pero existen recursos que necesitan usabilidad e interoperabilidad; en este caso la {{gb_em|Web 3.0}} representa una posible solución. Una web que fusione ambos enfoques. Una de las aproximaciones seguidas aquí son las {{gb_em|folksontologías}}, es decir, convertir las folksonomías en ontologías.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* O’Reilly, T. (2007). “What is Web 2.0: Design Patterns and Business Models for the Next Generation of Software”. En: {{gb_em|Communications &amp;amp; Strategies}}, n.º 1, p. 17.&lt;br /&gt;
* Gruber, T. (2005). “Ontology of Folksonomy: A Mash-Up of Apples and Oranges”. En: {{gb_em|International Journal on Semantic Web and Information Systems}}, vol. 3, n.º 1, pp. 1-11.&lt;br /&gt;
* Morato, J., Sánchez-Cuadrado, S., Fraga, A. y Andreadakis, Y. (2008). “Semantic Web or Web 2.0? Socialization of the Semantic Web”. En: {{gb_em|First World Summit on the Knowledge Society}}. Atenas.&lt;br /&gt;
* Treese, W. (2006). “Web 2.0: is it really different?”. En: {{gb_em|netWorker}}, vol. 10, n.º 2, pp. 15-17.&lt;br /&gt;
* Van Damme, C., Hepp, M. y Siorpaes, K. (2007). “FolksOntology: An Integrated Approach for Turning Folksonomies into Ontologies”. En: {{gb_em|ESWC 2007. Proceedings of the Workshop Bridging the Gap between Semantic Web and Web 2.0}}. Innsbruck.&lt;br /&gt;
* Van der Henst, C. (2006). “¿Qué es la Web 2.0?”. [En línea].&lt;br /&gt;
* Vander Wal, T. (2004). “Folksonomy”. En: {{gb_em|Vanderwal.net}}.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:L%C3%B3gica_situacional&amp;diff=39253</id>
		<title>gB:Lógica situacional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:L%C3%B3gica_situacional&amp;diff=39253"/>
		<updated>2026-04-29T08:02:18Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1057&lt;br /&gt;
| Curator = Carlos Aguilar Paredes&lt;br /&gt;
| Author = Carlos Aguilar Paredes&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = teoría situacional&lt;br /&gt;
| Type = Concept:teoría&lt;br /&gt;
| en = situational logic&lt;br /&gt;
| fr = logique situationnel&lt;br /&gt;
| de = situative Logik&lt;br /&gt;
| Also = gB:Situational logic&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La {{gb_em|lógica situacional}} es la formulación de la lógica matemática que sustenta la semántica situacional desarrollada por {{gb_em|Barwise}} y {{gb_em|Perry}} (1983). Keith Devlin (1991) dota a la teoría de situaciones del aparato matemático necesario para poder tratarla desde una perspectiva propia, sólida y matemáticamente coherente, construyendo para ello un aparato lógico partiendo de las premisas de la semántica situacional.&lt;br /&gt;
&lt;br /&gt;
La ontología básica de la teoría de situaciones la forman aquellas entidades que un agente cognitivo, con sus limitaciones, es capaz de individualizar y/o discriminar en una determinada situación. Entre los objetos, también conocidos como {{gb_em|uniformidades}} (o regularidades) en la ontología situacional, encontramos individuos, relaciones, localizaciones espaciales, localizaciones temporales, situaciones, tipos y parámetros.&lt;br /&gt;
&lt;br /&gt;
El marco de trabajo relativo al agente que recoge la ontología situacional se denomina {{gb_em|esquema de individualización}} (apropiado para el estudio del flujo de información de un agente). La información debe ser siempre información referente a una determinada situación, y se recoge en forma de ítems discretos conocidos como {{gb_em|infones}}. Los infones son elementos de la forma:&lt;br /&gt;
&lt;br /&gt;
{{eq|&amp;lt;math&amp;gt;\langle\!\langle R, a_1, a_2, \dots, a_n, 1 \rangle\!\rangle, \langle\!\langle R, a_1, a_2, \dots, a_n, 0 \rangle\!\rangle&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
en los cuales &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;R&amp;lt;/math&amp;gt; es la relación que se establece entre &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;n&amp;lt;/math&amp;gt; objetos &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;(a_1, \dots, a_n)&amp;lt;/math&amp;gt; y el elemento final denominado {{gb_em|polaridad}} &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;P&amp;lt;/math&amp;gt;, que marca la veracidad &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;P=1&amp;lt;/math&amp;gt; o falsedad &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;P=0&amp;lt;/math&amp;gt; de la relación &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;R&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
En términos de la teoría de situaciones, los infones son objetos semánticos dentro de la teoría matemática, no son frases en algún lenguaje que requieren una interpretación. Los infones son las unidades mínimas de información.&lt;br /&gt;
&lt;br /&gt;
Los infones pueden hacer referencia a más de una relación atendiendo a operaciones de conjunción y disyunción. Estos infones se denominan {{gb_em|infones compuestos}}, como el que obtenemos de representar el infón que caracteriza el grito de la palabra fuego:&lt;br /&gt;
&lt;br /&gt;
{{eq|&amp;lt;math&amp;gt;\langle\!\langle \text{gritar}, \dot{a}, \dot{t}, 1 \rangle\!\rangle \land \langle\!\langle \text{palabra}, \dot{a}, \text{FUEGO}, \dot{t}, 1 \rangle\!\rangle&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
Los infones a su vez pueden contener parámetros como en el ejemplo anterior lo son &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;\dot{a}&amp;lt;/math&amp;gt; y &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;\dot{t}&amp;lt;/math&amp;gt;, en este caso de tipo espacial y temporal respectivamente. Los parámetros indican elementos que no resultan informacionales hasta ser {{gb_em|anclados}} a una situación concreta (para el significado estricto del término {{gb_em|anclado}} consúltese a Israel y Perry, 1990).&lt;br /&gt;
&lt;br /&gt;
Dada una situación &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;s&amp;lt;/math&amp;gt; y un infón &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;\sigma&amp;lt;/math&amp;gt; escribimos:&lt;br /&gt;
&lt;br /&gt;
{{eq|&amp;lt;math&amp;gt;s \models \sigma&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
para indicar que el infón &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;\sigma&amp;lt;/math&amp;gt; es un {{gb_em|hecho factual}} para la situación &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;s&amp;lt;/math&amp;gt;. Expresado en otras palabras, podemos decir que un infón &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;\sigma&amp;lt;/math&amp;gt; es un ítem de información verdadero de la situación &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;s&amp;lt;/math&amp;gt;. Así pues, desde la perspectiva situacional, la información es tratada como mercancía. Una mercancía que, además, no debe representar siempre un valor {{gb_em|cierto}}, pues para cada infón existe su {{gb_em|dual negativo}}, que puede entenderse como su opuesto informacional y los dos no pueden ser {{gb_em|ciertos}} simultáneamente.&lt;br /&gt;
&lt;br /&gt;
Las situaciones que comparten características comunes se agrupan en {{gb_em|tipos}}, dando lugar a entidades de orden superior denominadas {{gb_em|situaciones tipo}}. Este es un concepto abstracto que recoge elementos con características comunes y siempre es relativo al agente.&lt;br /&gt;
&lt;br /&gt;
Dentro de la teoría de situaciones, las {{gb_em|restricciones}} son vínculos abstractos entre tipos de situaciones. Pueden ser de diversos tipos: leyes naturales, convenciones, relaciones lógicas, reglas lingüísticas, empíricas, o de cualquier otro tipo. Su papel en la cadena de la información está bien recogido por la palabra {{gb_em|significado}} (Israel y Perry, 1990).&lt;br /&gt;
&lt;br /&gt;
Las restricciones entre dos situaciones tipo &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;T&amp;lt;/math&amp;gt; y &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;T&#039;&amp;lt;/math&amp;gt; indican que un elemento del tipo &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;t&amp;lt;/math&amp;gt; aportará información de un elemento del tipo &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;t&#039;&amp;lt;/math&amp;gt; dentro de los términos determinados por la situación que los englobe. De esta manera, para ir adquiriendo información significativa, deberán ir estableciéndose restricciones entre cualesquiera dos situaciones tipo.&lt;br /&gt;
&lt;br /&gt;
Para poder construir el significado, el agente debe poder establecer restricciones entre cada una de las situaciones tipo identificadas, en el contexto de la situación. La representación del infón que recoge la restricción entre dos situaciones tipo &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;s&amp;lt;/math&amp;gt; y &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;s&#039;&amp;lt;/math&amp;gt; es la siguiente:&lt;br /&gt;
&lt;br /&gt;
{{eq|&amp;lt;math&amp;gt;\langle\!\langle \Rightarrow, s, s&#039;, 1 \rangle\!\rangle&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Barwise, J. y Perry, J. (1983). {{gb_em|Situations and Attitudes}}. Cambridge, MA: MIT Press.&lt;br /&gt;
* Devlin, K. (1991). {{gb_em|Logic and Information}}. Cambridge, UK: Cambridge University Press.&lt;br /&gt;
* Israel, D. y Perry, J. (1990). “What is information?”. En: Hanson, P. (ed.), {{gb_em|Information, Language and Cognition}}. Vancouver: University of British Columbia Press, pp. 1-19.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Signo&amp;diff=39252</id>
		<title>gB:Signo</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Signo&amp;diff=39252"/>
		<updated>2026-04-29T07:57:38Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1077&lt;br /&gt;
| Curator = José María Díaz-Nafría&lt;br /&gt;
| Author = José María Díaz-Nafría&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = semiótica//teoría de la Comunicación//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = sign&lt;br /&gt;
| fr = signe&lt;br /&gt;
| de = Zeichen&lt;br /&gt;
| Also = gB:Sign&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
El uso frecuentemente dado en la antigüedad al signo, {{gb_em|σημεῖον}}, corresponde con el de una señal, normalmente verbal, por medio de la cual se representa algo (se usó, no obstante, en sentidos más técnicos y a veces confrontados, como en las tendencias realista y nominalista, que resurgirán en los usos modernos). En la modernidad, especialmente entre racionalistas, el signo tiende a referirse a ideas. No obstante, en la corriente empirista, el signo adquiere una notable relevancia y en él se distingue su dimensión sugestiva —ya apuntada en la antigüedad y en el nominalismo medieval—. En cualquier caso, las tendencias más influyentes en la actualidad son quizá las iniciadas por {{gb_em|Saussure}}, {{gb_em|Peirce}} y {{gb_em|Husserl}}, habiendo influido los dos primeros de forma más destacada sobre la lingüística, la semiótica y la antropología, y el tercero a través de la fenomenología y la hermenéutica en un amplio espectro de las ciencias sociales.&lt;br /&gt;
&lt;br /&gt;
== Saussure ==&lt;br /&gt;
Para {{gb_em|Saussure}} el signo (visto desde el punto de vista de la lingüística) es una “entidad psíquica” con dos facetas inseparables: la imagen acústica (que llama {{gb_em|significante}}) y el concepto ({{gb_em|significado}}), siendo arbitrario su lazo de unión. Las concepciones estructuralistas extendieron el sentido saussuriano de signo a los fenómenos no verbales.&lt;br /&gt;
&lt;br /&gt;
== Peirce ==&lt;br /&gt;
{{gb_em|Peirce}} llama signo a “algo que tiene de algún modo la capacidad de representar algo (diferente) para alguien”, y distingue tres puntos de vista: &lt;br /&gt;
&lt;br /&gt;
# En cuanto a que pueden serlo de sí mismos (estudiados por la gramática).&lt;br /&gt;
# En cuanto a que guardan relación con el objeto (de los que se ocupa la lógica).&lt;br /&gt;
# En cuanto a que guardan relación con el sujeto o {{gb_em|interpretante}} (de los que trataría la retórica pura). &lt;br /&gt;
&lt;br /&gt;
Distingue, a su vez, en función de la relación que guardan con el objeto, tres tipos de signos: {{gb_em|icónicos}} (que son significantes aun cuando el objeto careciera de existencia); {{gb_em|índices}} (que perderían el carácter que los hace ser tales si su objeto fuera suprimido, pero que no lo haría en ausencia del interpretador) y {{gb_em|símbolos}} (que perderían el carácter que los hace ser tales si no hubiera interpretador). El estructuralismo desarrolla una clasificación aún más elaborada, en la que reaparecen los tres tipos señalados por Peirce, en función de la relación que se da entre el significante y el significado (arbitraria, metafórica, metonímica…).&lt;br /&gt;
&lt;br /&gt;
== Morris ==&lt;br /&gt;
{{gb_em|Morris}}, en la línea de Peirce, destaca el signo como aquello que sostiene una relación triádica: con otros signos; con los objetos designados; y con el sujeto que usa el signo. Del estudio de cada una de esas relaciones se ocuparían respectivamente la {{gb_em|sintaxis}}, la {{gb_em|semántica}}, y la {{gb_em|pragmática}}. Corresponde a la semiótica o la semiología el estudio general del signo.&lt;br /&gt;
&lt;br /&gt;
== Husserl ==&lt;br /&gt;
{{gb_em|Husserl}} hace una distinción fundamental entre signo y significación, según la cual aunque todo signo es signo de algo, no todo signo tiene significación, es decir, que necesariamente conste de un sentido que sea expresado por él. Incluso en muchos casos no puede ni tan siquiera decirse que el signo designe aquello de lo cual es llamado signo. Para Husserl los signos pueden ser {{gb_em|indicativos}} (aquellos que se limitan a indicar pero no a significar) y {{gb_em|significativos}} (o expresiones que apuntan a una significación que es uno de los elementos del acto intencional). Con esta caracterización se adopta una posición que rechaza tanto la arbitrariedad sígnica del nominalismo como la naturalidad expresiva del realismo y aclara la “situación significativa ambigua”.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Eco, U. (1976). “La vida social como sistema de signos”. En: {{gb_em|Introducción al estructuralismo}}. Madrid: Alianza.&lt;br /&gt;
* Ferrater Mora, J. (1994). “Signo” y “Símbolo”. En: {{gb_em|Diccionario de filosofía}}. Barcelona: Ariel.&lt;br /&gt;
* Leach, E. (1976). {{gb_em|Cultura y comunicación: la lógica de la conexión de símbolos}}. Madrid: Siglo XXI.&lt;br /&gt;
* Morris, C. W. (1985). {{gb_em|Fundamentos de la teoría de los signos}}. Barcelona: Paidós.&lt;br /&gt;
* Peirce, C. S. (1873). “On the Nature of Signs”. En: {{gb_em|Writings 3}}, pp. 66-68.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Shannon,_Claude_Elwood_(es)&amp;diff=39251</id>
		<title>gB:Shannon, Claude Elwood (es)</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Shannon,_Claude_Elwood_(es)&amp;diff=39251"/>
		<updated>2026-04-29T07:54:42Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1076&lt;br /&gt;
| Curator = Jérôme Segal&lt;br /&gt;
| Author = Jérôme Segal&lt;br /&gt;
| Translator = José María Díaz-Nafría&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Comunicación//TMC//criptografía//ingeniería//teoría de la información&lt;br /&gt;
| Type = Concept:autor&lt;br /&gt;
| Also = gB:Shannon, Claude Elwood&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
(n. Petoskey, Michigan, 30 abril 1916, m. Medford, Massachusetts, 24 febrero 2001).&lt;br /&gt;
&lt;br /&gt;
{{gb_em|Shannon}} es ante todo conocido como pionero de la era de la información a raíz de haber demostrado en su artículo germinal {{gb_em|“A Mathematical Theory of Communication”}} (1948) que la información podía definirse y medirse como noción científica. El artículo hizo nacer la {{gb_em|teoría de la información}} que abarca, por una lado, aplicaciones metafóricas en muy diferentes disciplinas que van desde la biología a la lingüística, pasando por la termodinámica o la física cuántica, y por otro, una disciplina técnica de esencia matemática, basada en conceptos cruciales como el de {{gb_em|capacidad de canal}}. Shannon en ningún momento demostró especial entusiasmo por el primer tipo de aplicaciones informacionales, centrando su interés en los aspectos técnicos y haciendo también contribuciones significativas a otros campos, como la {{gb_em|criptografía}}, la {{gb_em|inteligencia artificial}}, y áreas en las que sus ideas estaban enraizadas y pudieron aplicarse fácil y rigurosamente, como fueron la telecomunicación y la {{gb_em|teoría de código}}.&lt;br /&gt;
&lt;br /&gt;
== Años formativos ==&lt;br /&gt;
Claude Elwood Shannon era hijo de Claude Shannon Sr. (1862-1934), un hombre de negocios que además fue juez de testamentarías, y Mabel Wolf Shannon (1880-1945), directora de un centro de secundaria. Hasta los 16 años vivió en Gaylord, Michigan. Su juventud tendría una influencia decisiva en su vida científica: su abuelo trabajaba como reparador e ideó varios objetos. A la edad de su graduación en secundaria, el joven Shannon ya había construido un barco teledirigido y un sistema telegráfico para comunicarse con un amigo a aproximadamente una milla de distancia usando alambres de espinos. Conseguía algo de dinero arreglando diversos aparatos eléctricos y admiraba a Edison, con quien más tarde descubrió compartir un ancestro común.&lt;br /&gt;
&lt;br /&gt;
Shannon dejó Gaylord en 1932 para acudir a la {{gb_em|Universidad de Michigan}}, donde estudió ingeniería eléctrica y matemáticas, licenciándose (B.Sc.) en ambos campos en 1936. Trabajó en el mantenimiento de un {{gb_em|analizador diferencial}} construido por {{gb_em|Vannevar Bush}} (1890-1974), quien se convertiría en su mentor. En el departamento de Bush, Shannon escribió su tesis de maestría {{gb_em|“Symbolic Analysis of Relay and Switching Circuits”}}, presentada en 1937. Shannon recordó al respecto:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;La máquina principal era mecánica... y disponía de un complejo sistema de control con relés. La parte de relés me interesó. Había aprendido lógica simbólica y me di cuenta de que el {{gb_em|álgebra booleana}} era justo lo que hacía falta para ocuparse de los circuitos de relés y de conmutación... ¡Ese fue el principio de mi gran carrera! (Sloane y Wyner, 1993: xxv)&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Su estudio trató circuitos basados en relés y unidades de conmutación, desarrollando un método riguroso para el análisis y la síntesis de circuitos. Este planteamiento dual se manifestó en una carta enviada a Bush en febrero de 1939, donde escribió que prácticamente todos los sistemas de comunicación podían acomodarse a la forma: &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;f_1(t) \to T \to F(t) \to R \to f_2(t)&amp;lt;/math&amp;gt;, donde &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;f_1(t)&amp;lt;/math&amp;gt; es una función genérica del tiempo representando la inteligencia a transmitir.&lt;br /&gt;
&lt;br /&gt;
En 1940 obtuvo el doctorado en matemáticas con la tesis {{gb_em|“An Algebra for Theoretical Genetics”}}, tras lo cual se incorporó a los {{gb_em|Laboratorios Bell}}, donde trabajaría de 1941 a 1956.&lt;br /&gt;
&lt;br /&gt;
== El impacto de la 2ª Guerra Mundial ==&lt;br /&gt;
De 1940 en adelante, Shannon quedó involucrado en investigación bélica mediante dos proyectos principales:&lt;br /&gt;
&lt;br /&gt;
# {{gb_em|Artillería antiaérea}}: Trabajó con Richard B. Blackman y Hendrik Bode en el informe {{gb_em|“Data Smoothing and Prediction in Fire-Control Systems”}}. Establecieron una analogía entre el suavizado de datos y el problema de separar una señal del ruido en sistemas de comunicación.&lt;br /&gt;
# {{gb_em|Criptografía}}: Trabajó en el sistema X de comunicaciones seguras y coincidió con {{gb_em|Alan Turing}}. Su contribución se encuentra en el informe de 1945 {{gb_em|“A Mathematical Theory of Cryptography”}}, donde aportó definiciones de redundancia, equivocidad e información. Para cuantificar la incertidumbre, propuso la fórmula: &lt;br /&gt;
{{eq|&amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;H = \sum_{i=1}^{n} -p_i \log_2(p_i)&amp;lt;/math&amp;gt;,}}&lt;br /&gt;
donde &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;H&amp;lt;/math&amp;gt; era una medida de la incertidumbre. Según se cuenta, {{gb_em|John von Neumann}} le aconsejó llamarlo {{gb_em|entropía}} porque nadie sabía realmente qué era, lo que le daría ventaja en los debates.&lt;br /&gt;
&lt;br /&gt;
== De la criptografía a la teoría de la comunicación ==&lt;br /&gt;
Shannon publicó en 1948 su artículo {{gb_em|“A Mathematical Theory of Communication”}} en el {{gb_em|Bell System Technical Journal}}. Para Shannon el proceso de comunicación era estocástico por naturaleza. Su esquema general proponía una {{gb_em|fuente de información}} que entrega un {{gb_em|mensaje}}, codificado por un {{gb_em|transmisor}} en una {{gb_em|señal}}. La señal recibida es la suma de la señal transmitida y un inevitable {{gb_em|ruido}}.&lt;br /&gt;
&lt;br /&gt;
Su teoría demostró que es posible enviar mensajes con exactitud arbitraria siempre que el ritmo de transmisión no exceda la {{gb_em|capacidad de canal}} (&amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;C&amp;lt;/math&amp;gt;). Introdujo el {{gb_em|bit}} (contracción de {{gb_em|binary digit}}) como unidad de información. Estableció que la longitud promedio de un mensaje tiene un límite mínimo proporcional a la entropía de la fuente.&lt;br /&gt;
&lt;br /&gt;
Para el caso de fuentes continuas, definió la capacidad de un canal de banda &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;W&amp;lt;/math&amp;gt; perturbado con ruido térmico blanco de potencia &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;N&amp;lt;/math&amp;gt; y potencia de transmisión &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;P&amp;lt;/math&amp;gt; como:&lt;br /&gt;
&lt;br /&gt;
{{eq|&amp;lt;math&amp;gt;C = W \, \log_2 \left( \frac{P+N}{N} \right)&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Entropía e información ==&lt;br /&gt;
La obra de Shannon, junto con la de {{gb_em|Norbert Wiener}}, dio lugar a la denominada {{gb_em|cibernética}} y a la {{gb_em|teoría de la información}}. Rápidamente se establecieron conexiones con la lingüística (donde colaboró con {{gb_em|Roman Jakobson}}) y la biología. En 1953, {{gb_em|Herman Branson}} calculaba la cantidad de información &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;H&amp;lt;/math&amp;gt; contenida en un humano, llegando a la conclusión de que &amp;lt;math display=&amp;quot;inline&amp;quot;&amp;gt;H(\text{hombre}) \approx 2 \times 10^{28}&amp;lt;/math&amp;gt; {{gb_em|bits}}.&lt;br /&gt;
&lt;br /&gt;
Ante la explosión de aplicaciones a veces inconsistentes, Shannon escribió en 1956 su famoso editorial {{gb_em|“The Bandwagon”}}, advirtiendo que la importancia de la teoría se estaba inflando por encima de sus auténticos méritos técnicos.&lt;br /&gt;
&lt;br /&gt;
== Shannon como pionero en inteligencia artificial ==&lt;br /&gt;
Shannon fue coautor de la propuesta para el {{gb_em|Dartmouth Summer Research Project on Artificial Intelligence}} (1955), que acuñó el término {{gb_em|inteligencia artificial}}. Presentó el ratón electromecánico {{gb_em|Teseo}}, capaz de aprender el camino en un laberinto. En su artículo de 1950 {{gb_em|“Programming a Computer for Playing Chess”}}, sentó las bases del ajedrez computacional mediante funciones de evaluación y el procedimiento {{gb_em|mini-max}}.&lt;br /&gt;
&lt;br /&gt;
[[File:Shannon.jpg|thumbnail|&#039;&#039;&#039;Figura 1&#039;&#039;&#039;: Claude Shannon con un ratón mecánico, dotado de &amp;quot;super&amp;quot; memoria y con posibilidad de aprender el camino a través del laberinto sin errores después de una única vuelta de entrenamiento (Source: Hulton Archive/Getty Images).]]&lt;br /&gt;
&lt;br /&gt;
Claude Shannon con un ratón mecánico, dotado de super-memoria y con posibilidad de aprender el camino a través del laberinto sin errores después de una única vuelta de entrenamiento. (Hulton Archive/Getty Images).&lt;br /&gt;
&lt;br /&gt;
== Un legado complejo ==&lt;br /&gt;
En 1956 dejó los Laboratorios Bell por el {{gb_em|MIT}}. En las décadas posteriores se interesó por la teoría de inversión y los juegos de azar, visitando Las Vegas con {{gb_em|Ed Thorp}} para probar sus ideas sobre gestión de cartera. Nunca abandonó la construcción de máquinas excéntricas como el {{gb_em|THROBAC}} o dispositivos para resolver el cubo de Rubik. &lt;br /&gt;
&lt;br /&gt;
Sus contribuciones tecnológicas hoy son la base de los discos compactos, las comunicaciones espaciales y la {{gb_em|información cuántica}} basada en {{gb_em|qubits}}. Shannon falleció en 2001 tras luchar contra la enfermedad de Alzheimer.&lt;br /&gt;
&lt;br /&gt;
{{gb_em|Nota (1)}}: En referencia a la expresión inglesa {{gb_em|“jump on the bandwagon”}}, similar a la castellana {{gb_em|“subirse al carro”}}.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Sloane, N. J. A. y Wyner, A. D., eds. (1993). {{gb_em|Claude Elwood Shannon: Collected Papers}}. Piscataway, NJ: IEEE Press.&lt;br /&gt;
* Shannon, C. E. (1948). “A Mathematical Theory of Communication”. En: {{gb_em|Bell System Technical Journal}}, vol. 27, pp. 379–423, 623–656.&lt;br /&gt;
* Shannon, C. E. y Weaver, W. (1949). {{gb_em|The Mathematical Theory of Communication}}. Urbana: University of Illinois Press.&lt;br /&gt;
* Shannon, C. E. (1950). “Programming a Computer for Playing Chess”. En: {{gb_em|Philosophical Magazine}}, vol. 41, pp. 256–275.&lt;br /&gt;
* Shannon, C. E. (1951). “Prediction and Entropy in Printed English”. En: {{gb_em|Bell System Technical Journal}}, vol. 30, pp. 50–64.&lt;br /&gt;
* Shannon, C. E. (1956). “The Bandwagon”. En: {{gb_em|IRE Transactions on Information Theory}}, vol. 2, p. 3.&lt;br /&gt;
* Berrou, C. y Glavieux, A. (1996). “Near Optimum Error Correcting Coding and Decoding: Turbo-Codes”. En: {{gb_em|IEEE Transactions on Communications}}, vol. 44, pp. 1261–1271.&lt;br /&gt;
* Hartley, R. V. L. (1928). “Transmission of Information”. En: {{gb_em|Bell System Technical Journal}}, vol. 7, pp. 535–563.&lt;br /&gt;
* Quastler, H., ed. (1953). {{gb_em|Essays on the Use of Information Theory in Biology}}. Urbana: University of Illinois Press.&lt;br /&gt;
* Segal, J. (2003). {{gb_em|Le Zéro et le un: Histoire de la notion scientifique d’information}}. Paris: Syllepse.&lt;br /&gt;
* Wiener, N. (1948). {{gb_em|Cybernetics, or Control and Communication in the Animal and the Machine}}. Paris, France: Hermann et Cie.&lt;br /&gt;
* Yockey, H. P. (1992). {{gb_em|Information Theory and Molecular Biology}}. Cambridge, U.K.: Cambridge University Press.&lt;br /&gt;
* Yockey, H. P. (2005). {{gb_em|Information Theory, Evolution, and the Origin of Life}}. Cambridge, U.K.: Cambridge University Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Shannon,_Claude_Elwood&amp;diff=39250</id>
		<title>gB:Shannon, Claude Elwood</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Shannon,_Claude_Elwood&amp;diff=39250"/>
		<updated>2026-04-29T07:50:17Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: /* Shannon as a Pioneer in Artificial Intelligence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 76&lt;br /&gt;
| Curator = Jérome Segal&lt;br /&gt;
| Author = Jérome Segal&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Communication//Cryptography//Engineering//Information Theory//MTC&lt;br /&gt;
| Type = Concept:Author&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
({{gb_em|b}}. Petoskey, Michigan, 30 April 1916, {{gb_em|d}}. Medford, Massachusetts, 24 February 2001).&lt;br /&gt;
&lt;br /&gt;
Shannon is first and foremost known as a pioneer of the information age, ever since he demonstrated in his seminal paper “A Mathematical Theory of Communication” (1948) that information could be defined and measured as a scientific notion. The paper gave rise to “information theory,” which includes metaphorical applications in very different disciplines, ranging from biology to linguistics via thermodynamics or quantum physics on the one hand, and a technical discipline of mathematical essence, based on crucial concepts like that of channel capacity, on the other. Shannon never showed much enthusiasm for the first kind of informal applications. He focused on the technical aspects and also contributed significantly to other fields such as cryptography, artificial intelligence, and domains where his ideas had their roots and could be readily applied in a strict fashion, that is, telecommunications and coding theory.&lt;br /&gt;
&lt;br /&gt;
== Formative Years ==&lt;br /&gt;
Claude Elwood Shannon was the son of Claude Shannon Sr. (1862–1934), a businessman who was also a judge of probate, and Mabel Wolf Shannon (1880–1945), a high school principal. Until the age of sixteen, he lived in Gaylord, Michigan, where his mother worked. His youth was to prove a decisive influence on his life as a scientist: his grandfather was a tinkerer, possessed a patent on a washing machine, and created various— sometimes nonsensical—objects. By the time he graduated from high school, the young Shannon had already built a radio-controlled boat and a telegraphic system to communicate with a friend nearly a mile away, using barbed wires. He made some pocket money by fixing various electrical devices, such as radios, and he admired Edison, with whom he discovered later that he shared a common ancestor.&lt;br /&gt;
&lt;br /&gt;
Shannon left Gaylord in 1932 for the University of Michigan, where he studied both electrical engineering and mathematics, obtaining in 1936 a bachelor of science degree in both fields. He then found a way to match his tinkering capacities with his knowledge in electrical engineering, working in the Department of Electrical Engineering at the Massachusetts Institute of Technology (MIT) on the maintenance of the differential analyzer that had been constructed by Vannevar Bush (1890–1974). Bush was to become his mentor over the next decades. It was in Bush’s department that Shannon wrote his master’s thesis, titled “Symbolic Analysis of Relay and Switching Circuits,” which he submitted on 10 August 1937. In an interview, Shannon recalled in 1987:&amp;lt;blockquote&amp;gt;“The main machine was mechanical with spinning disks and integrators, and there was a complicated control circuit with relays. I had to understand both of these. The relay part got me interested. I knew about symbolic logic at the time from a course at Michigan, and I realized that Boolean algebra was just the thing to take care of relay circuits and switching circuits. I went to the library and got all the books I could on symbolic logic and Boolean algebra, started interplaying the two, and wrote my Master’s thesis on it. That was the beginning of my great career!” (Sloane and Wyner, eds., 1993, p. xxv)&amp;lt;/blockquote&amp;gt;The insight was decisive: It constituted “a landmark in that it helped to change digital circuit design from an art to a science” (Goldstine, 1972, p. 119). His study dealt with the circuits based on relays and switching units, such as automatic telephone exchange systems or industrial motor equipment. He developed rigorous methods for both analysis and synthesis of circuits, showing how they could be simplified. At this time, he probably had his first intuitions on the relations between redundancy and reliability, which he was to deepen later. That his stance was both theoretical and practical becomes clear at the end of his master’s thesis, where he illustrated his approach with five circuits: a selective circuit, an electronic combination lock, a vote counting circuit, a base-two adder, and a factor table machine.&lt;br /&gt;
&lt;br /&gt;
This dual approach was also revealed in an important letter that Shannon sent to Bush in February 1939. He wrote that “Off and on [he had] been working on an analysis of some of the fundamental properties of general systems for the transmission of intelligence, including telephony, radio, television, telegraphy, etc.” He stated that “Practically all systems of communication may be thrown into the following form: &amp;lt;math&amp;gt;f_1(t)\rightarrow \begin{bmatrix}T\end{bmatrix}\rightarrow F(t)\rightarrow \begin{bmatrix}R\end{bmatrix} \rightarrow f_2(t)&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;f_1(t)&amp;lt;/math&amp;gt; is a general function of time (arbitrary except for certain frequency limitations) representing the intelligence to be transmitted. It represents for example, the pressure-time function in radio and telephony, or the voltage-time curve output of an iconoscope in television.”&lt;br /&gt;
&lt;br /&gt;
Shannon was awarded the Alfred Noble Prize of the American Society of Civil Engineers for his master’s thesis in 1940. He continued to work on the use of algebra to deepen analogies and began his doctoral studies in mathematics, with the same supervisor, the algebraist Frank L. Hitchcock. The topic, however, stemmed from Bush, who suggested that Shannon apply Boolean algebra to genetics, as he had to circuits. The result of his research was submitted in the spring of 1940 in his thesis “An Algebra for Theoretical Genetics.” Meanwhile, Shannon had also published his “Mathematical Theory of the Differential Analyzer” (1941) and during the summer of 1940 had started working at the Bell Laboratories, where he applied the ideas contained in his master’s thesis. He also spent a few months at the Institute for Advanced Study in Princeton working under Hermann Weyl thanks to a National Research Fellowship, and he then returned to the Bell Labs, where he worked from 1941 to 1956.&lt;br /&gt;
&lt;br /&gt;
==The Impact of World War II ==&lt;br /&gt;
Any scientist who worked in public institutions, private companies, or universities at this time became increasingly engaged in the war effort. From 1940 onward, interdisciplinary organizations were founded: first the National Defense Research Committee (NDRC, June 1940), under the supervision of Vannevar Bush, and later the Office of Scientific Research and Development (May 1941), which included the NDRC and medical research. Shannon soon became involved in this war-related research, mainly with two projects. The first project focused on anti-aircraft guns, which were so important in defending Great Britain under the V1 bombs and V2 rockets and more generally for air defense. Because World War II planes flew twice as high and twice as fast as those of World War I, the fire control parameters had to be automatically determined by means of radar data. Shannon was hired by Warren Weaver, at the time also head of the Natural Sciences Division of the Rockefeller Foundation. He worked with Richard B. Blackman and Hendrik Bode, also from Bell Labs. Their report, “Data Smoothing and Prediction in Fire-Control Systems,” pointed in the direction of generality in signal processing. Fire control was seen as “a special case of the transmission, manipulation, and utilization of intelligence.” They stated that there was “an obvious analogy between the problem of smoothing the data to eliminate or reduce the effect of tracking errors and the problem of separating a signal from interfering noise in communications systems” (Mindell, Gerovitch, and Segal,2003, p. 73).&lt;br /&gt;
&lt;br /&gt;
The second project was in the field of cryptography. At the outbreak of the war, communications could be easily intercepted. The main transatlantic communication means for confidential messages was the A3 telephone system developed at Bell Labs, which simply inverted parts of the bandwidth and was easily deciphered by the Germans.Shannon worked on the X-System, which solved this problem, and met British mathematician Alan Turing during this time. Turing had come to Bell Labs to coordinate British and American research on jamming, but the “need-to-know” rule that prevailed prevented them from engaging in a real exchange on these issues. The quintessence of Shannon’s contribution to war cryptography can be found in a 1945 report (declassified in 1957) titled “A Mathematical Theory of Cryptography,” which outlined the first theory, relying on both algebraic and probabilistic theories. Shannon explained that he was interested in discrete information consisting of sequences of discrete symbols chosen from a finite set. He gave definitions of redundancy and equivocation, and also of “information.” Trying to quantify the uncertainty related to the realization of an event chosen among n events for which a probability &amp;lt;math&amp;gt;p_i&amp;lt;/math&amp;gt; is known, he proposed the formula:&lt;br /&gt;
{{eq|&amp;lt;math&amp;gt;H=\sum_{i=1...n}-p_i\log_2(p_i)&amp;lt;/math&amp;gt;}}&lt;br /&gt;
where &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; was at first merely a measure of uncertainty. He then showed that this formula verified eleven properties such as additivity (information brought by two selections of an outcome equals the sum of the information brought by each event) or the fact that H was maximum when all the events had the same probability (which corresponds to the worst case for deciphering). For the choice of the letter H, obviously referring to Boltzmann’s H-Theorem, he explained that “most of the entropy formulas contain terms of this type” (Sloane and Wyner, 1993, pp. 84–142). According to some authors, it might have been John von Neumann who gave Shannon the following hint:&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
“You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, no one really knows what entropy really is, so in a debate you will always have the advantage.” (Tribus, 1971, p. 179)&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== From Cryptography to Communication Theory ==&lt;br /&gt;
In his 1945 memorandum, Shannon also developed a general schema for a secured communication. The key source was represented as a disturbing element conceptualize as a “noise,” similar to the message, but apart from that, the schema was similar to the one he described in 1939 in his letter to Bush. Shannon always kept this goal in mind, even when he worked in cryptology. In 1985, Shannon declared to Price “My first getting at that was information theory, and I used cryptography as a way of legitimizing the work. … For cryptography you could write up anything in any shape, which I did” (Price, 1985, p. 169)&lt;br /&gt;
&lt;br /&gt;
Relying on his experience in Bell Laboratories, where he had become acquainted with the work of other telecommunication engineers such as Harry Nyquist and Ralph Hartley, Shannon published in two issues of the Bell System Technical Journal his paper “A Mathematical Theory of Communication.” The general approach was pragmatic; he wanted to study “the savings due to statistical structure of the original message” (1948, p. 379), and for that purpose, he had to neglect the semantic aspects of information, as Hartley did for “intelligence” twenty years before (Hartley, 1928, p. 1). For Shannon, the communication process was stochastic in nature, and the great impact of his work, which accounts for the applications in other fields, was due to the schematic diagram of a general communication system that he proposed. An information source” outputs a “message,” which is encoded by a “transmitter” into the transmitted “signal.” The received signal is the sum of the transmitted signal and unavoidable “noise.” It is recovered as a decoded message, which is delivered to the “destination.” The received signal, which is the sum between the signal and the “noise,” is decoded in the “receiver” that gives the message to destination. His theory showed that choosing a good combination of transmitter and receiver makes it possible to send the message with arbitrarily high accuracy and reliability, provided the information rate does not exceed a fundamental limit, named the “channel capacity.” The proof of this result was, however, nonconstructive, leaving open the problem of designing codes and decoding means that were able to approach this limit (→[[#shannons-fundamental-theorems-s.-teoremas-fundamentals-de-shannon-f.-théorèmes-fondamental-de-shannon-g.-shannon-grundsätze-mtc-theorem|{{gb_em|Shannon&#039;s fundamental theorems}}]]).&lt;br /&gt;
&lt;br /&gt;
The paper was presented as an ensemble of twentythree theorems that were mostly rigorously proven (but not always, hence the work of A. I. Khinchin and later A. N. Kolmogorov, who based a new probability theory on the information concept). Shannon’s paper was divided into four parts, differentiating between discrete or continuous sources of information and the presence or absence of noise. In the simplest case (discrete source without noise), Shannon presented the H formula he had already defined in his mathematical theory of cryptography,which in fact can be reduced to a logarithmic mean. He defined the bit, the contraction of “binary digit” (as suggested by John W. Tukey, his colleague at Bell Labs) as the unit for information. Concepts such as “redundancy,” “equivocation,” or channel “capacity,” which existed as common notions, were defined as scientific concepts. Shannon stated a fundamental source-coding theorem, showing that the mean length of a message has a lower limit proportional to the entropy of the source. When noise is introduced, the channel-coding theorem stated that when the entropy of the source is less than the capacity of the channel, a code exists that allows one to transmit a message “so that the output of the source can be transmitted over the channel with an arbitrarily small frequency of errors.” This programmatic part of Shannon’s work explains the success and impact it had in telecommunications engineering. The turbo codes (error correction codes) achieved a low error probability at information rates close to the channel capacity, with reasonable complexity of implementation, thus providing for the first time experimental evidence of the channel capacity theorem (Berrou and Glavieux, 1996).&lt;br /&gt;
&lt;br /&gt;
Another important result of the mathematical theory of communication was, in the case of a continuous source, the definition of the capacity of a channel of bandwidth &amp;lt;math&amp;gt;W&amp;lt;/math&amp;gt; perturbed by white thermal noise power &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; when the average transmitter power is limited to &amp;lt;math&amp;gt;P&amp;lt;/math&amp;gt;, given by&lt;br /&gt;
{{eq|&amp;lt;math&amp;gt;C = W \log_2\left[(P+N)/N\right]&amp;lt;/math&amp;gt;}}&lt;br /&gt;
which is the formula reproduced on Shannon’s gravestone. The 1948 paper rapidly became very famous; it was published one year later as a book, with a postscript by Warren Weaver regarding the semantic aspects of information.&lt;br /&gt;
&lt;br /&gt;
== Entropy and Information ==&lt;br /&gt;
There were two different readings of this book. Some engineers became interested in the programmatic value of Shannon’s writings, mostly to develop new coding techniques, whereas other scientists used the mathematical theory of communication for two reasons: on one hand, a general model of communication; and on the other, the mathematical definition of information, called “entropy” by Shannon. Those ideas coalesced with other theoretical results hat appeared during the war effort, namely the idea of a general theory for “Control and Communication in the Animal and the Machine,” which is the subtitle of Cybernetics, a book Norbert Wiener published in 1948. Shannon, von Neumann, Wiener, and others were later called “cyberneticians” during the ten meetings sponsored by the Macy Foundation, which took place between 1946 and 1953. Shannon and Weaver’s 1949 book, along with the work by Wiener, brought forth a so-called “information theory.”&lt;br /&gt;
&lt;br /&gt;
Rapidly, connections were made between information theory and various fields, for instance in linguistics, where influences went in both directions. In order to be able to consider “natural written languages such as English, German, Chinese” as stochastic processes defined by a set of selection probabilities, Shannon relied on the work of linguists, who, in turn, were vitally interested in the calculus of the entropy of a language to gain a better understanding of concepts like that of redundancy (Shannon, 1951). Roman Jakobson was among the most enthusiastic linguists; he had participated in one of the Macy meetings in March 1948. At the very beginning of the 1950s, in most disciplines, new works were presented as “applications” of information theory, even if sometimes the application only consisted of the use of logarithmic mean. Trying to understand the connections between molecular structure and genetic information—a couple of months before the discovery of the double helix for the structure of DNA—Herman Branson calculated, in a symposium entitled “The Use of Information Theory in Biology,” the information quantity ({{gb_em|H}}) contained in a human. He gave the expression “{{gb_em|H}}(food and environment) = {{gb_em|H}}(biological function) + {{gb_em|H}}(maintenance and repair) + {{gb_em|H}}(growth, differentiation, memory)” (Quastler, 1953, p. 39). Henry Quastler came to the conclusion, as did Sidney Dancoff, that “{{gb_em|H}}(man)” was about 2 x 10 28 bits (p. 167).&lt;br /&gt;
&lt;br /&gt;
Taking issue with these different kinds of applications, Shannon in 1956 wrote a famous editorial, published in the Transactions of the Institute of Radio Engineers, with the title “The Bandwagon.” As he stated, referring to his 1948 paper, “Starting as a technical tool for the communication engineer, it has received an extraordinary amount of publicity in the popular as well as the scientific press. In part, this has been due to connections with such fashionable fields as computing machines, cybernetics, and automation; and in part, to the novelty of its subject matter. As a consequence, it has perhaps been ballooned to an importance beyond its actual accomplishments.” At this time, some applications of information theory already reflected a mood, essentially based on a loose, rather than a scientific definition of information. Forty years later, the project of “information highways,” presented to promote the Internet, partly relied on the same idea.&lt;br /&gt;
&lt;br /&gt;
== Shannon as a Pioneer in Artificial Intelligence ==&lt;br /&gt;
At the time Shannon published his relatively pessimistic editorial, he was already engaged in other research, typically related to his ability to combine mathematical theories, electrical engineering, and “tinkering,” namely, artificial intelligence. Shannon coauthored the 1955 “Proposal for the Dartmouth Summer Research Project on Artificial Intelligence,” which marked the debut of the term “artificial intelligence.” Together with Nathaniel Rochester, John McCarthy, and Marvin L. Minsky, he obtained support from the Rockefeller Foundation to “proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.” In explaining his own goal, Shannon named two topics.&lt;br /&gt;
&lt;br /&gt;
The first topic, presented as an “application of information theory,” was based on an analogy: in the same way that information theory was concerned with the reliable transmission of information over a noisy channel, he wanted to tackle the structure of computing machines in which reliable computing is supposed to be achieved using some unreliable elements, a problem to which John von Neumann devoted considerable attention. Starting from this parallel, notions such as redundancy and channel capacity were to be used to improve the architecture of computing machines.&lt;br /&gt;
&lt;br /&gt;
[[File:Shannon.jpg|thumbnail|&#039;&#039;&#039;Figure 1&#039;&#039;&#039;: Claude Shannon with a mechanical mouse equipped with “super” memory and capable of learning the path through the maze without errors after a single training run (Source: Hulton Archive/Getty Images).]]&lt;br /&gt;
The second topic dealt with the way in which a “brain model” can adapt to its environment. This had no direct link with information theory but was more related to the work Shannon had presented during the eighth Macy meeting, in March 1951, where he gathered with other cyberneticians. Shannon demonstrated an electromechanical mouse he called Theseus, which would be “taught” to find its way in a labyrinth. In his Dartmouth proposal, Shannon put the emphasis on “clarifying the environmental model, and representing it as a mathematical structure.” He had already noticed that “in discussing mechanized intelligence, we think of machines performing the most advanced human thought activities—proving theorems, writing music, or playing chess.” He posited a bottom-up approach in the “direction of these advanced activities,” starting with simpler models, as he had done in his 1950 paper entitled “Programming a Computer for Playing Chess.” In this first published article on computer chess, Shannon offered the key elements for writing a “program,” such as an “evaluation function” or a “minimax procedure.”&lt;br /&gt;
&lt;br /&gt;
== A Complex Legacy ==&lt;br /&gt;
Shannon’s contributions to artificial intelligence have often been neglected because of the enormous aura. He is so well known for his work on information theory that his credit for AI is often ignored. Most history of AI does not even mention his presence at the Dartmouth meeting of information theory. None of the works he wrote after the 1950s received such recognition. He left Bell Labs for the Massachusetts Institute of Technology (MIT) in 1956, first as a visiting professor; he was a permanent member of the Research Laboratory of Electronics at MIT for twenty years, starting in 1958, after he had spent a year as a fellow at the Center for Advanced Study in the Behavioral Sciences in Palo Alto.&lt;br /&gt;
&lt;br /&gt;
Most of his scientific work was devoted to the promotion and deepening of information theory. Shannon was invited to many countries, including the Soviet Union in 1965. While there, giving a lecture at an engineering conference, he had an opportunity to play a chess match against Mikhail Botvinik. He tackled the case of transmission with a memoryless channel (a noisy channel where the noise acts independently on each symbol transmitted through the channel). It is on this topic that he published his last paper related to information theory, as early as 1967, with Robert G. Gallager and Elwyn R. Berlekamp.&lt;br /&gt;
&lt;br /&gt;
In the late 1960s and 1970s, Shannon became interested in portfolio management and, more generally, investment theory. One of his colleagues at Bell Labs, John L. Kelly, had shown in 1956 how information theory could be applied to gambling. Together with Ed Thorp, Shannon went to Las Vegas to test their ideas. In 1966 they also invented the first wearable computer at MIT that was able to predict roulette wheels.&lt;br /&gt;
&lt;br /&gt;
Shannon never gave up constructing eccentric machines, like the THROBAC (THrifty ROman-numeral BAckward-looking Computer) he built in the 1950s, the rocket-powered Frisbee, or a device that could solve the Rubik’s Cube puzzle. He developed many automata, many of which he kept at his home: among others, a tiny stage on which three clowns could juggle with eleven rings, seven balls, and five clubs, all driven by an invisible mechanism of clockwork and rods. Juggling was one of his passions, which also included playing chess, riding a unicycle, and playing to clarinet. In the early 1980s Shannon began writing an article for Scientific American called scientific Aspects of Juggling,” which he never finished (Sloane and Wyner, 1993, pp. 850–864).&lt;br /&gt;
&lt;br /&gt;
At the dawn of the twenty-first century, Shannon’s contributions are manifold. Whereas there are still applications that only consist of using the logarithmic mean or the schematic diagram of a general communication system (applications he condemned in his 1956 editorial, “The Bandwagon”), there are also numerous new fields that could not be defined without referring to his work. In the field of technology, coding theories that are applied to compact discs or deep-space communication are merely developments of information theory. In mathematics, entire parts of algorithmic complexity theory ([[gB:Algorithmic information theory|Algorithmic Information Theory]]) can be seen as resulting from the development of Shannon’s theory. In biology, the protean use made of the expression “genetic information” explains the development of molecular biology (Fox Keller, Kay and Yockey). From the 1990s onward, in physics, the domain of “quantum information” took off around the definition of qubits, which extended the bit initially used by Shannon to measure information. Shannon unfortunately could not take part in these developments nor take them into account; from the mid-1990s he struggled with Alzheimer’s disease, to which he succumbed in February 2001.&lt;br /&gt;
&lt;br /&gt;
==References==&lt;br /&gt;
&lt;br /&gt;
A comprehensive bibliography appears in:&lt;br /&gt;
&lt;br /&gt;
* NEIL J. A. SLOANE and AAARON D. WYNER, eds., {{gb_em|Claude Elwood Shannon: Collected Papers}}, Piscataway, NJ: IEEE Press, 1993.&amp;lt;p&amp;gt;These collected papers include the 1937 master’s thesis (https://libraries.mit.edu/) ; the “Letter to Vannevar Bush, Feb. 16, 1939”; and the 1940 PhD dissertation (https://libraries.mit.edu/).&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;p&amp;gt;The master’s and PhD essays are also available at the MIT’s online institutional repository:&amp;lt;/p&amp;gt;&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;&amp;amp;lt;http://dspace.mit.edu/handle/1721.1/11173&amp;amp;gt;&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;&amp;amp;lt;http://dspace.mit.edu/handle/1721.1/11174&amp;amp;gt;&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&amp;lt;/ul&amp;gt;The 1939 letter was first reproduced in Hagmeyer’s doctoral dissertation (see below). Shannon’s archives are at the Bell Laboratories Archives and at the National Archives in Washington, DC.&lt;br /&gt;
&lt;br /&gt;
=== Works by Shannon ===&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;(1948) “A Mathematical Theory of Communication.” {{gb_em|Bell System Technical Journal}} 27: 379–423, 623–656.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;(1949). “Communication in the Presence of Noise.” {{gb_em|Proceedings of the Institute of Radio Engineers}} 37: 10–21.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;(1949) “Communication Theory of Secrecy Systems.” {{gb_em|Bell System Technical Journal}} 28: 656–715.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;(1949) With Warren WEAVER. {{gb_em|The Mathematical Theory of Communication}}. Urbana: University of Illinois Press.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;(1950). “Programming a Computer for Playing Chess.” {{gb_em|Philosophical Magazine}} 41: 256–275.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;(1951) “Prediction and Entropy in Printed English.”{{gb_em|Bell System Technical Journal}} 30: 50–64.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;(1956). “The Bandwagon.” {{gb_em|IRE Transactions on Information Theory}} 2: 3.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;(1967). Con Robert G. GALLAGER y Elwyn R. BERLEKAMP. “Lower Bounds to Error Probability for Coding on Discrete Memorylless Channels.” {{gb_em|Information and Control}} 10: 65-103.&lt;br /&gt;
&amp;lt;/li&amp;gt;&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Other sources ===&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;BERROU, Claude, and Alain GLAVIEUX (1996). “Near Optimum Error Correcting Coding and Decoding: Turbo-Codes.” {{gb_em|IEEE Transactions on Communications}} 44: 1261–1271.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;FOERSTER, Heinz von (1952). {{gb_em|Cybernetics, Circular Causal and Feedback Mechanisms in Biological and Social Systems}}. New York: Macy Foundation.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;FOX KELLER, Evelyn (2000). {{gb_em|The Century of the Gene. Cambridge}}, MA: Harvard University Press.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;GOLDSTINE, Herman H. (1972). {{gb_em|The Computer from Pascal to von Neumann}}. Princeton, NJ: Princeton University Press.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;HAGEMEYER, Friedrich W. (1979). {{gb_em|Die Entstehung von Informationskonzepten in der Nachrichtentechnik}}. Doktorarbeit an der Freie Universität Berlin (PhD), FB 11 Philosophie und Sozialwissenschaften.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;HARTLEY, Ralph V. L. (1928). “Transmission of Information.” {{gb_em|Bell System Technical Journal}} 7: 535–563.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;HODGES, Andrew. (1983). {{gb_em|Alan Turing: The Enigma}}. London: Burnett Books.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;HORGAN, John (1990). “Claude E. Shannon: Unicyclist, Juggler and Father of Information Theory.” {{gb_em|Scientific American}} 242: 20–22B.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;KAY, Lily E. (2000). {{gb_em|Who Wrote the Book of Life? A History of the Genetic Code}}. Chicago: University of Chicago Press.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;KELLY, John L. (1956). “A New Interpretation of the Information Rate.” {{gb_em|Bell System Technical Journal}} 35: 917–925.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;MINDELL, D., S. GEROVITCH, and J. Segal (2003). “From Communications Engineering to Communications Science: Cybernetics and Information Theory in the United States, France, and the Soviet Union.” In {{gb_em|Science and Ideology: A Comparative History}}, edited by Mark Walker, pp. 66–96. London: Routledge.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;PIAS, Claus (2003 and 2004). {{gb_em|Cybernetics/Kybernetik. The Macy-Conferences, 1946–1953. Transactions/Protokolle}}. 2 vol. Fernwald, Germany: Diaphanes.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;PRICE, Robert (1985). “A Conversation with Claude Shannon: One Man’s Approach to Problem Solving.”{{gb_em|Cryptologia}} 9: 167–175.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;QUASTLER, Henry, ed. (1953). {{gb_em|Essays on the Use of Information Theory in Biology}}. Urbana: University of Illinois Press.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;SEGAL, Jérôme (2003). {{gb_em|Le Zéro et le un: Histoire de la notion scientifique d’information}}. Paris: Syllepse.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;TRIBUS, Myron, and E. C. McIrvine (1971). “Energy and Information.” {{gb_em|Scientific American}} 224: 178–184.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;VERDU, Sergio (1998). “Fifty Years of Shannon Theory.” {{gb_em|IEEE Transactions on Information Theory}} 44: 2057–2078.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;WIENER, Norbert (1948). {{gb_em|Cybernetics, or Control and Communication in the Animal and the Machine}}. Paris, France: Hermann et Cie.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;YOCKEY, Hubert P. (1992). {{gb_em|Information Theory and Molecular Biology}}. Cambridge, U.K.: Cambridge University Press.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;YOCKEY, Hubert P. (2005). {{gb_em|Information Theory, Evolution, and the Origin of Life}}. Cambridge, U.K.: Cambridge University Press.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&amp;lt;/ul&amp;gt;&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Teoremas_fundamentales_de_Shannon&amp;diff=39249</id>
		<title>gB:Teoremas fundamentales de Shannon</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Teoremas_fundamentales_de_Shannon&amp;diff=39249"/>
		<updated>2026-04-29T07:40:32Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1084&lt;br /&gt;
| Curator = José María Díaz-Nafría&lt;br /&gt;
| Author = José María Díaz-Nafría&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = 06//TMC&lt;br /&gt;
| Type = Concept:teorema&lt;br /&gt;
| en = Shannon&#039;s fundamental theorems&lt;br /&gt;
| fr = Théorèmes fondamentaux de Shannon&lt;br /&gt;
| de = Shannon-Grundsätze&lt;br /&gt;
| Also = gB:Shannon&#039;s fundamental theorems&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Los {{gb_em|teoremas fundamentales de Shannon}} establecen los límites teóricos de la transmisión de información: por un lado, indican la posibilidad de codificar la fuente —caracterizada por su entropía &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt;— para transmitir información con máxima eficiencia a través de un canal —caracterizado por su capacidad de canal &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt;—; por otro, indican que para transmitirlos con pocos errores la capacidad del canal debe ser suficiente como para añadir redundancia que permita corregir errores.&lt;br /&gt;
&lt;br /&gt;
== Teorema fundamental para un canal sin ruido ==&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&amp;quot;Sea una fuente con entropía &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; (bits por símbolo) y un canal con capacidad &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt; (bits por segundo). Entonces es posible codificar la salida de la fuente de tal modo que se pueda transmitir a un régimen de &amp;lt;math&amp;gt;C/H - \epsilon&amp;lt;/math&amp;gt; símbolos por segundo sobre el canal, donde &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt; es tan pequeño como se quiera. No es posible transmitir a un régimen promedio mayor que &amp;lt;math&amp;gt;C/H&amp;lt;/math&amp;gt;.&amp;quot; (Shannon, 1948: 16)&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Con este teorema Shannon prueba la existencia de un límite a la eficiencia de lo que se ha denominado codificación de fuente ([[gB:Codificador y Decodificador|{{gb_em|codificador}}]]). Si puede determinarse la entropía de una fuente caracterizada por la emisión de un número finito de símbolos, entonces sabemos que &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; (en bits/símbolo) equivale al mínimo número de dígitos binarios que podrían emplearse para su codificación, traduciéndose todo acercamiento a dicho límite en un aumento de la complejidad (en coste operativo y circuital). Al igual que en otros resultados fundamentales de la TMC, se trata de una conclusión no constructiva, dejando abierto el problema del diseño de la codificación ([[gB:Shannon, Claude Elwood (es)|C.E. Shannon]]).&lt;br /&gt;
&lt;br /&gt;
En la práctica, la codificación de fuente no se ciñe solo al plano estadístico al que se refiere Shannon (Sklar 2001). Las técnicas más sofisticadas de codificación de fuente consisten en una combinación de:&lt;br /&gt;
&lt;br /&gt;
# {{gb_em|Codificación predictiva}}: solo se transmite aquello que no puede predecirse a partir de las emisiones previas, logrando óptimos resultados cuando se analiza en profundidad las peculiaridades de la fuente y su contexto pragmático (por ejemplo, para la reproducción de una interpretación de piano solo se registran las pulsaciones sobre el teclado).&lt;br /&gt;
# {{gb_em|Codificación transformacional}} (especialmente aplicable a señales destinadas a órganos sensoriales): a las señales a transmitir se les aplica una transformación lineal (reversible) por medio de la cual se pueden distinguir rangos de diferente sensibilidad, permitiendo así prescindir de datos imperceptibles o que quedan por debajo de ciertos umbrales de calidad (operación que entraña una pérdida irreversible de datos —no necesariamente información, si es que tales datos de ningún modo fueran a informar al destino—). En esta codificación la eficiencia se logra mediante un análisis en profundidad de la percepción sensorial.&lt;br /&gt;
# {{gb_em|Codificación estadística}}: en el sentido apuntado por la TMC, que considera las emisiones de la fuente como procesos ergódicos y estacionarios.&lt;br /&gt;
&lt;br /&gt;
== Teorema fundamental para un canal discreto con ruido ==&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&amp;quot;Sea un canal discreto con capacidad &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt; (bits por segundo) y una fuente discreta con entropía &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; (bits por segundo). Si &amp;lt;math&amp;gt;H \le C&amp;lt;/math&amp;gt; entonces hay un sistema de codificación que permitiría transmitir la salida de la fuente sobre el canal con una tasa de errores tan pequeña como se desee (o una equivocación arbitrariamente pequeña). Si &amp;lt;math&amp;gt;H &amp;gt; C&amp;lt;/math&amp;gt; es posible codificar la fuente de modo que la equivocación sea menor que &amp;lt;math&amp;gt;H - C + \epsilon&amp;lt;/math&amp;gt;, donde &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt; es tan pequeño como se quiera. No hay ningún método de codificación que proporcione una equivocación menor que &amp;lt;math&amp;gt;H - C&amp;lt;/math&amp;gt;.&amp;quot; (Shannon, 1948: 22)&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En cuanto a que aquí la fuente se caracteriza por el régimen o velocidad de transmisión de información —según la definición shannoniana de entropía—, nos advierte este teorema que para su transmisión debe emplearse un canal de capacidad &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt; mayor que &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt;. En vano podríamos intentar transmitirlo mediante un canal de menor capacidad, ya que el exceso de entropía de la fuente respecto a la capacidad se traduciría en un aumento de la frecuencia de errores de recepción. Por otra parte, la reducción de la distancia respecto al umbral (&amp;lt;math&amp;gt;C \approx H&amp;lt;/math&amp;gt;) se traduce en un aumento de la complejidad (operacional y/o circuital).&lt;br /&gt;
&lt;br /&gt;
¿En qué puede emplearse la distancia existente entre la entropía de la fuente &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; y la capacidad del canal usado &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt;? Puede introducirse redundancia que sirva al receptor para la identificación y corrección de errores. A la codificación empleada para esta función se le denomina codificación de canal ([[gB:Codificador y Decodificador|{{gb_em|codificador}}]]). Existen diversas técnicas para introducir dicha redundancia, que se dividen en códigos de {{gb_em|bloque}} y {{gb_em|convolucionales}}. En los primeros se usan bloques de datos consecutivos para la determinación de la redundancia añadida; en los convolucionales se utilizan máquinas de estados cuya salida depende del estado y de los datos de entrada. La corrección de errores consiste en una búsqueda de los bloques válidos más parecidos —para el primer tipo— o de las secuencias de código más verosímiles —en los convolucionales—.&lt;br /&gt;
&lt;br /&gt;
== Complementariedad de ambos teoremas ==&lt;br /&gt;
Existe en definitiva una cierta complementariedad práctica entre dichos teoremas: el primero nos indica hasta dónde podemos comprimir el código para expresar los mensajes de la fuente (eliminando al máximo su redundancia); el segundo nos señala la redundancia que puede usar el sistema para que el receptor pueda corregir errores.&lt;br /&gt;
&lt;br /&gt;
A grandes rasgos, la codificación de fuente persigue la igualación de dígitos binarios con bits, maximizando la entropía y prescindiendo de todo aquello que no sea entrópico e inútil para la decodificación, mientras que la codificación de canal añade dígitos no entrópicos que puede reconocer el receptor para poder eliminar errores de transmisión.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* SHANNON, C. E. (1948). “A Mathematical Theory of Communication”. {{gb_em|The Bell System Technical Journal}}, vol. 27, pp. 379–423, 623–656.&lt;br /&gt;
* SHANNON, C. y WEAVER, W. (1949). {{gb_em|The Mathematical Theory of Communication}}. Urbana: The University of Illinois Press.&lt;br /&gt;
* SKLAR, B. (2001). {{gb_em|Digital Communications. Fundamentals and Applications}}. New Jersey: Prentice Hall.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Teoremas_fundamentales_de_Shannon&amp;diff=39248</id>
		<title>gB:Teoremas fundamentales de Shannon</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Teoremas_fundamentales_de_Shannon&amp;diff=39248"/>
		<updated>2026-04-29T07:29:46Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1084&lt;br /&gt;
| Curator = José María Díaz-Nafría&lt;br /&gt;
| Author = José María Díaz-Nafría&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = 06//TMC&lt;br /&gt;
| Type = Concept:teorema&lt;br /&gt;
| en = Shannon&#039;s fundamental theorems&lt;br /&gt;
| fr = Théorèmes fondamentaux de Shannon&lt;br /&gt;
| de = Shannon-Grundsätze&lt;br /&gt;
| Also = gB:Shannon&#039;s fundamental theorems&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Los {{gb_em|teoremas fundamentales de Shannon}} establecen los límites teóricos de la transmisión de información: por un lado, indican la posibilidad de codificar la fuente —caracterizada por su entropía &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt;— para transmitir información con máxima eficiencia a través de un canal —caracterizado por su capacidad de canal &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt;—; por otro, indican que para transmitirlos con pocos errores la capacidad del canal debe ser suficiente como para añadir redundancia que permita corregir errores.&lt;br /&gt;
&lt;br /&gt;
== Teorema fundamental para un canal sin ruido ==&lt;br /&gt;
&amp;lt;blockquote&amp;gt;Sea una fuente con entropía &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; (bits por símbolo) y un canal con capacidad &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt; (bits por segundo). Entonces es posible codificar la salida de la fuente de tal modo que se pueda transmitir a un régimen de &amp;lt;math&amp;gt;C/H - \epsilon&amp;lt;/math&amp;gt; símbolos por segundo sobre el canal, donde &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt; es tan pequeño como se quiera. No es posible transmitir a un régimen promedio mayor que &amp;lt;math&amp;gt;C/H&amp;lt;/math&amp;gt;. (Shannon, 1948: 16)&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Con este teorema Shannon prueba la existencia de un límite a la eficiencia de lo que se ha denominado codificación de fuente ([[gB:Codificador y Decodificador|{{gb_em|codificador}}]]). Si puede determinarse la entropía de una fuente caracterizada por la emisión de un número finito de símbolos, entonces sabemos que &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; (en bits/símbolo) equivale al mínimo número de dígitos binarios que podrían emplearse para su codificación, traduciéndose todo acercamiento a dicho límite en un aumento de la complejidad (en coste operativo y circuital). Al igual que en otros resultados fundamentales de la TMC, se trata de una conclusión no constructiva, dejando abierto el problema del diseño de la codificación ([[gB:Shannon, Claude Elwood (es)|C.E. Shannon]]).&lt;br /&gt;
&lt;br /&gt;
En la práctica, la codificación de fuente no se ciñe solo al plano estadístico al que se refiere Shannon. Las técnicas más sofisticadas de codificación de fuente consisten en una combinación de:&lt;br /&gt;
&lt;br /&gt;
# {{gb_em|Codificación predictiva}}: solo se transmite aquello que no puede predecirse a partir de las emisiones previas, logrando óptimos resultados cuando se analiza en profundidad las peculiaridades de la fuente y su contexto pragmático (por ejemplo, para la reproducción de una interpretación de piano solo se registran las pulsaciones sobre el teclado).&lt;br /&gt;
# {{gb_em|Codificación transformacional}} (especialmente aplicable a señales destinadas a órganos sensoriales): a las señales a transmitir se les aplica una transformación lineal (reversible) por medio de la cual se pueden distinguir rangos de diferente sensibilidad, permitiendo así prescindir de datos imperceptibles o que quedan por debajo de ciertos umbrales de calidad (operación que entraña una pérdida irreversible de datos —no necesariamente información, si es que tales datos de ningún modo fueran a informar al destino—). En esta codificación la eficiencia se logra mediante un análisis en profundidad de la percepción sensorial.&lt;br /&gt;
# {{gb_em|Codificación estadística}}: en el sentido apuntado por la TMC, que considera las emisiones de la fuente como procesos ergódicos y estacionarios.&lt;br /&gt;
&lt;br /&gt;
== Teorema fundamental para un canal discreto con ruido ==&lt;br /&gt;
&amp;lt;blockquote&amp;gt;Sea un canal discreto con capacidad &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt; (bits por segundo) y una fuente discreta con entropía &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; (bits por segundo). Si &amp;lt;math&amp;gt;H \le C&amp;lt;/math&amp;gt; entonces hay un sistema de codificación que permitiría transmitir la salida de la fuente sobre el canal con una tasa de errores tan pequeña como se desee (o una equivocación arbitrariamente pequeña). Si &amp;lt;math&amp;gt;H &amp;gt; C&amp;lt;/math&amp;gt; es posible codificar la fuente de modo que la equivocación sea menor que &amp;lt;math&amp;gt;H - C + \epsilon&amp;lt;/math&amp;gt;, donde &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt; es tan pequeño como se quiera. No hay ningún método de codificación que proporcione una equivocación menor que &amp;lt;math&amp;gt;H - C&amp;lt;/math&amp;gt;. (Shannon, 1948: 22)&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En cuanto a que aquí la fuente se caracteriza por el régimen o velocidad de transmisión de información —según la definición shannoniana de entropía—, nos advierte este teorema que para su transmisión debe emplearse un canal de capacidad &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt; mayor que &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt;. En vano podríamos intentar transmitirlo mediante un canal de menor capacidad, ya que el exceso de entropía de la fuente respecto a la capacidad se traduciría en un aumento de la frecuencia de errores de recepción. Por otra parte, la reducción de la distancia respecto al umbral (&amp;lt;math&amp;gt;C \approx H&amp;lt;/math&amp;gt;) se traduce en un aumento de la complejidad (operacional y/o circuital).&lt;br /&gt;
&lt;br /&gt;
¿En qué puede emplearse la distancia existente entre la entropía de la fuente &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; y la capacidad del canal usado &amp;lt;math&amp;gt;C&amp;lt;/math&amp;gt;? Puede introducirse redundancia que sirva al receptor para la identificación y corrección de errores. A la codificación empleada para esta función se le denomina codificación de canal ([[gB:Codificador y Decodificador|{{gb_em|codificador}}]]). Existen diversas técnicas para introducir dicha redundancia, que se dividen en códigos de {{gb_em|bloque}} y {{gb_em|convolucionales}}. En los primeros se usan bloques de datos consecutivos para la determinación de la redundancia añadida; en los convolucionales se utilizan máquinas de estados cuya salida depende del estado y de los datos de entrada. La corrección de errores consiste en una búsqueda de los bloques válidos más parecidos —para el primer tipo— o de las secuencias de código más verosímiles —en los convolucionales—.&lt;br /&gt;
&lt;br /&gt;
== Complementariedad de ambos teoremas ==&lt;br /&gt;
Existe en definitiva una cierta complementariedad práctica entre dichos teoremas: el primero nos indica hasta dónde podemos comprimir el código para expresar los mensajes de la fuente (eliminando al máximo su redundancia); el segundo nos señala la redundancia que puede usar el sistema para que el receptor pueda corregir errores.&lt;br /&gt;
&lt;br /&gt;
A grandes rasgos, la codificación de fuente persigue la igualación de dígitos binarios con bits, maximizando la entropía y prescindiendo de todo aquello que no sea entrópico e inútil para la decodificación, mientras que la codificación de canal añade dígitos no entrópicos que puede reconocer el receptor para poder eliminar errores de transmisión.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* SHANNON, C. E. (1948). “A Mathematical Theory of Communication”. {{gb_em|The Bell System Technical Journal}}, vol. 27, pp. 379–423, 623–656.&lt;br /&gt;
* SHANNON, C. y WEAVER, W. (1949). {{gb_em|The Mathematical Theory of Communication}}. Urbana: The University of Illinois Press.&lt;br /&gt;
* SKLAR, B. (2001). {{gb_em|Digital Communications. Fundamentals and Applications}}. New Jersey: Prentice Hall.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Web_sem%C3%A1ntica&amp;diff=39247</id>
		<title>gB:Web semántica</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Web_sem%C3%A1ntica&amp;diff=39247"/>
		<updated>2026-04-29T07:13:53Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1094&lt;br /&gt;
| Curator = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Author = Jorge Morato-Lara//Yorgos Andreadakis//Anabel Fraga Vázquez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = web//interoperabilidad//semántica&lt;br /&gt;
| Type = Concept:concepto//Concept:recurso&lt;br /&gt;
| en = Semantic Web&lt;br /&gt;
| fr = Web sémantique&lt;br /&gt;
| de = semantisches Web&lt;br /&gt;
| Also = gB:Semantic web&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;&#039;Web Semántica&#039;&#039;&#039;, propuesta por Tim Berners-Lee, es una evolución de la red diseñada para estructurar la información con significado, permitiendo su procesamiento automático por máquinas. A través de una arquitectura de siete capas, este modelo mejora la integración de datos y la búsqueda mediante metadatos y ontologías.&lt;br /&gt;
&lt;br /&gt;
== Evolución, limitaciones y virtudes de la propuesta ==&lt;br /&gt;
Tim Berners-Lee propuso una red en la que la información y los servicios estuvieran expresados semánticamente; de esta manera las peticiones de otros ordenadores y usuarios podrían ser entendidas y satisfechas. Los ordenadores así podrían analizar todos los datos de la Web: los contenidos, los enlaces, y las transacciones entre personas y las computadoras. Esta Web permite la interconexión entre repositorios para comercio electrónico, la realización de consultas semánticas y la implementación de sistemas pregunta-respuesta.&lt;br /&gt;
&lt;br /&gt;
La propuesta tiene una década de antigüedad y se han realizado grandes inversiones para implementarlas desde organismos públicos y privados. Los logros actuales son escasos dada la gran inversión a futuro que hay que hacer.&lt;br /&gt;
&lt;br /&gt;
Dos factores presentan a la Web Semántica como un recurso necesario. Estos son la interoperabilidad y el desarrollo de recursos semánticos de forma coordinada.&lt;br /&gt;
&lt;br /&gt;
i) {{gb_em|Interoperabilidad}}: algunos autores consideran la Web Semántica como un proyecto para crear un sistema universal de intercambio de información (Kalfoglou, 2007). Esto solo es posible si los documentos se estructuran y se codifican de una forma interoperable semánticamente. Este cambio de codificación puede convertir a la Web en una gran base de datos.&lt;br /&gt;
&lt;br /&gt;
La interoperabilidad entre los documentos puede conseguirse mediante un lenguaje de codificación del conocimiento, como RDF ({{gb_em|Resource Description Framework}}) (W3C, 2005). RDF es un lenguaje expresado con la sintaxis de XML ({{gb_em|Extensible Markup Language}}) (W3C, 2006). Las ventajas de esta interoperabilidad son obvias para la reutilización del conocimiento (Russ, Jones y Fineman, 2006), la navegación conceptual y la fusión de sistemas de organización del conocimiento a través de múltiples dominios (W3C, 2006; Zeng, 2004).&lt;br /&gt;
&lt;br /&gt;
ii) {{gb_em|Recursos Semánticos}}: La Web Semántica necesita acceder al conocimiento que expresan los documentos escritos en el lenguaje Web. Estos documentos modelan los sistemas de organización del conocimiento (KOS) y sus instancias. Ejemplos son las ontologías, que tienen un papel importante en la Web Semántica. Los KOS definen los conceptos utilizados para describir y representar un área de conocimiento (Daconta, Smith y Obrst, 2003; Gruber, 2005). Estos recursos son utilizados por personas, bases de datos y aplicaciones que necesitan compartir el conocimiento en un área, como la medicina, inmobiliarios o la gestión comercial.&lt;br /&gt;
&lt;br /&gt;
== Capas de la Web Semántica ==&lt;br /&gt;
La propuesta de la Web Semántica propone una estructura de siete capas para su implementación. Cada capa necesita ser compatible con la previa. Por ejemplo, la capa tres RDF/RDFS debe ser entendida por las aplicaciones XML. Y la siguiente capa, normalmente codificada mediante OWL, debe ser capaz de extraer información de los documentos RDF.&lt;br /&gt;
&lt;br /&gt;
Las capas son:&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Unicode-URI&#039;&#039;&#039;: codificación básica e identificación de recursos.&lt;br /&gt;
# &#039;&#039;&#039;XML-NS-XML Schema (XML-NS-Esquema XML)&#039;&#039;&#039;: sintaxis y su relación con los espacios de nombre, además de expresar la estructura de los XML.&lt;br /&gt;
# &#039;&#039;&#039;RDF+RDFSchema (RDF+Esquema RDF)&#039;&#039;&#039;: RDF/RDFS para expresar primitivas en un modelo de datos que represente el conocimiento.&lt;br /&gt;
# &#039;&#039;&#039;Ontology Vocabulary (Vocabulario de Ontologías)&#039;&#039;&#039;: estructurando y clasificando conceptualmente mediante una ontología.&lt;br /&gt;
# &#039;&#039;&#039;Logic (Lógica)&#039;&#039;&#039;: expresadas mediante axiomas y reglas monotónicas.&lt;br /&gt;
# &#039;&#039;&#039;Proof (Prueba)&#039;&#039;&#039;: para validar las sentencias lógicas (aserciones).&lt;br /&gt;
# &#039;&#039;&#039;Trust (Confianza)&#039;&#039;&#039;: fiabilidad de los datos, normalmente mediante firma digital.&lt;br /&gt;
&lt;br /&gt;
== El Estándar Topic Map y la Web Semántica ==&lt;br /&gt;
Una propuesta con un origen previo, aunque bastante próxima en su finalidad, lo constituye el estándar {{gb_em|Topic Map}}. Este estándar se propuso a principios de los años 90, y actualmente recomienda una codificación en XML. Presenta desventajas frente a las ontologías para la realización de inferencias, si bien es más intuitivo. Inicialmente se codificaba con los {{gb_em|Public Subject Indicators}} (PSI), elementos con idéntica finalidad a los vocabularios de metadatos.&lt;br /&gt;
&lt;br /&gt;
== Recursos relacionados ==&lt;br /&gt;
&lt;br /&gt;
* Swoogle &amp;lt;http://swoogle.umbc.edu/&amp;gt;&lt;br /&gt;
* Hakia &amp;lt;http://www.hakia.com/&amp;gt;&lt;br /&gt;
* Eyeplorer &amp;lt;https://www.eyeplorer.com/eyePlorer/&amp;gt;&lt;br /&gt;
* World Wide Web Consortium (W3C) &amp;lt;http://www.w3c.org&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* BERNERS-LEE, T. y FISCHETTI, M. (1999). {{gb_em|Weaving the Web: the Original Design and Ultimate Destiny of the World Wide Web by its Inventor}}. San Francisco: HarperOne.&lt;br /&gt;
* BERNERS-LEE, T., HENDLER, J. y LASSILA, O. (2001). “The Semantic Web”. {{gb_em|Scientific American}}. [En línea] &amp;lt;https://doi.org/10.1038/scientificamerican052001-yL7Vw7HIOZ4iSjlnEeVsJ&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* BRATT, S. “Semantic Web, and Other Technologies to Watch”. [En línea] &amp;lt;http://www.w3.org/2007/Talks/0130-sb-W3CTechSemWeb/#(24)&amp;gt; [visitado: 01/04/2010]&lt;br /&gt;
* DACONTA, M. C., SMITH, K. T. y OBRST, L. J. (2003). {{gb_em|The Semantic Web: a Guide to the Future of Xml, Web Services, and Knowledge Management}}. New Jersey: John Wiley &amp;amp; Sons.&lt;br /&gt;
* KALFOGLOU, Y. (2007). “Knowledge society arguments revisited in the semantic technologies era”. {{gb_em|International Journal of Knowledge and Learning}}, vol. 3, n. 2/3, pp. 225-244.&lt;br /&gt;
* MORATO, J. et al. (2008). “Hacia una web semántica social”. {{gb_em|El profesional de la información}}, vol. 17, n. 1, pp. 78-85.&lt;br /&gt;
* RUSS, M., JONES, J. K. y FINEMAN, R. (2006). “Toward a taxonomy of knowledge-based strategies: early findings”. {{gb_em|International Journal of Knowledge and Learning}}, vol. 2, n. 1-2, pp. 1-40.&lt;br /&gt;
* W3C (2005). “Primer: Getting into RDF &amp;amp; Semantic Web using N3”. [En línea] &amp;lt;http://www.w3.org/2000/10/swap/Primer&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* W3C (2006). “Extensible Markup Language (XML)”. [En línea] &amp;lt;http://www.w3.org/XML/&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* W3C (2007). {{gb_em|Ontologies}}. [En línea] &amp;lt;http://www.w3c.es/Traducciones/es/SW/2005/owlfaq&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* ZENG, M. L. y CHAN, L. M. (2004). “Trends and issues in establishing interoperability among knowledge organization systems”. {{gb_em|Journal of the American Society for Information Science and Technology}}, vol. 55, n. 5, pp. 377-395. [En línea] &amp;lt;http://dx.doi.org/10.1002/asi.10387&amp;gt; [visitado: 01/11/2009]&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Web_sem%C3%A1ntica&amp;diff=39246</id>
		<title>gB:Web semántica</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Web_sem%C3%A1ntica&amp;diff=39246"/>
		<updated>2026-04-29T07:12:39Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: /* Referencias */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1094&lt;br /&gt;
| Curator = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Author = Jorge Morato-Lara//Yorgos Andreadakis//Anabel Fraga Vázquez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = web//interoperabilidad//semántica&lt;br /&gt;
| Type = Concept:concepto//Concept:recurso&lt;br /&gt;
| en = Semantic Web&lt;br /&gt;
| fr = Web sémantique&lt;br /&gt;
| de = semantisches Web&lt;br /&gt;
| Also = gB:Semantic web&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;&#039;Web Semántica&#039;&#039;&#039;, propuesta por Tim Berners-Lee, es una evolución de la red diseñada para estructurar la información con significado, permitiendo su procesamiento automático por máquinas. A través de una arquitectura de siete capas, este modelo mejora la integración de datos y la búsqueda mediante metadatos y ontologías.&lt;br /&gt;
&lt;br /&gt;
== Evolución, limitaciones y virtudes de la propuesta ==&lt;br /&gt;
Tim Berners-Lee propuso una red en la que la información y los servicios estuvieran expresados semánticamente; de esta manera las peticiones de otros ordenadores y usuarios podrían ser entendidas y satisfechas. Los ordenadores así podrían analizar todos los datos de la Web: los contenidos, los enlaces, y las transacciones entre personas y las computadoras. Esta Web permite la interconexión entre repositorios para comercio electrónico, la realización de consultas semánticas y la implementación de sistemas pregunta-respuesta.&lt;br /&gt;
&lt;br /&gt;
La propuesta tiene una década de antigüedad y se han realizado grandes inversiones para implementarlas desde organismos públicos y privados. Los logros actuales son escasos dada la gran inversión a futuro que hay que hacer.&lt;br /&gt;
&lt;br /&gt;
Dos factores presentan a la Web Semántica como un recurso necesario. Estos son la interoperabilidad y el desarrollo de recursos semánticos de forma coordinada.&lt;br /&gt;
&lt;br /&gt;
i) {{gb_em|Interoperabilidad}}: algunos autores consideran la Web Semántica como un proyecto para crear un sistema universal de intercambio de información (Kalfoglou, 2007). Esto solo es posible si los documentos se estructuran y se codifican de una forma interoperable semánticamente. Este cambio de codificación puede convertir a la Web en una gran base de datos.&lt;br /&gt;
&lt;br /&gt;
La interoperabilidad entre los documentos puede conseguirse mediante un lenguaje de codificación del conocimiento, como RDF ({{gb_em|Resource Description Framework}}) (W3C, 2005). RDF es un lenguaje expresado con la sintaxis de XML ({{gb_em|Extensible Markup Language}}) (W3C, 2006). Las ventajas de esta interoperabilidad son obvias para la reutilización del conocimiento (Russ, Jones y Fineman, 2006), la navegación conceptual y la fusión de sistemas de organización del conocimiento a través de múltiples dominios (W3C, 2006; Zeng, 2004).&lt;br /&gt;
&lt;br /&gt;
ii) {{gb_em|Recursos Semánticos}}: La Web Semántica necesita acceder al conocimiento que expresan los documentos escritos en el lenguaje Web. Estos documentos modelan los sistemas de organización del conocimiento (KOS) y sus instancias. Ejemplos son las ontologías, que tienen un papel importante en la Web Semántica. Los KOS definen los conceptos utilizados para describir y representar un área de conocimiento (Daconta, Smith y Obrst, 2003; Gruber, 2005). Estos recursos son utilizados por personas, bases de datos y aplicaciones que necesitan compartir el conocimiento en un área, como la medicina, inmobiliarios o la gestión comercial.&lt;br /&gt;
&lt;br /&gt;
== Capas de la Web Semántica ==&lt;br /&gt;
La propuesta de la Web Semántica propone una estructura de siete capas para su implementación. Cada capa necesita ser compatible con la previa. Por ejemplo, la capa tres RDF/RDFS debe ser entendida por las aplicaciones XML. Y la siguiente capa, normalmente codificada mediante OWL, debe ser capaz de extraer información de los documentos RDF.&lt;br /&gt;
&lt;br /&gt;
Las capas son:&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Unicode-URI&#039;&#039;&#039;: codificación básica e identificación de recursos.&lt;br /&gt;
# &#039;&#039;&#039;XML-NS-XML Schema (XML-NS-Esquema XML)&#039;&#039;&#039;: sintaxis y su relación con los espacios de nombre, además de expresar la estructura de los XML.&lt;br /&gt;
# &#039;&#039;&#039;RDF+RDFSchema (RDF+Esquema RDF)&#039;&#039;&#039;: RDF/RDFS para expresar primitivas en un modelo de datos que represente el conocimiento.&lt;br /&gt;
# &#039;&#039;&#039;Ontology Vocabulary (Vocabulario de Ontologías)&#039;&#039;&#039;: estructurando y clasificando conceptualmente mediante una ontología.&lt;br /&gt;
# &#039;&#039;&#039;Logic (Lógica)&#039;&#039;&#039;: expresadas mediante axiomas y reglas monotónicas.&lt;br /&gt;
# &#039;&#039;&#039;Proof (Prueba)&#039;&#039;&#039;: para validar las sentencias lógicas (aserciones).&lt;br /&gt;
# &#039;&#039;&#039;Trust (Confianza)&#039;&#039;&#039;: fiabilidad de los datos, normalmente mediante firma digital.&lt;br /&gt;
&lt;br /&gt;
== El Estándar Topic Map y la Web Semántica ==&lt;br /&gt;
Una propuesta con un origen previo, aunque bastante próxima en su finalidad, lo constituye el estándar {{gb_em|Topic Map}}. Este estándar se propuso a principios de los años 90, y actualmente recomienda una codificación en XML. Presenta desventajas frente a las ontologías para la realización de inferencias, si bien es más intuitivo. Inicialmente se codificaba con los {{gb_em|Public Subject Indicators}} (PSI), elementos con idéntica finalidad a los vocabularios de metadatos.&lt;br /&gt;
&lt;br /&gt;
== Recursos relacionados ==&lt;br /&gt;
&lt;br /&gt;
* Swoogle &amp;lt;http://swoogle.umbc.edu/&amp;gt;&lt;br /&gt;
* Hakia &amp;lt;http://www.hakia.com/&amp;gt;&lt;br /&gt;
* Eyeplorer &amp;lt;http://www.eyeplorer.com/eyePlorer/&amp;gt;&lt;br /&gt;
* World Wide Web Consortium (W3C) &amp;lt;http://www.w3c.org&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* BERNERS-LEE, T. y FISCHETTI, M. (1999). {{gb_em|Weaving the Web: the Original Design and Ultimate Destiny of the World Wide Web by its Inventor}}. San Francisco: HarperOne.&lt;br /&gt;
* BERNERS-LEE, T., HENDLER, J. y LASSILA, O. (2001). “The Semantic Web”. {{gb_em|Scientific American}}. [En línea] &amp;lt;https://doi.org/10.1038/scientificamerican052001-yL7Vw7HIOZ4iSjlnEeVsJ&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* BRATT, S. “Semantic Web, and Other Technologies to Watch”. [En línea] &amp;lt;http://www.w3.org/2007/Talks/0130-sb-W3CTechSemWeb/#(24)&amp;gt; [visitado: 01/04/2010]&lt;br /&gt;
* DACONTA, M. C., SMITH, K. T. y OBRST, L. J. (2003). {{gb_em|The Semantic Web: a Guide to the Future of Xml, Web Services, and Knowledge Management}}. New Jersey: John Wiley &amp;amp; Sons.&lt;br /&gt;
* KALFOGLOU, Y. (2007). “Knowledge society arguments revisited in the semantic technologies era”. {{gb_em|International Journal of Knowledge and Learning}}, vol. 3, n. 2/3, pp. 225-244.&lt;br /&gt;
* MORATO, J. et al. (2008). “Hacia una web semántica social”. {{gb_em|El profesional de la información}}, vol. 17, n. 1, pp. 78-85.&lt;br /&gt;
* RUSS, M., JONES, J. K. y FINEMAN, R. (2006). “Toward a taxonomy of knowledge-based strategies: early findings”. {{gb_em|International Journal of Knowledge and Learning}}, vol. 2, n. 1-2, pp. 1-40.&lt;br /&gt;
* W3C (2005). “Primer: Getting into RDF &amp;amp; Semantic Web using N3”. [En línea] &amp;lt;http://www.w3.org/2000/10/swap/Primer&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* W3C (2006). “Extensible Markup Language (XML)”. [En línea] &amp;lt;http://www.w3.org/XML/&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* W3C (2007). {{gb_em|Ontologies}}. [En línea] &amp;lt;http://www.w3c.es/Traducciones/es/SW/2005/owlfaq&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* ZENG, M. L. y CHAN, L. M. (2004). “Trends and issues in establishing interoperability among knowledge organization systems”. {{gb_em|Journal of the American Society for Information Science and Technology}}, vol. 55, n. 5, pp. 377-395. [En línea] &amp;lt;http://dx.doi.org/10.1002/asi.10387&amp;gt; [visitado: 01/11/2009]&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Web_sem%C3%A1ntica&amp;diff=39245</id>
		<title>gB:Web semántica</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Web_sem%C3%A1ntica&amp;diff=39245"/>
		<updated>2026-04-29T07:11:24Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1094&lt;br /&gt;
| Curator = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Author = Jorge Morato-Lara//Yorgos Andreadakis//Anabel Fraga Vázquez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = web//interoperabilidad//semántica&lt;br /&gt;
| Type = Concept:concepto//Concept:recurso&lt;br /&gt;
| en = Semantic Web&lt;br /&gt;
| fr = Web sémantique&lt;br /&gt;
| de = semantisches Web&lt;br /&gt;
| Also = gB:Semantic web&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;&#039;Web Semántica&#039;&#039;&#039;, propuesta por Tim Berners-Lee, es una evolución de la red diseñada para estructurar la información con significado, permitiendo su procesamiento automático por máquinas. A través de una arquitectura de siete capas, este modelo mejora la integración de datos y la búsqueda mediante metadatos y ontologías.&lt;br /&gt;
&lt;br /&gt;
== Evolución, limitaciones y virtudes de la propuesta ==&lt;br /&gt;
Tim Berners-Lee propuso una red en la que la información y los servicios estuvieran expresados semánticamente; de esta manera las peticiones de otros ordenadores y usuarios podrían ser entendidas y satisfechas. Los ordenadores así podrían analizar todos los datos de la Web: los contenidos, los enlaces, y las transacciones entre personas y las computadoras. Esta Web permite la interconexión entre repositorios para comercio electrónico, la realización de consultas semánticas y la implementación de sistemas pregunta-respuesta.&lt;br /&gt;
&lt;br /&gt;
La propuesta tiene una década de antigüedad y se han realizado grandes inversiones para implementarlas desde organismos públicos y privados. Los logros actuales son escasos dada la gran inversión a futuro que hay que hacer.&lt;br /&gt;
&lt;br /&gt;
Dos factores presentan a la Web Semántica como un recurso necesario. Estos son la interoperabilidad y el desarrollo de recursos semánticos de forma coordinada.&lt;br /&gt;
&lt;br /&gt;
i) {{gb_em|Interoperabilidad}}: algunos autores consideran la Web Semántica como un proyecto para crear un sistema universal de intercambio de información (Kalfoglou, 2007). Esto solo es posible si los documentos se estructuran y se codifican de una forma interoperable semánticamente. Este cambio de codificación puede convertir a la Web en una gran base de datos.&lt;br /&gt;
&lt;br /&gt;
La interoperabilidad entre los documentos puede conseguirse mediante un lenguaje de codificación del conocimiento, como RDF ({{gb_em|Resource Description Framework}}) (W3C, 2005). RDF es un lenguaje expresado con la sintaxis de XML ({{gb_em|Extensible Markup Language}}) (W3C, 2006). Las ventajas de esta interoperabilidad son obvias para la reutilización del conocimiento (Russ, Jones y Fineman, 2006), la navegación conceptual y la fusión de sistemas de organización del conocimiento a través de múltiples dominios (W3C, 2006; Zeng, 2004).&lt;br /&gt;
&lt;br /&gt;
ii) {{gb_em|Recursos Semánticos}}: La Web Semántica necesita acceder al conocimiento que expresan los documentos escritos en el lenguaje Web. Estos documentos modelan los sistemas de organización del conocimiento (KOS) y sus instancias. Ejemplos son las ontologías, que tienen un papel importante en la Web Semántica. Los KOS definen los conceptos utilizados para describir y representar un área de conocimiento (Daconta, Smith y Obrst, 2003; Gruber, 2005). Estos recursos son utilizados por personas, bases de datos y aplicaciones que necesitan compartir el conocimiento en un área, como la medicina, inmobiliarios o la gestión comercial.&lt;br /&gt;
&lt;br /&gt;
== Capas de la Web Semántica ==&lt;br /&gt;
La propuesta de la Web Semántica propone una estructura de siete capas para su implementación. Cada capa necesita ser compatible con la previa. Por ejemplo, la capa tres RDF/RDFS debe ser entendida por las aplicaciones XML. Y la siguiente capa, normalmente codificada mediante OWL, debe ser capaz de extraer información de los documentos RDF.&lt;br /&gt;
&lt;br /&gt;
Las capas son:&lt;br /&gt;
&lt;br /&gt;
# &#039;&#039;&#039;Unicode-URI&#039;&#039;&#039;: codificación básica e identificación de recursos.&lt;br /&gt;
# &#039;&#039;&#039;XML-NS-XML Schema (XML-NS-Esquema XML)&#039;&#039;&#039;: sintaxis y su relación con los espacios de nombre, además de expresar la estructura de los XML.&lt;br /&gt;
# &#039;&#039;&#039;RDF+RDFSchema (RDF+Esquema RDF)&#039;&#039;&#039;: RDF/RDFS para expresar primitivas en un modelo de datos que represente el conocimiento.&lt;br /&gt;
# &#039;&#039;&#039;Ontology Vocabulary (Vocabulario de Ontologías)&#039;&#039;&#039;: estructurando y clasificando conceptualmente mediante una ontología.&lt;br /&gt;
# &#039;&#039;&#039;Logic (Lógica)&#039;&#039;&#039;: expresadas mediante axiomas y reglas monotónicas.&lt;br /&gt;
# &#039;&#039;&#039;Proof (Prueba)&#039;&#039;&#039;: para validar las sentencias lógicas (aserciones).&lt;br /&gt;
# &#039;&#039;&#039;Trust (Confianza)&#039;&#039;&#039;: fiabilidad de los datos, normalmente mediante firma digital.&lt;br /&gt;
&lt;br /&gt;
== El Estándar Topic Map y la Web Semántica ==&lt;br /&gt;
Una propuesta con un origen previo, aunque bastante próxima en su finalidad, lo constituye el estándar {{gb_em|Topic Map}}. Este estándar se propuso a principios de los años 90, y actualmente recomienda una codificación en XML. Presenta desventajas frente a las ontologías para la realización de inferencias, si bien es más intuitivo. Inicialmente se codificaba con los {{gb_em|Public Subject Indicators}} (PSI), elementos con idéntica finalidad a los vocabularios de metadatos.&lt;br /&gt;
&lt;br /&gt;
== Recursos relacionados ==&lt;br /&gt;
&lt;br /&gt;
* Swoogle &amp;lt;http://swoogle.umbc.edu/&amp;gt;&lt;br /&gt;
* Hakia &amp;lt;http://www.hakia.com/&amp;gt;&lt;br /&gt;
* Eyeplorer &amp;lt;http://www.eyeplorer.com/eyePlorer/&amp;gt;&lt;br /&gt;
* World Wide Web Consortium (W3C) &amp;lt;http://www.w3c.org&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* BERNERS-LEE, T. y FISCHETTI, M. (1999). {{gb_em|Weaving the Web: the Original Design and Ultimate Destiny of the World Wide Web by its Inventor}}. San Francisco: HarperOne.&lt;br /&gt;
* BERNERS-LEE, T., HENDLER, J. y LASSILA, O. (2001). “The Semantic Web”. {{gb_em|Scientific American}}. [En línea] &amp;lt;http://www.personal.si.umich.edu/~rfrost/courses/SI110/readings/In_Out_and_Beyond/Semantic_Web.pdf&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* BRATT, S. “Semantic Web, and Other Technologies to Watch”. [En línea] &amp;lt;http://www.w3.org/2007/Talks/0130-sb-W3CTechSemWeb/#(24)&amp;gt; [visitado: 01/04/2010]&lt;br /&gt;
* DACONTA, M. C., SMITH, K. T. y OBRST, L. J. (2003). {{gb_em|The Semantic Web: a Guide to the Future of Xml, Web Services, and Knowledge Management}}. New Jersey: John Wiley &amp;amp; Sons.&lt;br /&gt;
* KALFOGLOU, Y. (2007). “Knowledge society arguments revisited in the semantic technologies era”. {{gb_em|International Journal of Knowledge and Learning}}, vol. 3, n. 2/3, pp. 225-244.&lt;br /&gt;
* MORATO, J. et al. (2008). “Hacia una web semántica social”. {{gb_em|El profesional de la información}}, vol. 17, n. 1, pp. 78-85.&lt;br /&gt;
* RUSS, M., JONES, J. K. y FINEMAN, R. (2006). “Toward a taxonomy of knowledge-based strategies: early findings”. {{gb_em|International Journal of Knowledge and Learning}}, vol. 2, n. 1-2, pp. 1-40.&lt;br /&gt;
* W3C (2005). “Primer: Getting into RDF &amp;amp; Semantic Web using N3”. [En línea] &amp;lt;http://www.w3.org/2000/10/swap/Primer&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* W3C (2006). “Extensible Markup Language (XML)”. [En línea] &amp;lt;http://www.w3.org/XML/&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* W3C (2007). {{gb_em|Ontologies}}. [En línea] &amp;lt;http://www.w3c.es/Traducciones/es/SW/2005/owlfaq&amp;gt; [visitado: 01/11/2009]&lt;br /&gt;
* ZENG, M. L. y CHAN, L. M. (2004). “Trends and issues in establishing interoperability among knowledge organization systems”. {{gb_em|Journal of the American Society for Information Science and Technology}}, vol. 55, n. 5, pp. 377-395. [En línea] &amp;lt;http://dx.doi.org/10.1002/asi.10387&amp;gt; [visitado: 01/11/2009]&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Contenido_sem%C3%A1ntico&amp;diff=39244</id>
		<title>gB:Contenido semántico</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Contenido_sem%C3%A1ntico&amp;diff=39244"/>
		<updated>2026-04-29T07:05:55Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1026&lt;br /&gt;
| Curator = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Author = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = lingüística//semántica//teoría de la comunicación//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = semantic content&lt;br /&gt;
| fr = contenu sémantique&lt;br /&gt;
| de = semantischer Inhalt&lt;br /&gt;
| Also = gB:Semantic content&lt;br /&gt;
}}&lt;br /&gt;
“Contenido semántico”, “contenido conceptual”, “contenido proposicional” y “contenido cognitivo” son expresiones sinónimas en muchos contextos. Se trata de un tipo de contenido directamente evaluable en términos semánticos (como teniendo una referencia, un sentido, valores veritativos, etc.). Es un contenido hecho de conceptos. Más aún, es un contenido identificable con una cierta proposición. También es un contenido capaz de tener relevancia cognitiva. Implica diferencias en las premisas, o en las consecuencias, de nuestros razonamientos teóricos o prácticos.&lt;br /&gt;
&lt;br /&gt;
Las tres clases de entidades capaces de tener contenido semántico son los ítems lingüísticos, las acciones y las entidades psicológicas. Las sentencias y ciertas partes de las sentencias de los lenguajes naturales tendrían un contenido semántico. Las acciones, en particular los actos de habla, tendrían también contenido semántico. Por último, los estados mentales que habitualmente se llaman “actitudes proposicionales” (creencias, deseos, recuerdos, etc.) también tendrían contenido semántico.&lt;br /&gt;
&lt;br /&gt;
Es muy difícil determinar si el contenido semántico en cada uno de estos tres casos puede ser independiente del contenido semántico de los otros. Tanto el llamado programa griceano como los enfoques informacionales del contenido semántico hacen que todo contenido semántico sea dependiente del contenido semántico que podemos encontrar en algunos estados mentales, y que el contenido semántico de los estados mentales sea dependiente de relaciones informacionales objetivas.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* DRETSKE, F. (1980). {{gb_em|Knowledge and the Flow of Information}}. Cambridge: MIT Press.&lt;br /&gt;
* DRETSKE, F. (1988). {{gb_em|Explaining Behaviour. Reasons in a World of Causes}}. Cambridge: MIT Press.&lt;br /&gt;
* DRETSKE, F. (1997). {{gb_em|Naturalizing the Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* FODOR, J. (1987). {{gb_em|Psychosemantics, The Problem of Meaning in the Philosophy of Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* FODOR, J. (1990). {{gb_em|A Theory of Content and Other Essays}}. Cambridge: MIT Press.&lt;br /&gt;
* GRICE, H. (1957). “Meaning”. {{gb_em|Philosophical Review}}, 68.&lt;br /&gt;
* GRICE, H. (1969). “Utterer’s Meaning and Intentions”. {{gb_em|Philosophical Review}}, 78.&lt;br /&gt;
* LEPORE, E. y SMITH, B. (2006). {{gb_em|The Oxford Handbook of Philosophy of Language}}. Oxford: Clarendon Press.&lt;br /&gt;
* MILLIKAN, R. (1984). {{gb_em|Language, Thought and Other Biological Categories}}. Cambridge: MIT Press.&lt;br /&gt;
* SEARLE, J. (1969). {{gb_em|Speech Acts. An Essay in the Philosophy of Language}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* SEARLE, J. (1979). {{gb_em|Expression and Meaning}}. Cambridge: Cambridge University Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Auto-reestructuraci%C3%B3n&amp;diff=39243</id>
		<title>gB:Auto-reestructuración</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Auto-reestructuraci%C3%B3n&amp;diff=39243"/>
		<updated>2026-04-29T07:03:35Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1010&lt;br /&gt;
| Curator = Wolfgang Hofkirchner&lt;br /&gt;
| Author = José María Díaz-Nafría//Wolfgang Hofkirchner&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = TUI&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = self-restructuring&lt;br /&gt;
| fr = auto-restructuration&lt;br /&gt;
| de = Selbstrestrukturierung&lt;br /&gt;
| Also = gB:Self-restructuring&lt;br /&gt;
}}&lt;br /&gt;
Usado en la [[gB:Teoría Unificada de la Información (TUI)|Teoría Unificada de la Información (TUI)]] como uno de los tres procesos fundamentales de los sistemas informacionales, la {{gb_em|auto-reestructuración}} se trata del tipo de proceso auto-organizativo más primitivo. Corresponde a los sistemas (físico-químicos) que se reestructuran a sí mismos y en los que aparece también la manifestación más primitiva del signo. &lt;br /&gt;
&lt;br /&gt;
Este tipo de sistemas también son llamados disipativos, ya que en términos termodinámicos disipan la entropía como subproducto del trabajo realizado durante la reestructuración; en este proceso, a la vez que se degrada la energía, el sistema logra deshacerse de ella, siendo esto necesario para que la nueva estructura pueda considerarse como generación de un orden superior en lugar de degradación del sistema. El proceso de estructuración desemboca en un patrón espacial y/o temporal.&lt;br /&gt;
&lt;br /&gt;
Entendido en calidad de proceso de información, la formación de patrones es la forma rudimentaria de producción de signos, siendo el patrón la distinción realizada por el sistema en el cual pueden encontrarse las tres relaciones semióticas ([[gB:Signo|signo]]): &lt;br /&gt;
&lt;br /&gt;
# Se observa una &#039;&#039;&#039;relación sintáctica&#039;&#039;&#039; en cuanto a que la formación de patrón es un tipo de proceso recursivo que construye sobre el patrón previo y elige uno entre varios patrones posibles.&lt;br /&gt;
# En la medida en que la energía entrante permite al sistema que cambie su patrón, la entrada deviene en una señal que hace surgir el nuevo patrón, aunque no lo determine por completo. El estado que adopta el sistema al formar el nuevo patrón puede interpretarse como una representación de la entrada, de modo que puede hablarse de una &#039;&#039;&#039;relación semántica&#039;&#039;&#039;. &lt;br /&gt;
# En cuanto a que la formación del nuevo patrón corresponde al comportamiento observable en que el sistema expresa su actividad, la &#039;&#039;&#039;relación pragmática&#039;&#039;&#039; también queda aquí tematizada.&lt;br /&gt;
&lt;br /&gt;
No obstante, las tres relaciones semióticas coinciden con el patrón y, por tanto, no están aún diferenciadas. El patrón, al depender de las condiciones de su circunstancia, puede decirse que la refleja en cierto modo. Dicha reflexión del entorno constituye una precondición para la aparición de una esfera de influencia en la que el comportamiento del sistema dispara el de los adyacentes de modo que se produzcan las condiciones oportunas para el mantenimiento y mejora del sistema, lo cual será posible en los sistemas [[gB:Auto-reproducción|auto-reproductivos]].&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* FENZL, N. y HOFKIRCHNER, W. (1997). “Information Processing in Evolutionary Systems. An Outline Conceptual Framework for a Unified Information Theory”. En: Schweitzer, F. (Ed.), {{gb_em|Self-Organization of Complex Structures: From Individual to Collective Dynamics}}. London: Gordon and Breach, pp. 59-70.&lt;br /&gt;
* FLEISSNER, P. y HOFKIRCHNER, W. (1996). “Emergent Information. Towards a unified information theory”. {{gb_em|BioSystems}}, 38 (2-3), pp. 243-248.&lt;br /&gt;
* HOFKIRCHNER, W. (1998). “Information und Selbstorganisation – Zwei Seiten einer Medaille”. En: Fenzl, N., Hofkirchner, W. y Stockinger, G. (Eds.), {{gb_em|Information und Selbstorganisation. Annäherungen an eine vereinheitlichte Theorie der Information}}. Innsbruck: Studienverlag, pp. 69-99.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Auto-reproducci%C3%B3n&amp;diff=39242</id>
		<title>gB:Auto-reproducción</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Auto-reproducci%C3%B3n&amp;diff=39242"/>
		<updated>2026-04-29T07:01:04Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1012&lt;br /&gt;
| Curator = Wolfgang Hofkirchner&lt;br /&gt;
| Author = José María Díaz-Nafría//Wolfgang Hofkirchner&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = TUI&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = self-reproduction&lt;br /&gt;
| fr = autoreproduction&lt;br /&gt;
| de = Selbstwiedererzeugung&lt;br /&gt;
| Also = gB:Self-reproduction&lt;br /&gt;
}}&lt;br /&gt;
Usado en la [[gB:Teoría Unificada de la Información (TUI)|Teoría Unificada de la Información (TUI)]] como un proceso intermedio —en sentido evolutivo— de los sistemas de información, la {{gb_em|auto-reproducción}} es un tipo más elaborado de proceso [[gB:Auto-reestructuración|auto-reestructurativo]], que hace referencia a la capacidad de los sistemas auto-organizativos que no solamente cambian su estructura en un sentido más o menos elegido por ellos mismos, sino que además introducen estas estructuras modificadas en un contexto más amplio: el de cómo hacer que éstas contribuyan a mantener su propia existencia. Aquí las estructuras funcionales ya no son simples patrones, sino algo que contiene significado, y este algo será aquí llamado símbolo, de modo que la producción de signos en esta etapa evolutiva de los sistemas vivos pasa de la formación de patrones a la formación de símbolos.&lt;br /&gt;
&lt;br /&gt;
Los sistemas auto-reproductivos se consideran como una etapa evolutiva (llamada biótica o viviente) entre los [[gB:Auto-reestructuración|auto-reestructurativos]] y los [[gB:Auto-re-creación|auto-recreativos]], de modo que comportan un caso especial de sistemas auto-reestructurativos, así como un caso más general que los auto-recreativos.&lt;br /&gt;
&lt;br /&gt;
En lo que respecta a la evolución de la relación semiótica, se observa aquí una ramificación en la que el plano sintáctico se disocia respecto al semántico-pragmático. El primero se refiere simplemente a las sensaciones de los sistemas vivos. Dichas sensaciones —en el nivel sintáctico— consisten en re-estructuraciones auto-organizadas evocadas por las perturbaciones ambientales y limitadas por la “oferta de los mecanismos sensitivos”, en un proceso recursivo de producción simbólica. Sin embargo, en el plano semántico-pragmático se desenvuelven las acciones de acuerdo a las sensaciones. Puesto que los sistemas vivos actúan de acuerdo con lo que dichas sensaciones signifiquen en términos de relevancia para la supervivencia, se puede hablar tanto de significado como de acción, aunque de un modo indisoluble: la diferencia sintáctica se traduce en una diferencia en relación al objetivo de supervivencia, de modo que los signos representan ahora la aptitud del sistema hacia las condiciones del entorno (mientras que en los sistemas auto-reestructurativos se habla de reflexión, ahora se puede hablar de representación).&lt;br /&gt;
&lt;br /&gt;
Los sistemas auto-organizativos en el nivel biótico son capaces de reproducirse a sí mismos. Obsérvese que “reproducción” en dicho contexto no es a lo que los biólogos suelen referirse. La noción incluye el sentido estrecho biológico pero va más allá. Se refiere a la capacidad del sistema de mantenerse a sí mismo —un sentido que usualmente acompaña la noción en un contexto sociológico—. Este tipo de reproducción puede denominarse, siguiendo a Maturana y Varela, [[gB:autopoiesis|autopoiesis]]. Por tanto, los sistemas vivos pueden llamarse “sistemas autopoiéticos”. La {{gb_em|autopoiesis}} es un refinamiento, así como un desarrollo ulterior, de la auto-organización disipativa ([[gB:Auto-reestructuración|auto-reestructuración]]).&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* FENZL, N. y HOFKIRCHNER, W. (1997). “Information Processing in Evolutionary Systems. An Outline Conceptual Framework for a Unified Information Theory”. En: Schweitzer, F. (Ed.), {{gb_em|Self-Organization of Complex Structures: From Individual to Collective Dynamics}}. London: Gordon and Breach, pp. 59-70.&lt;br /&gt;
* FLEISSNER, P. y HOFKIRCHNER, W. (1996). “Emergent Information. Towards a unified information theory”. {{gb_em|BioSystems}}, 38 (2-3), pp. 243-248.&lt;br /&gt;
* HOFKIRCHNER, W. (1998). “Information und Selbstorganisation – Zwei Seiten einer Medaille”. En: Fenzl, N., Hofkirchner, W. y Stockinger, G. (Eds.), {{gb_em|Information und Selbstorganisation. Annäherungen an eine vereinheitlichte Theorie der Information}}. Innsbruck: Studienverlag, pp. 69-99.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Auto-regulaci%C3%B3n_vs._regulaci%C3%B3n_autom%C3%A1tica&amp;diff=39241</id>
		<title>gB:Auto-regulación vs. regulación automática</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Auto-regulaci%C3%B3n_vs._regulaci%C3%B3n_autom%C3%A1tica&amp;diff=39241"/>
		<updated>2026-04-29T06:58:03Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1011&lt;br /&gt;
| Curator = Basil Mohammed Al Hadithi&lt;br /&gt;
| Author = José María Díaz-Nafría//Basil Mohammed Al Hadithi&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = cibernética//teoría de sistemas//psicología//sociología//teoría de control&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = self-regulation vs. Automatic regulation&lt;br /&gt;
| fr = autorégulation vs. régulation automatique&lt;br /&gt;
| de = Selbstregelung vs. automatische Regelung&lt;br /&gt;
| Also = gB:Self-regulation vs. Automatic regulation&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== El campo semántico de la auto-regulación ==&lt;br /&gt;
Auto-regulación es usado en teoría de sistemas y en cibernética en el sentido de {{gb_em|homeostasis}} ([[gB:Realimentación|realimentación]]), es decir, la capacidad de un sistema para mantenerse en una situación de equilibrio.&lt;br /&gt;
&lt;br /&gt;
En este sentido, “autorregulación” es también usado en psicología, aunque no en cuanto a “regulación automática” sino en cuanto a “regulación” o “control por uno mismo”, también llamado autocontrol. Se trata, por tanto, de la capacidad de controlar las propias emociones, deseos y acciones mediante una determinación voluntaria y consciente. En cuanto a que “automático” se usa en un sentido maquinal y opuesto a lo consciente, se produce en consecuencia una cierta oposición semántica entre el sentido psicológico de la “auto-regulación” o “auto-control”, por una parte, y la “regulación automática” o “control automático”, por la otra.&lt;br /&gt;
&lt;br /&gt;
Dentro del ámbito de sistemas electrónicos y en la ingeniería de control ({{gb_em|teoría de control}}) se usa el mismo concepto bajo el término de “regulación automática” o “control automático”, y se usa el concepto de “sistema de control” para referirse al conjunto de elementos —físicos y lógicos— que cooperan para lograr la situación de equilibrio.&lt;br /&gt;
&lt;br /&gt;
== Breve historia de la regulación automática ==&lt;br /&gt;
El concepto de máquinas automáticas se remonta a la antigüedad, relacionado con mitos de seres mecánicos vivientes. Los autómatas, o máquinas semejantes a personas, ya aparecían en los relojes de las iglesias medievales, alcanzando considerable fama las ingeniosas criaturas mecánicas ideadas por los relojeros del siglo XVIII.&lt;br /&gt;
&lt;br /&gt;
Algunos de los primeros autómatas empleaban mecanismos de realimentación para corregir errores, basados en principios de funcionamiento que siguen empleándose actualmente. Entre los primeros dispositivos de control automático recogidos en la literatura encontramos en la {{gb_em|Pneumatica}} de Herón de Alejandría (c. 150 a.C.) un control del nivel del líquido de un tanque que es muy similar a lo que hoy en día se usa en las cisternas de los retretes. La tradición greco-bizantina —simbolizada por Herón y la escuela de Alejandría— fue desarrollada en el mundo islámico, yendo considerablemente más allá de los logros greco-bizantinos. En la literatura pueden encontrarse algunos sistemas de regulación automática relevantes, como los del inventor y científico árabe Al-Jazari (c. 1206), cuyos relojes de agua representan una notable evolución del control de nivel de Herón, o los del ingeniero andalusí Ibn Khalaf al-Muradi, que inventó los engranajes segmentales y planetarios empleados en relojes. Estos desarrollos tuvieron gran influencia en la Europa cristiana de la baja edad media, en la que algunos inventores de relieve —que en ocasiones se vieron forzados a esconder sus artefactos— pueden considerarse predecesores de la automática, como San Alberto Magno, Pierre de Maricourt o Rogelio Bacon (Bacon, 1859).&lt;br /&gt;
&lt;br /&gt;
Sin embargo, a pesar de los avances prácticos, detrás de estas invenciones existía una relativa ausencia de desarrollos teóricos y matemáticos. El primer trabajo de lo que puede denominarse {{gb_em|teoría clásica de control}} puede encontrarse en una contribución significativa relativa al regulador centrífugo de Boulton y Watt diseñado en 1788 (Rumford, 1798). Este dispositivo constaba de dos bolas metálicas unidas al eje motor de una máquina de vapor y conectadas con una válvula que regulaba el flujo de vapor. A medida que aumentaba la velocidad de la máquina de vapor, las bolas se alejaban del eje debido a la fuerza centrífuga, con lo que cerraban la válvula. Esto hacía que disminuyera el flujo de vapor a la máquina y, por tanto, la velocidad.&lt;br /&gt;
&lt;br /&gt;
== Automatización industrial ==&lt;br /&gt;
El control por realimentación, el desarrollo de herramientas especializadas y la división del trabajo en tareas más pequeñas que pudieran realizar obreros o máquinas fueron ingredientes esenciales en la automatización de las fábricas en el siglo XVIII. A medida que mejoraba la tecnología, se desarrollaron máquinas especializadas para tareas como poner tapones a las botellas o verter caucho líquido en moldes para neumáticos. Sin embargo, ninguna de estas máquinas tenía la versatilidad del brazo humano, y no podía alcanzar objetos alejados y colocarlos en la posición deseada.&lt;br /&gt;
&lt;br /&gt;
Un {{gb_em|sistema de fabricación automático}} está diseñado con el fin de usar la capacidad de las máquinas para llevar a cabo determinadas tareas anteriormente efectuadas por seres humanos, y para controlar la secuencia de las operaciones sin intervención humana. El término {{gb_em|automatización}} también se ha utilizado para describir sistemas no destinados a la fabricación en los que dispositivos programados o automáticos pueden funcionar de forma independiente o semi-independiente del control humano. En comunicaciones, aviación y astronáutica, dispositivos como los equipos automáticos de conmutación telefónica, los pilotos automáticos y los sistemas automatizados de guía y control se utilizan para efectuar diversas tareas con más rapidez o mejor de lo que podría hacerlo un ser humano.&lt;br /&gt;
&lt;br /&gt;
== Regulación social de la automática ==&lt;br /&gt;
A tenor de un concepto acrítico dominante del progreso social, la automatización se ha considerado como uno de sus pilares, aumentando la productividad y reduciendo la servumbre, por tanto, contribuyendo al bienestar general. Sin embargo, deben considerarse los problemas políticos, sociales y antropológicos aparecidos con la automatización industrial —tal y como fueron tempranamente advertidos por Norbert Wiener (1989)— con objeto de evaluar y conducir los rumbos de la automatización. Un estudio crítico en profundidad cabe concebirse como un medio para lograr una auto-regulación (en el sentido arriba indicado) social en estas cuestiones. No obstante, como argumentó Noble (1993) en su {{gb_em|Locura de la automatización}}, tal actitud crítica ha sido sistemáticamente evadida así como encapsulada en una ideología tecnocrática (Habermas, 1970). Según el análisis de Noble, el avance de la automatización en los procesos industriales no daba cuenta de auténticos beneficios económicos, sino más bien de intereses militares, de poder y de clase.&lt;br /&gt;
&lt;br /&gt;
Yendo aún más allá de la automatización industrial, las nuevas [[gB:Tecnologías_de_la_información_y_la_comunicación_(TIC)|tecnologías de la información y la comunicación]] (TIC) han sido consideradas como medios para la {{gb_em|automatización del trabajo intelectual}} (Diani, 1996). Nuevos problemas sociales emanados en este campo debieran también abordarse en una amplia evaluación, reflexión y toma de decisiones crítica respecto a la automatización de cualquier tipo (Chollet y Rivière, 2010). Tanto la teoría crítica como la reflexión ética se han planteado como escenarios para la consideración urgente de estos desafíos sociales ([[gB:Teoría_crítica_de_la_información,_la_comunicación,_los_medios_y_la_tecnología|Teoría crítica de la información]], ética de la información, roboética).&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* AL-JAZARÍ (c. 1206), trad. (1973). {{gb_em|The Book of Knowledge of Ingenious Mechanical Devices: Kitáb fí ma&#039;rifat al-hiyal al-handasiyya}}. Berlin: Springer.&lt;br /&gt;
* BACON, Rogerio (1859). “Epistula de secretis operibus artis naturae”. En: {{gb_em|Opera quaedam hactenus inedita}}. London: Brewer.&lt;br /&gt;
* CHOLLET, M. y RIVIÈRE, P. (Coords.) (2010). {{gb_em|Internet: révolution culturelle. Manier de voir}}, 109.&lt;br /&gt;
* DIANI, M. (1996). “Individualisation at work: office automation and occupational identity”. En: Lash, S., Szerszynski, B. y Wynne, B. (Eds.) (1996). {{gb_em|Risk, Environment and Modernity: Towards a New Ecology}}. London: Sage Publications, pp. 154-168.&lt;br /&gt;
* HABERMAS, Jürgen (1970). “Technology and Science as Ideology”. En: {{gb_em|Toward a Rational Society}}. J. Shapiro (Trad.). Boston: Beacon Press.&lt;br /&gt;
* HERO OF ALEXANDRIA (c. 150 a.C.); Bennet Woodcroft (Trad.) (1851). {{gb_em|Pneumatics of Hero of Alexandria}}. London: Taylor Walton and Maberly. [En línea] Rochester, NY: University of Rochester &amp;lt;http://www.history.rochester.edu/steam/hero/index.html&amp;gt; [visitado: 10/03/2010].&lt;br /&gt;
* HOA, W. K., HONGA, Y., HANSSON, A., HJALMARSSON, H. y DENGA, J. W. (2003). “Relay auto-tuning of PID controllers using iterative feedback tuning”. {{gb_em|Automatica}}, 39(2003), pp. 149-157.&lt;br /&gt;
* NOBLE, David F. (1993). {{gb_em|Automation Madness, or the unautomatic history of automation}}. Chicago: Charles H. Kerr.&lt;br /&gt;
* OGATA, K. (1998). {{gb_em|Ingeniería de control moderna}}. México D.F.: Prentice-Hall Hispanoamericana.&lt;br /&gt;
* RASHED, Roshdi y MORELON, Régis (1996). {{gb_em|Encyclopedia of the History of Arabic Science}}. New York: Routledge.&lt;br /&gt;
* RUMFORD, B. C. (1798). “An Enquiry concerning the Source of Heat which is excited by Friction”. {{gb_em|A Journal of Natural Philosophy, Chemistry, and the Arts}}, vol. 2 (April 1798-March 1799), pp. 106-118.&lt;br /&gt;
* WIENER, Norbert (1989). {{gb_em|The Human Use of Human Beings. Cybernetics and Society}}. London: Free Association Books (Publicado originalmente en 1950).&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Auto-re-creaci%C3%B3n&amp;diff=39240</id>
		<title>gB:Auto-re-creación</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Auto-re-creaci%C3%B3n&amp;diff=39240"/>
		<updated>2026-04-28T07:50:30Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1009&lt;br /&gt;
| Curator = Wolfgang Hofkirchner&lt;br /&gt;
| Author = José María Díaz-Nafría//Wolfgang Hofkirchner&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = TUI&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = self-re-creation&lt;br /&gt;
| fr = auto-ré-création&lt;br /&gt;
| de = Selbst-Re-Kreation&lt;br /&gt;
| Also = gB:Self-re-creation&lt;br /&gt;
}}&lt;br /&gt;
Usado en la [[gB:Teoría Unificada de la Información (TUI)|Teoría Unificada de la Información (TUI)]] como uno de los tres procesos básicos de los sistemas de información. La {{gb_em|auto-re-creación}} es el tipo más elaborado de los sistemas auto-organizativos y se refiere a la capacidad de los sistemas (llamados auto-re-creativos) que pueden crear las condiciones necesarias no solo para su reproducción, sino para crearse a sí mismos de acuerdo con los objetivos que ellos mismo han determinado. En su capacidad de alterar el entorno para su propio asentamiento, exhiben aún mayor capacidad de adaptación que los sistemas meramente bióticos ([[gB:Auto-reproducción|auto-reproductivos]]) de los que forman parte y suponen el estadio evolutivo más avanzado (o fase de evolución cultural).&lt;br /&gt;
&lt;br /&gt;
Pueden clasificarse como auto-determinantes en la medida que bajo ciertas circunstancias sus capacidades auto-organizativas ofrecen un conjunto de posibilidades que por sí mismos pueden elegir. Puesto que dicha elección toma la forma de una decisión adoptada bajo la condición de una irreducible libertad de elección, los niveles pragmático y semántico quedan separados. Consecuentemente, en el estadio de sistemas sociales, auto-recreativos, auto-determinantes la relación semiótica se despliega en sus tres niveles de producción sígnica, que cabe describirse en términos de formación de ideas. Dicha formación se produce en tres pasos: &lt;br /&gt;
&lt;br /&gt;
# La percepción de señales desde fuera del sistema hace emerger un signo que es una modificación de la estructura del sistema.&lt;br /&gt;
# La interpretación de las percepciones por las que se modifica el estado del sistema y emerge otro signo que significa algo que es dado al sistema como su objeto.&lt;br /&gt;
# La evaluación de las interpretaciones que hacen que otro signo emerja, por medio del cual el sistema como sujeto completa su significación considerando al objeto como un estado inicial para alcanzar el final y afecta al comportamiento del sistema de modo que puede ser modificado.&lt;br /&gt;
&lt;br /&gt;
El signo, en cada uno de estos tres niveles es denominado (en la TUI) respectivamente: [[gB:Dato|dato]], [[gB:Conocimiento|conocimiento]] y sabiduría, correspondiendo cada uno de ellos al ámbito de las capacidades perceptivas, cognitivas y evaluativas, que en conjunto comportan las características de la conciencia que aparece propiamente en sistemas. En cada paso se produce un salto en la auto-organización que supone un punto de partida desde el cual otro puede seguirle o no.&lt;br /&gt;
&lt;br /&gt;
Los sistemas auto-organizativos a nivel humano, social o cultural son capaces de construirse a sí mismos de nuevo, inventándose a sí mismos, creándose a sí mismos una y otra vez. Erich Jantsch denominó a esta capacidad “re-creative”. Así los “sistemas re-creativos” constituyen una rama de sistemas autopoiéticos conducente a un nuevo nivel: (Auto-)Re-creación es un refinamiento y un desarrollo ulterior de la auto-organización autopoiética ([[gB:Auto-reproducción|auto-reproducción]]).&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* FENZL, N. y HOFKIRCHNER, W. (1997). “Information Processing in Evolutionary Systems. An Outline Conceptual Framework for a Unified Information Theory”. En: Schweitzer, F. (Ed.), {{gb_em|Self-Organization of Complex Structures: From Individual to Collective Dynamics}}. London: Gordon and Breach, pp. 59-70.&lt;br /&gt;
* FLEISSNER, P. y HOFKIRCHNER, W. (1996). “Emergent Information. Towards a unified information theory”. {{gb_em|BioSystems}}, 38 (2-3), pp. 243-248.&lt;br /&gt;
* HOFKIRCHNER, W. (1998). “Information und Selbstorganisation – Zwei Seiten einer Medaille”. En: Fenzl, N., Hofkirchner, W. y Stockinger, G. (Eds.): {{gb_em|Information und Selbstorganisation. Annäherungen an eine vereinheitlichte Theorie der Information}}. Innsbruck: Studienverlag, pp. 69-99.&lt;br /&gt;
* JANTSCH, E. (1987). “Erkenntnistheoretische Aspekte der Selbstorganisation natürlicher Systeme”. En: Schmidt, S. J. (Ed.): {{gb_em|Der Diskurs des Radikalen Konstruktivismus}}. Frankfurt: Suhrkamp, pp. 159-191.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Robo%C3%A9tica&amp;diff=39239</id>
		<title>gB:Roboética</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Robo%C3%A9tica&amp;diff=39239"/>
		<updated>2026-04-28T07:48:08Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1075&lt;br /&gt;
| Curator = Rafael Capurro&lt;br /&gt;
| Author = Rafael Capurro&lt;br /&gt;
| Translator = José María Díaz-Nafría&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = TIC//robótica//ética de la información&lt;br /&gt;
| Type = Concept:trans-disciplina&lt;br /&gt;
| en = roboethics&lt;br /&gt;
| fr = roboéthique&lt;br /&gt;
| de = Roboethik&lt;br /&gt;
| Also = gB:Roboethics&lt;br /&gt;
}}&lt;br /&gt;
Tal y como Capurro y Nagenborg (2009) sostienen, la ética y la robótica constituyen dos disciplinas, la una dedicada a las normas y valores que implícita o explícitamente subyacen al comportamiento humano y la otra a la producción de agentes artificiales, con un cierto grado de autonomía basada en reglas o programas definidas por sus creadores. Desde que el primer “robot” apareciera en escena en la obra de Karel Čapek (1921), visiones de un mundo habitado por humanos y robots han dado lugar a un número ilimitado de relatos, canciones, películas y videojuegos tanto utópicos como antiutópicos.&lt;br /&gt;
&lt;br /&gt;
La interacción humano-robot hace aparecer hoy en día graves cuestiones éticas menos ambiciosas pero de mayor importancia práctica que la posibilidad de la creación de máquinas morales, que serían más que máquinas con un código ético. Pero, aún cuando el proceso de invención y desarrollo de las tecnologías robóticas ha tenido lugar en una escena global en la que han tomado parte muy diversas culturas y por tanto también sistemas de valores, creencias y expectativas, en realidad una roboética intercultural se encuentra aún en su infancia, no menos que una robótica intercultural ([[gB:Ética_intercultural_de_la_informacion|Ética Intercultural de la Información]]).&lt;br /&gt;
&lt;br /&gt;
A grandes rasgos pueden identificarse en las tradiciones occidental y oriental las siguientes teorías éticas, valores y principios morales que son y que dan lugar a diversas cuestiones relativas a la interacción humano-robot:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Europa&#039;&#039;&#039;: Deontología (autonomía, dignidad humana, privacidad, antropocentrismo): Escepticismo respecto a los robots.&lt;br /&gt;
* &#039;&#039;&#039;EE.UU.&#039;&#039;&#039; (y la tradición anglosajona): Ética utilitaria: ¿los robots “nos” harán más felices?&lt;br /&gt;
* &#039;&#039;&#039;Tradición oriental&#039;&#039;&#039; (Budismo): Robots como un coparticipante más en la interacción global de las cosas.&lt;br /&gt;
&lt;br /&gt;
La diferente moralidad y ética debiera entenderse como sigue:&lt;br /&gt;
&lt;br /&gt;
* Ética como una reflexión crítica (o problemática) de la moral.&lt;br /&gt;
* Ética como la ciencia de las morales, así como robótica es la ciencia de los robots.&lt;br /&gt;
&lt;br /&gt;
Diferentes tradiciones ópticas o morales históricamente concretas son, por ejemplo:&lt;br /&gt;
&lt;br /&gt;
* En &#039;&#039;&#039;Japón&#039;&#039;&#039;: {{gb_em|Seken}} (moral japonesa tradicional), {{gb_em|Shakai}} (moral occidental importada) e {{gb_em|Ikai}} (antigua tradición animista).&lt;br /&gt;
* En el &#039;&#039;&#039;“Lejano Oeste”&#039;&#039;&#039;: ética del bien (Platón, Aristóteles), ética cristiana, ética utilitaria, ética deontológica (Kant).&lt;br /&gt;
&lt;br /&gt;
La dimensión ontológica, el ser o la nada (budista), puede concebirse como el espacio abierto de posibilidades que nos permite criticar moralidades concretas u ‘ónticas’. La relación humana con tales dimensiones ontológicas está siempre enraizada en disposiciones básicas (como tristeza, alegría, asombro, etc.) a través de las cuales la unicidad de la existencia del mundo y humana se experimenta de modo diverso en las diferentes culturas. Una futura roboética intercultural debiera reflexionar tanto en las dimensiones ónticas como en las ontológicas para la creación y el uso de robots en diferentes contextos culturales y respecto a diferentes objetivos. En el libro antes mencionado de Capurro y Nagenborg (2009) pueden encontrarse tendencias, contribuciones y bibliografía dedicada a esta singular encrucijada de ética y robótica.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* ČAPEK, Karel (1920). {{gb_em|R.U.R. (Rossumovi univerzální roboti)}}. [Trad. al español: {{gb_em|R.U.R.: Robots Universales Rossum}}. Madrid: Alianza Editorial, 1966].&lt;br /&gt;
* CAPURRO, Rafael y NAGENBORG, Michael (Eds.) (2009). “Introduction”. En: {{gb_em|Ethics and Robotics}}. Berlin: Akademische Verlagsgesellschaft.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Reversibilidad_vs._Irreversibilidad&amp;diff=39238</id>
		<title>gB:Reversibilidad vs. Irreversibilidad</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Reversibilidad_vs._Irreversibilidad&amp;diff=39238"/>
		<updated>2026-04-28T07:45:25Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1074&lt;br /&gt;
| Curator = Peter Karl Fleissner&lt;br /&gt;
| Author = Peter Karl Fleissner&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = teoría de sistemas&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = reversibility vs. non-reversibility&lt;br /&gt;
| fr = réversibilité vs. irréversibilité&lt;br /&gt;
| de = Reversibilität vs. Irreversibilität&lt;br /&gt;
| Also = gB:Reversibility vs. Non-reversibility&lt;br /&gt;
}}&lt;br /&gt;
Reversibilidad y no-reversibilidad o irreversibilidad son propiedades de sistemas respecto a sus cambios internos. Estrictamente, nunca hay tal cosa como reversibilidad completa, porque en el nivel macroscópico y para sistemas físicos, el paso del tiempo no puede revertirse; esto es, en el continuo espacio-temporal sólo son posibles movimientos hacia puntos más lejanos en el tiempo. Si prescindimos del tiempo, la reversibilidad pura tampoco es posible en sistemas cerrados —según nos enseña la termodinámica— porque cualquier cambio acompañado por una diferencia no puede ser realizado sin una pérdida de energía y, en general, con un aumento de entropía (aunque de acuerdo con Ilya Prigogine, el caso de un decrecimiento de entropía es un incremento de orden localmente posible). Por lo que sabemos hoy, la irreversibilidad es una propiedad general de todos los procesos en la evolución: en los niveles cósmico, geológico, filogenético, ontogenético, social y económico. La reversibilidad sólo puede ocurrir si se hace caso omiso de los cambios de energía/entropía.&lt;br /&gt;
&lt;br /&gt;
Por razones prácticas es importante saber si los cambios cualitativos o cuantitativos pueden compensarse o no (por ejemplo, cambios patológicos en tejidos u órganos, reacciones químicas). Jacob Segal (1958) aporta los siguientes grados de reversibilidad: &lt;br /&gt;
&lt;br /&gt;
# Procesos reversibles espontánea y directamente (con pérdida de tiempo y energía).&lt;br /&gt;
# Procesos reversibles espontáneos e indirectos (por vías distintas que en el punto 1).&lt;br /&gt;
# Procesos reversibles directos no espontáneos (necesitan energía adicional).&lt;br /&gt;
# Procesos no espontáneos pero indirectamente reversibles (requieren condiciones adicionales).&lt;br /&gt;
# Irreversibilidad absoluta.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* SEGAL, Jacob (1958). {{gb_em|Die dialektische Methode in der Biologie}}. Berlin: Dietz Verlag.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Representaci%C3%B3n&amp;diff=39237</id>
		<title>gB:Representación</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Representaci%C3%B3n&amp;diff=39237"/>
		<updated>2026-04-28T07:43:33Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1073&lt;br /&gt;
| Curator = Manuel Campos Havidich&lt;br /&gt;
| Author = Manuel Campos Havidich&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = teoría de la Comunicación//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = representation&lt;br /&gt;
| fr = représentation&lt;br /&gt;
| de = Darstellung, Abbildung&lt;br /&gt;
| Also = gB:Representation&lt;br /&gt;
}}&lt;br /&gt;
De todas las cosas que reciben la denominación “representaciones” en el lenguaje ordinario, nos van a interesar aquellas que, por su diseño, y si no son fallidas, expresan un contenido o proposición. Podemos llamarlas {{gb_em|representaciones proposicionales}}.&lt;br /&gt;
&lt;br /&gt;
Un segundo (y más frecuente; ver [[gB:Correlación|correlación]]) uso de la palabra “información” se refiere a los contenidos expresados por las unidades declarativas de las lenguas o códigos. Podemos llamar a estas unidades {{gb_em|representaciones proposicionales}}. El contenido de una representación proposicional —es decir, la {{gb_em|proposición}} expresada por ella, o lo que esa representación {{gb_em|dice}} a los usuarios competentes del lenguaje— con frecuencia es descrito como la {{gb_em|información}} transportada por la representación. En contraste con lo que ocurre con la antes mencionada noción de la información, el contenido de una representación proposicional no depende de la existencia de una correlación, sino del diseño de la correspondiente lengua o [[gB:Código|código]]. Según este punto de vista, además, el contenido puede ser falso, y una representación proposicional puede llevar información falsa.&lt;br /&gt;
&lt;br /&gt;
Mientras que en el caso de la primera noción de información, parece que pueda reducirse a la idea de {{gb_em|correlación}}, en el caso de la segunda noción, parece poder reducirse a la idea de {{gb_em|contenido}}.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* MILLIKAN, Ruth (2004). {{gb_em|Varieties of Meaning: The Jean-Nicod lectures 2002}}. Cambridge: MIT Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Repositorio&amp;diff=39236</id>
		<title>gB:Repositorio</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Repositorio&amp;diff=39236"/>
		<updated>2026-04-28T07:42:29Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1072&lt;br /&gt;
| Curator = Leticia Barrionuevo&lt;br /&gt;
| Author = Leticia Barrionuevo&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = investigación científica//sociedad de la información&lt;br /&gt;
| Type = Concept:recurso&lt;br /&gt;
| en = repository&lt;br /&gt;
| fr = dépôt, référentiel&lt;br /&gt;
| de = Aufbewahrungsort&lt;br /&gt;
| Also = gB:Repository&lt;br /&gt;
}}&lt;br /&gt;
Son muchas las definiciones que se han dado de repositorio, pero siguiendo la opinión de Melero (2005, p. 260), los repositorios entendidos como archivos donde se almacenan recursos digitales (textuales, de imagen o sonido) surgen de la llamada comunidad {{gb_em|e-print}}, preocupada por maximizar la difusión y el impacto de los trabajos científicos depositados en los mismos.&lt;br /&gt;
&lt;br /&gt;
Los repositorios son archivos digitales que contienen información científica generada por universidades o centros de investigación, a la que se puede acceder libre y gratuitamente a través de la Web. Los beneficios y ventajas que estos depósitos abiertos aportan al mundo científico hacen que se manifiesten como una gran revolución en el campo de la investigación y su existencia esté avalada y apoyada por multitud de instituciones de todos los países. Permiten la recuperación, reutilización y preservación de los resultados de la investigación, además de favorecer la difusión y la visibilidad de la producción científica, garantizando de forma efectiva el avance de la ciencia.&lt;br /&gt;
&lt;br /&gt;
Por su parte, López Medina (2007, p. 3) define repositorio digital como un sistema en red formado por hardware, software, {{gb_em|data}} y procedimientos, con las siguientes características:&lt;br /&gt;
&lt;br /&gt;
* Contiene objetos digitales.&lt;br /&gt;
* Contiene metadatos.&lt;br /&gt;
* Asegura la identificación persistente del objeto mediante un identificador único persistente.&lt;br /&gt;
* Ofrece funciones de gestión, archivo y preservación de los objetos.&lt;br /&gt;
* Proporciona un acceso fácil, controlado y estandarizado a los objetos.&lt;br /&gt;
* Ofrece los sistemas adecuados de seguridad para los objetos y los metadatos.&lt;br /&gt;
* Es sostenible en el tiempo.&lt;br /&gt;
&lt;br /&gt;
La mayoría de los autores coinciden en señalar dos tipos de repositorios digitales: los &#039;&#039;&#039;temáticos&#039;&#039;&#039;, que contienen contenidos en función de un área del conocimiento concreta y los &#039;&#039;&#039;institucionales&#039;&#039;&#039; que son en los que nos vamos a centrar hasta el final de nuestro trabajo.&lt;br /&gt;
&lt;br /&gt;
Lynch (2003) define repositorio institucional como un conjunto de servicios que una institución ofrece a su comunidad para la gestión y difusión de los contenidos digitales generados por los miembros de esa comunidad. Es, en su nivel más básico, un compromiso organizativo para el control de esos materiales digitales, incluyendo su preservación, su organización, acceso y distribución.&lt;br /&gt;
&lt;br /&gt;
López Medina (2007) otorga a los repositorios institucionales las siguientes funciones:&lt;br /&gt;
&lt;br /&gt;
* Es una herramienta común de gestión de contenidos digitales de la institución y de apoyo a la investigación y el aprendizaje.&lt;br /&gt;
* Es un vehículo proactivo del {{gb_em|Open Access}}, coincidiendo aquí con Suber.&lt;br /&gt;
* Es un lugar de almacenamiento y preservación.&lt;br /&gt;
&lt;br /&gt;
Por su parte, Melero (2005) les confiere funciones como la de servir de perfil, sello de calidad y “marca” de identidad de la institución, así como la de favorecer la difusión, la visibilidad, la preservación y aumentar el impacto de la producción científica.&lt;br /&gt;
&lt;br /&gt;
Otra cualidad técnica importante de los repositorios institucionales es la &#039;&#039;&#039;interoperabilidad&#039;&#039;&#039; o capacidad de intercambiar datos, a pesar de que cada uno esté creado bajo un programa informático u otro, y presente características formales diferentes. Gracias a la Iniciativa de Archivos Abiertos u {{gb_em|Open Archives Initiative}} (OAI), que no se puede confundir con las siglas del {{gb_em|Open Access}} (OA), la interoperabilidad entre repositorios se puede conseguir. Atendiendo a la definición de Suber (2007), la OAI, iniciada en 1999, define un protocolo para recoger metadatos de ficheros de datos que residen en archivos separados. Cuando el protocolo es utilizado por servicios de datos como motores de búsqueda, éstos pueden procesar los datos de archivos separados como si residiesen en un solo archivo. En términos técnicos, el protocolo de recolección de metadatos soporta la interoperabilidad.&lt;br /&gt;
&lt;br /&gt;
Como afirma Melero (2005, p. 261), la OAI propugna la creación de repositorios abiertos y distribuidos que contengan al menos los metadatos de los recursos que albergan o que describen. Sus objetivos son los de crear y promover estándares de interoperatividad que contribuyen a facilitar la difusión eficaz de los contenidos de estos archivos. Uno de los logros alcanzados por este proyecto ha sido la creación de un protocolo de metadatos denominado OAI-PMH ({{gb_em|Open Archives Initiative-Protocol for Metadata Harvesting}}), que es el que utilizan, entre otros, los repositorios institucionales para la transmisión de contenidos.&lt;br /&gt;
&lt;br /&gt;
Siguiendo la historia del protocolo descrita por Barrueco y Subirats (2003), la versión 1.0 se publica en el 2001, y un año más tarde lo hace la 2.0, que es en la que nos encontramos en la actualidad. Su arquitectura se basa en clientes, o archivos que proporcionan la información, y servidores, recolectores o servicios que toman los datos, con el objetivo de incorporarles algún valor añadido y presentarlos a los usuarios finales. Así pues tendremos los proveedores de datos ({{gb_em|data providers}}), que serán los repositorios propiamente dichos, y los proveedores de servicios ({{gb_em|service providers}}), que serán los que lanzan las peticiones a los anteriores para recuperar la información. Esta información tiene que ir codificada en metadatos {{gb_em|Dublin Core}} sin cualificar, para minimizar los problemas derivados de las conversiones de múltiples formatos.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* BARRUECO CRUZ, J. M. y SUBIRATS COLL, I. (2003). “Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH): descripción, funciones y aplicaciones de un protocolo”. {{gb_em|El profesional de la información}}, vol. 12, n. 2, p. 99-106. [En línea] &amp;lt;https://doi.org/10.1076/epri.12.2.99.15473&amp;gt; [visitado: 03/02/2009]&lt;br /&gt;
* LÓPEZ MEDINA, A. (2007). {{gb_em|Guía para la puesta en marcha de un repositorio institucional}}. Madrid: SEDIC.&lt;br /&gt;
* LYNCH, C. A. (2003). “Institutional repositories: essential infrastructure for scholarship in the Digital Age”. {{gb_em|ARL: Bimonthly report}}, n. 226. [En línea] &amp;lt;https://dx.doi.org/10.1353/pla.2003.0039&amp;gt; [visitado: 03/02/2009]&lt;br /&gt;
* MELERO, R. (2005). “Acceso abierto a las publicaciones científicas: definición, recursos, copyright e impacto”. {{gb_em|El profesional de la información}}, vol. 14, n. 4, p. 255-266. [En línea] &amp;lt;https://doi.org/10.3145/epi.2005.jul.03&amp;gt; [visitado: 03/02/2009]&lt;br /&gt;
* OPEN ARCHIVES INITIATIVE (1999). [En línea] &amp;lt;http://www.openarchives.org/&amp;gt; [visitado: 03/02/2009]&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Regularidad&amp;diff=39235</id>
		<title>gB:Regularidad</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Regularidad&amp;diff=39235"/>
		<updated>2026-04-28T07:38:08Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1071&lt;br /&gt;
| Curator = Manuel Campos Havidich&lt;br /&gt;
| Author = Manuel Campos Havidich&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = epistemología//estadística//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = regularity&lt;br /&gt;
| fr = régularité&lt;br /&gt;
| de = Regelmäßigkeit&lt;br /&gt;
| Also = gB:Regularity&lt;br /&gt;
}}&lt;br /&gt;
&#039;&#039;&#039;~ Estricta&#039;&#039;&#039;: Se da una regularidad estricta (la {{gb_em|conjunción constante}} de Hume) cuando cada hecho de un cierto tipo A va acompañado de un hecho de un cierto tipo B. Dichos tipos vienen determinados por los universales ejemplificados en los hechos.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;~ Estadística&#039;&#039;&#039;: → {{gb_em|correlación}}.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* MILLIKAN, Ruth (2004). {{gb_em|Varieties of Meaning: The Jean-Nicod lectures 2002}}. Cambridge: MIT Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Capacidad_referencial&amp;diff=39234</id>
		<title>gB:Capacidad referencial</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Capacidad_referencial&amp;diff=39234"/>
		<updated>2026-04-28T07:37:06Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1016&lt;br /&gt;
| Curator = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Author = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = filosofía//lógica//semántica&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = referential ability&lt;br /&gt;
| fr = capacité référentielle&lt;br /&gt;
| de = referenzielle Fähigkeit&lt;br /&gt;
| Also = gB:Referential ability&lt;br /&gt;
}}&lt;br /&gt;
La capacidad referencial es la capacidad de referir. Referimos a algo cuando pensamos o decimos algo sobre ello. Por lo tanto, podemos referir tanto a cosas que existen como a cosas que no existen (por ejemplo, podemos decir muchas cosas sobre los unicornios, y referir a ellos, aunque no existan). En el mismo sentido podemos referir a propiedades, relaciones, eventos, estados de cosas, etc.&lt;br /&gt;
&lt;br /&gt;
¿Está nuestra capacidad referencial siempre mediada por ciertos tipos de descripciones, sentidos, intenciones, connotaciones, etc.? ¿Tiene sentido decir que, al menos en algunos casos, nos referimos al mundo de un modo directo y no mediado? Una respuesta afirmativa a la primera pregunta da lugar a las llamadas “teorías descriptivistas de la referencia”. Por el contrario, una respuesta afirmativa a la segunda da lugar a las teorías de la “referencia directa” (o teorías no-descriptivistas). Frege es el ejemplo paradigmático de descriptivismo. Russell y Kripke son ejemplos paradigmáticos de no-descriptivismo. Stuart Mill también defendió una posición no-descriptivista. Por ello, ser no-descriptivista es “mantener una teoría milleana de la referencia”.&lt;br /&gt;
&lt;br /&gt;
Cruzándose con la tensión mencionada entre teorías descriptivistas y no-descriptivistas de la referencia, hay dos formas principales de explicar nuestra capacidad referencial. Podemos intentar explicarla como algo derivado de ciertas intenciones o podemos intentar explicarla como algo derivado de ciertos hechos objetivos (por ejemplo, hechos causales, hechos informacionales, etc.). El problema es que incluso aunque estuviéramos en la situación ideal de conocer todas las posibles verdades sobre nosotros mismos y sobre el mundo, las referencias de los términos de nuestros lenguajes, y las referencias de nuestros pensamientos, quedarían indeterminadas. Las referencias podrían cambiar sin ningún cambio en los valores de verdad de las sentencias.&lt;br /&gt;
&lt;br /&gt;
La situación que acabamos de describir sería una versión de la tesis de Quine sobre la indeterminación de la referencia. Los valores de verdad pueden quedar determinados por cómo sean las cosas. El mundo puede determinar también las referencias de nuestros lenguajes y pensamientos. Y las referencias pueden determinar los valores de verdad. Sin embargo, hay una radical indeterminación de las referencias por los valores de verdad. Los valores de verdad no determinan las referencias. Más aún, los valores de verdad ni siquiera determinan que consigamos referir a algo. Toda la verdad contenida en una descripción ideal del mundo sería compatible con la no existencia de tal mundo.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* CAMPBELL, J. (2002). {{gb_em|Reference and Consciousness}}. Oxford: Clarendon Press.&lt;br /&gt;
* DONNELLAN, K. (1966). “Reference and Definite Descriptions”. {{gb_em|Philosophical Review}}, 77.&lt;br /&gt;
* EVANS, G. (1982). {{gb_em|The Varieties of Reference}}. Oxford: Clarendon Press.&lt;br /&gt;
* FREGE, G. (1892). “On Sense and Meaning”. En: {{gb_em|Gottlob Frege: Collected Papers on Mathematics, Logic and Philosophy}}. Brian McGuiness et al. (Eds.). Oxford: Blackwell, 1984.&lt;br /&gt;
* FRENCH, P. et al. (Eds.) (1979). {{gb_em|Contemporary Perspectives in Philosophy of Language}}. Minneapolis: University of Minnesota Press.&lt;br /&gt;
* KRIPKE, S. (1972). {{gb_em|Naming and Necessity}}. Oxford: Blackwell.&lt;br /&gt;
* LEPORE, E. y SMITH, B. (2006). {{gb_em|The Oxford Handbook of Philosophy of Language}}. Oxford: Clarendon Press.&lt;br /&gt;
* RECANATI, F. (1993). {{gb_em|Direct Reference}}. Oxford: Blackwell.&lt;br /&gt;
* RUSSELL, B. (1905). “On Denoting”. {{gb_em|Mind}}, 14.&lt;br /&gt;
* STRAWSON, P. (1950). “On Referring”. {{gb_em|Mind}}, 59.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Registro&amp;diff=39233</id>
		<title>gB:Registro</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Registro&amp;diff=39233"/>
		<updated>2026-04-28T07:33:51Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1070&lt;br /&gt;
| Curator = Roberto Gejman&lt;br /&gt;
| Author = Roberto Gejman&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Gestión de la información//informática//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = record&lt;br /&gt;
| fr = record&lt;br /&gt;
| de = Rekord, Register, Eintragung&lt;br /&gt;
| Also = gB:Record&lt;br /&gt;
}}&lt;br /&gt;
Los registros surgen en comunidades de agentes autónomos, con memoria limitada y con necesidades de coordinación mutua. Para superar las limitaciones de su memoria y lograr actos de coordinación eficaces, tales como contratos o acuerdos, los agentes necesitan fijar en forma externa a ellos mismos y a su memoria, ciertas informaciones, definiciones, ideas o significados.&lt;br /&gt;
&lt;br /&gt;
Para lograrlo, utilizan registros, es decir, sistemas físicos cuyo estado pueden alterar. Definen una convención que, fundamentalmente, establece dos tipos de reglas. El primer tipo de reglas define cómo a partir de una información, una definición, una idea, etc., alterar un registro para que la represente. El segundo tipo de reglas define cómo a partir de un registro interpretar desde su estado la información, idea, significado, etc., que su autor tuvo la intención de registrar.&lt;br /&gt;
&lt;br /&gt;
En las comunidades humanas, y dado que con muy simples elementos se pueden generar registros con una cantidad abrumadora de estados diferentes (por ejemplo, una hoja de papel más un lápiz), las convenciones deben reducir los estados permitidos a una fracción muy limitada de los estados posibles. Generalmente, entonces, los lenguajes utilizados se basan en alfabetos finitos, palabras y gramáticas, y los textos se escriben en forma secuencial y en líneas paralelas, horizontales o verticales, de izquierda a derecha o viceversa.&lt;br /&gt;
&lt;br /&gt;
Los registros pueden ser muy estables y perdurar mucho tiempo, como un libro o un CD, o por el contrario, pueden perdurar sólo unos instantes, como es el caso de una conversación entre dos personas. Esta conversación se realiza intercambiando registros auditivos, es decir, perturbaciones del estado del aire en que ambos interlocutores se encuentran inmersos. Cuando se acumulan muchos registros, requieren organizarse y clasificarse, para conseguir que sean útiles. Esta necesidad da origen a las ciencias de la bibliotecología, biblioteconomía y de los sistemas de información.&lt;br /&gt;
&lt;br /&gt;
Los registros no son información. Pueden representarla, pero no son ella. Una misma información puede representarse en muchos registros de tipo diferente. Si todos los registros que representan una información son destruidos, la información no desaparece, sólo se hace más difícil (o imposible) acceder a ella.&lt;br /&gt;
&lt;br /&gt;
Un registro puede ser falso o verdadero; exacto o inexacto; preciso o impreciso; válido o no válido. En cambio, una información, en tanto objeto abstracto, libre de toda forma de representación, siempre es verdadera, exacta, precisa y válida.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* BUCKLAND, M. (1994). “On the Nature of Records Management Theory”. {{gb_em|American Archivist}}, vol. 57, pp. 346-351.&lt;br /&gt;
* GEJMAN, R. (2009). “An integrated framework for information, communication and knowledge definitions”. {{gb_em|tripleC - Cognition, Communication, Co-operation}}, 7(2). DOI: &amp;lt;https://doi.org/10.31269/triplec.v7i2.103&amp;gt;&lt;br /&gt;
* INTERNATIONAL ORGANIZATION FOR STANDARDIZATION (2001). {{gb_em|Information and documentation -- Records management, ISO/TR 15489-1 and ISO/TR 15489/TR-2}}. Geneva: ISO.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Paradoja&amp;diff=39232</id>
		<title>gB:Paradoja</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Paradoja&amp;diff=39232"/>
		<updated>2026-04-28T07:27:22Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1066&lt;br /&gt;
| Curator = Margarita Vázquez&lt;br /&gt;
| Author = Francisco Salto Alemany&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = filosofía//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = paradox&lt;br /&gt;
| fr = paradoxe&lt;br /&gt;
| de = Paradox, Paradoxon&lt;br /&gt;
| Also = gB:Paradox&lt;br /&gt;
}}&lt;br /&gt;
Una paradoja es un conflicto entre razones: las que avalan un razonamiento correcto y las que refutan su conclusión. Cuanto más sólidas son las razones en conflicto, tanto más interés filosófico tiene la paradoja. Paradojas en este sentido general las hay de muy distintos tipos: &lt;br /&gt;
&lt;br /&gt;
* (a) paradojas que desafían la inteligibilidad de conceptos particularmente básicos como: infinito, tiempo, espacio, identidad, etc.; &lt;br /&gt;
* (b) paradojas que desafían la racionalidad de nuestras estrategias de acción o decisión: paradojas de Newcomb, Gaifman, dilema del prisionero, etc.; &lt;br /&gt;
* (c) paradojas que desafían la racionalidad de nuestras cuerpos de creencias: paradojas de autoengaño, de Goodman, del conocedor, etc.; y, en fin, otras muchas paradojas más o menos importantes y más o menos divertidas.&lt;br /&gt;
&lt;br /&gt;
Las paradojas lógicas o antinomias son razonamientos lógicamente válidos cuyas conclusiones son irrazonables. Llamamos entonces antinomia a cualquier razonamiento deductivamente válido que nos conduce a una contradicción a partir de premisas que están racionalmente justificadas o son altamente aceptables o asertables.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* ALEXANDER, P. (1950). “Pragmatic Paradoxes”. {{gb_em|Mind}}, 59, 536-538.&lt;br /&gt;
* COHEN, L. J. (1950). “Mr. O’Connor’s Pragmatic Paradoxes”. {{gb_em|Mind}}, 59, 85-87.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Acceso_abierto&amp;diff=39231</id>
		<title>gB:Acceso abierto</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Acceso_abierto&amp;diff=39231"/>
		<updated>2026-04-28T07:26:14Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1001&lt;br /&gt;
| Curator = Leticia Barrionuevo&lt;br /&gt;
| Author = Leticia Barrionuevo&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = investigación//sociedad de la información&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = open access&lt;br /&gt;
| fr = accès ouvert&lt;br /&gt;
| de = offener Zugang&lt;br /&gt;
| Also = gB:Open access&lt;br /&gt;
}}&lt;br /&gt;
Para definir el concepto de acceso abierto ({{gb_em|Open Access}}) nos remitiremos a tres declaraciones, la de Budapest, Bethesda y Berlín, que han sido tomadas como referentes y de las cuales es consecuencia la definición conocida como BBB del acceso abierto.&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;&#039;{{gb_em|Budapest Open Access Initiative}}&#039;&#039;&#039; (BOAI) de febrero de 2002 señala que “por acceso abierto a la literatura (científica), entendemos su disponibilidad gratuita en Internet, para que cualquier usuario la pueda leer, descargar, copiar, distribuir o imprimir, con la posibilidad de buscar o enlazar al texto completo, recolectar los artículos para su indexación, pasarlos como datos para software o utilizarlos para cualquier otro propósito legítimo, sin más barreras financieras, legales o técnicas que aquellas que supongan acceder a Internet. El único límite a la reproducción y distribución de los artículos publicados y la única función del copyright en este marco, no puede ser otra que garantizar a los autores el control sobre la integridad de su trabajo y el derecho a ser reconocido y citado”.&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;&#039;Declaración de Bethesda sobre Publicación de Acceso Abierto&#039;&#039;&#039; de abril del 2003 añade que “para que un trabajo sea de acceso abierto, tiene que cumplir dos condiciones:&lt;br /&gt;
&lt;br /&gt;
# El/los autor/es y el/los propietario/s de los derechos de propiedad intelectual otorguen a los usuarios un derecho libre, irrevocable, universal y perpetuo de acceso y licencia para copiar, utilizar, distribuir, transmitir y presentar el trabajo públicamente y hacer y distribuir obras derivadas, en cualquier soporte digital para cualquier finalidad responsable, sujeto a la apropiada atribución de la autoría, así como el derecho de hacer una pequeña cantidad de copias impresas para su uso personal.&lt;br /&gt;
# Una versión completa de la obra y todos los materiales suplementarios, incluyendo una copia de los permisos citados anteriormente, en un formato electrónico estándar apropiado, se depositará de forma inmediata a la publicación inicial en al menos un repositorio en línea apoyado por una institución académica, una sociedad de intelectuales, una agencia gubernamental, o cualquier otra organización debidamente establecida que persiga facilitar el acceso abierto, la distribución sin restricciones, la interoperabilidad y el archivado a largo plazo”.&lt;br /&gt;
&lt;br /&gt;
Por su parte, la &#039;&#039;&#039;Declaración de Berlín sobre el Acceso Abierto al Conocimiento en Ciencias y Humanidades&#039;&#039;&#039;, de octubre de 2003, ratifica todo lo anterior y aporta la perspectiva más teórica afirmando que “nuestra misión de diseminar el conocimiento será incompleta si la información no es puesta a disposición de la sociedad de manera rápida y amplia. Es necesario apoyar nuevas posibilidades de diseminación del conocimiento, no sólo a través de la manera clásica, sino también utilizando el paradigma de acceso abierto por medio de Internet. Definimos el acceso abierto como una amplia fuente de conocimiento humano y patrimonio cultural aprobada por la comunidad científica. Para que se pueda alcanzar la visión de una representación del conocimiento global y accesible, la Web del futuro tiene que ser sustentable, interactiva y transparente. El contenido y las herramientas de software deben ser libremente accesibles y compatibles”.&lt;br /&gt;
&lt;br /&gt;
Existen otras muchas definiciones de acceso abierto; así, por ejemplo, Steven Harnard, considerado uno de los fundadores de la iniciativa, afirma: “mi definición de {{gb_em|Open Access}} es la misma que la de la Declaración de Budapest: es dar acceso sin restricciones y a través de Internet a los textos completos de la literatura científica ya revisada. Aunque esta definición omite dos adjetivos importantes, inmediato y permanente” ({{gb_em|Research Information}}, julio 2006).&lt;br /&gt;
&lt;br /&gt;
Robert Terry de la {{gb_em|Wellcome Trust}}, la institución privada que más invierte en investigación médica en el mundo, ofrece su visión particular sobre el acceso abierto: “nosotros tenemos las copias digitales de los trabajos y damos acceso a los mismos a todo el mundo, sin restricciones a través de archivos o repositorios institucionales. Todo investigador que reciba ayudas de la {{gb_em|Wellcome Trust}} tiene que depositar en el {{gb_em|PubMed Central}} o {{gb_em|UK PubMed Central}} una copia digital de sus trabajos, en menos de seis meses desde su publicación”. Con esta aportación, nos damos cuenta de la política clara que tiene la agencia de financiación en relación al acceso abierto de la investigación ({{gb_em|Research Information}}, julio 2006).&lt;br /&gt;
&lt;br /&gt;
Martin Richardson, director de {{gb_em|Oxford Journals}} (división de {{gb_em|Oxford University Press}}), opina: “nuestra definición de {{gb_em|open access}} es accesibilidad en línea de las publicaciones, siempre sin coste alguno para los lectores. El acceso abierto para mí es mucho más amplio si los lectores no tienen que pagar”. De esta forma justifica el servicio de pago por publicación que está ofreciendo su editorial y contesta a la eterna pregunta de ¿quién paga en el {{gb_em|Open Access}}? ({{gb_em|Research Information}}, julio 2006).&lt;br /&gt;
&lt;br /&gt;
Entre opiniones tan diferentes, no podía faltar la de algún gigante editorial, que lógicamente se erigen como la oposición más fuerte ante esta iniciativa. Michael Mabe, que trabajó durante siete años como director de relaciones con los investigadores en {{gb_em|Elsevier}} alega que “dar una definición es el principal problema del {{gb_em|Open Access}}. En principio significa disponibilidad para todo el mundo en la WWW. Pero muchos investigadores creen que están accediendo a documentación en abierto o a revistas {{gb_em|open access}} y en realidad no es así. El acceso es posible simplemente porque la biblioteca paga por esas suscripciones” ({{gb_em|Research Information}}, julio 2006). Lo que Michael Mabe quiere ratificar es, por una parte, que en la mayoría de los casos los investigadores no se plantean por qué pueden visualizar los textos completos, lo único que quieren es acceder a los mismos; y por otra, que por mucho que se fomente el acceso abierto y las editoriales asfixien con sus precios, las bibliotecas van a seguir pagando suscripciones.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* BOAI (2002). {{gb_em|Budapest Open Access Initiative}}. [En línea] &amp;lt;http://www.soros.org/openaccess/&amp;gt; [visitado: 03/02/2009]&lt;br /&gt;
* OA CONFERENCE (2003). {{gb_em|Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities}} (Declaración de Berlín sobre el Acceso Abierto al Conocimiento en Ciencias y Humanidades). [En línea] &amp;lt;http://www.zim.mpg.de/openaccess-berlin/berlin_declaration.pdf&amp;gt; [visitado: 03/02/2009]&lt;br /&gt;
* REUNIÓN SOBRE PUBLICACIÓN DE ACCESO ABIERTO (2003). {{gb_em|Declaración de Bethesda sobre Publicación de Acceso Abierto}}. [En línea] &amp;lt;http://www.earlham.edu/~peters/fos/bethesda.htm&amp;gt; [visitado: 03/02/2009]&lt;br /&gt;
* HARRIS, S. (2006). “Consensus is difficult in Open-Access debate”. {{gb_em|Research Information}}. [En línea] &amp;lt;http://www.researchinformation.info/rijunjul06openaccess.html&amp;gt; [visitado: 03/02/2009]&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Ontolog%C3%ADa&amp;diff=39230</id>
		<title>gB:Ontología</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Ontolog%C3%ADa&amp;diff=39230"/>
		<updated>2026-04-28T07:22:45Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1063&lt;br /&gt;
| Curator = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Author = Jorge Morato-Lara&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Web semántica//inteligencia artificial&lt;br /&gt;
| Type = Concept:concepto//Concept:recurso&lt;br /&gt;
| en = ontology&lt;br /&gt;
| fr = ontologie&lt;br /&gt;
| de = Ontologie&lt;br /&gt;
| Also = gB:Ontology&lt;br /&gt;
}}&lt;br /&gt;
Según Gómez-Pérez (2004), la definición de ontología ha evolucionado a lo largo de los últimos veinte años. En 1995, Nicola Guarino recopiló siete definiciones sobre este concepto, para proponer una nueva definición. Este autor definió ontología como “a set of logical axioms designed to account for the intended meaning of a vocabulary” (Guarino, 1998).&lt;br /&gt;
&lt;br /&gt;
Uno de los motivos que subyacen bajo la poca convergencia de las definiciones es el de encontrar una definición que agrupe a todos los recursos propuestos hasta el momento como ontologías. Una solución parece ser proponer una definición amplia, como la propuesta por la Wikipedia, donde se define ontología como “Formal representation of a set of concepts within a domain and the relationships between those concepts”. Esta definición es igualmente válida para una gran cantidad de otros recursos de organización de información (p. ej. un tesauro o una taxonomía). De esta forma la Wikipedia añade a lo anterior que las ontologías sirven para ser “used to reason about the properties of that domain, and may be used to define the domain”.&lt;br /&gt;
&lt;br /&gt;
De cualquier forma la definición que ha alcanzado mayor popularidad es la propuesta por Gruber en 1991: “a formal, explicit specification of a shared ontology”.&lt;br /&gt;
&lt;br /&gt;
== Técnicas de modelado ==&lt;br /&gt;
Las dos técnicas más comunes en la literatura sobre el tema son:&lt;br /&gt;
&lt;br /&gt;
* Lógica de primer orden&lt;br /&gt;
* Lógica descriptiva&lt;br /&gt;
&lt;br /&gt;
== Elementos de las ontologías ==&lt;br /&gt;
Dependiendo de la técnica que haya sido utilizada, los nombres de los elementos varían, aun teniendo equivalencias lógicas.&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|Clases}}: Es una agrupación de individuos que comparten un rasgo común. Estos conjuntos equivalen a los principales conceptos del dominio, y suelen estar organizados entre sí jerárquicamente. Las clases pueden tener atributos y funciones; además pueden tener relaciones de distinto tipo entre ellas.&lt;br /&gt;
* {{gb_em|Relaciones}}: son asociaciones entre clases e individuos.&lt;br /&gt;
* {{gb_em|Atributos}}: propiedades que pueden tener las clases y por tanto también sus individuos.&lt;br /&gt;
* {{gb_em|Funciones}}&lt;br /&gt;
* {{gb_em|Individuos}}: instancias u objetos de una clase&lt;br /&gt;
&lt;br /&gt;
Para poder realizar inferencias es necesario que existan afirmaciones consideradas como ciertas en ese dominio. Estas aseveraciones pueden ser utilizadas para expresar restricciones, reglas y axiomas.&lt;br /&gt;
&lt;br /&gt;
Finalmente los eventos son un medio de representar cómo los valores de los atributos y las relaciones pueden variar a lo largo del tiempo.&lt;br /&gt;
&lt;br /&gt;
La lógica de primer orden denomina usualmente a los elementos para construir ontologías del siguiente modo: clases, relaciones, atributos, funciones, instancias y axiomas.&lt;br /&gt;
&lt;br /&gt;
La lógica descriptiva, por otro lado, utiliza el siguiente vocabulario: conceptos (equivalentes a las clases), roles (equivalentes a las relaciones y las propiedades de los conceptos), e individuos (equivalentes a las instancias y a los valores de sus propiedades).&lt;br /&gt;
&lt;br /&gt;
== Principios del diseño de ontologías ==&lt;br /&gt;
Para poder compartir información es necesaria la interoperabilidad. Gruber (1993) propuso los siguientes principios para mejorar la comunicación del conocimiento:&lt;br /&gt;
&lt;br /&gt;
* {{gb_em|Claridad}}: definiciones neutras, formalizadas con axiomas y completas (con condiciones necesarias y suficientes).&lt;br /&gt;
* {{gb_em|Mínima codificación}}&lt;br /&gt;
* {{gb_em|Extensibilidad}}&lt;br /&gt;
* {{gb_em|Mínimos compromisos ontológicos}}: menor número de suposiciones posible&lt;br /&gt;
&lt;br /&gt;
Gomez-Perez (2004) añade a la lista los siguientes elementos:&lt;br /&gt;
&lt;br /&gt;
* Declarar los elementos disjuntos y expresar el conocimiento de forma exhaustiva.&lt;br /&gt;
* Minimizar la distancia semántica de los elementos que están al mismo nivel de jerarquía.&lt;br /&gt;
* Estandarizar las denominaciones de los elementos de forma comprensible.&lt;br /&gt;
&lt;br /&gt;
== Tipos de Ontologías ==&lt;br /&gt;
Hay diferentes tipos de ontología:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;~ de alto nivel&#039;&#039;&#039; (&#039;&#039;&#039;{{gb_em|top ontologies}}&#039;&#039;&#039; u &#039;&#039;&#039;~ fundacionales&#039;&#039;&#039;): contienen conceptos comunes a todas las ontologías. Se utilizan para interrelacionar ontologías entre sí mediante sus elementos raíz. Ejemplos son DOLCE, Proton, SUMO y CYC.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;~ de tareas&#039;&#039;&#039;: contienen el vocabulario de una tarea o actividad.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;~ de dominio&#039;&#039;&#039;: contienen el vocabulario de un dominio.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;~ genéricas o comunes&#039;&#039;&#039;: una ontología que puede ser incluida en otras ontologías, debido a que describen fenómenos comunes a gran cantidad de dominios. Ejemplos son las ontologías de unidades temporales o espaciales.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;~ de representación del conocimiento&#039;&#039;&#039;: contienen las primitivas para expresar formalmente el conocimiento de los demás tipos de ontologías.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;~ de aplicación&#039;&#039;&#039;: son ontologías adaptadas a una aplicación o contexto local y concreto. Por ejemplo, una ontología para un sitio Web concreto.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;~ terminológicas&#039;&#039;&#039;: son equivalentes a las redes léxicas y a los tesauros. En ellas el peso del léxico tiene un valor alto, aunque también contienen relaciones semánticas.&lt;br /&gt;
&lt;br /&gt;
En relación a la reutilización y usabilidad de las ontologías, hay que hacer notar que cuanto más abstractas son más reutilizables podrán ser (ej. Ontologías de representación del conocimiento y de alto nivel), pero su uso directo (usabilidad) será bajo. Por otro lado, las ontologías de dominio y de aplicación tienen un nivel de reutilización en otro contexto menor, pero su aplicación directa es inmediata.&lt;br /&gt;
&lt;br /&gt;
== Lenguajes de Ontologías ==&lt;br /&gt;
Las distintas opciones de modelado tienen implicaciones sobre los lenguajes de formalización. Por ejemplo, uno de los lenguajes relacionados con la lógica de primer orden es KIF. OWL está usualmente relacionado con la lógica descriptiva (al menos en sus niveles OWL light y OWL DL). Este lenguaje se emplea ampliamente para representar ontologías en la Web; su estructura está basada en RDF/RDFS.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* GUARINO, N. (1998). &amp;quot;Formal Ontology in Information Systems&amp;quot;. En: Guarino, N. (Ed.). {{gb_em|FOIS 98}}. Trento: IOS Press, pp. 3-15.&lt;br /&gt;
* GRUBER, T.R. (1993). &amp;quot;A translation approach to portable ontologies&amp;quot;. {{gb_em|Knowledge Acquisition}}, 5(2): 199-220.&lt;br /&gt;
* GRUBER, T.R. (1993). &amp;quot;Toward principles for the design of ontologies used for knowledge sharing&amp;quot;. {{gb_em|Int. Workshop on Formal Ontology in Conceptual Analysis}}. Padua, 1993.&lt;br /&gt;
* GOMEZ-PEREZ, A.; FERNANDEZ-LOPEZ, M. y CORCHO, O. (2004). {{gb_em|Ontological engineering: with examples from the areas of knowledge management, e-commerce and the Semantic Web}}. Londres: Springer.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Acceso_no-informacional&amp;diff=39229</id>
		<title>gB:Acceso no-informacional</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Acceso_no-informacional&amp;diff=39229"/>
		<updated>2026-04-28T07:20:12Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1002&lt;br /&gt;
| Curator = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Author = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = cognición//filosofía de la Mente&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = non-informational access&lt;br /&gt;
| fr = accès non-informationnel&lt;br /&gt;
| de = nicht-informatorischer Zugang&lt;br /&gt;
| Also = gB:Non-informational access&lt;br /&gt;
}}&lt;br /&gt;
Un acceso no-informacional sería un acceso que no es informacional. El acceso no-informacional podría ser físico o experiencial. En este sentido, el acceso informacional estaría en contraste con el acceso físico y con el acceso experiencial –o cualitativo–. Tener acceso informacional a cierta cantidad de dinero no es lo mismo que tener acceso físico a esa cantidad de dinero. Tener acceso informacional a cierto estado de dolor no es tampoco lo mismo que tener acceso experiencial a ese estado de dolor.&lt;br /&gt;
&lt;br /&gt;
Naturalmente, podemos elaborar teorías sobre la información de acuerdo a las cuales la información se identifique con ciertos estados o propiedades físicas. Y también podemos elaborar teorías sobre la experiencia de acuerdo a las cuales la experiencia se identifique con ciertos tipos de estados informacionales. Sin embargo, ejemplos como los presentados más arriba muestran que tales identificaciones tendrían siempre compromisos ontológicos muy fuertes. Las relaciones informacionales parecen ser muy diferentes de las relaciones físicas, y parecen ser también muy diferentes de las relaciones cualitativas, experienciales o fenomenológicas.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* CHURCHLAND, Paul (1984). {{gb_em|Matter and Consciousness. A Contemporary Introduction to the Philosophy of Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* DRETSKE, F. (1980). {{gb_em|Knowledge and the Flow of Information}}. Cambridge: MIT Press.&lt;br /&gt;
* DRETSKE, F. (1988). {{gb_em|Explaining Behaviour. Reasons in a World of Causes}}. Cambridge: MIT Press.&lt;br /&gt;
* DRETSKE, F. (1997). {{gb_em|Naturalizing the Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* FLORIDI, L. (Ed.) (2004). {{gb_em|The Blackwell Guide to the Philosophy of Computing and Information}}. London: Blackwell.&lt;br /&gt;
* KIM, J. (1996). {{gb_em|Philosophy of Mind}}. Oxford: Westview Press.&lt;br /&gt;
* McLAUGHLIN, B. (Ed.) (1991). {{gb_em|Dretske and his Critics}}. Cambridge: Blackwell.&lt;br /&gt;
* SEARLE, J. (1983). {{gb_em|Intentionality. An Essay in the Philosophy of Mind}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* SEARLE, J. (1992). {{gb_em|The Rediscovery of Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* TYE, M. (1995). {{gb_em|Ten Problems of Consciousness. A Representational Theory of the Phenomenal Mind}}. Cambridge: MIT Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Mente&amp;diff=39228</id>
		<title>gB:Mente</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Mente&amp;diff=39228"/>
		<updated>2026-04-28T07:18:26Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1061&lt;br /&gt;
| Curator = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Author = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = mind&lt;br /&gt;
| fr = esprit&lt;br /&gt;
| de = Geist&lt;br /&gt;
| Also = gB:Mind&lt;br /&gt;
}}&lt;br /&gt;
La mente, la psique, el alma, incluso la conciencia, pueden ser consideradas nociones equivalentes. Percibir, recordar, creer, desear, razonar, tomar decisiones, imaginar, entender, tener emociones y sentimientos, etc., son ejemplos de estados y procesos mentales. La disciplina científica que directamente se ocupa de la mente es la psicología, y la disciplina filosófica que se ocupa de la mente es la filosofía de la mente. Existe, sin embargo, un área del conocimiento interesada en la mente más en general –tanto de la mente humana como de la mente animal, tanto de la mente natural como de la mente artificial, etc.— y en un sentido muy interdisciplinar. Tal área se conoce como “ciencias cognitivas”, o como “ciencia cognitiva” en una interpretación más ambiciosa. La inteligencia artificial pertenecería a dicha área. Y muchas veces se argumenta que la propia filosofía de la mente también pertenecería a ella.&lt;br /&gt;
&lt;br /&gt;
Muy a menudo, la mente se contrasta con el mundo físico y con el mundo externo. La mente parece constituir un cierto tipo de mundo interno no-físico. En relación con este contraste, la noción de mente involucra tres importantes problemas: 1) un serio problema de localización (¿Dónde se localiza la mente?), 2) un serio problema de conexión (¿Cómo se conecta la mente con el mundo físico y con el mundo externo?), y 3) un serio problema de acceso epistémico (¿Cómo podemos saber algo sobre nuestra propia mente? ¿Cómo podemos saber algo sobre las mentes de otros sujetos?).&lt;br /&gt;
&lt;br /&gt;
Hay tres aspectos cruciales de la mente: La intencionalidad, el carácter cualitativo y la identidad personal. La intencionalidad es lo que hace posible que la mente se relacione con objetos y estados de cosas actuales o posibles. La intencionalidad se exhibe en las actitudes proposicionales, estados mentales —creencias, deseos, recuerdos, etc.— con un contenido semántico capaz de representar objetos y estados de cosas. El carácter cualitativo es una cualidad peculiar o un rasgo fenomenológico. Se manifiesta en los estados mentales con un contenido lleno de ingredientes experienciales. La identidad personal, por último, hace referencia a nuestra existencia persistente como personas con un “yo” o un “ego”.&lt;br /&gt;
&lt;br /&gt;
Necesitamos hacer referencia a otro campo de problemas. La mente puede ser considerada una sustancia, un conjunto de propiedades, o atributos, o el resultado de un tipo especial de descripción. Los compromisos realistas de la primera opción son más fuertes que los de la segunda opción, y estos más fuertes que los de la tercera. La primera opción es la de Platón y Descartes, un dualismo de sustancias —la mente como una sustancia diferente de la sustancia física, material o extensa—. La segunda opción es mantenida por Aristóteles y por muchos autores actuales. La tercera opción sintoniza con el eliminativismo. De acuerdo al eliminativismo, la mente no tendría ninguna realidad objetiva con independencia de cierta manera de describir e interpretar algunos fenómenos que tienen que ver con nuestro cuerpo y nuestra conducta.&lt;br /&gt;
&lt;br /&gt;
El último punto que debemos mencionar es que quizás no tendríamos que hablar de “la mente” en general, sino de diferentes “clases de mentes”. Podría haber mentes puramente semánticas, conceptuales o cognitivas, en contraste con otras mentes mucho más cualitativas, no-conceptuales o experienciales. Podría haber mentes naturales y artificiales. Podría haber mentes muy simples y mentes muy sofisticadas. Podría haber mentes humanas y mentes no-humanas, etc.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
Son sumamente útiles los recursos bibliográficos ofrecidos en la página {{gb_em|web}} de David Chalmers: [En línea] &amp;lt;http://consc.net/chalmers/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* CHALMERS, D. (1996). {{gb_em|The Conscious Mind}}. Oxford: Oxford University Press.&lt;br /&gt;
* CHALMERS, D. (2002). {{gb_em|Philosophy of Mind. Classical and Contemporary Readings}}. Oxford: Oxford University Press.&lt;br /&gt;
* CHURCHLAND, Paul (1984). {{gb_em|Matter and Consciousness. A Contemporary Introduction to the Philosophy of Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* DENNETT, D. (1996). {{gb_em|Kinds of Minds}}. New York: Basic Books.&lt;br /&gt;
* FLANAGAN, O. (1984). {{gb_em|The Science of the Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* GREGORY, R. (Ed.) (1987). {{gb_em|The Oxford Companion to the Mind}}. Oxford: Oxford University Press.&lt;br /&gt;
* GUTTENPLAN, S. (Ed.) (1996). {{gb_em|A Companion to the Philosophy of Mind}}. Oxford: Blackwell.&lt;br /&gt;
* HAUGELAND, J. (Ed.) (1981). {{gb_em|Mind Design}}. Cambridge: MIT Press.&lt;br /&gt;
* HAUGELAND, J. (Ed.) (1985). {{gb_em|Artificial Intelligence, The Very Idea}}. Cambridge: MIT Press.&lt;br /&gt;
* HAUGELAND, J. (Ed.) (1997). {{gb_em|Mind Design II}}. Cambridge: MIT Press.&lt;br /&gt;
* HEIL, J. (2004). {{gb_em|Philosophy of Mind. A Guide and Ontology}}. Oxford: Clarendon Press.&lt;br /&gt;
* KIM, J. (1996). {{gb_em|Philosophy of Mind}}. Oxford: Westview Press.&lt;br /&gt;
* LYCAN, W. (Ed.) (1990). {{gb_em|Mind and Cognition}}. Cambridge: Blackwell.&lt;br /&gt;
* NAGEL, T. (1986). {{gb_em|The View from Nowhere}}. New York: Oxford University Press.&lt;br /&gt;
* O’HEAR, A. (1998). {{gb_em|Current Issues in Philosophy of Mind}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* OSHERSON, D. (1990). {{gb_em|An Invitation to Cognitive Science}}, 3 vols. Cambridge: MIT Press.&lt;br /&gt;
* ROSENTHAL, D. (Ed.) (1991). {{gb_em|The Nature of Mind}}. Oxford: Oxford University Press.&lt;br /&gt;
* SEARLE, J. (1983). {{gb_em|Intentionality. An Essay in the Philosophy of Mind}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* SEARLE, J. (1992). {{gb_em|The Rediscovery of Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* SOSA, E. y VILLANUEVA, E. (2003). {{gb_em|The Philosophy of Mind}}. Oxford: Blackwell.&lt;br /&gt;
* STICH, S. (2003). {{gb_em|The Blackwell Guide to Philosophy of Mind}}. Oxford: Blackwell.&lt;br /&gt;
* TYE, M. (1995). {{gb_em|Ten Problems of Consciousness. A Representational Theory of the Phenomenal Mind}}. Cambridge: MIT Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Mensaje&amp;diff=39227</id>
		<title>gB:Mensaje</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Mensaje&amp;diff=39227"/>
		<updated>2026-04-28T07:16:19Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1060&lt;br /&gt;
| Curator = Rafael Capurro&lt;br /&gt;
| Author = Rafael Capurro//José María Díaz-Nafría//Lydia Sánchez Gómez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Angelética//teoría de la Comunicación//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = message&lt;br /&gt;
| fr = message&lt;br /&gt;
| de = Botschaft, Nachricht&lt;br /&gt;
| Also = gB:Message&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
El mensaje constituye uno de los elementos centrales de los procesos de comunicación, hasta el punto de que “la teoría de la comunicación es en buena parte teoría de los mensajes” (Ferrater Mora 1994). Sin embargo, la frecuente equiparación entre mensaje e información emana de una confusión -incluso de un vacío conceptual- cuyo origen se encuentra en el modelo shannoniano de comunicación. En aras de mejorar nuestra comprensión tanto de los mensajes como de la información es necesaria una clarificación para poder referirnos mejor a los fenómenos involucrados.&lt;br /&gt;
&lt;br /&gt;
Si la comunicación requiere al menos de un emisor, un receptor, un medio y un mensaje, pero según el famoso adagio de McLuhan “el mensaje es el medio”, ¿qué es, entonces, el mensaje? Poner esto en claro, restaurar su importancia, es quizá un modo de evitar el “desangelio de nuestros días” al que se refiere Sloterdijk (1997) o el carácter fantasmagórico de los nuevos medios de comunicación al que apela Zizek (1997).&lt;br /&gt;
&lt;br /&gt;
== Mensaje e información, de la confusión shannoniana hacia una distinción sistemática ==&lt;br /&gt;
La teoría de la comunicación de Shannon (1948) no es una teoría acerca de la transmisión de información sino más bien acerca de la transmisión de mensajes. Shannon usa el término ‘mensaje’ en lugar de ‘información’ en su sentido usual de ‘conocimiento comunicado’. El concepto de información dentro del marco de su teoría se refiere al mínimo número de elecciones binarias para crear o codificar –un mensaje (que a su vez correspondería con el de su decodificación si el receptor tiene un conocimiento perfecto del código usado). En realidad –tal y como fue concebido y aplicado- la teoría concierne a la transmisión de señales y los medios para hacerla más efectiva. Shannon liga información e incertidumbre, como algo opuesto al usual sentido de información. Los aspectos semánticos y pragmáticos están excluidos en esta perspectiva ingenieril de la comunicación. Warren Weaver consideraba que la definición shannoniana era contraintuitiva (Shannon y Weaver 1972). Pero Shannon había de hecho sustituido su sentido corriente usando la palabra mensaje.&lt;br /&gt;
&lt;br /&gt;
Mensaje e información son conceptos relacionados pero no idénticos:&lt;br /&gt;
&lt;br /&gt;
* Un mensaje es dependiente del emisor, esto es, basado en una estructura heterónimo o asimétrica. Este no es el caso de la información: recibimos un mensaje, pero buscamos información.&lt;br /&gt;
* Se supone que un mensaje aporta al receptor algo nuevo o relevante. También es este el caso de la información.&lt;br /&gt;
* Un mensaje puede ser codificado y transmitido a través de medios diversos o mensajeros. Como también es el caso de la información.&lt;br /&gt;
* Un mensaje es una emisión (proferencia) que da lugar a la selección del receptor mediante un mecanismo de reacción o interpretación.&lt;br /&gt;
&lt;br /&gt;
Así pues puede observarse que se trata de conceptos interrelacionados pero no coincidentes. ¿Cómo pueden distinguirse? La teoría de los sistemas sociales aporta a este respecto provechosas ideas. Siguiendo a Luhman, un proceso de comunicación en sistemas sociales es fruto de la coyuntura tridimensional que agrupa una oferta de significados, una selección de éstos y su comprensión (Luhmann 1987, 196, [[gB:autopoiesis|autopoiesis]]). Considerando el mensaje como una oferta de significado, e información como su selección, ya disponemos de una clara distinción: el {{gb_em|mensaje}} (“Mitteilung”) constituye la acción de ofertar algo (potencialmente) significativo al sistema social (“Sinnangebot”); la {{gb_em|información}} (“Information”) es el proceso de seleccionar significados a partir de las diferentes posibilidades ofertadas por un mensaje; y la {{gb_em|comprensión}} (“Verstehen”) es la integración del significado seleccionado en el sistema. La comunicación funde estas diferencias hacia una unidad.&lt;br /&gt;
&lt;br /&gt;
El mensaje como oferta de significado es dependiente del emisor, por lo tanto hererónoma. Recibimos mensajes, pero buscamos información, lo que solo puede hacerse si previamente existe una oferta de significados. El mensaje provee a los receptores algo nuevo o sorprendente, causando así una cierta incertidumbre, es decir, un abanico de posibilidades y propuestas que el receptor usará al ‘informarse’. Puede codificarse y transmitirse por medios diversos, llegando al receptor distorsionado en cierta medida. Finalmente, la selección de significados ofertada por el mensaje siempre tiene lugar sobre el trasfondo de una pre-comprensión. El receptor entiende los mensajes distinguiendo entre los sentidos ofrecidos y los elegidos. El receptor puede dudar acerca del mensaje, interpretándolo de un modo u otro o incluso obviándolo. La heteronomía del mensaje contrasta así claramente con la autonomía de la interpretación.&lt;br /&gt;
&lt;br /&gt;
== Análisis de los mensajes ==&lt;br /&gt;
Los mensajes admiten un análisis aristélico en términos de {{gb_em|forma}}, {{gb_em|finalidad}}, {{gb_em|contenido}}, {{gb_em|productores}} (y receptores).&lt;br /&gt;
&lt;br /&gt;
En lo que respecta a su forma, los mensajes pueden primariamente clasificarse en: imperativos, indicativos y opcionales. Sin embargo, desde el punto de vista de la directividad del mensaje, caben identificarse dos formas extremas: 1) un emisor humano, como individuo o grupo, puede creer tener un mensaje para todo el mundo y para todos los tiempos, y viceversa 2) alguien puede pensar que todo es un mensaje dirigido a él/ella. Entre ambos polos existe una multiplicidad de posibles jerarquías.&lt;br /&gt;
&lt;br /&gt;
A su vez la forma del mensaje tiene una restricción fundamental relacionada con su efectividad: para que el receptor de un mensaje pueda seleccionarlo o interpretarlo debe haber un cierto pre-entendimiento mutuo con el emisor del mensaje, como puede ser una forma similar o código (lingüístico).&lt;br /&gt;
&lt;br /&gt;
En su teoría de la comunicación (“communicology”) Vilem Flusser hace una distinción básica en lo que concierne a los objetivos de la comunicación:&lt;br /&gt;
&lt;br /&gt;
* el objetivo dialógico, orientado a la creación de nueva información,&lt;br /&gt;
* el objetivo discursivo, orientado a la distribución de información (Flusser 1996, [[gB:Dialógico vs. Discursivo|dialógico vs. discursivo]]).&lt;br /&gt;
&lt;br /&gt;
Podría añadirse un tercer objetivo, el {{gb_em|conservacional}}, relacionado con la preservación de la información, abarcando entre otras las actividades bibliotecarias y archivísticas.&lt;br /&gt;
&lt;br /&gt;
De acuerdo con Flusser la edad de los medios de comunicación de masas con su estructura uno-a-muchos propia de los distribuidores informativos –que puede denominarse principio-CNN– podría llegar a dominar todas las formas de creación de información. En otras palabras, la posibilidad de que un receptor llegue a ser emisor de mensajes dentro de un sistema dialógico es una opción subordinada. Desde el advenimiento de Internet esta limitación comenzó a cambiar, al menos en lo concerniente a la facilidad y abaratamiento de que muchos receptores pudieran llegar a ser emisores, incluyendo las opciones de distribución jerárquica de uno-a-uno, uno-a-muchos, muchos-a-muchos y muchos-a-uno.&lt;br /&gt;
&lt;br /&gt;
Estas jerarquías de distribución se corresponden a su vez con {{gb_em|constelaciones de poder}}, que juegan un papel crucial en la determinación de contenidos, productores y receptores: ¿A quién le está permitido enviar y conservar, qué mensajes, con qué fines, usando qué medios (incluidas las condiciones técnicas)?... Mientras en la antigüedad la diseminación de mensajes era un signo de divinidad o poder político, el advenimiento de la filosofía puso en cuestión la legitimidad de este derecho. Históricamente puede observarse una transformación desde una estructura esencialmente vertical del mensaje a una más horizontal (Capurro 2003a, Díaz 2008). La determinación heterónoma de los mensajes da lugar a su carácter vertical; sin embargo, los discursos filosófico y científico son ejemplos de cómo la heteronomía del mensaje puede introducirse dentro de la matriz de una estructura horizontal, es decir, “dialógica”.&lt;br /&gt;
&lt;br /&gt;
En lo que concierne a las restricciones y posibilidades de los medios digitales respecto a las constelaciones de poder y la verticalidad u horizontalidad resultante de sus procesos comunicativos, hay un debate abierto sobre la estructura futura de Internet. La presión de los oligopolios informacionales establecidos (esto es, el poder mediático concentrado en pocas manos) no se desvanece, aunque podría decrecer. A su vez aparecen nuevas formas de dominación y exclusión (Capurro et al 2007, [[gB:Teoría_crítica_de_la_información,_la_comunicación,_los_medios_y_la_tecnología|Critical Theory of Information]], Fuchs 2009).&lt;br /&gt;
&lt;br /&gt;
Un análisis exhaustivo de los mensajes (en relación a su producción, transmisión y recepción) debe indagar en aspectos tales como el origen, el propósito y contenido de los mensajes, las estructuras de poder, las técnicas y medios de difusión, la historia de los mensajes y los mensajeros, la codificación y la interpretación de mensajes, así como los aspectos psicológicos, políticos, económicos, estéticos, éticos y religiosos que forman el contexto de la comunicación. A tenor de esta necesaria multidimensionalidad del estudio del mensaje, se postula un marco interdisciplinar, denominado [[gB:Angelética|angelética]], que convoca específica, pero no exclusivamente, a los estudios sobre medios de comunicación, sobre signos (semiótica) y sobre su interpretación ([[gB:Hermenéutica|hermenéutica]]).&lt;br /&gt;
&lt;br /&gt;
== Falibilidad y eficiencia de los mensajes ==&lt;br /&gt;
¿Qué clase específica de criterio podría postularse en lo que concierne al modo en el que un emisor, un medio y un receptor debieran actuar con objeto de tener éxito bajo condiciones finitas? Por condiciones finitas entendemos que ni el emisor, ni el mensajero, ni el receptor disponen de algún tipo de certidumbre de que sus acciones satisfagan la situación ideal en la que:&lt;br /&gt;
&lt;br /&gt;
* un emisor se dirige a un receptor, enviándole un mensaje que le resulte nuevo y relevante, esto es, que siga el principio de {{gb_em|respeto}},&lt;br /&gt;
* un mensajero trae el mensaje sin distorsión, esto es, sigue el principio de {{gb_em|fidelidad}},&lt;br /&gt;
* un receptor se reserva el juicio, basado en un proceso de interpretación, respecto a la veracidad del mensaje, esto es, sigue el principio de {{gb_em|reserva}}.&lt;br /&gt;
&lt;br /&gt;
Con objeto de alcanzar los objetivos perseguidos en la producción de mensajes (antes mencionados), el emisor necesita una estrategia y una planificación sobre cómo generarlos, estructurarlos y emitirlos. Los procesos cognitivos que entran en juego a la hora de planificar un mensaje en función de un objetivo, pueden ser conscientes o inconscientes. El objetivo principal que pretende el emisor cuando envía un mensaje es afectar la conducta y/o arquitectura mental del receptor. El diseño del mensaje puede variar dependiendo de otros objetivos secundarios que entran en juego (como, por ejemplo, la voluntad de ser amable), y también puede variar dependiendo de sus capacidades cognitivas, retóricas, sociales, estratégicas, etc. de los individuos involucrados. Como consecuencia, varios planes son ejecutados simultáneamente cuando se produce, transmite e interpreta un mensaje.&lt;br /&gt;
&lt;br /&gt;
Las diferentes teorías sobre producción de mensajes suelen coincidir en la idea de que los sujetos intervinientes están sometidos al mismo tipo de dinámica cognitiva a la hora de planificar los mensajes.&lt;br /&gt;
&lt;br /&gt;
Respecto al carácter más o menos interactivo de la comunicación, que a su vez depende de la horizontalidad vs. verticalidad de la estructura de difusión y ésta de las constelaciones de poder antes mencionadas, la producción de mensajes puede ser más o menos cooperativa. De hecho, las representaciones producidas por el emisor no “inyectan” un cierto significado en un receptor que permanece pasivo. El carácter interactivo y simultáneo de la comunicación, así como el constante intercambio de roles por parte de emisor y receptor, nos llevan a un modelo en el que el mensaje se genera como producto de la colaboración entre interlocutores. Los diferentes planes en juego a la hora de transmitir e interpretar un mensaje deben adaptarse instantáneamente a la situación conversacional, obligando a los interlocutores a adaptar sus mensajes a las diferentes necesidades del contexto comunicativo.&lt;br /&gt;
&lt;br /&gt;
== Más allá de contextos humanos: una encrucijada entre la biología y la hermenéutica ==&lt;br /&gt;
El concepto de mensaje también ha sido usado con frecuencia en contextos no humanos, especialmente en biología (genética, biología molecular). Sin embargo, el modelo de comunicación antes usado para hacer una distinción entre mensajes e información, así como el análisis realizado para profundizar en la complejidad del mensaje ha de simplificarse. Considerando el significado doble del término ‘información’ como ‘materia moldeada’ y como ‘conocimiento comunicado’ puede decirse que una célula, o más genéricamente, un sistema vivo, es in-formado sobre la base de una selección de mensajes con la finalidad de satisfacer sus necesidades. Es más, un sistema auto-organizativo ([[gB:autopoiesis|autopoiesis]]) puede entenderse como aquel que es capaz de hacer una buena selección conductual entre la oferta de comportamientos aportada por los mensajes recibidos y con respecto a su supervivencia. La dinámica de mecanismos de selección ha de entenderse en una perspectiva diacrónica.&lt;br /&gt;
&lt;br /&gt;
El físico Carl-Fridrich von Weszäcker observó que el concepto moderno de información es una nueva forma de preguntar por lo que Platón y Aristóteles llamaron {{gb_em|idéa}} {{gb_em|morphé}} (Weizsäcker 1974). Pero, ¿cuál es la principal diferencia entre el concepto platónico de participación ({{gb_em|methexis}}) como in-formación y el punto de vista contemporáneo de la comunicación? Netamente, la inversión de la relación ente tiempo y forma. De acuerdo con la actual perspectiva evolucionista, las formas evolucionan dentro de un horizonte temporal y no al revés (Matsuno 1998). El proceso de interpretación de mensajes también evoluciona en el tiempo. Comprender significa primariamente el propio hecho de ser capaz de dar la respuesta correcta a unas posibilidades dadas (o mensajes). Esta capacidad evoluciona “en el tiempo” desde un modo elemental de respuesta a mensajes a un modo más complejo de interpretar mensajes (Capurro 2003b).&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* CAPURRO, R. (2003a). Theorie der Botschaft, en {{gb_em|Ethik im Netz}}. Stuttgart: Franz Steiner Verlag, 105-122. [En línea] &amp;lt;http://www.capurro.de/botschaft.htm&amp;gt; [visitado: 20/02/2010]&lt;br /&gt;
* CAPURRO, R. (2003b). “Angeletics. A message theory”. En Hans H. Diebner y Lehan Ramsay (Eds.). {{gb_em|Hierarchies of Communication. An inter-institutional and international symposium on aspects of communication on different scales and levels}}. Karlsruhe: Verlag ZKM, 58-71. [En línea] &amp;lt;http://www.capurro.de/angeletics_zkm.html&amp;gt; [visitado: 20/02/2010]&lt;br /&gt;
* FERRATER MORA, J. (1994). {{gb_em|Diccionario de Filosofía}}. Barcelona: Ariel.&lt;br /&gt;
* FLUSSER, V. (1996). {{gb_em|Kommunikologie}}. Frankfurt am Main: Surkamp.&lt;br /&gt;
* FUCHS, C. (2009). “Towards a critical theory of information”. {{gb_em|Triple C Cognition-Communication-Cooperation}}, {{gb_em|7(2)}}, 243-292. [En línea] &amp;lt;http://triple-c.at/index.php/tripleC/article/view/91/131&amp;gt; [visitado: 20/02/2010]&lt;br /&gt;
* CAPURRO, R., FRÜHBAUER, J. y HAUSMANNIGER, T. (Eds.) (2007). {{gb_em|Localizing the Internet. Ethical aspects in intercultural perspective}}. München: Fink Verlag, 2007. [En línea] &amp;lt;http://icie.zkm.de/ICIEbooksVol4&amp;gt; [visitado: 20/02/2010]&lt;br /&gt;
* DÍAZ NAFRÍA, J.M. (2008). “¿Son realmente ‘los aspectos semánticos irrelevantes para el problema técnico’?”. En J.M. Díaz y F. Salto (Eds.) {{gb_em|¿Qué es información?}} León: Universidad de León. [En línea] &amp;lt;http://bitrum.wordpress.com/2009/05/11/%C2%BFson-realmente-%E2%80%9Clos-aspectos-semanticos-irrelevantes-para-el-problema-tecnico%E2%80%9D/&amp;gt; [visitado: 20/02/2010]&lt;br /&gt;
* LUHMANN, N. (1987). {{gb_em|Soziale Systeme}}. Frankfurt am Main.&lt;br /&gt;
* MATSUNO, K. (1998). Dynamics of time and information in a dynamic time. {{gb_em|Bio Systems 46}}, 57-71.&lt;br /&gt;
* SHANNON, C. (1948). A Mathematical Theory of Communication. En: {{gb_em|Bell System Technical Journal}}, 27, 379-423, 623-656.&lt;br /&gt;
* SHANNON, C. y WEAVER, W. (1972). {{gb_em|The mathematical theory of communication}}. University of Illinois Press (Obra original publicada en 1949).&lt;br /&gt;
* SLOTERDIJK, P. (1997). Kantilenen der Zeit. En: {{gb_em|Lettre International}}, 36, 71-77.&lt;br /&gt;
* WEIZSÄCKER, C.F. von (1974). {{gb_em|Die Einheit der Natur}}. Munich.&lt;br /&gt;
* ZIZEK, S. (1997). {{gb_em|Die Pest der Phantasmen}}. Vienna: Passagen Verlag.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Contenido_mental&amp;diff=39226</id>
		<title>gB:Contenido mental</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Contenido_mental&amp;diff=39226"/>
		<updated>2026-04-28T07:13:04Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1025&lt;br /&gt;
| Curator = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Author = Antonio Manuel Liz Gutiérrez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Mente//ciencia cognitiva//psicología//semántica&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = mental content&lt;br /&gt;
| fr = contenu de l&#039;esprit&lt;br /&gt;
| de = geistiger Inhalt&lt;br /&gt;
| Also = gB:Mental content&lt;br /&gt;
}}&lt;br /&gt;
Comúnmente se asume que los estados mentales pueden ser caracterizados a través de cierta actitud psicológica y de cierto contenido. El contenido de un estado mental es un contenido mental. Un precedente de este análisis puede encontrarse en Russell. Creer, desear, recordar, sentir, percibir, etc., son ejemplos de actitudes psicológicas. Lo que es creído, lo que es deseado, lo que es recordado, lo que es sentido, lo que es percibido, etc., sería el contenido mental que en cada caso se asocia con esas actitudes.&lt;br /&gt;
&lt;br /&gt;
Muy a menudo también se asume que existen dos grandes clases de contenidos mentales: conceptuales y no-conceptuales. El contenido conceptual es el contenido semántico que podemos encontrar en palabras, expresiones y sentencias de un lenguaje. El contenido que típicamente tienen las creencias, los deseos, los recuerdos, etc., es el mismo que el contenido de ciertas sentencias. Los estados mentales con contenido conceptual son llamados también “actitudes proposicionales”, siendo su contenido una proposición particular que podría ser expresada por una cierta sentencia.&lt;br /&gt;
&lt;br /&gt;
El contenido no-conceptual es un contenido experiencial, cualitativo o fenomenológico. Sería el contenido que típicamente tienen los sentimientos, las percepciones y las sensaciones. Mientras que el contenido conceptual es evaluable semánticamente de un modo directo, el contenido no-conceptual no lo es. No obstante, el contenido no-conceptual puede ser evaluado como más o menos correcto o incorrecto, o como más o menos adecuado o inadecuado, etc. Los estados mentales con un contenido no-conceptual son llamados habitualmente “estados cualitativos”, “estados experienciales” o “estados fenoménicos”. Su contenido sería un carácter cualitativo, experiencial o fenoménico no identificable con ninguna proposición.&lt;br /&gt;
&lt;br /&gt;
Una tesis muy importante con respecto a la distinción entre contenido conceptual y no-conceptual es que quizás haya estados mentales con contenido tanto conceptual como no-conceptual. Otra tesis no menos importante es que quizás todo estado mental con contenido conceptual tiene también algún tipo de contenido no-conceptual.&lt;br /&gt;
&lt;br /&gt;
El contraste entre internismo y externismo ha constituido una de las más dramáticas discusiones sobre el contenido mental en los últimos años. El internismo sostiene que los contenidos mentales –y los estados mentales— sólo dependen de factores internos a la mente de los sujetos. El externismo sostiene que los contenidos mentales –y los estados mentales— esencialmente dependen de factores externos a sus mentes. Dichos factores externos incluirían normas lingüísticas de la comunidad, cómo los expertos usan ciertos términos, y las relaciones con el mundo externo. Descartes y Frege serían dos ejemplos clásicos y paradigmáticos de internismo. El externismo fue introducido por autores como Putnam, Burge y Kripke.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
Son sumamente útiles los recursos bibliográficos ofrecidos en la página {{gb_em|web}} de David CHALMERS: [En línea] &amp;lt;http://consc.net/chalmers/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* BURGE, T. (1992). “Philosophy of Language and Mind 1950-1990”. {{gb_em|Philosophical Review}}, 95.&lt;br /&gt;
* CRANE, T. (1992). {{gb_em|The Contents of Experience}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* DRETSKE, F. (1980). {{gb_em|Knowledge and the Flow of Information}}. Cambridge: MIT Press.&lt;br /&gt;
* DRETSKE, F. (1988). {{gb_em|Explaining Behavior}}. Cambridge: MIT Press.&lt;br /&gt;
* FODOR, J. (1987). {{gb_em|Psychosemantics: The Problem of Meaning in the Philosophy of Mind}}. Cambridge: MIT Press.&lt;br /&gt;
* KRIPKE, S. (1980). {{gb_em|Naming and Necessity}}. Cambridge: Harvard University Press.&lt;br /&gt;
* LYCAN, W. (Ed.) {{gb_em|Mind and Cognition}}. Cambridge: Basil Blackwell.&lt;br /&gt;
* MCGINN, C. (1989). {{gb_em|Mental Content}}. New York: Blackwell.&lt;br /&gt;
* MILLIKAN, R. (1984). {{gb_em|Language, Thought and Other Biological Categories}}. Cambridge: MIT Press.&lt;br /&gt;
* PETTIT, Ph. y McDOWELL, J. (Eds.) (1986). {{gb_em|Subject, Thought and Content}}. Oxford: Clarendon Press.&lt;br /&gt;
* PUTNAM, H. (1975). “The meaning of ‘meaning’ ”. En {{gb_em|Mind, Language and Reality}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* PUTNAM, H. (1988). {{gb_em|Representation and Reality}}. Cambridge: MIT Press.&lt;br /&gt;
* RICHARD, M. (1990). {{gb_em|Propositional Attitudes}}. Cambridge: Cambridge University Press.&lt;br /&gt;
* STALNAKER, R. (1999). {{gb_em|Context and Content}}. Oxford: Oxford University Press.&lt;br /&gt;
* WOODFIELD, A. (Ed.) (1982). {{gb_em|Thought and Object: Essays on Intentionality}}. New York: Oxford University Press.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Biblioteconom%C3%ADa_o_Bibliotecolog%C3%ADa&amp;diff=39225</id>
		<title>gB:Biblioteconomía o Bibliotecología</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Biblioteconom%C3%ADa_o_Bibliotecolog%C3%ADa&amp;diff=39225"/>
		<updated>2026-04-28T07:10:07Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1013&lt;br /&gt;
| Curator = Blanca Rodríguez Bravo&lt;br /&gt;
| Author = Blanca Rodríguez Bravo//José María Díaz-Nafría//Estela Mastromatteo&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Gestión de la información&lt;br /&gt;
| Type = Concept:disciplina&lt;br /&gt;
| en = library science&lt;br /&gt;
| fr = sciences des bibliothèques, bibliothéconomie&lt;br /&gt;
| de = Bibliotheks-, Dokumentations-wissenschaft, Bibliothekskunde&lt;br /&gt;
| Also = gB:Library science&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Ciencia de la Información que comprende los conocimientos teóricos y técnicos relativos a la descripción y organización de recursos informativos y a la prestación de servicios informativos a los usuarios.&lt;br /&gt;
&lt;br /&gt;
== Apuntes históricos ==&lt;br /&gt;
A principios del siglo XX el término de información apareció, en el mundo anglosajón, frecuentemente asociado a “Special Librarianship” (biblioteconomía especializada) y después de que durante un tiempo esta actividad fuera asociada a &amp;quot;Documentation&amp;quot; (documentación o archivística) en la década de 1960 la tendencia fue a que ésta convergiera en lo que vino a denominarse {{gb_em|Information Science}} (que en algunos países hispanoamericanos se ha traducido por “Ciencia de la Información”, en un sentido muy similar al anglosajón), motivado –según Capurro y Hjørland (2003)– por el interés creciente en las aplicaciones computacionales, la influencia de la teoría shannoniana y el paradigma vigente de procesamiento de información en las ciencias cognitivas. En cuanto a las disciplinas académicas entorno a los bibliotecarios y documentalistas, “{{gb_em|Library science}}” (bibliotecomía o, como es principalmente denominada en hispanoamérica, &#039;&#039;&#039;{{gb_em|bibliotecología}}&#039;&#039;&#039;), se han distinguido dos claras tendencias: la {{gb_em|generalista}}, en cierto modo orientada a las bibliotecas públicas y con un acento en la educación general a la vez que distanciada respecto al conocimiento al que se sirve; y la {{gb_em|especializada}}, dirigida hacia temas concretos.&lt;br /&gt;
&lt;br /&gt;
== Relación entre disciplinas afines ==&lt;br /&gt;
La bibliografía, la bibliotecología, la archivología, así como documentación, comunicación social y ciencia de la información, de una u otra manera se centran en la noción de información. Existen muchas definiciones acerca de estas ciencias, que pueden agruparse en dos tipos fundamentales: definiciones que relacionan unas con otras y definiciones sin relación entre sí. Las primeras, a su vez, pueden ser globales o de superposición; definiciones paralelas o de yuxtaposición; y subordinadas o de infraposición. Las de superposición incluyen unas como parte de otras, las de yuxtaposición contemplan las disciplinas como estructuras paralelas, y finalmente, las de infraposición consideran a unas áreas como simples extensiones de otras. Cada una de estas disciplinas e interdisciplinariamente han evolucionado de acuerdo a los tiempos y a las estructuras sociales; son disciplinas próximas, coexisten, pero con sus diferencias y similitudes. Hay también quienes piensan que el desarrollo de la ciencia de la información pondrá cada vez más de manifiesto los elementos comunes, mucho más que subrayar sus diferencias.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* CAPURRO, R. y HJØRLAND, B. (2003). &amp;quot;The Concept of Information&amp;quot;. {{gb_em|Annual Review of Information Science and Technology}}, Ed. B. Cronin, Vol. 37, Capítulo 8, pp. 343-411. [En línea]&lt;br /&gt;
* MARTÍNEZ DE SOUSA, J. (1993). {{gb_em|Diccionario de bibliología y ciencias afines}}. Madrid: Fundación Sánchez Ruipérez.&lt;br /&gt;
* RODRÍGUEZ BRAVO, B. (2002). {{gb_em|El documento: entre la tradición y la renovación}}. Gijón: Trea.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Sistema_de_organizaci%C3%B3n_del_conocimiento&amp;diff=39224</id>
		<title>gB:Sistema de organización del conocimiento</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Sistema_de_organizaci%C3%B3n_del_conocimiento&amp;diff=39224"/>
		<updated>2026-04-27T08:36:35Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1065&lt;br /&gt;
| Curator = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Author = Sonia Sánchez-Cuadrado//José Manuel Méndez&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Biblioteconomía//Gestión del conocimiento//TIC//documentación//informática&lt;br /&gt;
| Type = Concept:recurso&lt;br /&gt;
| en = Knowledge Organization System&lt;br /&gt;
| fr = Systèmes de organisation de la connaissance&lt;br /&gt;
| de = System zur Wissensorganisation&lt;br /&gt;
| Also = gB:Knowledge organization system&lt;br /&gt;
}}&lt;br /&gt;
Los sistemas de organización del conocimiento engloban todos los tipos de esquemas para la {{gb_em|[[gB:Organización del conocimiento|organización del conocimiento]]}} como clasificaciones, {{gb_em|[[gB:Taxonomía|taxonomías]]}}, encabezamientos de materia, {{gb_em|[[gB:Tesauro|tesauros]]}}, {{gb_em|[[gB:Ontología|ontologías]]}}, etc.&lt;br /&gt;
&lt;br /&gt;
Los Sistemas de Organización del Conocimiento integran una serie de tecnologías que ayudan a crear, gestionar y visualizar modelos que muestren una perspectiva simplificada de los conceptos que forman determinado dominio y de la estructura semántica subyacente. El objetivo de estos sistemas es principalmente ayudar a la comprensión, gestión y recuperación de los conceptos contenidos en cada dominio. Dado que cualquier disciplina tiene necesidad de mostrarse de forma comprensible y de facilitar mecanismos de gestión y de recuperación conceptual, los Sistemas de Organización del Conocimiento se encuentran en diversos estudios, desde la Pedagogía a la Inteligencia Artificial, pasando por la Documentación y la Ingeniería del Software entre otras. En cada una de estas disciplinas, los Sistemas de Organización del Conocimiento han desarrollado esquemas organizativos que han recibido distintos nombres, desde tesauros en Documentación, mapas conceptuales en Pedagogía u ontologías en Inteligencia Artificial o Filosofía. En cada disciplina los esquemas tienen diferente capacidad semántica, dependiendo de los objetivos, pero básicamente prevalece, como elemento común, un vocabulario para designar los conceptos establecidos en el área, y las relaciones semánticas entre estos conceptos.&lt;br /&gt;
&lt;br /&gt;
La creación de un Sistema de Conocimiento requiere de un elevado esfuerzo intelectual y de un alto grado de consenso, lo cual se traduce en un proceso lento y laborioso. En los últimos años disciplinas como la Documentación, Ingeniería Ontológica y la Ingeniería del Software han reseñado las etapas comunes que existen en la creación de estos modelos. Por lo que se requiere un gran esfuerzo para automatizar en el mayor grado posible estas fases.&lt;br /&gt;
&lt;br /&gt;
Una de las principales fases es la adquisición del conocimiento. Esta etapa propone identificar, mediante diferentes fuentes documentales y expertos en el dominio, los conceptos que lo conforman y las denominaciones alternativas en lenguaje natural, es decir, las equivalencias. Posteriormente, se estructuran los conceptos jerárquicamente, esto es, se clasifican según estructuras de generalización-especificación. Otra etapa que frecuentemente aparece es determinar qué otros tipos de relaciones existen entre los conceptos, así como las restricciones que estos deben tener.&lt;br /&gt;
&lt;br /&gt;
Los Sistemas de Organización de Conocimiento (KOS, {{gb_em|Knowledge Organization Systems}}) engloban diferentes sistemas de construcción de ontologías con menor o mayor carga semántica, desde las ligeras, como son los tesauros, las listas de sinónimos y las taxonomías, a otras más complejas (Daconta et al. 2003: 157; Lassila y McGuinness 2001; Gruninger y Uschold 2002).&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* DACONTA, Michael C.; OBRST, Leo J. y SMITH, Kevin T. (2003). {{gb_em|The Semantic Web. A guide to the future of XML, Web Services, and Knowledge Management}}. Indianapolis: Wiley.&lt;br /&gt;
* GRUNINGER, M. y USCHOLD, M. (2002). {{gb_em|Ontologies and Semantic Integration to appear in Software Agents for the Warfighter}}. {{gb_em|The first in a series of reports sponsored by the US Government Information Technology Assessment Consortium (ITAC)}}. Editado por Jeff Bradshaw, Institute for Human and Machine Cognition (IHMC), University of West Florida. 2002.&lt;br /&gt;
* LASSILA, Ora y MCGUINNESS, Deborah. (2001). The Role of Frame-Based Representation on the Semantic Web. KSL Tech Report Number KSL-01-02. Enero de 2001. [En línea] &amp;lt;http://www.ksl.stanford.edu/people/dlm/etai/lassila-mcguinness-fbr-sw.html&amp;gt; [visitado: 28/09/2009]&lt;br /&gt;
* ZENG, M.L. y CHAN, L.M. (2004). Trends and issues in establishing interoperability among knowledge organization systems. {{gb_em|Journal of the American Society for Information Science and Technology, 55 (5)}}, 377-395.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Organizaci%C3%B3n_del_conocimiento&amp;diff=39223</id>
		<title>gB:Organización del conocimiento</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Organizaci%C3%B3n_del_conocimiento&amp;diff=39223"/>
		<updated>2026-04-27T08:32:49Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1064&lt;br /&gt;
| Curator = Sonia Sánchez-Cuadrado&lt;br /&gt;
| Author = Sonia Sánchez-Cuadrado//José María Díaz-Nafría&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Gestión del conocimiento//bibliotecomía//documentación//sociedad de la información&lt;br /&gt;
| Type = Concept:disciplina&lt;br /&gt;
| en = knowledge organization&lt;br /&gt;
| fr = organisation de la connaissance&lt;br /&gt;
| de = Wissensorganisation&lt;br /&gt;
| Also = gB:Knowledge organization&lt;br /&gt;
}}&lt;br /&gt;
La {{gb_em|Organización del Conocimiento (OC)}} es el campo de estudio en el que se enmarca las técnicas para organizar documentos, conceptos y relaciones de los {{gb_em|[[gB:Documento|documentos]]}}. Una de las tareas de las que se ocupa es la de incrementar la globalización de la información y el conocimiento. Los campos relacionados directamente con la OC son la clasificación de la información, la {{gb_em|[[gB:Recuperación_de_la_información|recuperación de información]]}}, la {{gb_em|[[gB:Visualización_de_la_información|visualización de la información]]}} y la adquisición de {{gb_em|conocimiento}} entre otras.&lt;br /&gt;
&lt;br /&gt;
No debe confundirse con la {{gb_em|gestión de conocimiento}}, en cuanto a que ésta se focaliza en el ámbito de las organizaciones, mientras que la OC tiene una orientación más generalista, menos dirigida a los rendimientos concretos de las organizaciones cuyos objetivos son concretos y explícitos. No obstante, la gestión del conocimiento debe contar con la OC como uno de sus procesos y técnicas básicas.&lt;br /&gt;
&lt;br /&gt;
Buena parte de los métodos de organización del conocimiento están basados en los principios organizativos propuestos por los bibliotecarios, como los sistemas de organización del conocimiento. Algunas herramientas de organización de conocimiento son: vocabularios controlados, esquemas de clasificación ({{gb_em|[[gB:lenguaje documental|lenguajes documentales]]}}, {{gb_em|[[gB:Taxonomía|taxonomías]]}}, {{gb_em|[[gB:Tesauro|tesauros]]}}).&lt;br /&gt;
&lt;br /&gt;
Algunas técnicas habituales en la OC son el análisis de texto y la minería de textos a través de técnicas de aprendizaje supervisado, por ejemplo. En este ámbito se trabaja también en la elaboración de bases de conocimiento para dominios específicos para el análisis de la información. Otras de las técnicas son las redes neuronales, los algoritmos genéticos, técnicas de procesamiento del lenguaje natural, extracción de entidades o asociaciones conceptuales.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* ZENG, M.L. y CHAN, L.M. (2004) Trends and issues in establishing interoperability among knowledge organization systems. {{gb_em|Journal of the American Society for Information Science and Technology}}, 55 (5), pp. 377-395.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Gesti%C3%B3n_del_conocimiento&amp;diff=39222</id>
		<title>gB:Gestión del conocimiento</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Gesti%C3%B3n_del_conocimiento&amp;diff=39222"/>
		<updated>2026-04-27T08:26:45Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1045&lt;br /&gt;
| Curator = Mario Pérez-Montoro&lt;br /&gt;
| Author = Mario Pérez-Montoro//Mehrad Golkhosravi&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = TIC//gestión empresarial//sociedad de la información&lt;br /&gt;
| Type = Concept:disciplina&lt;br /&gt;
| en = knowledge management&lt;br /&gt;
| fr = gestion des connaissances&lt;br /&gt;
| de = Knowledge Management&lt;br /&gt;
| Also = gB:Knowledge management&lt;br /&gt;
}}&lt;br /&gt;
En la última década ha ido apareciendo y consolidándose con fuerza una nueva disciplina focalizada sobre el ámbito de las organizaciones: la Gestión del Conocimiento. Esta disciplina se encarga de diseñar sistemas y estrategias para aprovechar de forma sistemática el conocimiento involucrado en una organización. La aplicación de la Gestión del Conocimiento al contexto de las empresas ha supuesto una importante fuente de ventajas competitivas que puede garantizar el correcto funcionamiento y la supervivencia de las mismas en el actual escenario económico, caracterizado por la dura competencia y globalización de mercados.&lt;br /&gt;
&lt;br /&gt;
No es fácil definir qué es la Gestión del Conocimiento. No existe una definición consensuada y compartida por toda la comunidad científica (Nonaka y Takeuchi, 1995; Davenport y Prusack, 1998; Boisot, 1998; Sveiby, 2001; Wilson, 2002).&lt;br /&gt;
&lt;br /&gt;
Como punto de partida, hay que señalar que es difícil hablar de Gestión del Conocimiento en abstracto. Siendo estrictos, sólo tiene sentido hablar de Gestión del Conocimiento en el contexto de una organización.&lt;br /&gt;
&lt;br /&gt;
En un sentido lato, una organización es cualquier comunidad o conjunto de individuos cuyos miembros se estructuran y se articulan para cubrir unos objetivos determinados. El paradigma de organización suele ser la empresa, pero a la luz de esta descripción también pueden considerarse organizaciones otras comunidades de individuos (sin unos objetivos tan crematísticos) como un hospital, una ONG, un centro educativo, un ministerio, un centro de investigación o un partido político.&lt;br /&gt;
&lt;br /&gt;
Teniendo en cuenta esto, en un sentido intuitivo, la Gestión del Conocimiento se encarga de diseñar e implementar sistemas cuyo objetivo es identificar, capturar y compartir sistemáticamente el conocimiento involucrado dentro de una organización de forma que éste pueda ser convertido en valor para esa organización. El conocimiento, en este contexto, es toda aquella información metabolizada o asimilada por un sujeto y orientada a la acción. O dicho en otras palabras, conocimiento es todo aquel estado mental (una disposición neuronal concreta, en definitiva) que posee un sujeto, que ha sido causado por una información determinada y que le permite a ese sujeto en cuestión la toma adecuada de ciertas decisiones y la realización de unas acciones concretas derivadas de esas decisiones (Audi, 1988; Crayling, 1998). Por otro lado, el conocimiento se convierte en valor para una organización cuando éste logra contribuir de una manera clara a la consecución de los objetivos que persigue la propia organización.&lt;br /&gt;
&lt;br /&gt;
Es posible enriquecer y hacer más operativa y funcional esta primera definición intuitiva de Gestión del Conocimiento si tenemos en cuenta que existen distintos tipos de conocimiento dentro de una organización, y que, por tanto, es imprescindible respetar la especial naturaleza de cada uno de ellos para poder diseñar la gestión más adecuada.&lt;br /&gt;
&lt;br /&gt;
En este sentido, es posible distinguir 6 tipos de conocimiento dentro de una organización. Estos 6 tipos pueden ser presentados agrupándolos en las siguientes tres parejas:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ol style=&amp;quot;list-style-type: lower-alpha;&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;Conocimiento Tácito / Explícito;&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;Conocimiento Individual / Organizacional o Corporativo;&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;&amp;lt;p&amp;gt;Conocimiento Interno / Externo.&amp;lt;/p&amp;gt;&amp;lt;/li&amp;gt;&amp;lt;/ol&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Comencemos abordando la primera de las parejas. El {{gb_em|conocimiento tácito}} se corresponde con ese conocimiento basado en la experiencia personal y en muchos casos se identifica con las habilidades del sujeto. Su principal característica es que es difícilmente transmisible o comunicable y, por tanto, que no es accesible a otros individuos de una forma directa. Para señalar que alguien, A, posee un conocimiento de este tipo, solemos utilizar la expresión “A sabe P” (donde P acostumbra a ser un verbo). Así, saber nadar, saber ir en bicicleta, saber conducir un automóvil, saber hablar en público o saber articular y dirigir un grupo de personas, son varios ejemplos de este tipo de conocimiento.&lt;br /&gt;
&lt;br /&gt;
El {{gb_em|conocimiento explícito}}, en cambio, se caracteriza por ser directamente codificable en un sistema de representación como el lenguaje natural, por ejemplo. En este sentido, es fácilmente transmisible o comunicable, y por lo tanto sí que es accesible a otros individuos de una forma directa. Para señalar que alguien, A, posee un conocimiento de este tipo, solemos utilizar la expresión “A sabe que P” (donde P acostumbra a ser un enunciado). Así, saber que el agua es H2O, o saber que cuando a la fotocopiadora se le enciende la luz roja hay que cambiarle el recambio de tinta, son dos ejemplos de este tipo de conocimiento.&lt;br /&gt;
&lt;br /&gt;
Pasemos ahora a la segunda de las parejas. Por {{gb_em|conocimiento individual}} podemos entender todos aquellos conocimientos que posee un miembro concreto de una organización. Por tanto, el conocimiento individual de una persona está formado por todos los conocimientos tácitos y explícitos que ésta posee. Las habilidades individuales, los contactos y relaciones personales o los conocimientos técnicos que tiene una persona pueden ser identificados como parte de ese conocimiento individual que ésta ostenta.&lt;br /&gt;
&lt;br /&gt;
El {{gb_em|conocimiento organizacional o corporativo}}, en cambio, es aquel conocimiento que se le puede atribuir a una organización, el que posee esa organización. Este conocimiento acostumbra a estar representado materialmente en algún tipo de documento. Las bases de datos adquiridas por una organización o la propiedad intelectual y las patentes que ésta desarrolla son dos claros ejemplos de este tipo de conocimiento.&lt;br /&gt;
&lt;br /&gt;
Terminemos abordando la tercera y última de las parejas. El conocimiento interno es aquel conocimiento que es crítico para el correcto funcionamiento de una organización. O dicho de otra manera: aquel conocimiento sin el cual sería imposible que la organización funcionase. Si identificamos un laboratorio farmacéutico como una organización, los conocimientos que poseen los químicos de ese laboratorio o las patentes que éstos desarrollan son dos buenos ejemplos de conocimiento interno de esa organización.&lt;br /&gt;
&lt;br /&gt;
El {{gb_em|conocimiento externo}}, en cambio, es aquel conocimiento que utiliza una organización para relacionarse con otras organizaciones. El conocimiento contenido en los informes publicados sobre la organización, o el incluido en su web externa, son ejemplos de este último tipo de conocimiento.&lt;br /&gt;
&lt;br /&gt;
Con la definición de estos seis tipos de conocimiento en la mano ya podemos proponer una segunda definición mucho más articulada de Gestión del Conocimiento en las organizaciones.&lt;br /&gt;
&lt;br /&gt;
En este sentido, la Gestión del Conocimiento en una organización puede ser entendida como la disciplina que se encarga de diseñar e implementar un sistema cuyo principal objetivo es que todo el conocimiento tácito, explícito, individual, interno y externo involucrado en la organización pueda convertirse, sistemáticamente, en conocimiento organizacional o corporativo de manera que ese conocimiento corporativo, al ser accesible y poder ser compartido, permita que aumente el conocimiento individual de todos sus miembros y que esto redunde directamente en una mejora de la contribución de esos sujetos en la consecución de los objetivos que persigue la propia organización.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* ARROW, K. (1962). “The Economic Implication of Learning by Doing”. {{gb_em|Review of Economic Studies}}, {{gb_em|29(3)}}, 153-173.&lt;br /&gt;
* AUDI, R. (1988). {{gb_em|Belief, Justification and Knowledge}}. London: Wadsworth Publishing Company.&lt;br /&gt;
* BOISOT, M. (1998). {{gb_em|Knowledge Assets}}. Oxford: Oxford University Press.&lt;br /&gt;
* CRAYLING, A. C. (Ed.) (1998). {{gb_em|Philosophy}}. Oxford: Oxford University Press.&lt;br /&gt;
* DAVENPORT, T. (1997). {{gb_em|Information Ecology}}. Oxford: Oxford University Press.&lt;br /&gt;
* DAVENPORT, T. y PRUSAK, L. (1998). {{gb_em|Working Knowledge}}. Boston: Harvard Business School Press.&lt;br /&gt;
* NONAKA, I. y TAKEUCHI, H. (1995). {{gb_em|The Knowledge Creating Company}}. Oxford: Oxford University Press.&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario (2008). “Knowledge Management in Organizations”. En Torres-Coronas, T. y Arias-Oliva, M. (Eds.) (2008). {{gb_em|Encyclopedia of Human Resources Information Systems: Challenges in e-HRM}}. Hershey (Pennsylvania): Information Science Reference (Idea Group).&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario (2008). {{gb_em|Gestión del Conocimiento en las Organizaciones}}. Gijón: Trea.&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario (2006). “Gestión del Conocimiento, gestión documental y gestión de contenidos”. En Tramullas, Jesús (Coord.) (2006). {{gb_em|Tendencias en documentación digital}}. Gijón: Ediciones Trea, pp. 110-133.&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario (2006). “O Conhecimento e sua Gestão em Organizações”. En Tarapanoff, K. (Org.) (2006). {{gb_em|Inteligência, informação e conhecimento}}. Brasilia: IBICT-UNESCO, pp.117-138.&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario (2005). “Sistemas de gestión de contenidos en la gestión del conocimiento”. [En línea] {{gb_em|BiD: textos universitaris de Biblioteconomia i Documentació}}, junio, núm. 14, 2005. &amp;lt;https://bid.ub.edu/14monto2.htm&amp;gt; [visitado: 18/07/2005].&lt;br /&gt;
* PÉREZ-MONTORO, Mario y MARTINEZ, Jesús (2008). “Success Factors of Communities of Practice in Public Administration: the Case of Catalonia’s Government”. En O’Sullivan, Kevin. (Ed.) (2008). {{gb_em|ICICKM 2008. 5th International Conference on Intellectual Capital, Knowledge Management &amp;amp; Organisational Learning}}. London: Academic Conferences Limited Reading, vol. II, págs. 407-414.&lt;br /&gt;
* SENGE, Peter M. (1990). {{gb_em|The Fifth Discipline: The Age and Practice of the Learning Organization}}. London: Century Business.&lt;br /&gt;
* STEWART, T. A. (1997). {{gb_em|Intellectual Capital: The New Wealth of Organizations}}. New York: Currency/Doubleday.&lt;br /&gt;
* SVEIBY, K. E. (1997). {{gb_em|The New Organizational Wealth: Managing and Measuring Knowledge-Based Assets}}. San Francisco: Berrett-Koehler.&lt;br /&gt;
* SVEIBY, K. E. (2001). {{gb_em|What is Knowledge Management?}} Brisbane: Sveiby Knowledge Associates.&lt;br /&gt;
* TIWANA, A. (Ed.) (2002). {{gb_em|The Knowledge Management toolkit}}. Upper Saddle River: Pearson Education.&lt;br /&gt;
* von KROGH, G., ICHIJO, K. y NONAKA, I. (2000). {{gb_em|Enabling Knowledge Creation}}. Oxford: Oxford University Press.&lt;br /&gt;
* WILSON, J. (Ed.) (2002). {{gb_em|The Practitioner’s Guide to Effective Knowledge Management}}. Chicago: Melcrum Publishing.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:Conocimiento&amp;diff=39221</id>
		<title>gB:Conocimiento</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:Conocimiento&amp;diff=39221"/>
		<updated>2026-04-27T08:22:03Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1021&lt;br /&gt;
| Curator = Mario Pérez-Montoro&lt;br /&gt;
| Author = Mario Pérez-Montoro//José María Díaz-Nafría//Roberto Gejman//Mehrad Golkhosravi&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = ciencia cognitiva//epistemología//filosofía//semántica//transdisciplinar&lt;br /&gt;
| Type = Concept:concepto&lt;br /&gt;
| en = knowledge&lt;br /&gt;
| fr = connaissance&lt;br /&gt;
| de = Erkenntniss, Wissen&lt;br /&gt;
| Also = gB:Knowledge&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
A lo largo de la historia del pensamiento se han vertido verdaderos ríos de tinta acerca de qué es conocimiento. Infinidad de propuestas, desde distintos preceptos filosóficos, han intentado dar respuesta a esa pregunta. En este sentido, si revisamos la literatura especializada en temas de Ciencia Cognitiva y epistemología, podemos comprobar que existen diversos modelos teóricos que pueden cubrir el objetivo de ofrecernos una definición adecuada de conocimiento.&lt;br /&gt;
&lt;br /&gt;
== Modelo epistemológico clásico ==&lt;br /&gt;
La propuesta epistemológica clásica defiende una definición de conocimiento a partir de las nociones de creencia, valor de verdad y justificación (o argumentación). En este sentido, una persona A sabe que P sí y sólo sí se cumplen las siguientes tres condiciones: (a) A cree que P, (b) P es verdadero y (c) A está justificado en creer que P.&lt;br /&gt;
&lt;br /&gt;
A primera vista, la propuesta epistemológica clásica proporciona una base sólida para poder abordar con garantías el proceso de identificación y representación del conocimiento en el contexto de una organización. En este sentido, para poder concluir que una persona sabe una cosa concreta (que posee un conocimiento concreto) sólo tenemos que comprobar que esa persona tiene una creencia que coincide con ese presunto conocimiento que le atribuimos, que eso que cree es cierto y que esa persona está justificada en creerlo (que esa creencia que le atribuimos la tiene argumentada, que no es arbitraria).&lt;br /&gt;
&lt;br /&gt;
== Modelo informacional de Drestske ==&lt;br /&gt;
La explicación del conocimiento en términos informacionales fue introducida por el filósofo americano Fred Dretske en 1981. Dretske, a partir de su definición de contenido informativo, nos ofrece una definición de conocimiento en términos informativos: K sabe que s es F si y sólo si la creencia de K de que s es F está causada (o está causalmente sustentada) por la información de que s es F.&lt;br /&gt;
&lt;br /&gt;
Dentro de esta definición deben entenderse los términos “creencia causada por una información” como aquella creencia causada por la información contenida en el hecho de que s sea F.&lt;br /&gt;
&lt;br /&gt;
En definitiva, recuperando la definición de contenido informativo, para que K sepa algo, K debe tener la información de ese algo con probabilidad igual a 1, por tanto, saber que s es F requiere no sólo cierta información sobre s (una cantidad suficiente o adecuada) sino la información de que s es F.&lt;br /&gt;
&lt;br /&gt;
De esta propuesta dretskeana sobre el conocimiento se pueden extraer dos importantes beneficios teóricos.&lt;br /&gt;
&lt;br /&gt;
El primero de estos beneficios lo encontramos en el hecho de que esta definición nos permite explicar la posibilidad de la transmisión del conocimiento: cuando un hablante K sabe que s es F y, además de otras cosas, asevera sinceramente que s es F, los oyentes podrán llegar a saber que s es F a partir de lo que dice el hablante (se respeta el principio de la copia introducido en la sección anterior). Este hecho comunicativo se cumplirá, como nos indica la definición dretskeana de conocimiento, si K sabe que s es F a partir de la información de que s es F y si la transmisión de esa información se realiza con una equivocidad igual a 0.&lt;br /&gt;
&lt;br /&gt;
El segundo de los beneficios va algo más allá de la posibilidad de la transmisión del conocimiento. Lo que esta definición principalmente persigue es alcanzar el objetivo de distanciarse de aquellas teorías epistemológicas clásicas que habían presentado al conocimiento como una creencia verdadera y justificada. Dretske sustituye la necesidad de la justificación de la creencia por la causalidad de la información. Al realizar este cambio intenta superar los problemas que habitualmente han presentado esas teorías clásicas (las paradojas de Gettier y la de la lotería), y además obtiene un argumento adecuado contra la tesis del escepticismo radical.&lt;br /&gt;
&lt;br /&gt;
Dretske se defiende de la tesis del escepticismo radical (que defiende la imposibilidad del conocimiento) distinguiendo claramente lo que son las condiciones de una fuente de información de lo que son las condiciones de un canal de información. Mientras que una fuente es generadora de información, las condiciones de un canal, aunque determinantes para la transmisión de información, no afectan a la información que circula por su seno. En este sentido, el canal de comunicación debe ser considerado como un conjunto de condiciones existentes, de las que depende la señal, que, o bien no genera información (relevante), o genera sólo información redundante. En definitiva, el canal no ofrece alternativas relevantes a la fuente, y lo que hace a un canal de información equívoco son sus características, no las sospechas de que pueda o no pueda circular información por su seno.&lt;br /&gt;
&lt;br /&gt;
== Modelo semántico de Floridi ==&lt;br /&gt;
Según el enfoque semántico de Floridi (2005a; 2005b), el conocimiento se constituye en términos de información semántica justificable, es decir, la información constituye los elementos para una ulterior indagación. Por su parte, la información resulta de un proceso de modelado de los datos que –a diferencia del supuesto naturalista de Dretske- no tiene por qué representar la naturaleza intrínseca del sistema analizado (o estar directamente vinculado a éste por una cadena causal), sino que dependerá de la elaboración de los datos por parte del conocimiento. Y, a su vez, los datos se conciben como recursos y restricciones que permiten la construcción de la información.&lt;br /&gt;
&lt;br /&gt;
Por tanto, puede decirse que Floridi propone una relación arquitectónica entre conocimiento, información y datos en la que el primero se sitúa en la cúspide y los datos en su base. Igualmente, y como consecuencia de esta interrelación, sustituye el requisito de verdad de Dretske (que también suscribe una aproximación situacional) por un requisito de veracidad, de modo que en lugar de pretender una correspondencia del enunciado con aquello sobre lo que la información versa, lo que se busca es una correspondencia de lo que se informa con el informante.&lt;br /&gt;
&lt;br /&gt;
== Modelo sistémico de la Teoría Unificada de la Información (TUI) ==&lt;br /&gt;
Desde un elaborado punto de vista de la teoría de sistemas, en la que se consideran distintos niveles de auto-organización (desde la auto-estructuración a la auto-re-creación), en la {{gb_em|[[gB:TUI|TUI]]}} el conocimiento se constituye mediante interpretación de los datos (o asignación de significado), y éste supone a su vez la base para la toma de decisiones que conforma la “sabiduría práctica” (practical wisdom).&lt;br /&gt;
&lt;br /&gt;
En la TUI se habla de distintos grados de información y no de una relación de dependencia entre dato, información y sabiduría. De modo que la información se va procesando de manera progresiva: primero en el nivel sintáctico o estructural, luego en el semántico o de estado y finalmente en el nivel pragmático o de comportamiento. Pero no en términos de una progresión causal (como en el naturalismo de Dretske) sino mediante interrelación y acción recíproca entre estratos adyacentes.&lt;br /&gt;
&lt;br /&gt;
== Modelo conductual ==&lt;br /&gt;
Por ejemplo, relacionándolo con la conducta y la acción de un agente, se sostiene que conocimiento es la capacidad potencial que un actor posee de {{gb_em|comportarse eficazmente}}. La eficacia se entiende al comparar el comportamiento y los resultados potenciales con los objetivos y valores tanto del actor como los de su comunidad o comunidades de las que es miembro.&lt;br /&gt;
&lt;br /&gt;
Dentro de ese marco conceptual pueden distinguirse diversos tipos de conocimiento. Cabe en primer lugar hablar de {{gb_em|conocimiento de información interno}}. En este tipo de conocimiento la capacidad potencial es la de contestar preguntas con respuestas correctas, generalmente preguntas acerca de hechos objetivos, acerca del estado de una parte del mundo en algún tiempo. Es condición necesaria para este tipo de conocimiento que el actor conteste sin recurrir a fuentes de información externas a sí mismo. Típicamente, las respuestas se pueden almacenar en registros, por lo cual pueden ser utilizadas por otros actores.&lt;br /&gt;
&lt;br /&gt;
Si seguimos considerando la capacidad potencial de responder correctamente a preguntas pero admitiendo ahora el acceso a otras fuentes de información, entonces podemos hablar de un segundo tipo de conocimiento en términos de {{gb_em|conocimiento de información externo}}.&lt;br /&gt;
&lt;br /&gt;
En tercer lugar, en la medida que {{gb_em|pensar}} puede ser una forma de acción efectiva, puede también hablarse de {{gb_em|conocimiento de información procesada por el pensamiento}}. Es decir, a partir de información disponible, el agente pensante elabora (produce espontáneamente) nueva información que puede convertirse en respuesta a nuevas preguntas.&lt;br /&gt;
&lt;br /&gt;
Finalmente, cabe distinguirse el {{gb_em|conocimiento no informativo}}, en cuanto a capacidad de acción efectiva no relacionada con información. Como es el caso de la que habitualmente se observa en artistas y deportistas. Estos son frecuentemente capaces de un comportamiento altamente eficaz, pero incapaces de explicar o articular en información registrada su conocimiento.&lt;br /&gt;
&lt;br /&gt;
== Conocimiento y conceptos afines ==&lt;br /&gt;
&lt;br /&gt;
a) Conocimiento vs. información. La relación entre información y conocimiento, para la mayor parte de los muchos puntos de vista que se adoptan ante ambos conceptos es muy estrecha, y en especial en lo que atañe a los usos corrientes de ambos términos, ubicándose normalmente la información en un plano inferior al del conocimiento, al que nutre de algún modo. Esta vinculación es, no obstante, obviada en los casos de una visión sintáctica radical, en la que el problema de la relación es evitada para abordar solamente su dimensión técnica (como ocurre en la {{abbr|TMC|Teoría Matemática de la Comunicación}}), o bien desde una óptica pragmática radical, en la que sólo se ponga en cuestión lo-que-se-está-haciendo de modo que la información se considera como mero instrumento de la acción (§5), y por lo tanto se obvia el problema de si en ésta se produce una referencia a objetos (ya sea en cuanto a si se trata de una aprehensión correcta o si se sabe que p sea el caso).&lt;br /&gt;
&lt;br /&gt;
Aunque las concepciones acerca del conocimiento son y han sido muy diversas, así como las posturas en relación a su definición, su posibilidad, su fundamento o sus modos, puede decirse que han prevalecido dos modelos fundamentales: 1) el {{gb_em|icónico}}, según el cual el conocimiento es una imagen adecuada (de naturaleza mental) del objeto de conocimiento, y 2) el modelo {{gb_em|proposicional}}, según el cual un conocimiento es una proposición verdadera. En el modelo icónico, en el que la percepción y la aprehensión juegan un papel fundamental, los problemas se centran en la especificación de los límites entre objeto y sujeto, así como la explicación de los conocimientos no icónicos (como las “verdades” lógicas, matemáticas, relacionales…). Sin embargo, en el modelo proposicional, en el que el enunciado científico es el que cumple un papel ejemplar, se vuelve problemático el inevitable círculo en que consiste la justificación del conocimiento (ver {{gb_em|primer teorema de incompletud de Gödel}} en {{gb_em|[[gB:Incompletud|incompletud]]}}). Pero sea cual sea el modelo de representación, se distinguiría el conocimiento de una opinión verdadera en cuanto a que sólo aquel sabe justificarse (aunque su justificación sea sólo parcial o problemática).&lt;br /&gt;
&lt;br /&gt;
Según lo dicho, es evidente que, en todas aquellas concepciones de la información en las que se considere la dimensión semántica, deberá aparecer su vinculación con el conocimiento. Adoptándose normalmente una acepción más analítica para la información y otra más sintética para el conocimiento, así como una mayor proximidad al objeto por parte de la información y al sujeto por parte del conocimiento.&lt;br /&gt;
&lt;br /&gt;
Para Dretske -como se decía antes- el “conocimiento es creencia producida por la información” (Dretske 1981, 91-92) y ésta siempre es relativa a “un {{gb_em|trasfondo}} ({{gb_em|background}}) de conocimiento del receptor” ({{gb_em|ibidem}}, 80-81). Desde una perspectiva naturalista en la que se da una dependencia causal entre los estados internos del ser vivo y las condiciones externas, la información para Dretske forma la experiencia (representaciones sensoriales) y origina las creencias (experiencias cognitivas), que están en la base de sedimentación del conocimiento.&lt;br /&gt;
&lt;br /&gt;
b) Conocimiento y estados mentales. Dejando a un lado las definiciones alternativas existentes, podemos convenir que el conocimiento debe ser identificado con un tipo especial de estados mentales (o disposiciones neuronales) que posee un individuo y que presentan una serie de características propias. Por un lado, son estados mentales que adquiere el individuo a partir de un proceso de asimilación o metabolización de información. Esta característica ayuda a distinguir los estados mentales del sujeto que se corresponden con el conocimiento de aquellos estados mentales del sujeto que se corresponden con meras creencias que no alcanzan el nivel epistémico necesario para poder identificarlas como conocimiento.&lt;br /&gt;
&lt;br /&gt;
En este sentido el contenido semántico de esos estados mentales coincide con esa información asimilada. Y, por otro, actúan de guía en las acciones y la conducta de ese individuo. Es decir, que rigen la toma de decisiones que el sujeto pueda realizar.&lt;br /&gt;
&lt;br /&gt;
Podemos plasmar esta caracterización de una forma sintética en la siguiente definición: Conocimiento = estados mentales de un individuo construidos a partir de la asimilación de información y que rigen las acciones del propio sujeto.&lt;br /&gt;
&lt;br /&gt;
Sin embargo, las características del conocimiento no acaban aquí. Podemos abundar un poco más sobre este tipo especial de estados mentales. El conocimiento, a diferencia de los datos y la información, se encuentra estrechamente relacionado con las acciones y las decisiones del sujeto que lo realiza; llegándose incluso a poder evaluar ese conocimiento utilizando como indicadores esas acciones y decisiones. El conocimiento, además, es el factor crítico que permite al sujeto que lo posee la asimilación de nueva información -y así la creación de nuevo conocimiento-, y suele verse reestructurado continuamente por las entradas de nueva información asimilada.&lt;br /&gt;
&lt;br /&gt;
c) Concimiento vs. experiencia, verdad, creencia y valores. Sin embargo, para entender mejor el conocimiento, no es suficiente con ofrecer una definición del mismo e ilustrarla a partir de un par de ejemplos. Es necesario, también, abordar una serie de conceptos cercanos e interrelacionados con éste.&lt;br /&gt;
&lt;br /&gt;
En esta línea, no deberíamos olvidarnos de un concepto muy cercano al del conocimiento y que, en parte, permite su adquisición: la {{gb_em|experiencia}}. La experiencia puede ser definida como el conjunto de vivencias que cada individuo ha ido protagonizando en el pasado. Y como tal habilita la posibilidad de crear nuevo conocimiento al capacitarnos para entender nuevas situaciones a partir de situaciones vividas y encontrar así nuevas respuestas que nos permitan adaptarnos a los nuevos escenarios.&lt;br /&gt;
&lt;br /&gt;
Tampoco el concepto de {{gb_em|verdad}} puede quedarse en el tintero. Como se viene defendiendo desde la Grecia Clásica, el conocimiento (o al menos un tipo especial de conocimiento, como veremos) implica verdad: si A (un individuo) sabe que P, entonces es verdad que P. Si alguien sabe que la molécula del agua está formada por dos átomos de hidrógeno y uno de oxígeno, entonces es verdad que esa molécula presenta esa disposición de átomos. Y es que el conocimiento y sus acciones derivadas tienen que estar en sintonía con lo que realmente ocurre. La realidad se encarga de refinar y mejorar el conocimiento, desestimando y borrando de nuestras cabezas aquel supuesto conocimiento (pseudoconocimiento) que no funciona y no sintoniza con la misma.&lt;br /&gt;
&lt;br /&gt;
Otro de los conceptos estrechamente relacionados es el de {{gb_em|creencia}}, entendida como el estado mental que posee un individuo. Y es que el conocimiento (o al menos un tipo de conocimiento), además de verdad, implica juicio o creencia: para que alguien sepa P, ese alguien tiene que creer P. Es decir, tiene que mantener un compromiso con la verdad de P. Si alguien sabe que la molécula del agua está formada por dos átomos de hidrógeno y uno de oxígeno, entonces ese alguien tiene que creer que esa molécula presenta esa disposición de átomos.&lt;br /&gt;
&lt;br /&gt;
Y por último, a la hora de hablar de conocimiento no podemos obviar el territorio de los {{gb_em|valores}}. Los valores determinan el {{gb_em|trasfondo}} que rige nuestras acciones y, por tanto, nuestra manera de conocer y nuestro conocimiento.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* DRETSKE, Fred I. (1981). Knowledge and the Flow of Information. Cambridge: The MIT Press/Bradford Books.&lt;br /&gt;
* FLORIDI, Luciano (2005a). Is Semantic Information Meaningful Data? En {{gb_em|Philosophy and Phenomenological Research}}, {{gb_em|70(2)}}, 351-370.&lt;br /&gt;
* FLORIDI, Luciano (2005b). Semantic Conceptions of Information. En E. N. Zahlta (Ed.) {{gb_em|Stanford Encyclopedia of Philisophy}}. Stanford: {{gb_em|The Metaphysics Research Lab.}} [En línea] &amp;lt;http://plato.stanford.edu/entries/information-semantic/&amp;gt; [visitado: 12/11/2009]&lt;br /&gt;
* GETTIER, Edmund (1983). “Is Justified True Belief Knowledge?” {{gb_em|Analysis}}, vol. 23, págs. 121-123.&lt;br /&gt;
* HOFKIRCHNER, Wolfgang (1999). Towards a Unified Theory of Information. The Merging of Second-Order Cybernetics and Semiotics into a Single and Comprehensive Information Science. En: {{gb_em|15e Congrès International de Cybernétique, Namur 1998}}, Namur, pp. 175-180.&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario (2007). {{gb_em|The Phenomenon of Information}}. Lanham (Maryland): Scarecrow Press.&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario (2004d). “Identificación y representación del conocimiento organizacional: la propuesta epistemológica clásica”. [En línea] Barcelona: IN3-UOC (Discussion Paper Series; DP04-01). 29 págs. &amp;lt;https://doi.org/10.7238/in3wps.v0i4.874&amp;gt; [visitado: 20/09/2004]&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario (2001). “La información como fundamento cognitivo de una definición adecuada de conocimiento”. Extremeño Placer, Ana (Ed.) (2001) {{gb_em|La representación y organización del conocimiento: metodologías, modelos y aplicaciones}}. Alcalá de Henares, págs. 79-87.&lt;br /&gt;
* PÉREZ-MONTORO GUTIÉRREZ, Mario y CAMPOS HAVIDICH, Manuel (2002). {{gb_em|Representación y procesamiento del conocimiento}}. Barcelona: EdiUOC.&lt;br /&gt;
* STURGEON, S.; MARTIN, G. G. F. y CRAYLING, A. C. (1998). “Epistemology”. En Crayling, A. C. (Ed.) (1998) {{gb_em|Philosophy 1}}. Oxford: Oxford University Press. Capítulo 1, págs. 7-26.&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
	<entry>
		<id>https://www.glossalab.org/w/index.php?title=gB:%C3%89tica_intercultural_de_la_informacion&amp;diff=39220</id>
		<title>gB:Ética intercultural de la informacion</title>
		<link rel="alternate" type="text/html" href="https://www.glossalab.org/w/index.php?title=gB:%C3%89tica_intercultural_de_la_informacion&amp;diff=39220"/>
		<updated>2026-04-27T08:15:14Z</updated>

		<summary type="html">&lt;p&gt;Lucas Díaz: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{article&lt;br /&gt;
| Collection = glossariumBITri&lt;br /&gt;
| Volume = 1&lt;br /&gt;
| Number = 1&lt;br /&gt;
| ID = 1040&lt;br /&gt;
| Curator = Rafael Capurro&lt;br /&gt;
| Author = Rafael Capurro&lt;br /&gt;
| Date = 2010&lt;br /&gt;
| Knowledge Domains = Ética de la información&lt;br /&gt;
| Type = Concept:disciplina&lt;br /&gt;
| en = intercultural information ethics&lt;br /&gt;
| fr = éthique interculturel de l&#039;information&lt;br /&gt;
| de = interkulturelle Informationethik&lt;br /&gt;
| Also = gB:Intercultural information ethics&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Ética de la información: una cuestión intercultural entre lo universal y lo local ==&lt;br /&gt;
Las tecnologías de la información y la comunicación (TIC) son actualmente un fundamento de la vida diaria, los métodos científicos, los procesos industriales, las estructuras políticas y económicas y la cultura. Si bien esta transformación de las sociedades industriales del siglo XIX y XX en sociedades informatizadas se va dando a pasos acelerados, esto no sucede igual en todos los sitios ni con los mismos objetivos y prioridades. Como todo gran invento tecnológico-cultural —pensemos en la escritura o la imprenta— la revolución digital tiene también una profunda influencia en las normas, principios y valores que subyacen a la vida social, las cuales constituyen la moral o {{gb_em|ethos}} cultural de toda sociedad humana. Cuando tienen lugar cambios tecnológico-culturales que atañen en particular a las estructuras, sistemas, instituciones y normas de información y comunicación de una sociedad, se producen diversos tipos de crisis y cuestionamientos en el {{gb_em|ethos}} que sustenta las relaciones sociales, cuyo motor es justamente la comunicación. Dicho {{gb_em|ethos}} comunicacional se encuentra en parte codificado en forma de leyes nacionales, así como de acuerdos y declaraciones internacionales con distinto tipo de obligatoriedad, ratificación legal y fundamentación teórica. Una crisis de las morales locales y globales como la que estamos viviendo desde hace unos años a raíz del desarrollo de las TIC lleva a corto o largo plazo a un cuestionamiento de dichas leyes, así como de las estructuras políticas y sus fundamentos de legitimación.&lt;br /&gt;
&lt;br /&gt;
Dicho cuestionamiento abre expectativas en vistas a cambios en las relaciones de poder, en especial con respecto a las exigencias y esperanzas de sociedades o grupos sociales oprimidos o marginados, y a nuevas formas de creatividad y de concebir y practicar mejores condiciones de vida común, teniendo en cuenta singularidades históricas y culturales, así como también interacciones menos violentas y destructoras del medio ambiente que las generadas por la sociedad industrial. Después de los horrores de las dos guerras mundiales —sin olvidar las guerras y los conflictos subsiguientes y los actuales—, así como de los avances tecnológicos con impacto global como la energía atómica, la biotecnología, la nanotecnología y las TIC, la humanidad representada por las Naciones Unidas y otros organismos internacionales como el Consejo de Europa se ha puesto a la búsqueda de principios y valores morales comunes como fue el caso, tempranamente, de la Declaración Universal de los Derechos Humanos y otras declaraciones subsiguientes, especialmente en el campo de la biotecnología (Oviedo 1997, UNESCO 1997) y hace pocos años también en el ámbito de las TIC, con la Declaración de Principios de la Cumbre Mundial de la Sociedad de la Información (WSIS 2003/2005).&lt;br /&gt;
&lt;br /&gt;
Con {{gb_em|ética intercultural de la información}} (EII) nos referimos a la relación entre normas morales universalizables o universalizadas y tradiciones morales locales. Un ejemplo de moral universalizada es la Declaración Universal de los Derechos Humanos, que surge como respuesta a la catástrofe de la Segunda Guerra Mundial, pero que tiene raíces en el pensamiento del iluminismo, la Revolución Francesa, las constituciones republicanas, etc.&lt;br /&gt;
&lt;br /&gt;
La reflexión ética se mueve entre los polos de la universalización y la concreción en una situación singular, tanto a nivel individual como intercultural. Discutir sobre, por ejemplo, el tema de la privacidad no es igual en una cultura que en otra y con un trasfondo histórico y cultural determinado (Capurro 2009, 2010).&lt;br /&gt;
&lt;br /&gt;
La EII surge en el momento en que el cuestionamiento teórico de la(s) moral(es) se vuelve cada vez más urgente dado el profundo impacto práctico de las TIC en la sociedad. Los conflictos que antes se daban a nivel local, se transforman ahora rápidamente en conflictos globales y viceversa. La ética es un síntoma de que normas y jerarquías de valores que se daban por descontado entran en crisis. Ortega y Gasset decía que “las ideas se tienen” mientras que “en las creencias se está” (Ortega 1986, 17). Las morales son las creencias en las que “estamos”. La ética es lo que “tenemos” cuando nos encontramos “sin creencia firme” (Ortega 1986, 41) a raíz, por ejemplo, de cambios tecnológico-culturales de gran envergadura, como lo fue, por ejemplo, la invención de la imprenta en el siglo XV y actualmente la técnica digital.&lt;br /&gt;
&lt;br /&gt;
Se exponen a continuación los desafíos teóricos de la ética intercultural de la información, referidos a las discusiones en torno a una fundamentación del discurso ético que oscilan entre posturas universalistas y relativistas. Los desafíos prácticos tienen que ver con la búsqueda de un código global para la sociedad de la información promovida por la Cumbre Mundial de la Sociedad de la Información (WSIS) y por la UNESCO (Capurro 2010). El eje de reflexión se sitúa en la diferencia entre moral y ética, es decir, entre las tradiciones morales vigentes —la moral vivida pero también su codificación en forma de leyes y normas como expresión de un ideal— y una reflexión abierta y problematizante de dichas tradiciones y codificaciones con sus respectivos valores y principios, teniendo en cuenta los contextos culturales y las estructuras de poder que los sustentan.&lt;br /&gt;
&lt;br /&gt;
Se propone como {{gb_em|vía regia}} metodológica una reflexión crítica comparada intercultural que presupone que existen diferencias tanto en las tradiciones morales como en las fundamentaciones y problematizaciones éticas. Esta reflexión comparada ha de llevarse a cabo en forma paciente, sin perder de vista el sentido crítico de dichos análisis, en cuanto se trata no sólo de describir diversidades culturales sino también de problematizar los intereses subyacentes a las normas y poderes locales o globales, así como también de buscar valores y principios comunes. Una reflexión ética tiene que pensar lo universal sin dejar de lado la singularidad de formas de vida y las facticidades históricas y geográficas. En tanto reflexión crítica tiene que problematizar, por ejemplo, aspectos de justicia, participación política ([[gB:Teoría_crítica_de_la_información,_la_comunicación,_los_medios_y_la_tecnología|{{gb_em|Teoría crítica de la información}}]]) y social, así como de protección del medio ambiente. El problema de la ‘basura digital’ tiene una dimensión ética de primer orden (Feilhauer y Zehle 2009).&lt;br /&gt;
&lt;br /&gt;
Los intereses de la ética se entrecruzan con los de la sociología, la ciencia política, las ciencias del medio ambiente etc. diferenciándose de ellas por su capacidad de abrir una brecha crítica en el ámbito moral normativo implícito o explícito vigente. La tarea más noble de la ética consiste no sólo en fundamentar normas de vida dadas —en este caso las que se refieren en especial al ámbito de la comunicación humana, pero sin restringirse a ellas, como lo veremos más adelante— sino sobre todo en problematizarlas, abriendo nuevas perspectivas de vida y pensamiento.&lt;br /&gt;
&lt;br /&gt;
== Desafíos teóricos de la ética intercultural de la información ==&lt;br /&gt;
El cuestionamiento del {{gb_em|ethos}} comunicacional e informacional —o sea, de las normas, principios y valores que fundamentan la comunicación y la información en una determinada sociedad— gira actualmente en torno a temas tan variados como la privacidad, la propiedad intelectual, el acceso libre al conocimiento, el derecho a la expresión en las redes digitales, la censura, nuevas definiciones de género, la identidad digital, las comunidades digitales, el plagiarismo digital, la sobrecarga informacional, la brecha digital y el control social digital (Himma y Tavani 2008; Van den Hoven y Weckert 2008). Algunos de estos temas constituyen el meollo de la ética de la información como se viene desarrollando desde principios de 1980 (Froehlich 2004), pero es recién con el advenimiento de internet a mediados de la década del 90 cuando la ética de la información se transforma en un tema político de gran envergadura, así como en una disciplina académica.&lt;br /&gt;
&lt;br /&gt;
Si bien la diversidad de las posiciones éticas y los correspondientes supuestos culturales ha dado siempre que pensar, el estudio de esta problemática intercultural en relación a la ética de la información es muy reciente. Fue en un simposio organizado por el International Center for Information Ethics (ICIE), y promocionado por la Fundación Volkswagen que tuvo lugar en Karlsruhe (Alemania) en el 2004, donde se tematizó por primera vez la problemática de una ética intercultural de la información bajo el título “Localizing the Internet. Ethical Issues in Intercultural Perspective”. Unos años más tarde, en 2007, se publicaron las primeras monografías sobre EII, una editada por Soraj Hongladarom (Tailandia) y Charles Ess (USA) con el título “Information Technology Ethics: Cultural Perspectives” (Hongladarom y Ess 2007), y otra con una selección de los artículos presentados en el simposio del ICIE (Capurro et al. 2007). Pasemos revista a algunas posiciones teóricas de este debate que recién ha comenzado (Carbo y Smith 2008; Capurro 2008).&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;{{gb_em|a) Charles Ess}}&#039;&#039;&#039; Uno de los autores más destacados en la EII es sin duda el teólogo norteamericano Charles Ess, quien aborda la tensión entre la universalidad de los principios morales y la pluralidad de las culturas con un enfoque en las tradiciones de pensamiento del Extremo Oriente, en particular el confucianismo, relacionándolas con corrientes y problemas de la ética de la información contemporáneas en Occidente (Ess 2008, 2006). Su punto de partida es el pluralismo ético que refleja un pluralismo moral, es decir, que las fundamentaciones a nivel reflexivo surgen a partir de tradiciones morales tanto en el Extremo Oriente como en el “Extremo Occidente”, usando el término del sinólogo francés François Jullien (Jullien 2001), uno de los intérpretes más profundos en la comparación del pensamiento chino clásico con la filosofía occidental.&lt;br /&gt;
&lt;br /&gt;
De acuerdo a Ess, ambas tradiciones, la china, en especial el confucianismo, y la occidental, se basan en nociones como las de ‘resonancia’ y ‘armonía’ que permiten articular incluso otras posiciones éticas aparentemente irreductibles. Ess sostiene que es posible pensar un pluralismo ético que no sea ni un relativismo ni un dogmatismo. Ambas posiciones tienen como consecuencia el que se impongan normas por la fuerza, ya sea porque no hay normas y principios comunes o porque una perspectiva considerada como universal es impuesta a las otras. De acuerdo a Ess hay diversas formas de pensar el concepto de pluralismo. Una de ellas consiste en concebirlo como un estilo de vida que debe aceptarse sin más. Pero esto lleva en la práctica a conflictos permanentes y tensiones insolubles. Otra forma de pensar el pluralismo es buscar principios éticos comunes. Pero este tipo de pluralismo tiene a su vez la desventaja de que dichos principios pueden ser interpretados desde ángulos culturales muy diversos, con lo que pierden su pretendida condición de ser comunes.&lt;br /&gt;
&lt;br /&gt;
Ess prefiere una tercera forma de pluralismo que conserva las diferencias, unificándolas desde la perspectiva de su posible complementaridad o coherencia, o, en términos preferidos por las culturas orientales, en vistas a su resonancia y armonía. Estas no se basan en una aparente identidad de valores y principios sino en una variedad de interpretaciones que, a pesar de sus diferencias, pueden ser conectadas unas con otras. Ess utiliza el término aristotélico {{gb_em|pros hen}}, es decir, “hacia la unidad”, para mostrar un camino intermedio, analógico —diría Aristóteles—, entre una identidad que homogeneice y una equivocidad que impida toda comprensión y comparación. Ess ve a este “pluralismo interpretativo” enraizado tanto en la tradición occidental socrática como en la tradición confuciana de la armonía y resonancia. Al mismo tiempo es muy consciente de que este tipo de comparaciones ignora muchas veces la complejidad y las dificultades que surgen cuando se consideran complementarias, por ejemplo, la ética de las virtudes de Aristóteles y la noción ética confuciana de {{gb_em|ren}} que abarca la persona en su totalidad física, mental y social (Ess 2008, 209). El mismo problema surge, a mi modo de ver, cuando Ess relaciona la {{gb_em|phronesis}} aristotélica y el concepto platónico de {{gb_em|cybernetes}} con la armonía confuciana (Ess 2008, 219). Esta última no está basada en principios abstractos sino en ritos y relaciones sociales (Froese 2006, 2).&lt;br /&gt;
&lt;br /&gt;
Ess considera que la tarea de la “global information ethics” es la de preservar distintas culturas y tradiciones, articulándolas entre sí (Ess 2006), teniendo en cuenta que nuestras identidades {{gb_em|offline}}, es decir nuestros valores, comunidades, historias y experiencias, tienen una profunda influencia en cómo nos relacionamos {{gb_em|online}} (Ess 2008, 218).&lt;br /&gt;
&lt;br /&gt;
El pensamiento de Ess ha sido criticado en cuanto a que la tendencia hacia la unidad ({{gb_em|pros hen}}) parece contradecir al concepto mismo de pluralidad en cualquiera de sus interpretaciones (Hiruta 2006). Ess parece además oponerse rotundamente a ciertas posibilidades éticamente intolerables como, por ejemplo, la pornografía infantil en internet, trabajando en base a un diálogo socrático con vistas a posibles posiciones teóricas y prácticas comunes, un diálogo que no es fácil ni a nivel académico ni, mucho menos, a nivel político. Para Ess dicho diálogo se basa en el espíritu de la {{gb_em|parrhesía}} griega, es decir, en un tipo de comunicación y problematización directa y abierta, que es muy propia de la tradición filosófica y política occidental (Capurro 2010b).&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;{{gb_em|b) Luciano Floridi.}}&#039;&#039;&#039;  El filósofo italiano Luciano Floridi distingue entre una “ética de la comunicación global” (“ethics of global communication”) y una “ética de la información global” (“global-information ethics”) (Floridi 2009). La primera se refiere al diálogo y prácticas consensuales en la interacción entre diversas culturas y generaciones. Pero, tratándose de una postura meramente pragmática, deja de lado, según Floridi, preguntas más básicas, como por ejemplo: ¿cuáles son en este caso los principios éticos que se toman como base de dicho diálogo y en qué se fundamenta dicha elección? ¿Existe una ‘macro ética’ en el sentido de un cierto tipo de consecuencialismo o deontologismo o contractualismo? (Floridi 2009, 222). Estas preguntas son las que Floridi intenta responder con lo que él llama “ética de la información global”.&lt;br /&gt;
&lt;br /&gt;
Un término clave de la teoría de Floridi es el de “ontología compartida” (“shared ontology”). Haciendo referencia al dicho de Wittgenstein de que “si un león pudiera hablar no lo podríamos entender” (Wittgenstein 1984, 511), Floridi considera el concepto de ‘ontología’ como un problema de comprensión (o no comprensión) entre lenguajes y visiones del mundo locales que se vuelven incapaces de resolver “el problema del león”. Este problema sólo se puede resolver, afirma Floridi, presuponiendo una ontología básica “de vida y muerte, comida y abrigo, angustia y protección” (Floridi 2009, 224, traducción propia), es decir, de todo aquello que soporta la vida y que trata de evitar el sufrimiento, así como toda forma de destrucción de los entes, puesto que todo ente, por el hecho mismo de ser, tiene derecho a una forma específica de respeto. {{gb_em|Ens et bonum convertuntur}} afirmaba el adagio escolástico. Floridi llama a esta ontología mínima “ontocéntrica”, siendo aparentemente más radical que, por ejemplo, la “biocéntrica” y la “antropocéntrica”. La ontología ontocéntrica coloca en su centro no al agente sino al paciente de la acción, incluyendo los entes no vivientes; extensión que constituye una tesis muy loable y de gran relevancia ecológica actual.&lt;br /&gt;
&lt;br /&gt;
Floridi se opone tanto a una teoría metafísica que afirme algo respecto al ser de los entes —lo que sería una forma de “imperialismo ontológico”—, como a un mero relativismo que sea incapaz de promover una interacción eficaz a nivel global, en vistas a problemas que afectan a todas las culturas. Esta “ética de la información global” no quiere imponer una jerarquía de valores comunes, sino permitir que estos se expresen en situaciones concretas con toda su situacionalidad (“embededdness”) y materialidad (“embodiement”). En otras palabras, Floridi opta por una ontología ligera y horizontal (“lite, horizontal ontology”) como condición de posibilidad de interacción pragmática entre culturas, las cuales vistas en su densidad vertical o gruesa (“thick cultures”) son a menudo irreconciliables. La diferencia entre culturas ligeras y gruesas puede relacionarse a la distinción del filósofo estadounidense Michael Walzer entre argumentos éticos finos (“thin”) y gruesos (“thick”) según se los analice o no en su profundidad cultural (Walzer 1994).&lt;br /&gt;
&lt;br /&gt;
Sin embargo, ¿esta posición de Floridi aún siendo atractiva y útil a nivel pragmático, no presenta el peligro de ignorar la necesidad de un análisis intercultural grueso o vertical? No queda claro tampoco quiénes van a proponer y a aceptar políticamente esta “minimal ontology” con el correspondiente vocabulario. Floridi dice expresamente que la ética de la información, como él la concibe, “no es la declaración de los derechos humanos” (Floridi 2009, 229), lo que debe interpretarse no como un rechazo de los mismos sino como una base que resulta demasiado estrecha para poder resolver globalmente “el problema del león”. Si todos los entes tienen una cierta dignidad esta no es sólo un principio pragmático sino también ontológico en el sentido que está afirmando algo sobre el ser de los entes. La ontología de Floridi ‘resuena’, diría Ess, con otras ontologías occidentales como, por ejemplo, con las {{gb_em|ideas}} platónicas, cuando se concibe al concepto de información como el medio común a todos los entes, es decir, como in-FORMA-ción (Capurro 1978).&lt;br /&gt;
&lt;br /&gt;
Floridi entiende al ser desde los entes. Él escribe: “Hay algo más elemental que la vida, es decir el ser —que es la existencia y florecer de todos los entes en su ambiente global— y algo más fundamental que el sufrimiento, es decir la entropía” (Floridi 2008, 47, traducción propia). ¿En qué sentido es la entropía “algo más fundamental” que el sufrimiento? ¿No es éticamente ineludible hacer una diferencia entre sufrimiento y entropía si se quiere evitar una metáfora poco plausible? La “ética de la información global” quiere solucionar un problema grueso eludiéndolo y presuponiendo una solución ligera que es, en realidad, gruesa. El argumento es circular.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;{{gb_em|c) Philip Brey.}}&#039;&#039;&#039; Según el ético holandés Philip Brey, un diálogo ético intercultural tiene que tomar en serio las diferencias interculturales (Brey 2007). Brey usa el concepto de ética de la información en el sentido ordinario de cuestiones éticas relacionadas a las TIC pero incluyendo también la ética de la computación (“computer ethics”) así como los medios de comunicación de masas (“media ethics”) y el periodismo. Brey distingue entre un relativismo moral descriptivo y uno normativo llamado también metaético. Este último aplicado a la ética de la información encara la pregunta de si existen conceptos y principios con validez universal o bien si la ética de la información es culturalmente relativa. Brey defiende la necesidad de un relativismo descriptivo en la ética de la información dado que si estas diferencias no existen la discusión en torno el relativismo metaético no tiene sentido. Philip Brey analiza este relativismo en temas como la privacidad, los derechos de propiedad intelectual, la libertad de información y la diferencia entre una moral centrada en los derechos humanos como es el caso de las sociedades occidentales modernas, de una centrada en las virtudes propia de las culturas del “Extremo Oriente” influenciadas por el budismo así como también por otros sistemas morales provenientes del confucianismo, el taoismo y el maoismo que sobreponen a los derechos del individuo el bienestar y la armonía de la sociedad. En conclusión, el relativismo descriptivo moral no es un invento. Los valores en los sistemas morales de Occidente no son los mismos que en Oriente (Wong 2009).&lt;br /&gt;
&lt;br /&gt;
Brey limita la tarea central de la EII al estudio comparado de sistemas morales dejando de lado otros efectos que las TIC puedan tener en la sociedad, como por ejemplo que puedan ser utilizadas como instrumentos de opresión o liberación, lo que es objeto de estudio de las ciencias sociales. A mi modo de ver, esta separación entre ética y ciencias sociales le quita a la ética su articulación crítica y a las ciencias sociales su articulación normativa. Si, como dice Brey, la EII tiene que comprometerse en estudios críticos (“critical studies”) comparados de sistemas morales relacionados con las TIC, estos a su vez no pueden separarse de análisis sociológicos y viceversa. Brey delimita también los estudios comparados (“interrelational studies”) en vistas a las normas que permiten una interacción de modelos normativos entre diversas culturas manteniendo sus diferencias.&lt;br /&gt;
&lt;br /&gt;
Una posición opuesta a la de Philip Brey es la del filósofo estadounidense Ken Himma quien defiende una moral objetivista (Himma 2008). Para Himma la EII comparativa forma parte de las ciencias sociales, a diferencia de lo que afirma Brey. Además, según Himma, la comparación de éticas a nivel normativo tiene como único objetivo el llegar a un acuerdo (“agreement”) y no, como lo propone Brey, el proponer formas de interacción. Himma elabora buenos argumentos para defender el objetivismo pero no desarrolla a partir de ellos un sistema de normas objetivas de ética de la información.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;{{gb_em|d) Rafael Capurro.}}&#039;&#039;&#039; La oposición entre relativismo y objetivismo o universalismo en la ética, como la he venido analizando anteriormente, tiene su origen en la idea que el conocimiento y la emoción son dos fuentes supuestamente independientes de la verdad de los juicios morales. Esta oposición es problemática a nivel de la ciencia empírica como lo demuestra por ejemplo la obra del neurobiólogo Antonio Damasio (1995). La fenomenología ha analizado cómo el ser-en-el-mundo (Heidegger 1976) se nos hace explícito en diversos sentidos dependiendo de afectos fundamentales. Pensemos en la tranquilidad, el odio, la alegría o la tristeza, como los analiza, por ejemplo, el fenomenólogo Karl Baier (Baier 2006) y el psiquiatra suizo Medard Boss, fundador de la escuela del análisis existencial (“Daseinsanalyse”) inspirada en un largo contacto académico y personal con Heidegger (Boss 1975, 288-299). Es bien conocido el análisis heideggeriano de la angustia (“Angst”) como un afecto (“Stimmung”) que nos abre el mundo y al mundo desde la facticidad de la existencia, es decir desde el mero hecho de ser-en-el-mundo sin poder dar una razón suficiente ni de este hecho ni de la existencia del mundo mismo, a diferencia del temor (“Furcht”) que tiene un objeto de referencia concreto. Otro ejemplo de este análisis de la relación entre afectos y conocimiento es aquella “experiencia clave” (“mein Erlebnis par excellence”) descrita por Wittgenstein en su “Conferencia sobre ética” con las siguientes palabras:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;“Esta experiencia, en el caso que la tenga, puede ser descrita, creo, con palabras como: ‘estoy maravillado por la existencia del mundo’. Pero luego tiendo a usar expresiones como: ‘qué extraño que el mundo exista’” (Wittgenstein 1989, 14, trad. Capurro).&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wittgenstein cree que sólo la existencia del lenguaje mismo es la expresión apropiada de esta experiencia. El 30 de diciembre de 1929 anota Wittgenstein:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;“Creo que puedo imaginarme lo que Heidegger quiere decir con ser y angustia. Los seres humanos tienen la tendencia a correr contra los límites del lenguaje. Piensa, por ejemplo, en el asombro de que exista algo (...) La ética es este correr contra los límites del lenguaje.” (Wittgenstein 1984a, 68, trad. Capurro).&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
¿Wittgenstein no estaría asombrado al leer la solución Floridiana del “problema del león” reductible a una ontología con distintos “niveles de abstracción”? Lo que mueve al agente y paciente humano es la “condición de arrojado” (“Geworfenheit”) del existir. Y esta se abre a través de afectos que fundamentan la llamada (“Ruf”) a tomar cuidado del ser-en-el-mundo en su inabarcable, inagotable e inexpresable totalidad y contingencia (Heidegger 1976, 274ss). Llamo angelética —del griego {{gb_em|angelía}}, es decir mensaje— una teoría filosófica que tematiza esta llamada, es decir que concibe al ser como mensaje y que sirve de base a una ciencia empírica (Capurro 2003).&lt;br /&gt;
&lt;br /&gt;
Somos, en verdad, originariamente pacientes, es decir receptores de la llamada del ser-en-el-mundo. Es esta experiencia universal de facticidad la que caracteriza la existencia humana dando lugar a respuestas desde ‘afectos fundamentales’ (“Grundstimmungen”) diferentes. Baier muestra cómo en el budismo se expresa una experiencia de la transitoriedad del mundo en forma de afectos de tristeza y alegría movidos profundamente por el sufrimiento. Estos afectos nos abren el mundo y al mundo de forma distinta al admirar griego ({{gb_em|thaumazein}}) al que aludía Wittgenstein. Baier indica que hay que tener cuidado en no caer en estereotipos cuando se comparan, por ejemplo, culturas en Oriente y Occidente. No existen diferencias absolutas entre las culturas ni tampoco existen afectos fundamentales exclusivos de una u otra cultura. Esto muestra que el “problema del león”, visto desde esta perspectiva, es un falso problema. Pero sería también muy fácil sostener la premisa contraria, es decir que en el fondo no existen diferencias culturales, postulando que estas son solamente ónticas, para utilizar la terminología heideggeriana. Esta es una posición que Philip Brey llama “absolutismo moral descriptivista” (Brey 2007, 2) y que va, como afirma Brey, contra la experiencia. Baier sugiere hacer un análisis profundo de textos y objetos literarios, religiosos, artísticos y de la cultura diaria a fin de ver lo más claramente posible la complejidad de los fenómenos, sus interacciones, contradicciones, exclusiones etc. así como sus expresiones en diversas formas de comprensión del ser-en-el-mundo no menos que en las instituciones y materialidades en las que se fijan y fundamentan estructuras de poder individuales y colectivas, locales y globales, sociales y ecológicas.&lt;br /&gt;
&lt;br /&gt;
Desde esta perspectiva podemos pensar la búsqueda de un fundamento común pero no homogenizante para responder a la llamada ontológica del siglo que recién ha comenzado, como originándose no sólo desde una finalidad ({{gb_em|pros hen}}), sino también desde un ‘desde donde’ ({{gb_em|hothen}}) común, el ser-en-el-mundo, como un origen que se refleja en forma diversa de acuerdo a afectos fundamentales en distintos contextos culturales e históricos. Este origen puede interpretarse también como una llamada del otro a la que alude, por ejemplo, Emmanuel Lévinas mostrando cómo la experiencia de gratuidad y contingencia se da en forma ejemplar en el rostro del otro (Levinas 1965). Universalidad y singularidad se condicionan mutuamente, puesto que {{gb_em|el}} otro es siempre {{gb_em|un}} otro concreto, histórico, situado con todo su bagaje cultural y sus diversos afectos fundamentales.&lt;br /&gt;
&lt;br /&gt;
Según Capurro el fenómeno actual de la globalización digital no se reduce al ámbito de la comunicación social, sino que abarca también todos los fenómenos en su posibilidad de ser digitalizados, a lo que se refiere en términos de “ontología digital”. No es esta ni una posición metafísica que afirme que el ser de los entes esta constituido por {{gb_em|bits}}, ni tampoco es una tesis epistemológica dogmática que afirme que dicha perspectiva es la única posible y verdadera.&lt;br /&gt;
&lt;br /&gt;
La respuesta a la pregunta por el ser, es decir, al mensaje del ser y al ser como mensaje, es siempre histórica y contingente. En nuestra época una respuesta es la dada por la ontología digital siempre y cuando se la entienda en su carácter de perspectiva {{gb_em|posible}} de interpretar el ser de los entes y no como un {{gb_em|reduccionismo metafísico}} que afirmara que los entes {{gb_em|son}} bits o que sólo tiene sentido interpretarlos como {{gb_em|bits}}, lo que sería un reduccionismo epistemológico (Capurro 2006). Si este diagnóstico de nuestra época es correcto, el desafío ético de las tecnologías globales, como es el caso de las TIC, es justamente de carácter intercultural.&lt;br /&gt;
&lt;br /&gt;
¿Cómo responden otras aperturas originarias del y al mundo basadas desde otros “afectos fundamentales” al desafío cultural de las TIC? Este desafío va, en efecto, más allá del campo de la comunicación y por tanto más allá de la “ética de la comunicación global”. Capurro habla aquí de una ética digital así como también de una ética de la información digital en sentido amplio en la que los entes son vistos como digitalizables, diferenciándola de la ética de la información en sentido restringido al ámbito de la comunicación digital (Capurro 2009). Ambas pueden ser objeto de un análisis crítico intercultural. La ética de la información digital en sentido amplio es a su vez más restringida que la ética informacional de Floridi. A diferencia de esta última, se plantea {{gb_em|actualmente}} las consecuencias prácticas del horizonte global de la {{gb_em|digitabilidad}} de todos los fenómenos en el marco del {{gb_em|actuar humano}}. No pretende ser ni una metafísica digital —lo que Floridi llama “ontología digital”— ni una ontología o, mejor, una metafísica universal a un máximo nivel de abstracción.&lt;br /&gt;
&lt;br /&gt;
La EII en sentido restringido, es decir, relacionado a la comunicación humana, puede a su vez restringirse, como lo propone Philip Brey, al análisis normativo de sistemas éticos de interpretación de morales dadas en vistas a su validez y legitimidad. En este caso es necesario tomar como punto de partida al ser-en-el-mundo compartido, pero percibido desde distintos “afectos fundamentales”, buscando formas de pasaje, en el sentido de traducción, transmisión y traslación, de una a otra perspectiva. Esto sólo es posible si no se parte de la premisa de culturas cerradas sino de experiencias basadas en una realidad común, que se expresa de diferentes maneras. Vista así, la red digital comunicacional es una respuesta global a la llamada de concebirnos como humanidad. En las respuestas a esta llamada se entrecruzan evidentemente singularidades históricas, geográficas, sociales y culturales. Pero es importante recordar que hay otras llamadas universales como son la crisis ecológica, la lucha contra la miseria, las enfermedades como el SIDA, la malaria, el hambre y la desocupación, que constituyen los Objetivos de Desarrollo del Milenio de las Naciones Unidas.&lt;br /&gt;
&lt;br /&gt;
== Perspectivas: entre desafíos teóricos y prácticos ==&lt;br /&gt;
En un artículo del filósofo estadounidense John Ladd publicado en 1985 con el título “La búsqueda de un código de ética profesional. Una confusión intelectual y moral” (“The Quest for a Code of Professional Ethics. An Intellectual and Moral Confusion”) escribe Ladd que la idea de un “código de ética” (“code of ethics”) es una contradicción puesto que la ética es esencialmente problemática (Ladd 1985). Lo que se puede codificar son principios éticos entendidos como resultado temporal de una argumentación y no establecidos por un mero consenso o “decision-making”. Para evitar malentendidos es mejor usar el término de “{{gb_em|códigos de práctica}}” (“codes of practice”) los cuales tienen sus pros y contras como es el caso, por ejemplo, de códigos profesionales que pueden ser utilizados tanto para promover una nueva conducta como para provocar un estado de autocomplacencia que incluso ayude a ocultar conductas irresponsables. En algunos casos pueden servir además para desviar la atención de los problemas realmente serios para concentrarla en problemas de menor importancia. Lo contrario se podría pensar con respecto a códigos universales que puedan también ser utilizados para provocar un estado social de autocomplacencia así como para desviar la atención de los problemas concretos y de mayor importancia.&lt;br /&gt;
&lt;br /&gt;
El desafío ético no se restringe a crear un código, sino a promover la reflexión a nivel global y local sobre temas cuya complejidad no puede reducirse a principios generales, sino que requiere una interpretación constante de los mismos cuando se trata de ponerlos en práctica (Schwarz 1979). En otras palabras, los principios aparentemente claros y objetivos se vuelven dogmáticos si no son insertados en una reflexión ética prudencial. La {{gb_em|prudencia}} es el horizonte de alguien que es consciente de sus límites. Ella delimita el anti-criterio ‘todo está permitido’, haciéndonos conscientes de situaciones ambivalentes, y evita que busquemos soluciones simplistas, así como de pensar que dos alternativas contradictorias pueden unificarse sin más. Una reflexión ética prudencial tiene también como función la de despertar y preservar la sensibilidad ética; algo que es bueno promover a nivel local y global. Tal es la tarea práctica más noble de la EII.&lt;br /&gt;
&lt;br /&gt;
Necesitamos más que nunca un espacio abierto para compartir, no sólo local sino también globalmente, este tipo de reflexión. Es este el sentido más profundo del término ‘ética global de la información’ entendida no como la globalización de una moral y su codificación, sino como un espacio y un tiempo que se puede crear en diversos contextos como el político, el académico, en las escuelas, en los medios de comunicación de masas y naturalmente en internet. Esto presupone una concepción de la reflexión ética no limitada a la fundamentación de normas morales dadas sino también a su problematización, abierta a la interacción de las mismas con otras dimensiones de la vida social. Se trata también de buscar no sólo normas sino formas de vida común que nos permitan promover la variedad y la riqueza de las respuestas humanas a la llamada del ser-en-el-mundo desde diferentes afectos fundamentales expresados particularmente en la música, el arte y la literatura.&lt;br /&gt;
&lt;br /&gt;
La EII tiene que asumir la responsabilidad de abrir una reflexión sobre visiones y opciones de vida, partiendo de los desafíos de un mundo que se une y se separa cada día más intensamente en base a la comunicación digital. Pero esta reflexión perdería su carácter propio de reflexión si se la identifica a la política y la acción social. Su vínculo con la acción es el consejo prudencial no el ‘decision-making’.&lt;br /&gt;
&lt;br /&gt;
Pero a su vez, existe para la EII una llamada a la hospitalidad y la inclusión, siguiendo la propuesta del profesor Homi Bhabha (2007: 44) de “una ética global de extensión de la “hospitalidad” a aquellos que perdieron su lugar de pertenencia debido a un trauma histórico, a la injusticia, al genocidio y a la muerte”. La ética intercultural de la información debe ser una ética hospitalaria no sólo con respecto a las culturas, con sus normas y principios morales, sino también con respecto a quienes han perdido pie en una cultura, quedando marginados, olvidados, en medio de una sociedad globalizada por la tecnología digital. La EII toma una posición crítica respecto a todas las formas de destrucción del habitar, y el ‘habitat’ humano, tanto de las que usan para ello a las TIC como a las que excluyen a otros de su uso. La EII es una disciplina humanística. “Las humanidades”, señala Bhabha, “contribuyen en forma singular a establecer —por medio del diálogo y la interpretación— comunidades de intereses y climas de opinión.” (Bhabha 2010).&lt;br /&gt;
&lt;br /&gt;
Resumiendo, podemos decir que los desafíos teóricos y prácticos de la ética intercultural de la información son de gran envergadura. Ellos necesitan un amplio apoyo en las instituciones de educación e investigación con un esfuerzo particular en crear redes locales y globales que permitan el intercambio abierto de ideas y resultados. Es imprescindible también que los códigos internacionales de ética de la información sean objeto de un constante análisis teórico y práctico. La búsqueda de principios comunes no debe perder de vista la complejidad y variedad de las culturas. Y éstas deben ser conscientes de su interdependencia, la cual les permite una transformación de sus identidades. Lo esencial es aquello que está entre las culturas. Los fenómenos, a menudo violentos, de exclusión cultural son un indicio de que un {{gb_em|ethos}} cultural ha perdido el contacto con la fuente común, cerrándose en sí mismo, incapaz de redefinir sus fronteras tomando nuevos elementos ajenos en base a procesos comunicacionales e informacionales abiertos. Es fácil ver que la unidad que supone dicha apertura y la variedad reclamada por las diversas culturas están en permanente fluctuación. La ética intercultural de la información tiene como objetivo primordial hacer que dicha fluctuación sea sostenible tanto en la teoría como en la práctica.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* BAIER, Karl (2006). Welterschliessung durch Grundstimmungen als Problem interkultureller Phaenomenologie. {{gb_em|Daseinsanalyse, 22}}, 99-109.&lt;br /&gt;
* BREY, Philip (2007). Global Information Ethics and the Challenge of Cultural Relativism. En: {{gb_em|European regional Conference on the “ethical dimensions of the information society”}}. [En línea] &amp;lt;https://unescoeducation.blogspot.com/2007/07/ethics-and-human-rights-in-information.html&amp;gt; [visitado: 10/10/2010]&lt;br /&gt;
* BYNUM, Terrell Ward (2006). Flourishing Ethics. {{gb_em|Ethics and Information Technology}}, {{gb_em|8}}, 157-173.&lt;br /&gt;
* CAPURRO, Rafael (2010). Desafíos teóricos y prácticos de la ética intercultural de la información. Conferencia inaugural en el {{gb_em|I Simpósio Brasileiro de Ética da Informação}}, Paraíba, 18 de marzo de 2010.&lt;br /&gt;
* CAPURRO, Rafael (2009). Digital Ethics. En {{gb_em|Proceedings del 2009 Global Forum Civilization and Peace}}. The Academy of Korean Studies and Korean National Academy for UNESCO (Eds.), pp. 207-216.&lt;br /&gt;
* CAPURRO, Rafael (2007). Intercultural Information Ethics. En: Capurro, Rafael / Frühbauer, Johannes / Hausmanninger, Thomas (Eds.): {{gb_em|Localizing the Internet. Ethical aspects in intercultural perspective}}. Munich: Fink, 21-38. [En línea] &amp;lt;http://www.capurro.de/iie.html&amp;gt; [visitado: 10/10/2010]&lt;br /&gt;
* CAPURRO, Rafael (2006a). Ethik der Informationsgesellschaft. Ein interkultureller Versuch. [En línea] &amp;lt;http://www.capurro.de/parrhesia.html&amp;gt; [visitado: 21/04/2008]&lt;br /&gt;
* CAPURRO, Rafael (2005a). Privacy. An intercultural perspective. En {{gb_em|Ethics and Information Technology 7}}: 37-47. [En línea] &amp;lt;http://www.capurro.de/privacy.html&amp;gt; [visitado: 10/10/2010]&lt;br /&gt;
* CAPURRO, Rafael / Frühbauer, Johannes / Hausmanninger, Thomas (Eds.) (2007). {{gb_em|Localizing the Internet. Ethical aspects in intercultural perspective}}. Munich: Fink.&lt;br /&gt;
* DAMASIO, Antonio (1994). Descartes’ Error: Emotion, Reason, and the Human Brain. Putnam Publishing.&lt;br /&gt;
* ESS, Charles (2007). Can the Local Reshape the Global? Ethical Imperatives for Humane Intercultural Communication Online”. En Capurro, Rafael / Frühbauer, Johannes / Hausmanninger, Thomas (Eds.) (2007). {{gb_em|Localizing the Internet. Ethical aspects in intercultural perspective}}. Munich: Fink, 153-169.&lt;br /&gt;
* ESS, Charles (2006). Ethical pluralism and global information ethics. En {{gb_em|Ethics and Information Technology}}, {{gb_em|8}}, 215-226.&lt;br /&gt;
* FLORIDI, Luciano / Savulescu, Julian (2006). Information ethics: Agents, artefacts and new cultural perspectives. {{gb_em|Ethics and Information Technology 8}}, 155-156.&lt;br /&gt;
* FLORIDI, Luciano (2009). Information Ethics and Globalization. En {{gb_em|Proceedings del 2009 Global Forum Civilization and Peace}}. The Academy of Korean Studies and Korean National Academy for UNESCO (Eds.), pp. 217-230.&lt;br /&gt;
* FLORIDI, Luciano (2008). Information Ethics. Its Nature and Scope. En: Jeroen van den Hoven y John Wecker (Eds.). {{gb_em|Information Technology and Moral Philosophy}}. Cambridge University Press, pp. 40-65.&lt;br /&gt;
* FOUCAULT, Michel (1983). {{gb_em|Discourse and Truth: the Problematization of Parrhesia}}. University of California at Berkeley, October-November 1983. [En línea] &amp;lt;http://foucault.info/documents/parrhesia/&amp;gt; [visitado: 21/04/2008]&lt;br /&gt;
* FROHMANN, Bernd (2007). FOUCAULT, Deleuze, and the Ethics of Digital Networks. En CAPURRO, Rafael, FRÜHBAUER, Johannes, HAUSMANNINGER, Thomas (Eds.) (2007). {{gb_em|Localizing the Internet. Ethical aspects in intercultural perspective}}. Munich: Fink, 57-68.&lt;br /&gt;
* GRODZINSKY, Frances S., TAVANI, Herman T. (2007). The Internet and Community Building at the Local and Global Levels: Some Implications and Challenges. En CAPURRO, Rafael, FRÜHBAUER, Johannes / Hausmanninger, Thomas (Eds.): {{gb_em|Localizing the Internet. Ethical aspects in intercultural perspective}}. Munich: Fink, 135-149.&lt;br /&gt;
* HEIDEGGER, Martin (1987). {{gb_em|Being and Time}}. Traducido por John Macquarrie y Edward Robinson, Oxford: Basil Blackwell.&lt;br /&gt;
* HIMMA, Kenneth Einar (2008). The intercultural ethics agenda from the point of view of a moral objectivist. En {{gb_em|Journal of Information, Communication &amp;amp;amp; Ethics in Society}}, 6, 2, pp. 101-115.&lt;br /&gt;
* HIRUTA, Kei (2006). What pluralism, why pluralism, and how? A response to Charles Ess. {{gb_em|Ethics and Information Technology}} 8: 227-236&lt;br /&gt;
* HONGLADAROM, Soraj / Ess, Charles (Eds.) (2007). {{gb_em|Information Technology Ethics: Cultural Perspectives}}. Hershey, Pennsylvania: Idea Group.&lt;br /&gt;
* HONGLADAROM, Soraj / Ess, Charles (2007a): Prefacio. En: ibíd.: {{gb_em|Information Technology Ethics: Cultural Perspectives}}. Hershey, Pennsylvania: Idea Group, xi-xxxiii.&lt;br /&gt;
* HONGLADAROM, Soraj (2001). {{gb_em|Cultures and Global Justice}}. [En línea] &amp;lt;https://them.polylog.org/3/fhs-en.htm&amp;gt; [visitado: 21/04/2008]&lt;br /&gt;
* INTERNATIONAL REVIEW OF INFORMATION ETHICS (IRIE) (2004). International ICIE Symposium. [En línea] &amp;lt;https://informationethics.ca/index.php/irie/issue/view/18&amp;gt; [visitado: 20/07/2025]&lt;br /&gt;
* NISHIGAKI, Toru, y TAKENOUCHI, Tadashi (Eds.) (2007). {{gb_em|The Thought of Information Ethics}}. Tokyo: Communis 05 (en japonés).&lt;br /&gt;
* NISHIGAKI, Toru (2006). The ethics in Japanese information society: Consideration on Fracisco Varela’s The Embodied Mind from the perspective of fundamental informatics. {{gb_em|Ethics and Information Technology}}, 8:237-242.&lt;br /&gt;
* SONTAG, Susan (2004). Die Welt als Indien. En {{gb_em|Lettre International}}, Septiembre, Vol. 65, 82-86.&lt;br /&gt;
* WALZER, Michael (1994). {{gb_em|Thick and Thin: Moral Arguments at Home and Abroad}}. Notre Dame: University of Notre Dame Press.&lt;br /&gt;
* WITTGENSTEIN, Ludwig (1989). {{gb_em|Vortrag über Ethik}}. Frankfurt a. M.: Suhrkamp.&lt;br /&gt;
* WITTGENSTEIN, Ludwig (1984). Zu Heidegger. En: B.F. McGuiness (Ed.) {{gb_em|Ludwig Wittgenstein und der Wiener Kreis. Gespräche, aufgezeichnet von Friedrich Waismann}}. Frankfurt a. M.: Suhrkamp.&lt;br /&gt;
* WITTGENSTEIN, Ludwig (1953). {{gb_em|Philosophische Untersuchungen}}. (trad. Anscombe, Hacker, Schulte. {{gb_em|Philosophical investigations}}. Oxford, UK: Wiley &amp;amp;amp; Blackwell, 2009)&lt;/div&gt;</summary>
		<author><name>Lucas Díaz</name></author>
	</entry>
</feed>