Nformación Es El Nombre Por El Que Se Conoce Un Conjunto Organizado de
Nformación Es El Nombre Por El Que Se Conoce Un Conjunto Organizado de
Nformación Es El Nombre Por El Que Se Conoce Un Conjunto Organizado de
Índice
1Etimología
2Información en la sociedad
o 2.1Principales características de la información
o 2.2Historia de la información
o 2.3Usos de la información
o 2.4Información periodística
o 2.5Información y el Estado
3Teoría de la información
o 3.1Caracterización matemática
o 3.2Operaciones básicas con información
o 3.3Recuperación de la información
4Información y física
5Información y neguentropía
6Información analógica y digital
7Véase también
8Referencias
9Bibliografía
10Enlaces externos
Etimología[editar]
La palabra «información» deriva del sustantivo latino informatio(-nis) (del verbo informare, con
el significado de «dar forma a la mente», «disciplinar», «instruir», «enseñar»). Ya en latín la
palabra informationis era usada para indicar un «concepto» o una «idea», pero no está claro si
tal vocablo pudiera haber influido en el desarrollo moderno de la palabra «información».
Por otra parte la palabra griega correspondiente era μορφή (morfè, de la que
por metatesis surgió la palabra latina «forma»), o si no εἶδος (éidos, de la cual deriva la latina
«idea»), esto es: «idea», «concepto» o «forma», «imagen»; la segunda palabra fue
notoriamente usada técnicamente en el ámbito filosófico por Platón y Aristóteles para indicar
la identidad ideal o esencia de algo (véase Teoría de las ideas). Eidos se puede también
asociar a «pensamiento», «aserción» o «concepto».1
Información en la sociedad[editar]
En las sociedades humanas y en parte en algunas sociedades animales, la información tiene
un impacto en las relaciones entre diferentes individuos. En una sociedad la conducta de cada
individuo frente a algunos otros individuos se puede ver alterada en función de qué
información disponible posee el primer individuo. Por esa razón, el estudio social de la
información se refiere a los aspectos relacionados con la variación de la conducta en posesión
de diferentes informaciones.
Para Gilles Deleuze, la información social es un sistema de control, en tanto que es la
propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la
información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento
en el sentido de las consignas transmitidas.
Usos de la información[editar]
Se considera que la generación y/u obtención de información persigue estos objetivos:
Información periodística[editar]
Una noticia es el relato o redacción de un texto informativo que se quiere dar a conocer con
sus propias reglas de construcción (enunciación) que se refiere a un hecho novedoso o atípico
-o la relación entre hechos novedosos y/o atípicos-, ocurrido dentro de una comunidad o
determinado ámbito específico, que hace que merezca su divulgación.
Información y el Estado[editar]
Artículo principal: Propaganda
El control y la manipulación es uno de los medios más poderosos de los gobiernos para
promover el acatamiento de sus políticas. Así, los estados totalitarios y autoritarios buscan el
monopolio de la información para promover el acatamiento de sus políticas. La información
tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial, mientras que la
propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de los
hechos. Así la propaganda compite con el derecho como instrumento de poder.10
Teoría de la información[editar]
Artículo principal: Teoría de la información
Caracterización matemática[editar]
Una forma de caracterizar nuestro estado de conocimiento del mundo, es a través de las
probabilidades. Si sabemos que en el futuro pueden suceder n cosas diferentes , cada una
con probabilidad ese conjunto de probabilidades constituyen nuestro conocimiento del
mundo, una información debería reducir nuestra incertidumbre, variando las probabilidades a .
Si el segundo estado tiene menos incertidumbre es porque algunas cosas se han hecho más
probables frente a otras alternativas que se han hecho menos probables.
Una forma de «medir la información» asociada a un mensaje o hecho observado es calcular
como algunas probabilidades han crecido y otras han decrecido. Una medida conveniente de
calcular la «concentración» de la certeza en algunas alternativas es la entropía estadística:11
Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos proponen adivinar la
segunda letra de una palabra del español. y nos dicen que en la segunda posición podría
aparecer cualquier letra del alfabeto. Por tanto la incertidumbre inicial se obtiene calculando
la probabilidad de ocurrencia de cada letra y calculando:
Sin embargo, si nos dan como pista que «la primera letra es una Z», entonces en segunda
posición solo puede aparecer A, O, U (aunque existen un puñado de casos excepcionales
de E e I) y por tanto con esa información se reduce mucha la incertidumbre:
La información cuantificada de la pista «la primera letra es una Z» resulta ser:
Las unidades de información resultan ser bits puesto que se han empleado logaritmos de base
2. Si la pista hubiera sido «la primera letra es una M», la segunda letra solo podría ser A, E, I,
O, U que es un conjunto más amplio y en este caso y en este caso, la pista lleva menos
información porque reduce menos la incertidumbre, el resultado en este caso es repitiendo los
pasos anteriores de unos 2,50 bits.
Recuperación de la información[editar]
La cantidad de información y el conocimiento desarrollado aparentemente es enorme y tiene
una metodología de recuperación, que eventualmente es infinita o total en un número muy
amplio de soportes y sitios, y el modelo sistémico de recuperación debe maximizar la
búsqueda para asegurar su captura lo más completa posible dentro del entorno de
este sistema complejo. En el caso de búsquedas por Internet y usando dos o más
descriptores, los resultados numéricos que dan los motores de búsqueda, que contengan los
dos o más términos juntos o muy próximos, ya es una medida de la cantidad de información
conseguida y que es en expresión matemática el ln o logaritmo natural de la suma de las
interacciones validadas. Valores de 2 o 3 serán óptimos.
Información y física[editar]
En física existe una íntima conexión entre entropía e información:
Información y neguentropía[editar]
Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en inglés editada
por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas.
Adopta particularmente un punto de vista de físico y hace el lazo entre la entropía
informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la
información (y con la misma el lenguaje) es un factor neguentrópico es decir por el cual se
puede anular la entropía.
Véase también[editar]
Dato, conocimiento, documentación
Ciencias de la comunicación
Seguridad de la información
Sobrecarga informativa
Teoría de la información
Toma de decisiones, desinformación
Lenguaje
Periódico
Noticia
Historia del periodismo
Referencias[editar]
1. ↑ El vocablo indicaba originariamente «aquello que aparece a la vista», derivando de la
raíz indoeuropea *weid-/wid-/woid-, «ver» (confrontar con la palabra latina video). De
modo que puede consiguientemente asumir una gran multiplicidad de significados (por
ejemplo en Sócrates indica al «modelo teórico» de una oración).
2. ↑ Manso Coronado, Francisco Javier (2003). Diccionario enciclopédico de estrategia
empresarial. ISBN 8479785659. «"Nos hallamos inmersos en una revolución... la
tecnología de silicio se invento en 1945,el transistor en 1947,el primer ordenador en
1948...", pág. 257 ».
3. ↑ Shannon, Claude E (1948). «A Mathematical Theory of Communication». Bell System
Technical Journal 27 (b-1598). ISSN , 379-423.
4. ↑ Leer, Anne (2001). La visión de los líderes en la era digital (2001). México : Prentice-
Hall. ISBN 968-444-440-0.
5. ↑ Tubella i Casadevall, Immna (2005). «2.2. La economía de las TIC y la revolución
digital.». En UOC, ed. Sociedad del conocimiento.
6. ↑ «An Internet Pioneer Ponders the Next Revolution». An Internet Pioneer Ponders the
Next Revolution. Consultado el 25 de noviembre de 2005.
7. ↑ «The size of the World Wide Web». Consultado el 21 de febrero de 2010.
8. ↑ «El saber perdido en la era digital.Lucha por preservar la memoria colectiva en el
ciberespacio». EL PAÍS. 03 de 2007. Consultado el 21 de febrero de 2010.
9. ↑ Federación de Cajas de Ahorros Vasco-Navarras-. «La revolución digital: Nueva
economía e Integración Social». EKONOMI GERIZAN. VOLUMEN (9).
10. ↑ Payne, J. Mark; Alonso, Pablo (2007). República del Perú: Evaluación de la
gobernabilidad democrática. Madrid: Universidad Complutense, Instituto Complutense
de Estudios Internacionales. p. 66. ISBN 9788496702059.
11. ↑ Welsh, 1998
12. ↑ Corletti Estrada, Alejandro (2020). Manual de la Resiliencia (2020). España :
DarFe. ISBN 978-84-09-24465-2.
13. ↑ Saltar a:a b «Diferencia entre lo analógico y digital». Diferencias entre - La web de las
diferencias. 5 de abril de 2011. Consultado el 29 de noviembre de 2018.
14. ↑ «Diferencia entre lo analógico y digital». Diferencias entre - La web de las diferencias.
5 de abril de 2011. Consultado el 29 de noviembre de 2018.
15. ↑ Saltar a:a b «Definicion de información digital». www.alegsa.com.ar. Consultado el 29
de noviembre de 2018.
Bibliografía[editar]
Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN
0-19-853287-3.
Martínez Musiño, Celso (2010). El valor de la información, su administración y
alcance en las organizaciones. Revista mexicana de ciencias de la
información, vol. 1, No. 2, pp. 10-
20. https://web.archive.org/web/20171014214503/http://132.248.9.34/hevila/
Revistamexicanadecienciasdelainformacion/2010/vol1/no2/1.pdf
Enlaces externos[editar]
Wikcionario tiene definiciones y otra información sobre información.
Wikiquote alberga frases célebres de o sobre Información.
Información en La Enciclopedia de Ciencias y Tecnologías en Argentina .
información y referencia.