fbpx
Wikipedia

Información

Información es el nombre por el que se conoce un conjunto organizado de datos procesados que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Existen diversos enfoques para el estudio de la información:

  • En biología, la información se considera como estímulo sensorial que afecta al comportamiento de los individuos.
  • Múltiples son las definiciones que se encuentran presentes a la hora de la determinación de su contenido. Según Ivis Goñi Camejo «la información no se ha definido solo desde el punto de vista matemático o técnico; su conceptualización abarca enfoques filosóficos, cibernéticos y otros, basados en las denominadas ciencias de la información.»
  • En comunicación social y periodismo, como un conjunto de mensajes intercambiados por individuos de una sociedad con fines organizativos concretos.
Los códigos ASCII para cada uno de los caracteres de la palabra "Wikipedia" representados en binario, el sistema de numeración más comúnmente utilizado para codificar información en computadora.

Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.

Desde el punto de vista de la ciencia de la computación, la información, es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del que posee dicha información con su entorno.

Etimología

La palabra «información» deriva del sustantivo latino informatio(-nis) (del verbo informare, con el significado de «dar forma a la mente», «disciplinar», «instruir», «enseñar»). Ya en latín la palabra informationis era usada para indicar un «concepto» o una «idea», pero no está claro si tal palabra pudiera haber influido en el desarrollo moderno de la palabra «información».

Por otra parte la palabra griega correspondiente era μορφή (morfè, de la que por metatesis surgió la palabra latina «forma»), o si no εἶδος (éidos, de la cual deriva la latina «idea»), esto es: «idea», «concepto» o «forma», «imagen»; la segunda palabra fue notoriamente usada técnicamente en el ámbito filosófico por Platón y Aristóteles para indicar la identidad ideal o esencia de algo (véase Teoría de las ideas). Eidos se puede también asociar a «pensamiento», «aserción» o «concepto».[1]

Información en la sociedad

En las sociedades humanas y en parte en algunas sociedades animales, la información tiene un impacto en las relaciones entre diferentes individuos. En una sociedad la conducta de cada individuo frente a algunos otros individuos se puede ver alterada en función de qué información disponible posee el primer individuo. Por esa razón, el estudio social de la información se refiere a los aspectos relacionados con la variación de la conducta en posesión de diferentes informaciones.

Para Gilles Deleuze, la información social es un sistema de control, en tanto que es la propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas transmitidas.

Principales características de la información

En general la información tiene una estructura interna y puede ser calificada según varias características:

  • Significado (semántica): Del significado extraído de una información, cada individuo (o sistema experto: sistema capaz de emular el pensamiento humano) evalúa las consecuencias posibles y adecua sus actitudes y acciones de manera acorde a esas consecuencias. Las expectativas que tiene el ente se dan de manera literal al significado de la información.
  • Importancia (relativa al receptor): Es decir, si trata sobre alguna cuestión importante. La importancia de la información para un receptor se referirá a en qué grado cambia la actitud o la conducta de los individuos. En las modernas sociedades, los individuos obtienen de los medios de comunicación masiva gran cantidad de información, una gran parte de la misma es poco importante para ellos, porque altera de manera muy poco significativa la conducta de los mismos. Esto se refiere a en qué grado cuantitativo deben alterarse las expectativas futuras. A veces se sabe que un hecho hace menos probables algunas cosas y más otras, la importancia tiene que ver con cuanto menos probables serán unas alternativas respecto a las otras.
  • Vigencia (en la dimensión espacio-tiempo): Se refiere a si está actualizada o desfasada. En la práctica la vigencia de una información es difícil de evaluar, ya que en general acceder a una información no permite conocer de inmediato si dicha información tiene o no vigencia.
  • Validez (relativa al emisor): Se evalúa si el emisor es fiable o puede proporcionar información no válida (falsa). Tiene que ver si los indicios deben ser considerados en la revaluación de expectativas o deben ser ignorados por no ser indicios fiables.
  • Valor (activo intangible volátil): La utilidad que tiene dicha información para el destinatario.

Historia de la información

La historia de la información está asociada a su producción, tratamiento y transmisión. Una cronología de esa historia detallada puede ser:

  • Siglo V a X - Alta Edad Media. El almacenamiento, acceso y uso limitado de la información se realiza en las bibliotecas de los monasterios de forma amanuense o manual.
  • Siglo XII. Los Incas (Perú) usan un sistema de cuerdas para el registro de información numérica llamada Quipu, usado principalmente para contar ganado.
  • Siglo XV. Edad Moderna. Con el nacimiento de la imprenta en Europa (Gutenberg), los libros comienzan a fabricarse en serie. Surgen los primeros periódicos.
  • Siglo XX. 1926. Se inicia la primera retransmisión de televisión que afectará al manejo y tratamiento de la información con gran impacto en los métodos de comunicación social durante todo el siglo.
  • Siglo XX. 1940. Jeremy Campbell, definió el término información desde una perspectiva científica, en el contexto de la era de la comunicación electrónica.
  • Siglo XX. 1943. El austro-húngaro Nikola Tesla inventa la radio, aunque inicialmente dicho invento se atribuye a Guglielmo Marconi y la patente no se reconoce a su autor hasta los años 1960 .
  • Siglo XX. 1947.En diciembre John Bardeen, Walter Houser Brattain y William Bradford Shockley, inventan el transistor. Serán galardonados por ello con el Premio Nobel de Física en 1956.Acaban de sentar sin saberlo la primera de las dos bases para una nueva revolución tecnológica y económica, actuando como detonante de un aumento exponencial de la capacidad de integración microeletrónica, de la popularización y la potencia de cálculo del ordenador.[2]
  • Siglo XX. 1948. Claude E. Shannon, elabora las bases matemáticas de la Teoría de la Información.[3]​ Acaba de dar la segunda base de la revolución de las tecnologías de la información y la comunicación: la aplicación del Álgebra de Boole será el fundamento matemático para industrializar el procesamiento de la información. Nace así la Ciencia de la Computación o Ingeniería informática. La nueva revolución económica está servida. La humanidad entra en la Era Digital usando el transistor y la numeración binaria para simbolizar, transmitir y compartir la información.[4][5]
  • Siglo XX. 1948. Norbert Wiener, elabora la idea de cibernética en su famosa obra Cibernética o el control y comunicación en animales y máquinas (Cybernetics or Control and Communication in the Animal and the Machine) (1948) donde se encargó de «mantener el orden» en cualquier sistema natural o artificial de información.
  • Siglo XX. 1951-1953. James Watson y Francis Crick descubren los principios de los códigos de ADN, que forman un sistema de información a partir de la doble espiral de ADN y la forma en que trabajan los genes.
  • Siglo XX. 1969. En el contexto de la guerra fría, el movimiento contracultural de la década de 1960, nace la embrionaria Internet cuando se establece la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos, con el objetivo inicial de facilitar una red de comunicaciones militares a prueba de bomba. Su expansión y popularización, y la democratización del conocimiento que facilita, transformará radicalmente las relaciones económicas, sociales y culturales en un mundo más y más interdependiente.[6]
  • Actualmente, ya en el siglo XXI, en un corto período de tiempo, el mundo desarrollado se ha propuesto lograr la globalización del acceso a los enormes volúmenes de información existentes en medios cada vez más complejos, con capacidades exponencialmente crecientes de almacenamiento[7]​ y en soportes cada vez más reducidos. A pesar de ello todavía existen muchas fuentes de información en formato no digital o inaccesibles digitalmente por diversas causas.[8]​ En este marco la proliferación de redes de transmisión de datos e información, de bases de datos con acceso en línea, ubicadas en cualquier lugar, localizables mediante Internet, permiten el hallazgo de otras redes y centros de información de diferentes tipos en cualquier momento desde cualquier lugar. Es el resultado de datos gestionados a través de aplicaciones informáticas donde los datos son procesados y transformados en información que posteriormente es manejada como signo integrador y característico de progreso económico del siglo XXI.[9]
 

Usos de la información

Se considera que la generación y/u obtención de información persigue estos objetivos:

  • Aumentar/mejorar el conocimiento del usuario, o dicho de otra manera reducir la incertidumbre existente sobre un conjunto de alternativas lógicamente posibles.
  • Proporcionar a quien toma decisiones la materia prima fundamental para el desarrollo de soluciones y la elección.
  • Proporcionar una serie de reglas de evaluación y reglas de decisión para fines de control.

En relación con el tercer punto, la información como vía para llegar al conocimiento, debe ser elaborada para hacerla utilizable o disponible (este proceso empírico se llama Documentación y tiene métodos y herramientas propios), pero también es imposible que la información por sí sola dote al individuo de más conocimiento, es él quien valora lo significativo de la información, la organiza y la convierte en conocimiento. El dato, por así llamarlo, es en sí un «prefijo» de la información, es decir, es un elemento previo necesario para poder obtener la información.

Información periodística

Una noticia es el relato o redacción de un texto informativo que se quiere dar a conocer con sus propias reglas de construcción (enunciación) que se refiere a un hecho novedoso o atípico -o la relación entre hechos novedosos y/o atípicos-, ocurrido dentro de una comunidad o determinado ámbito específico, que hace que merezca su divulgación.

Información y el Estado

El control y la manipulación es uno de los medios más poderosos de los gobiernos para promover el acatamiento de sus políticas. Así, los estados totalitarios y autoritarios buscan el monopolio de la información para promover el acatamiento de las políticas. La información tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial, mientras que la propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de los hechos. Así la propaganda compite con el derecho como instrumento de poder.[10]

Teoría de la información

El enfoque de la teoría de la información analiza la estructura matemática y estadística de los mensajes, con independencia de su significado u otros aspectos semánticos. Los aspectos en los que se interesa la teoría de la información son la capacidad de transmisión de los canales, la compresión de datos o la detección y corrección de errores.

Caracterización matemática

Una forma de caracterizar nuestro estado de conocimiento del mundo, es a través de las probabilidades. Si sabemos que en el futuro pueden suceder n cosas diferentes  , cada una con probabilidad   ese conjunto de probabilidades constituyen nuestro conocimiento del mundo, una información debería reducir nuestra incertidumbre, variando las probabilidades a  . Si el segundo estado tiene menos incertidumbre es porque algunas cosas se han hecho más probables frente a otras alternativas que se han hecho menos probables.

Una forma de «medir la información» asociada a un mensaje o hecho observado es calcular como algunas probabilidades han crecido y otras han decrecido. Una medida conveniente de calcular la «concentración» de la certeza en algunas alternativas es la entropía estadística:[11]

 

Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos proponen adivinar la segunda letra de una palabra del español. y nos dicen que en la segunda posición podría aparecer cualquier letra del alfabeto. Por tanto la incertidumbre inicial se obtiene calculando la probabilidad de ocurrencia de cada letra y calculando:

 

Sin embargo, si nos dan como pista que «la primera letra es una Z», entonces en segunda posición solo puede aparecer A, O, U (aunque existen un puñado de casos excepcionales de E e I) y por tanto con esa información se reduce mucha la incertidumbre:

 

La información cuantificada de la pista «la primera letra es una Z» resulta ser:

 

Las unidades de información resultan ser bits puesto que se han empleado logaritmos de base 2. Si la pista hubiera sido «la primera letra es una M», la segunda letra solo podría ser A, E, I, O, U que es un conjunto más amplio y en este caso   y en este caso, la pista lleva menos información porque reduce menos la incertidumbre, el resultado en este caso es repitiendo los pasos anteriores de unos 2,50 bits.

Operaciones básicas con información

Surgen cuatro operaciones básicas sobre la información, estos son los pilares sobre los cuáles, al igual que las cuatro operaciones básicas de matemáticas (+ - x %) se pueden construir varios cuatrimestres de estudio Universitario. Estos son:

Sobre estas cuatro operaciones, tanto en su almacenamiento como en tránsito es que se construyen todas las operaciones complejas y desarrollos de software. Cabe mencionar también que son la base de cualquier tipo de ataque informático o Ciberataque [12]​.

Recuperación de la información

La cantidad de información y el conocimiento desarrollado, aparentemente es enorme y tiene una metodología de recuperación, que eventualmente es infinita o total en un número muy amplio de soportes y sitios y el modelo sistémico de recuperación debe maximizar la búsqueda para asegurar su captura lo más completa posible dentro del entorno de este sistema complejo. En el caso de búsquedas en Internet y usando dos o más descriptores, los resultados numéricos que dan los motores de búsqueda, que contengan los dos o más términos juntos o muy próximos, ya es una medida de la cantidad de información conseguida y que es en expresión matemática el ln o logaritmo natural de la suma de las interacciones validadas. Valores de 2 o 3 serán óptimos.

Información y física

En física existe una íntima conexión entre entropía e información:

  • En física estadística un macroestado o situación macroscópica, puede corresponder desde el punto de vista microscópico a varios microestados, es decir, varios microestados diferentes pueden ser percibidos en términos macroscópicos generales como la misma situación o macroestado general. Algunos macroestados solo pueden corresponder a un número relativamente pequeño de microestados, otros macroestados por el contrario pueden corresponder a un número más elevado de microestados. La entropía es una magnitud física que mide la cantidad de microestados correspondiente a un macroestado. De alguna manera los macroestados con mayor entropía pueden corresponder a más microestados y por tanto conocido el macroestado existe una mayor incertidumbre sobre el microestado real del sistema. Por tanto la entropía mide la falta de conocimiento del microestado, de ahí que la información necesaria para conocer el microestado de un sistema conocido su macroestado coincida con la entropía. Cuando se produce una disminución de la entropía se puede decir que ha aumentado nuestro conocimiento del microestado del sistema, o existe menos incertidumbre sobre dicho microestado.
  • En la teoría de la relatividad se presupone que ninguna señal que sea informativa puede viajar más rápidamente que la luz, si sucediera lo contrario podría violarse el principio de causalidad, no se han encontrado ejemplos de sistemas que permitan transmitir información más rápido que la luz.
  • En mecánica cuántica, muchos autores aceptan la idea de que la información sobre un sistema físico no se destruye aunque puede ser inaccesible. Cuando se hace una medición del estado de un sistema sufre un colapso de la función de onda, de tal manera que sucesivas medidas sobre el sistema no permiten recuperar el estado del sistema antes de la medida. Sin embargo, el entorno del sistema y el aparato de medida evolucionan a un estado que sí contiene esa información, aunque no es recuperable. En las últimas dos décadas del siglo XX existió un debate sobre si se pierde información o no en los agujeros negros. De un lado, Stephen Hawking, Roger Penrose y otros sostenían que sí, mientras que otros como Gerardus 't Hooft o Leonard Susskind sostenían que no, llegando a formular estos últimos la idea del principio holográfico de acuerdo a la cual el horizonte de eventos del agujero negro guarda la información sobre el estado físico de la materia caída en su interior. Además, en mecánica cuántica es posible transmitir señales más rápido que la luz, tal como mostraron los experimentos de sobre el entrelazamiento cuántico de Alain Aspect; sin embargo, esas señales superlumínicas no parecen ser capaces de transmitir información.

Información y neguentropía

Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en inglés editada por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas. Adopta particularmente un punto de vista de físico y hace el lazo entra la entropía informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la información (y con la misma el lenguaje) es un factor neguentrópico es decir por el cual se puede anular la entropía.

Información analógica y digital

Para empezar, es necesario entender que, en el caso de la información analógica, los datos se traducen en forma de impulsos eléctricos, de manera que el flujo de información es constante y únicamente va variando de amplitud.

En cambio, la información digital es aquella cuya codificación se reduce a dos valores: 0 y 1; es decir, se traduce al sistema binario.[13]​ Todo este tipo de información, independientemente de que estemos hablando de música, imágenes, textos, etc, tiene la misma naturaleza.

Veamos las diferencias y por tanto, desventajas y ventajas que tiene un sistema u otro.

En primer lugar, la información digital, al estar codificada con el mismo código independientemente del formato, puede ser transmitida o copiada infinitas veces sin padecer daños o perdidas, debido a que simplemente debe ser reconstruida por el software oportuno —se trata únicamente de números—. En cambio, la información analógica no es tan precisa; esta pierde calidad en ser copiada.[14]

Otra de las desventajas que tiene la información analógica es que ocupa un espacio físico, es estática y su conservación puede ser difícil con el paso de los años. Sin embargo, la información digital no ocupa ningún lugar físico, sino que se encuentra dentro de dispositivos capaces de leerla como un ordenador. Además, son datos que tienen la capacidad de fluir con gran facilidad y su conservación es completamente posible durante muchísimo tiempo; no se deteriora —aunque el medio que la almacena sí que puede echarse a perder—. De hecho, si no son destruidos a conciencia, perduran para siempre.[15]

Otra diferencia entre los dos tipos de información está en la facilidad o dificultad para compartirla. Es decir, la información analógica es más difícil de difundir. La ventaja de esto es que es mucho más fácil de controlar. En cambio, la digital, al ser tan fácil de compartir hoy en día —vía Internet, etc—, también es muy difícil impedir que circule una vez ha empezado a hacerlo; nuestro control sobre esta es mucho menor.[16]

Además, la información digital se procesa de manera muy rápida por dispositivos como ordenadores o discos duros de manera que esto facilita el tratamiento de la información. Esta información, debido a la naturaleza común de todos los formatos, puede combinar texto, imagen, vídeo, etc., en un mismo archivo.[13]

Véase también

Referencias

  1. El término indicaba originariamente "aquello que aparece a la vista", derivando de la raíz indoeuropea *weid-/wid-/woid-, "ver" (confrontar con la palabra latina video). De modo que puede consiguientemente asumir una gran multiplicidad de significados (por ejemplo en Sócrates indica al "modelo teórico" de una oración).
  2. Manso Coronado, Francisco Javier (2003). Diccionario enciclopédico de estrategia empresarial. ISBN 8479785659. «"Nos hallamos inmersos en una revolución... la tecnología de silicio se invento en 1945,el transistor en 1947,el primer ordenador en 1948...", pág. 257». 
  3. Shannon, Claude E (1948). «A Mathematical Theory of Communication». Bell System Technical Journal 27 (b-1598). ISSN , 379-423. 
  4. Leer, Anne (2001). La visión de los líderes en la era digital (2001). México : Prentice-Hall. ISBN 968-444-440-0. 
  5. Tubella i Casadevall, Immna (2005). «2.2. La economía de las TIC y la revolución digital.». En UOC, ed. Sociedad del conocimiento. 
  6. «An Internet Pioneer Ponders the Next Revolution». An Internet Pioneer Ponders the Next Revolution. Consultado el 25 de noviembre de 2005. 
  7. «The size of the World Wide Web». Consultado el 21 de febrero de 2010. 
  8. «El saber perdido en la era digital.Lucha por preservar la memoria colectiva en el ciberespacio». EL PAÍS. 03 de 2007. Consultado el 21 de febrero de 2010. 
  9. Federación de Cajas de Ahorros Vasco-Navarras-. «La revolución digital: Nueva economía e Integración Social». EKONOMI GERIZAN. VOLUMEN (9). 
  10. Payne, J. Mark; Alonso, Pablo (2007). República del Perú: Evaluación de la gobernabilidad democrática. Madrid: Universidad Complutense, Instituto Complutense de Estudios Internacionales. p. 66. ISBN 9788496702059. 
  11. Welsh, 1998
  12. Corletti Estrada, Alejandro (2020). Manual de la Resiliencia (2020). España : DarFe. ISBN 978-84-09-24465-2. 
  13. «Diferencia entre lo analógico y digital». Diferencias entre - La web de las diferencias. 5 de abril de 2011. Consultado el 29 de noviembre de 2018. 
  14. «Diferencia entre lo analógico y digital». Diferencias entre - La web de las diferencias. 5 de abril de 2011. Consultado el 29 de noviembre de 2018. 
  15. «Definicion de información digital». www.alegsa.com.ar. Consultado el 29 de noviembre de 2018. 
  16. «Definicion de información digital». www.alegsa.com.ar. Consultado el 29 de noviembre de 2018. 

Bibliografía

  • Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN 0-19-853287-3.
  • Martínez Musiño, Celso (2010). El valor de la información, su administración y alcance en las organizaciones. Revista mexicana de ciencias de la información, vol. 1, No. 2, pp. 10-20.

Enlaces externos

  •   Wikcionario tiene definiciones y otra información sobre información.
  •   Wikiquote alberga frases célebres de o sobre Información.
  • Información en La Enciclopedia de Ciencias y Tecnologías en Argentina.
  • .


  •   Datos: Q11028
  •   Multimedia: Information
  •   Citas célebres: Información

información, para, otros, usos, este, término, véase, desambiguación, nombre, conoce, conjunto, organizado, datos, procesados, constituyen, mensaje, cambia, estado, conocimiento, sujeto, sistema, recibe, dicho, mensaje, existen, diversos, enfoques, para, estud. Para otros usos de este termino vease Informacion desambiguacion Informacion es el nombre por el que se conoce un conjunto organizado de datos procesados que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje Existen diversos enfoques para el estudio de la informacion En biologia la informacion se considera como estimulo sensorial que afecta al comportamiento de los individuos Multiples son las definiciones que se encuentran presentes a la hora de la determinacion de su contenido Segun Ivis Goni Camejo la informacion no se ha definido solo desde el punto de vista matematico o tecnico su conceptualizacion abarca enfoques filosoficos ciberneticos y otros basados en las denominadas ciencias de la informacion En comunicacion social y periodismo como un conjunto de mensajes intercambiados por individuos de una sociedad con fines organizativos concretos Los codigos ASCII para cada uno de los caracteres de la palabra Wikipedia representados en binario el sistema de numeracion mas comunmente utilizado para codificar informacion en computadora Los datos sensoriales una vez percibidos y procesados constituyen una informacion que cambia el estado de conocimiento eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento Desde el punto de vista de la ciencia de la computacion la informacion es un conocimiento explicito extraido por seres vivos o sistemas expertos como resultado de interaccion con el entorno o percepciones sensibles del mismo entorno En principio la informacion a diferencia de los datos o las percepciones sensibles tienen estructura util que modificara las sucesivas interacciones del que posee dicha informacion con su entorno Indice 1 Etimologia 2 Informacion en la sociedad 2 1 Principales caracteristicas de la informacion 2 2 Historia de la informacion 2 3 Usos de la informacion 2 4 Informacion periodistica 2 5 Informacion y el Estado 3 Teoria de la informacion 3 1 Caracterizacion matematica 3 2 Operaciones basicas con informacion 3 3 Recuperacion de la informacion 4 Informacion y fisica 5 Informacion y neguentropia 6 Informacion analogica y digital 7 Vease tambien 8 Referencias 9 Bibliografia 10 Enlaces externosEtimologia EditarLa palabra informacion deriva del sustantivo latino informatio nis del verbo informare con el significado de dar forma a la mente disciplinar instruir ensenar Ya en latin la palabra informationis era usada para indicar un concepto o una idea pero no esta claro si tal palabra pudiera haber influido en el desarrollo moderno de la palabra informacion Por otra parte la palabra griega correspondiente era morfh morfe de la que por metatesis surgio la palabra latina forma o si no eἶdos eidos de la cual deriva la latina idea esto es idea concepto o forma imagen la segunda palabra fue notoriamente usada tecnicamente en el ambito filosofico por Platon y Aristoteles para indicar la identidad ideal o esencia de algo vease Teoria de las ideas Eidos se puede tambien asociar a pensamiento asercion o concepto 1 Informacion en la sociedad EditarEn las sociedades humanas y en parte en algunas sociedades animales la informacion tiene un impacto en las relaciones entre diferentes individuos En una sociedad la conducta de cada individuo frente a algunos otros individuos se puede ver alterada en funcion de que informacion disponible posee el primer individuo Por esa razon el estudio social de la informacion se refiere a los aspectos relacionados con la variacion de la conducta en posesion de diferentes informaciones Para Gilles Deleuze la informacion social es un sistema de control en tanto que es la propagacion de consignas que deberiamos de creer o hacer que creemos En tal sentido la informacion es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas transmitidas Principales caracteristicas de la informacion Editar En general la informacion tiene una estructura interna y puede ser calificada segun varias caracteristicas Significado semantica Del significado extraido de una informacion cada individuo o sistema experto sistema capaz de emular el pensamiento humano evalua las consecuencias posibles y adecua sus actitudes y acciones de manera acorde a esas consecuencias Las expectativas que tiene el ente se dan de manera literal al significado de la informacion Importancia relativa al receptor Es decir si trata sobre alguna cuestion importante La importancia de la informacion para un receptor se referira a en que grado cambia la actitud o la conducta de los individuos En las modernas sociedades los individuos obtienen de los medios de comunicacion masiva gran cantidad de informacion una gran parte de la misma es poco importante para ellos porque altera de manera muy poco significativa la conducta de los mismos Esto se refiere a en que grado cuantitativo deben alterarse las expectativas futuras A veces se sabe que un hecho hace menos probables algunas cosas y mas otras la importancia tiene que ver con cuanto menos probables seran unas alternativas respecto a las otras Vigencia en la dimension espacio tiempo Se refiere a si esta actualizada o desfasada En la practica la vigencia de una informacion es dificil de evaluar ya que en general acceder a una informacion no permite conocer de inmediato si dicha informacion tiene o no vigencia Validez relativa al emisor Se evalua si el emisor es fiable o puede proporcionar informacion no valida falsa Tiene que ver si los indicios deben ser considerados en la revaluacion de expectativas o deben ser ignorados por no ser indicios fiables Valor activo intangible volatil La utilidad que tiene dicha informacion para el destinatario Historia de la informacion Editar La historia de la informacion esta asociada a su produccion tratamiento y transmision Una cronologia de esa historia detallada puede ser Siglo V a X Alta Edad Media El almacenamiento acceso y uso limitado de la informacion se realiza en las bibliotecas de los monasterios de forma amanuense o manual Siglo XII Los Incas Peru usan un sistema de cuerdas para el registro de informacion numerica llamada Quipu usado principalmente para contar ganado Siglo XV Edad Moderna Con el nacimiento de la imprenta en Europa Gutenberg los libros comienzan a fabricarse en serie Surgen los primeros periodicos Siglo XX 1926 Se inicia la primera retransmision de television que afectara al manejo y tratamiento de la informacion con gran impacto en los metodos de comunicacion social durante todo el siglo Siglo XX 1940 Jeremy Campbell definio el termino informacion desde una perspectiva cientifica en el contexto de la era de la comunicacion electronica Siglo XX 1943 El austro hungaro Nikola Tesla inventa la radio aunque inicialmente dicho invento se atribuye a Guglielmo Marconi y la patente no se reconoce a su autor hasta los anos 1960 Siglo XX 1947 En diciembre John Bardeen Walter Houser Brattain y William Bradford Shockley inventan el transistor Seran galardonados por ello con el Premio Nobel de Fisica en 1956 Acaban de sentar sin saberlo la primera de las dos bases para una nueva revolucion tecnologica y economica actuando como detonante de un aumento exponencial de la capacidad de integracion microeletronica de la popularizacion y la potencia de calculo del ordenador 2 Siglo XX 1948 Claude E Shannon elabora las bases matematicas de la Teoria de la Informacion 3 Acaba de dar la segunda base de la revolucion de las tecnologias de la informacion y la comunicacion la aplicacion del Algebra de Boole sera el fundamento matematico para industrializar el procesamiento de la informacion Nace asi la Ciencia de la Computacion o Ingenieria informatica La nueva revolucion economica esta servida La humanidad entra en la Era Digital usando el transistor y la numeracion binaria para simbolizar transmitir y compartir la informacion 4 5 Siglo XX 1948 Norbert Wiener elabora la idea de cibernetica en su famosa obra Cibernetica o el control y comunicacion en animales y maquinas Cybernetics or Control and Communication in the Animal and the Machine 1948 donde se encargo de mantener el orden en cualquier sistema natural o artificial de informacion Siglo XX 1951 1953 James Watson y Francis Crick descubren los principios de los codigos de ADN que forman un sistema de informacion a partir de la doble espiral de ADN y la forma en que trabajan los genes Siglo XX 1969 En el contexto de la guerra fria el movimiento contracultural de la decada de 1960 nace la embrionaria Internet cuando se establece la primera conexion de computadoras conocida como ARPANET entre tres universidades en California y una en Utah Estados Unidos con el objetivo inicial de facilitar una red de comunicaciones militares a prueba de bomba Su expansion y popularizacion y la democratizacion del conocimiento que facilita transformara radicalmente las relaciones economicas sociales y culturales en un mundo mas y mas interdependiente 6 Actualmente ya en el siglo XXI en un corto periodo de tiempo el mundo desarrollado se ha propuesto lograr la globalizacion del acceso a los enormes volumenes de informacion existentes en medios cada vez mas complejos con capacidades exponencialmente crecientes de almacenamiento 7 y en soportes cada vez mas reducidos A pesar de ello todavia existen muchas fuentes de informacion en formato no digital o inaccesibles digitalmente por diversas causas 8 En este marco la proliferacion de redes de transmision de datos e informacion de bases de datos con acceso en linea ubicadas en cualquier lugar localizables mediante Internet permiten el hallazgo de otras redes y centros de informacion de diferentes tipos en cualquier momento desde cualquier lugar Es el resultado de datos gestionados a traves de aplicaciones informaticas donde los datos son procesados y transformados en informacion que posteriormente es manejada como signo integrador y caracteristico de progreso economico del siglo XXI 9 Usos de la informacion Editar Se considera que la generacion y u obtencion de informacion persigue estos objetivos Aumentar mejorar el conocimiento del usuario o dicho de otra manera reducir la incertidumbre existente sobre un conjunto de alternativas logicamente posibles Proporcionar a quien toma decisiones la materia prima fundamental para el desarrollo de soluciones y la eleccion Proporcionar una serie de reglas de evaluacion y reglas de decision para fines de control En relacion con el tercer punto la informacion como via para llegar al conocimiento debe ser elaborada para hacerla utilizable o disponible este proceso empirico se llama Documentacion y tiene metodos y herramientas propios pero tambien es imposible que la informacion por si sola dote al individuo de mas conocimiento es el quien valora lo significativo de la informacion la organiza y la convierte en conocimiento El dato por asi llamarlo es en si un prefijo de la informacion es decir es un elemento previo necesario para poder obtener la informacion Informacion periodistica Editar Una noticia es el relato o redaccion de un texto informativo que se quiere dar a conocer con sus propias reglas de construccion enunciacion que se refiere a un hecho novedoso o atipico o la relacion entre hechos novedosos y o atipicos ocurrido dentro de una comunidad o determinado ambito especifico que hace que merezca su divulgacion Informacion y el Estado Editar Articulo principal Propaganda El control y la manipulacion es uno de los medios mas poderosos de los gobiernos para promover el acatamiento de sus politicas Asi los estados totalitarios y autoritarios buscan el monopolio de la informacion para promover el acatamiento de las politicas La informacion tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial mientras que la propaganda busca ganar adeptos para lograr un objetivo sin importarle la veracidad de los hechos Asi la propaganda compite con el derecho como instrumento de poder 10 Teoria de la informacion EditarArticulo principal Teoria de la informacion El enfoque de la teoria de la informacion analiza la estructura matematica y estadistica de los mensajes con independencia de su significado u otros aspectos semanticos Los aspectos en los que se interesa la teoria de la informacion son la capacidad de transmision de los canales la compresion de datos o la deteccion y correccion de errores Caracterizacion matematica Editar Una forma de caracterizar nuestro estado de conocimiento del mundo es a traves de las probabilidades Si sabemos que en el futuro pueden suceder n cosas diferentes A 1 A n displaystyle scriptstyle A 1 dots A n cada una con probabilidad p 1 p n displaystyle scriptstyle p 1 dots p n ese conjunto de probabilidades constituyen nuestro conocimiento del mundo una informacion deberia reducir nuestra incertidumbre variando las probabilidades a p 1 p n displaystyle scriptstyle tilde p 1 dots tilde p n Si el segundo estado tiene menos incertidumbre es porque algunas cosas se han hecho mas probables frente a otras alternativas que se han hecho menos probables Una forma de medir la informacion asociada a un mensaje o hecho observado es calcular como algunas probabilidades han crecido y otras han decrecido Una medida conveniente de calcular la concentracion de la certeza en algunas alternativas es la entropia estadistica 11 S 0 i 1 n p i log 2 p i incertidumbre inicial S f i 1 n p i log 2 p i incertidumbre final I S f S 0 0 informacion displaystyle begin cases S 0 sum i 1 n p i log 2 p i quad mbox incertidumbre inicial S f sum i 1 n tilde p i log 2 tilde p i quad mbox incertidumbre final amp I S f S 0 geq 0 quad mbox informacion end cases Un ejemplo linguistico ilustra bien este caso Supongamos que nos proponen adivinar la segunda letra de una palabra del espanol y nos dicen que en la segunda posicion podria aparecer cualquier letra del alfabeto Por tanto la incertidumbre inicial se obtiene calculando la probabilidad de ocurrencia de cada letra y calculando S 0 p a log 2 p a p b log 2 p b p y log 2 p y p z log 2 p z 4 04 bits displaystyle S 0 p a log 2 p a p b log 2 p b dots p y log 2 p y p z log 2 p z approx 4 04 mbox bits Sin embargo si nos dan como pista que la primera letra es una Z entonces en segunda posicion solo puede aparecer A O U aunque existen un punado de casos excepcionales de E e I y por tanto con esa informacion se reduce mucha la incertidumbre S f p a log 2 p a p o log 2 p o p u log 2 p u 0 91 bits displaystyle S f p a log 2 p a p o log 2 p o p u log 2 p u approx 0 91 mbox bits La informacion cuantificada de la pista la primera letra es una Z resulta ser I S f S 0 3 13 bits displaystyle I S f S 0 approx 3 13 mbox bits Las unidades de informacion resultan ser bits puesto que se han empleado logaritmos de base 2 Si la pista hubiera sido la primera letra es una M la segunda letra solo podria ser A E I O U que es un conjunto mas amplio y en este caso S f 1 54 displaystyle scriptstyle S f approx 1 54 y en este caso la pista lleva menos informacion porque reduce menos la incertidumbre el resultado en este caso es repitiendo los pasos anteriores de unos 2 50 bits Operaciones basicas con informacion Editar Surgen cuatro operaciones basicas sobre la informacion estos son los pilares sobre los cuales al igual que las cuatro operaciones basicas de matematicas x se pueden construir varios cuatrimestres de estudio Universitario Estos son Sobre estas cuatro operaciones tanto en su almacenamiento como en transito es que se construyen todas las operaciones complejas y desarrollos de software Cabe mencionar tambien que son la base de cualquier tipo de ataque informatico o Ciberataque 12 Recuperacion de la informacion Editar La cantidad de informacion y el conocimiento desarrollado aparentemente es enorme y tiene una metodologia de recuperacion que eventualmente es infinita o total en un numero muy amplio de soportes y sitios y el modelo sistemico de recuperacion debe maximizar la busqueda para asegurar su captura lo mas completa posible dentro del entorno de este sistema complejo En el caso de busquedas en Internet y usando dos o mas descriptores los resultados numericos que dan los motores de busqueda que contengan los dos o mas terminos juntos o muy proximos ya es una medida de la cantidad de informacion conseguida y que es en expresion matematica el ln o logaritmo natural de la suma de las interacciones validadas Valores de 2 o 3 seran optimos Informacion y fisica EditarEn fisica existe una intima conexion entre entropia e informacion En fisica estadistica un macroestado o situacion macroscopica puede corresponder desde el punto de vista microscopico a varios microestados es decir varios microestados diferentes pueden ser percibidos en terminos macroscopicos generales como la misma situacion o macroestado general Algunos macroestados solo pueden corresponder a un numero relativamente pequeno de microestados otros macroestados por el contrario pueden corresponder a un numero mas elevado de microestados La entropia es una magnitud fisica que mide la cantidad de microestados correspondiente a un macroestado De alguna manera los macroestados con mayor entropia pueden corresponder a mas microestados y por tanto conocido el macroestado existe una mayor incertidumbre sobre el microestado real del sistema Por tanto la entropia mide la falta de conocimiento del microestado de ahi que la informacion necesaria para conocer el microestado de un sistema conocido su macroestado coincida con la entropia Cuando se produce una disminucion de la entropia se puede decir que ha aumentado nuestro conocimiento del microestado del sistema o existe menos incertidumbre sobre dicho microestado En la teoria de la relatividad se presupone que ninguna senal que sea informativa puede viajar mas rapidamente que la luz si sucediera lo contrario podria violarse el principio de causalidad no se han encontrado ejemplos de sistemas que permitan transmitir informacion mas rapido que la luz En mecanica cuantica muchos autores aceptan la idea de que la informacion sobre un sistema fisico no se destruye aunque puede ser inaccesible Cuando se hace una medicion del estado de un sistema sufre un colapso de la funcion de onda de tal manera que sucesivas medidas sobre el sistema no permiten recuperar el estado del sistema antes de la medida Sin embargo el entorno del sistema y el aparato de medida evolucionan a un estado que si contiene esa informacion aunque no es recuperable En las ultimas dos decadas del siglo XX existio un debate sobre si se pierde informacion o no en los agujeros negros De un lado Stephen Hawking Roger Penrose y otros sostenian que si mientras que otros como Gerardus t Hooft o Leonard Susskind sostenian que no llegando a formular estos ultimos la idea del principio holografico de acuerdo a la cual el horizonte de eventos del agujero negro guarda la informacion sobre el estado fisico de la materia caida en su interior Ademas en mecanica cuantica es posible transmitir senales mas rapido que la luz tal como mostraron los experimentos de sobre el entrelazamiento cuantico de Alain Aspect sin embargo esas senales superluminicas no parecen ser capaces de transmitir informacion Informacion y neguentropia EditarLeon Brillouin publico en 1959 Science et theorie de l information version en ingles editada por vez primera en 1962 donde son examinadas las relaciones entre estas dos disciplinas Adopta particularmente un punto de vista de fisico y hace el lazo entra la entropia informacional de Shannon y la entropia estadistica de Boltzmann en donde se arriesga que la informacion y con la misma el lenguaje es un factor neguentropico es decir por el cual se puede anular la entropia Informacion analogica y digital EditarPara empezar es necesario entender que en el caso de la informacion analogica los datos se traducen en forma de impulsos electricos de manera que el flujo de informacion es constante y unicamente va variando de amplitud En cambio la informacion digital es aquella cuya codificacion se reduce a dos valores 0 y 1 es decir se traduce al sistema binario 13 Todo este tipo de informacion independientemente de que estemos hablando de musica imagenes textos etc tiene la misma naturaleza Veamos las diferencias y por tanto desventajas y ventajas que tiene un sistema u otro En primer lugar la informacion digital al estar codificada con el mismo codigo independientemente del formato puede ser transmitida o copiada infinitas veces sin padecer danos o perdidas debido a que simplemente debe ser reconstruida por el software oportuno se trata unicamente de numeros En cambio la informacion analogica no es tan precisa esta pierde calidad en ser copiada 14 Otra de las desventajas que tiene la informacion analogica es que ocupa un espacio fisico es estatica y su conservacion puede ser dificil con el paso de los anos Sin embargo la informacion digital no ocupa ningun lugar fisico sino que se encuentra dentro de dispositivos capaces de leerla como un ordenador Ademas son datos que tienen la capacidad de fluir con gran facilidad y su conservacion es completamente posible durante muchisimo tiempo no se deteriora aunque el medio que la almacena si que puede echarse a perder De hecho si no son destruidos a conciencia perduran para siempre 15 Otra diferencia entre los dos tipos de informacion esta en la facilidad o dificultad para compartirla Es decir la informacion analogica es mas dificil de difundir La ventaja de esto es que es mucho mas facil de controlar En cambio la digital al ser tan facil de compartir hoy en dia via Internet etc tambien es muy dificil impedir que circule una vez ha empezado a hacerlo nuestro control sobre esta es mucho menor 16 Ademas la informacion digital se procesa de manera muy rapida por dispositivos como ordenadores o discos duros de manera que esto facilita el tratamiento de la informacion Esta informacion debido a la naturaleza comun de todos los formatos puede combinar texto imagen video etc en un mismo archivo 13 Vease tambien EditarDato conocimiento documentacion Ciencias de la comunicacion Seguridad de la informacion Sobrecarga informativa Teoria de la informacion Toma de decisiones desinformacion Lenguaje Periodico Noticia Historia del periodismoReferencias Editar El termino indicaba originariamente aquello que aparece a la vista derivando de la raiz indoeuropea weid wid woid ver confrontar con la palabra latina video De modo que puede consiguientemente asumir una gran multiplicidad de significados por ejemplo en Socrates indica al modelo teorico de una oracion Manso Coronado Francisco Javier 2003 Diccionario enciclopedico de estrategia empresarial ISBN 8479785659 Nos hallamos inmersos en una revolucion la tecnologia de silicio se invento en 1945 el transistor en 1947 el primer ordenador en 1948 pag 257 Shannon Claude E 1948 A Mathematical Theory of Communication Bell System Technical Journal 27 b 1598 ISSN 379 423 Leer Anne 2001 La vision de los lideres en la era digital 2001 Mexico Prentice Hall ISBN 968 444 440 0 Tubella i Casadevall Immna 2005 2 2 La economia de las TIC y la revolucion digital En UOC ed Sociedad del conocimiento An Internet Pioneer Ponders the Next Revolution An Internet Pioneer Ponders the Next Revolution Consultado el 25 de noviembre de 2005 The size of the World Wide Web Consultado el 21 de febrero de 2010 El saber perdido en la era digital Lucha por preservar la memoria colectiva en el ciberespacio EL PAIS 03 de 2007 Consultado el 21 de febrero de 2010 Federacion de Cajas de Ahorros Vasco Navarras La revolucion digital Nueva economia e Integracion Social EKONOMI GERIZAN VOLUMEN 9 Payne J Mark Alonso Pablo 2007 Republica del Peru Evaluacion de la gobernabilidad democratica Madrid Universidad Complutense Instituto Complutense de Estudios Internacionales p 66 ISBN 9788496702059 Welsh 1998 Corletti Estrada Alejandro 2020 Manual de la Resiliencia 2020 Espana DarFe ISBN 978 84 09 24465 2 a b Diferencia entre lo analogico y digital Diferencias entre La web de las diferencias 5 de abril de 2011 Consultado el 29 de noviembre de 2018 Diferencia entre lo analogico y digital Diferencias entre La web de las diferencias 5 de abril de 2011 Consultado el 29 de noviembre de 2018 Definicion de informacion digital www alegsa com ar Consultado el 29 de noviembre de 2018 Definicion de informacion digital www alegsa com ar Consultado el 29 de noviembre de 2018 Bibliografia EditarDominic Welsh 1988 Codes and Cryptography Clarendon Press Oxford ISBN 0 19 853287 3 Martinez Musino Celso 2010 El valor de la informacion su administracion y alcance en las organizaciones Revista mexicana de ciencias de la informacion vol 1 No 2 pp 10 20 https web archive org web 20171014214503 http 132 248 9 34 hevila Revistamexicanadecienciasdelainformacion 2010 vol1 no2 1 pdfEnlaces externos Editar Wikcionario tiene definiciones y otra informacion sobre informacion Wikiquote alberga frases celebres de o sobre Informacion Informacion en La Enciclopedia de Ciencias y Tecnologias en Argentina informacion y referencia Datos Q11028 Multimedia Information Citas celebres InformacionObtenido de https es wikipedia org w index php title Informacion amp oldid 138031595, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos