fbpx
Wikipedia

Teoría de la información

La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940. Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información.[1]​ La teoría de la información es una rama de la teoría de la probabilidad que estudia la información y todo lo relacionado con ella: canales, compresión de datos y criptografía, entre otros.

Historia

La teoría de la información surgió a finales de la Segunda Guerra Mundial, en los años cuarenta. Fue indicada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una teoría matemática de la comunicación (texto completo en inglés). En esta época se buscaba utilizar de manera más eficiente los canales de comunicación, enviando una cantidad de información por un determinado canal y midiendo su capacidad; se buscaba la transmisión óptima de los mensajes. Esta teoría es el resultado de trabajos comenzados en la década 1910 por Andrei A. Markovi, a quien le siguió Ralp V. L. Hartley en 1927, quien fue el precursor del lenguaje binario. A su vez, Alan Turing en 1936, realizó el esquema de una máquina capaz de tratar información con emisión de símbolos, y finalmente Claude Elwood Shannon, matemático, ingeniero electrónico y criptógrafo estadounidense, conocido como "el padre de la teoría de la información”, junto a Warren Weaver, contribuyó en la culminación y el asentamiento de la Teoría Matemática de la Comunicación de 1949 –que hoy es mundialmente conocida por todos como la Teoría de la Información-. Weaver consiguió darle un alcance superior al planteamiento inicial, creando un modelo simple y lineal: Fuente/codificador/mensaje canal/decodificador/destino. La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de la masificación de las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de comunicación por radio. La teoría de la información también abarca todas las restantes formas de transmisión y almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en las computadoras y en la grabación óptica de datos e imágenes. La idea es garantizar que el transporte masivo de datos no sea en modo alguno una merma de la calidad, incluso si los datos se comprimen de alguna manera. Idealmente, los datos se pueden restaurar a su forma original al llegar a su destino. En algunos casos, sin embargo, el objetivo es permitir que los datos de alguna forma se conviertan para la transmisión en masa, se reciban en el punto de destino y sean convertidos fácilmente a su formato original, sin perder ninguna de la información transmitida.[2]

Desarrollo de la teoría

El modelo propuesto por Shannon es un sistema general de la comunicación que parte de una fuente de información que emite un mensaje. A través de un transmisor, se emite una señal que viaja por un canal, donde puede ser interferida por algún ruido. La señal sale del canal, llega a un receptor que decodifica la información convirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. Para esto, el destinatario debe comprender la señal correctamente; el problema es que aunque exista un mismo código de por medio, esto no significa que el destinatario va a captar el significado que el emisor le quiso dar al mensaje. La codificación puede referirse tanto a la transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Un concepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje es un valor matemático bien definido y medible. El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de información es cero.[3]

Finalidad

Otro aspecto importante dentro de esta teoría es la resistencia a la distorsión que provoca el ruido, la facilidad de codificación y decodificación, así como la velocidad de transmisión. Es por esto que se dice que el mensaje tiene muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común. La teoría de la información tiene ciertas limitaciones, como lo es la acepción del concepto del código. El significado que se quiere transmitir no cuenta tanto como el número de alternativas necesario para definir el hecho sin ambigüedad. Si la selección del mensaje se plantea únicamente entre dos alternativas diferentes, la teoría de Shannon postula arbitrariamente que el valor de la información es uno. Esta unidad de información recibe el nombre de bit. Para que el valor de la información sea un bit, todas las alternativas deben ser igual de probables y estar disponibles. Es importante saber si la fuente de información tiene el mismo grado de libertad para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta elección. La cantidad de información crece cuando todas las alternativas son igual de probables o cuanto mayor sea el número de alternativas. Pero en la práctica comunicativa real no todas las alternativas son igualmente probables, lo cual constituye un tipo de proceso estocástico denominado Márkov. El subtipo de Márkov dice que la cadena de símbolos está configurada de manera que cualquier secuencia de esa cadena es representativa de toda la cadena completa.

Teoría aplicada a la tecnología

La Teoría de la Información se encuentra aún hoy en día en relación con una de las tecnologías en boga, Internet. Desde el punto de vista social, Internet representa unos significativos beneficios potenciales, ya que ofrece oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez más ricas de información digital. Internet fue creado a partir de un proyecto del departamento de defensa de los Estados Unidos llamado ARPANET (Advanced Research Projects Agency Network) iniciado en 1969 y cuyo propósito principal era la investigación y desarrollo de protocolos de comunicación para redes de área amplia para ligar redes de transmisión de paquetes de diferentes tipos capaces de resistir las condiciones de operación más difíciles, y continuar funcionando aún con la pérdida de una parte de la red (por ejemplo en caso de guerra). Estas investigaciones dieron como resultado el protocolo TCP/IP (Transmission Control Protocol/Internet Protocol), un sistema de comunicaciones muy sólido y robusto bajo el cual se integran todas las redes que conforman lo que se conoce actualmente como Internet. El enorme crecimiento de Internet se debe en parte a que es una red basada en fondos gubernamentales de cada país que forma parte de Internet, lo que proporciona un servicio prácticamente gratuito. A principios de 1994 comenzó a darse un crecimiento explosivo de las compañías con propósitos comerciales en Internet, dando así origen a una nueva etapa en el desarrollo de la red. Descrito a grandes rasgos, TCP/IP mete en paquetes la información que se quiere enviar y la saca de los paquetes para utilizarla cuando se recibe. Estos paquetes pueden compararse con sobres de correo; TCP/IP guarda la información, cierra el sobre y en la parte exterior pone la dirección a la cual va dirigida y la dirección de quien la envía. Mediante este sistema, los paquetes viajan a través de la red hasta que llegan al destino deseado; una vez ahí, la computadora de destino quita el sobre y procesa la información; en caso de ser necesario envía una respuesta a la computadora de origen usando el mismo procedimiento. Cada máquina que está conectada a Internet tiene una dirección única; esto hace que la información que se envía no equivoque el destino. Existen dos formas de dar direcciones, con letras o con números. Realmente, las computadoras utilizan las direcciones numéricas para mandar paquetes de información, pero las direcciones con letras fueron implementadas para facilitar su manejo a los seres humanos. Una dirección numérica está compuesta por cuatro partes. Cada una de estas partes está dividida por puntos.

Ejemplo: sedet.com.mx 107.248.185.1

Una de las aplicaciones de la teoría de la información son los archivos ZIP, documentos que se comprimen para su transmisión a través de correo electrónico o como parte de los procedimientos de almacenamiento de datos. La compresión de los datos hace posible completar la transmisión en menos tiempo. En el extremo receptor, un software se utiliza para la liberación o descompresión del archivo, restaurando los documentos contenidos en el archivo ZIP a su formato original. La teoría de la información también entra en uso con otros tipos de archivo; por ejemplo, los archivos de audio y vídeo que se reproducen en un reproductor de MP3 / MP4 se comprimen para una fácil descarga y almacenamiento en el dispositivo. Cuando se accede a los archivos se descomprimen para que estén inmediatamente disponibles para su uso.[4]

Elementos de la teoría

 
Esquema de la comunicación ideado por Claude E. Shannon.

Fuente

Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes sus archivos; una fuente puede ser un dispositivo de transmisión de datos y mensajes los datos enviados, etc. Una fuente es en sí misma un conjunto finito de mensajes: todos los posibles mensajes que puede emitir dicha fuente. En compresión de datos se tomará como fuente el archivo a comprimir y como mensajes los caracteres que conforman dicho archivo.

Tipos de fuente

Por la naturaleza generativa de sus mensajes, una fuente puede ser aleatoria o determinista. Por la relación entre los mensajes emitidos, una fuente puede ser estructurada o no estructurada (o caótica).

Existen varios tipos de fuente. Para la teoría de la información interesan las fuentes aleatorias y estructuradas. Una fuente es aleatoria cuando no es posible predecir cuál es el próximo mensaje a emitir por la misma. Una fuente es estructurada cuando posee un cierto nivel de redundancia; una fuente no estructurada o de información pura es aquella en que todos los mensajes son absolutamente aleatorios sin relación alguna ni sentido aparente. Este tipo de fuente emite mensajes que no se pueden comprimir; un mensaje, para poder ser comprimido, debe poseer un cierto grado de redundancia; la información pura no puede ser comprimida sin que haya una pérdida de conocimiento sobre el mensaje.[5]

Mensaje

Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje. El concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referiremos casi siempre a mensajes binarios.

Código

Un código es un conjunto de unos y ceros que se usan para representar un cierto mensaje de acuerdo a reglas o convenciones preestablecidas. Por ejemplo, al mensaje 0010 lo podemos representar con el código 1101 usado para codificar la función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede, en algunos casos, representarse con un código de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S lo codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S) bits; definimos entonces la información contenida en el mensaje S como la cantidad mínima de bits necesarios para codificar un mensaje.

Información

La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para representar al mensaje. El concepto de información puede entenderse más fácilmente si consideramos un ejemplo. Supongamos que estamos leyendo un mensaje y hemos leído "cadena de c"; la probabilidad de que el mensaje continúe con "caracteres" es muy alta. Así, cuando efectivamente recibimos a continuación "caracteres" la cantidad de información que nos llegó es muy baja pues estábamos en condiciones de predecir qué era lo que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos información que la ocurrencia de mensajes menos probables. Si luego de "cadena de c" leemos "himichurri" la cantidad de información que estamos recibiendo es mucho mayor.

Entropía e información

La información es tratada como magnitud física, caracterizando la información de una secuencia de símbolos utilizando la entropía. Es parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos de envío de información o la cantidad de información útil que se pueda enviar a través de un canal.

La información necesaria para especificar un sistema físico tiene que ver con su entropía. En concreto, en ciertas áreas de la física, extraer información del estado actual de un sistema requiere reducir su entropía, de tal manera que la entropía del sistema ( ) y la cantidad de información ( ) extraíble están relacionadas por:

 

Entropía de una fuente

De acuerdo con la teoría de la información, el nivel de información de una fuente se puede medir según la entropía de la misma. Los estudios sobre la entropía son de suma importancia en la teoría de la información y se deben principalmente a C. E. Shannon. Existe, a su vez, un gran número de propiedades respecto de la entropía de variables aleatorias debidas a A. Kolmogorov. Dada una fuente F que emite mensajes, resulta frecuente observar que los mensajes emitidos no resultan equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo del mensaje. Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de bits para los mensajes más probables y mayor cantidad de bits para los mensajes menos probables, de forma tal que el promedio de bits utilizados para codificar los mensajes sea menor que la cantidad de bits promedio de los mensajes originales. Esta es la base de la compresión de datos. A este tipo de fuente se la denomina fuente de orden-0, pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores. A las fuentes de orden superior se las puede representar mediante una fuente de orden-0 utilizando técnicas de modelización apropiadas. Definimos la probabilidad de ocurrencia de un mensaje en una fuente como la cantidad de apariciones de dicho mensaje dividido entre el total de mensajes. Supongamos que Pi es la probabilidad de ocurrencia del mensaje-i de una fuente, y supongamos que Li es la longitud del código utilizado para representar a dicho mensaje. La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:

 

  • Promedio ponderado de las longitudes de los códigos de acuerdo con sus probabilidades de ocurrencia, al número H se lo denomina "Entropía de la fuente" y tiene gran importancia. La entropía de la fuente determina el nivel de compresión que podemos obtener como máximo para un conjunto de datos. Si consideramos como fuente un archivo y obtenemos las probabilidades de ocurrencia de cada carácter en el archivo podremos calcular la longitud promedio del archivo comprimido. Se demuestra que no es posible comprimir estadísticamente un mensaje/archivo más allá de su entropía, lo cual implica que considerando únicamente la frecuencia de aparición de cada carácter la entropía de la fuente nos da el límite teórico de compresión. Mediante otras técnicas no-estadísticas puede, tal vez, superarse este límite.
  • El objetivo de la compresión de datos es encontrar los Li que minimizan a H; además los Li se deben determinar en función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de ocurrencia de los mismos (los más ocurrentes queremos codificarlos en menos bits). Se plantea pues:

 

A partir de aquí y tras intrincados procedimientos matemáticos que fueron demostrados por Shannon oportunamente se llega a que H es mínimo cuando f(Pi) = log2 (1/Pi). Entonces:

 

La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su probabilidad de ocurrencia. Reemplazando Li podemos escribir H como:

 

De aquí se deduce que la entropía de la fuente depende únicamente de la probabilidad de ocurrencia de cada mensaje de la misma; por ello la importancia de los compresores estadísticos (aquellos que se basan en la probabilidad de ocurrencia de cada carácter). Shannon demostró, oportunamente, que no es posible comprimir una fuente estadísticamente más allá del nivel indicado por su entropía.[6][7]

Otros aspectos de la teoría


Véase también

Referencias

  1. Teoría matemática de la comunicación
  2. Teoría Matemática de la Comunicación
  3. Teoría de la Información
  4. Teoría Matemático-informacional
  5. Teoría de la Información | Textos Científicos
  6. Teoría de la Información
  7. . Archivado desde el original el 9 de octubre de 2010. Consultado el 5 de julio de 2011. 
  •   Datos: Q131222
  •   Multimedia: Information theory

teoría, información, teoría, información, también, conocida, como, teoría, matemática, comunicación, inglés, mathematical, theory, communication, teoría, matemática, información, propuesta, teórica, presentada, claude, shannon, warren, weaver, finales, década,. La teoria de la informacion tambien conocida como teoria matematica de la comunicacion Ingles mathematical theory of communication o teoria matematica de la informacion es una propuesta teorica presentada por Claude E Shannon y Warren Weaver a finales de la decada de los anos 1940 Esta teoria esta relacionada con las leyes matematicas que rigen la transmision y el procesamiento de la informacion y se ocupa de la medicion de la informacion y de la representacion de la misma asi como tambien de la capacidad de los sistemas de comunicacion para transmitir y procesar informacion 1 La teoria de la informacion es una rama de la teoria de la probabilidad que estudia la informacion y todo lo relacionado con ella canales compresion de datos y criptografia entre otros Indice 1 Historia 2 Desarrollo de la teoria 3 Finalidad 4 Teoria aplicada a la tecnologia 5 Elementos de la teoria 5 1 Fuente 5 2 Tipos de fuente 5 3 Mensaje 5 4 Codigo 5 5 Informacion 6 Entropia e informacion 6 1 Entropia de una fuente 7 Otros aspectos de la teoria 8 Vease tambien 9 ReferenciasHistoria EditarLa teoria de la informacion surgio a finales de la Segunda Guerra Mundial en los anos cuarenta Fue indicada por Claude E Shannon a traves de un articulo publicado en el Bell System Technical Journal en 1948 titulado Una teoria matematica de la comunicacion texto completo en ingles En esta epoca se buscaba utilizar de manera mas eficiente los canales de comunicacion enviando una cantidad de informacion por un determinado canal y midiendo su capacidad se buscaba la transmision optima de los mensajes Esta teoria es el resultado de trabajos comenzados en la decada 1910 por Andrei A Markovi a quien le siguio Ralp V L Hartley en 1927 quien fue el precursor del lenguaje binario A su vez Alan Turing en 1936 realizo el esquema de una maquina capaz de tratar informacion con emision de simbolos y finalmente Claude Elwood Shannon matematico ingeniero electronico y criptografo estadounidense conocido como el padre de la teoria de la informacion junto a Warren Weaver contribuyo en la culminacion y el asentamiento de la Teoria Matematica de la Comunicacion de 1949 que hoy es mundialmente conocida por todos como la Teoria de la Informacion Weaver consiguio darle un alcance superior al planteamiento inicial creando un modelo simple y lineal Fuente codificador mensaje canal decodificador destino La necesidad de una base teorica para la tecnologia de la comunicacion surgio del aumento de la complejidad y de la masificacion de las vias de comunicacion tales como el telefono las redes de teletipo y los sistemas de comunicacion por radio La teoria de la informacion tambien abarca todas las restantes formas de transmision y almacenamiento de informacion incluyendo la television y los impulsos electricos que se transmiten en las computadoras y en la grabacion optica de datos e imagenes La idea es garantizar que el transporte masivo de datos no sea en modo alguno una merma de la calidad incluso si los datos se comprimen de alguna manera Idealmente los datos se pueden restaurar a su forma original al llegar a su destino En algunos casos sin embargo el objetivo es permitir que los datos de alguna forma se conviertan para la transmision en masa se reciban en el punto de destino y sean convertidos facilmente a su formato original sin perder ninguna de la informacion transmitida 2 Desarrollo de la teoria EditarEl modelo propuesto por Shannon es un sistema general de la comunicacion que parte de una fuente de informacion que emite un mensaje A traves de un transmisor se emite una senal que viaja por un canal donde puede ser interferida por algun ruido La senal sale del canal llega a un receptor que decodifica la informacion convirtiendola posteriormente en mensaje que pasa a un destinatario Con el modelo de la teoria de la informacion se trata de llegar a determinar la forma mas economica rapida y segura de codificar un mensaje sin que la presencia de algun ruido complique su transmision Para esto el destinatario debe comprender la senal correctamente el problema es que aunque exista un mismo codigo de por medio esto no significa que el destinatario va a captar el significado que el emisor le quiso dar al mensaje La codificacion puede referirse tanto a la transformacion de voz o imagen en senales electricas o electromagneticas como al cifrado de mensajes para asegurar su privacidad Un concepto fundamental en la teoria de la informacion es que la cantidad de informacion contenida en un mensaje es un valor matematico bien definido y medible El termino cantidad no se refiere a la cuantia de datos sino a la probabilidad de que un mensaje dentro de un conjunto de mensajes posibles sea recibido En lo que se refiere a la cantidad de informacion el valor mas alto se le asigna al mensaje que menos probabilidades tiene de ser recibido Si se sabe con certeza que un mensaje va a ser recibido su cantidad de informacion es cero 3 Finalidad EditarOtro aspecto importante dentro de esta teoria es la resistencia a la distorsion que provoca el ruido la facilidad de codificacion y decodificacion asi como la velocidad de transmision Es por esto que se dice que el mensaje tiene muchos sentidos y el destinatario extrae el sentido que debe atribuirle al mensaje siempre y cuando haya un mismo codigo en comun La teoria de la informacion tiene ciertas limitaciones como lo es la acepcion del concepto del codigo El significado que se quiere transmitir no cuenta tanto como el numero de alternativas necesario para definir el hecho sin ambiguedad Si la seleccion del mensaje se plantea unicamente entre dos alternativas diferentes la teoria de Shannon postula arbitrariamente que el valor de la informacion es uno Esta unidad de informacion recibe el nombre de bit Para que el valor de la informacion sea un bit todas las alternativas deben ser igual de probables y estar disponibles Es importante saber si la fuente de informacion tiene el mismo grado de libertad para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta eleccion La cantidad de informacion crece cuando todas las alternativas son igual de probables o cuanto mayor sea el numero de alternativas Pero en la practica comunicativa real no todas las alternativas son igualmente probables lo cual constituye un tipo de proceso estocastico denominado Markov El subtipo de Markov dice que la cadena de simbolos esta configurada de manera que cualquier secuencia de esa cadena es representativa de toda la cadena completa Teoria aplicada a la tecnologia EditarLa Teoria de la Informacion se encuentra aun hoy en dia en relacion con una de las tecnologias en boga Internet Desde el punto de vista social Internet representa unos significativos beneficios potenciales ya que ofrece oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez mas ricas de informacion digital Internet fue creado a partir de un proyecto del departamento de defensa de los Estados Unidos llamado ARPANET Advanced Research Projects Agency Network iniciado en 1969 y cuyo proposito principal era la investigacion y desarrollo de protocolos de comunicacion para redes de area amplia para ligar redes de transmision de paquetes de diferentes tipos capaces de resistir las condiciones de operacion mas dificiles y continuar funcionando aun con la perdida de una parte de la red por ejemplo en caso de guerra Estas investigaciones dieron como resultado el protocolo TCP IP Transmission Control Protocol Internet Protocol un sistema de comunicaciones muy solido y robusto bajo el cual se integran todas las redes que conforman lo que se conoce actualmente como Internet El enorme crecimiento de Internet se debe en parte a que es una red basada en fondos gubernamentales de cada pais que forma parte de Internet lo que proporciona un servicio practicamente gratuito A principios de 1994 comenzo a darse un crecimiento explosivo de las companias con propositos comerciales en Internet dando asi origen a una nueva etapa en el desarrollo de la red Descrito a grandes rasgos TCP IP mete en paquetes la informacion que se quiere enviar y la saca de los paquetes para utilizarla cuando se recibe Estos paquetes pueden compararse con sobres de correo TCP IP guarda la informacion cierra el sobre y en la parte exterior pone la direccion a la cual va dirigida y la direccion de quien la envia Mediante este sistema los paquetes viajan a traves de la red hasta que llegan al destino deseado una vez ahi la computadora de destino quita el sobre y procesa la informacion en caso de ser necesario envia una respuesta a la computadora de origen usando el mismo procedimiento Cada maquina que esta conectada a Internet tiene una direccion unica esto hace que la informacion que se envia no equivoque el destino Existen dos formas de dar direcciones con letras o con numeros Realmente las computadoras utilizan las direcciones numericas para mandar paquetes de informacion pero las direcciones con letras fueron implementadas para facilitar su manejo a los seres humanos Una direccion numerica esta compuesta por cuatro partes Cada una de estas partes esta dividida por puntos Ejemplo sedet com mx 107 248 185 1 Una de las aplicaciones de la teoria de la informacion son los archivos ZIP documentos que se comprimen para su transmision a traves de correo electronico o como parte de los procedimientos de almacenamiento de datos La compresion de los datos hace posible completar la transmision en menos tiempo En el extremo receptor un software se utiliza para la liberacion o descompresion del archivo restaurando los documentos contenidos en el archivo ZIP a su formato original La teoria de la informacion tambien entra en uso con otros tipos de archivo por ejemplo los archivos de audio y video que se reproducen en un reproductor de MP3 MP4 se comprimen para una facil descarga y almacenamiento en el dispositivo Cuando se accede a los archivos se descomprimen para que esten inmediatamente disponibles para su uso 4 Elementos de la teoria Editar Esquema de la comunicacion ideado por Claude E Shannon Fuente Editar Una fuente es todo aquello que emite mensajes Por ejemplo una fuente puede ser una computadora y mensajes sus archivos una fuente puede ser un dispositivo de transmision de datos y mensajes los datos enviados etc Una fuente es en si misma un conjunto finito de mensajes todos los posibles mensajes que puede emitir dicha fuente En compresion de datos se tomara como fuente el archivo a comprimir y como mensajes los caracteres que conforman dicho archivo Tipos de fuente Editar Por la naturaleza generativa de sus mensajes una fuente puede ser aleatoria o determinista Por la relacion entre los mensajes emitidos una fuente puede ser estructurada o no estructurada o caotica Existen varios tipos de fuente Para la teoria de la informacion interesan las fuentes aleatorias y estructuradas Una fuente es aleatoria cuando no es posible predecir cual es el proximo mensaje a emitir por la misma Una fuente es estructurada cuando posee un cierto nivel de redundancia una fuente no estructurada o de informacion pura es aquella en que todos los mensajes son absolutamente aleatorios sin relacion alguna ni sentido aparente Este tipo de fuente emite mensajes que no se pueden comprimir un mensaje para poder ser comprimido debe poseer un cierto grado de redundancia la informacion pura no puede ser comprimida sin que haya una perdida de conocimiento sobre el mensaje 5 Mensaje Editar Un mensaje es un conjunto de ceros y unos Un archivo un paquete de datos que viaja por una red y cualquier cosa que tenga una representacion binaria puede considerarse un mensaje El concepto de mensaje se aplica tambien a alfabetos de mas de dos simbolos pero debido a que tratamos con informacion digital nos referiremos casi siempre a mensajes binarios Codigo Editar Un codigo es un conjunto de unos y ceros que se usan para representar un cierto mensaje de acuerdo a reglas o convenciones preestablecidas Por ejemplo al mensaje 0010 lo podemos representar con el codigo 1101 usado para codificar la funcion NOT La forma en la cual codificamos es arbitraria Un mensaje puede en algunos casos representarse con un codigo de menor longitud que el mensaje original Supongamos que a cualquier mensaje S lo codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L S bits definimos entonces la informacion contenida en el mensaje S como la cantidad minima de bits necesarios para codificar un mensaje Informacion Editar La informacion contenida en un mensaje es proporcional a la cantidad de bits que se requieren como minimo para representar al mensaje El concepto de informacion puede entenderse mas facilmente si consideramos un ejemplo Supongamos que estamos leyendo un mensaje y hemos leido cadena de c la probabilidad de que el mensaje continue con caracteres es muy alta Asi cuando efectivamente recibimos a continuacion caracteres la cantidad de informacion que nos llego es muy baja pues estabamos en condiciones de predecir que era lo que iba a ocurrir La ocurrencia de mensajes de alta probabilidad de aparicion aporta menos informacion que la ocurrencia de mensajes menos probables Si luego de cadena de c leemos himichurri la cantidad de informacion que estamos recibiendo es mucho mayor Entropia e informacion EditarLa informacion es tratada como magnitud fisica caracterizando la informacion de una secuencia de simbolos utilizando la entropia Es parte de la idea de que los canales no son ideales aunque muchas veces se idealicen las no linealidades para estudiar diversos metodos de envio de informacion o la cantidad de informacion util que se pueda enviar a traves de un canal La informacion necesaria para especificar un sistema fisico tiene que ver con su entropia En concreto en ciertas areas de la fisica extraer informacion del estado actual de un sistema requiere reducir su entropia de tal manera que la entropia del sistema S displaystyle S y la cantidad de informacion I displaystyle I extraible estan relacionadas por S S I 0 displaystyle S geq S I geq 0 Entropia de una fuente Editar Articulo principal Entropia informacion De acuerdo con la teoria de la informacion el nivel de informacion de una fuente se puede medir segun la entropia de la misma Los estudios sobre la entropia son de suma importancia en la teoria de la informacion y se deben principalmente a C E Shannon Existe a su vez un gran numero de propiedades respecto de la entropia de variables aleatorias debidas a A Kolmogorov Dada una fuente F que emite mensajes resulta frecuente observar que los mensajes emitidos no resultan equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo del mensaje Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de bits para los mensajes mas probables y mayor cantidad de bits para los mensajes menos probables de forma tal que el promedio de bits utilizados para codificar los mensajes sea menor que la cantidad de bits promedio de los mensajes originales Esta es la base de la compresion de datos A este tipo de fuente se la denomina fuente de orden 0 pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores A las fuentes de orden superior se las puede representar mediante una fuente de orden 0 utilizando tecnicas de modelizacion apropiadas Definimos la probabilidad de ocurrencia de un mensaje en una fuente como la cantidad de apariciones de dicho mensaje dividido entre el total de mensajes Supongamos que Pi es la probabilidad de ocurrencia del mensaje i de una fuente y supongamos que Lies la longitud del codigo utilizado para representar a dicho mensaje La longitud promedio de todos los mensajes codificados de la fuente se puede obtener como H i 0 n P i L i displaystyle H sum i 0 n P i L i Promedio ponderado de las longitudes de los codigos de acuerdo con sus probabilidades de ocurrencia al numero H se lo denomina Entropia de la fuente y tiene gran importancia La entropia de la fuente determina el nivel de compresion que podemos obtener como maximo para un conjunto de datos Si consideramos como fuente un archivo y obtenemos las probabilidades de ocurrencia de cada caracter en el archivo podremos calcular la longitud promedio del archivo comprimido Se demuestra que no es posible comprimir estadisticamente un mensaje archivo mas alla de su entropia lo cual implica que considerando unicamente la frecuencia de aparicion de cada caracter la entropia de la fuente nos da el limite teorico de compresion Mediante otras tecnicas no estadisticas puede tal vez superarse este limite El objetivo de la compresion de datos es encontrar losLi que minimizan a H ademas los Lise deben determinar en funcion de los Pi pues la longitud de los codigos debe depender de la probabilidad de ocurrencia de los mismos los mas ocurrentes queremos codificarlos en menos bits Se plantea pues H i 0 n P i f P i displaystyle H sum i 0 n P i f P i A partir de aqui y tras intrincados procedimientos matematicos que fueron demostrados por Shannon oportunamente se llega a que H es minimo cuando f Pi log2 1 Pi Entonces H i 0 n P i log 2 P i displaystyle H sum i 0 n P i log 2 P i La longitud minima con la cual puede codificarse un mensaje puede calcularse como Li log2 1 Pi log2 Pi Esto da una idea de la longitud a emplear en los codigos a usar para los caracteres de un archivo en funcion de su probabilidad de ocurrencia Reemplazando Lipodemos escribir H como H i 0 n P i log 2 P i displaystyle H sum i 0 n P i log 2 P i De aqui se deduce que la entropia de la fuente depende unicamente de la probabilidad de ocurrencia de cada mensaje de la misma por ello la importancia de los compresores estadisticos aquellos que se basan en la probabilidad de ocurrencia de cada caracter Shannon demostro oportunamente que no es posible comprimir una fuente estadisticamente mas alla del nivel indicado por su entropia 6 7 Otros aspectos de la teoria EditarFuentes de informacion Entropia Informacion mutua Neguentropia Teorema de muestreo de Nyquist ShannonCanales CapacidadCompresion de datos Codificacion de fuente Codigos no singulares Codigos univocamente decodificables Extension de codigo Codigos prefijo o codigos instantaneos Control de errores ARQ FEC Parada y espera Rechazo multiple Rechazo selectivo Tecnicas hibridas Concatenacion de codigos Tipo 1 Tipo 2 Deteccion de errores Bits de redundancia Metodos de control de errores Paridad Codigos autochequeo y autocorrectores Codigos de bloque Distancia Hamming Paridad horizontal y vertical Codigos lineales Codigos ciclicos CRC16 CRC32Vease tambien EditarParadoja de Freedman Sistema complejo Teoria algoritmica de la informacion Teoria de la informacion integradaReferencias Editar Teoria matematica de la comunicacion Teoria Matematica de la Comunicacion Teoria de la Informacion Teoria Matematico informacional Teoria de la Informacion Textos Cientificos Teoria de la Informacion Teoria Matematica de la Informacion Archivado desde el original el 9 de octubre de 2010 Consultado el 5 de julio de 2011 Datos Q131222 Multimedia Information theory Obtenido de https es wikipedia org w index php title Teoria de la informacion amp oldid 139029393, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos