fbpx
Wikipedia

Entropía (información)

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como «que», «el», «a» aportan poca información, mientras que palabras menos frecuentes como «corren», «niño», «perro» aportan más información. Si de un texto dado borramos un «que», seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra «niño» del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

El concepto de entropía es usado en termodinámica, mecánica estadística, teoría de la información y seguridad entrópica. En todos los casos la entropía se concibe como una «medida del desorden» o la «peculiaridad de ciertas combinaciones». La entropía puede ser considerada como una medida de la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

Relación con la entropía termodinámica

La entropía de la teoría de la información está estrechamente relacionada con la entropía termodinámica. En la termodinámica se estudia un sistema de partículas cuyos estados X (usualmente posición y velocidad) tienen una cierta distribución de probabilidad, pudiendo ocupar varios microestados posibles (equivalentes a los símbolos en la teoría de la información). La entropía termodinámica es igual a la entropía de la teoría de la información de esa distribución (medida usando el logaritmo neperiano) multiplicada por la constante de Boltzmann k, la cual permite pasar de nats (unidad semejante al bit) a J/K. Cuando todos los microestados son igualmente probables, la entropía termodinámica toma la forma k log(N). En un sistema aislado, la interacción entre las partículas tiende a aumentar su dispersión, afectando sus posiciones y sus velocidades, lo que causa que la entropía de la distribución aumente con el tiempo hasta llegar a un cierto máximo (cuando el mismo sistema es lo más homogéneo y desorganizado posible); lo que es denominado segunda ley de la termodinámica. La diferencia entre la cantidad de entropía que tiene un sistema y el máximo que puede llegar a tener se denomina neguentropía, y representa la cantidad de organización interna que tiene el sistema. A partir de esta última se puede definir la energía libre de Gibbs, que indica la energía que puede liberar el sistema al aumentar la entropía hasta su máximo y puede ser transformada en trabajo (energía mecánica útil) usando una máquina ideal de Carnot. Cuando un sistema recibe un flujo de calor, las velocidades de las partículas aumentan, lo que dispersa la distribución y hace aumentar así la entropía. Así, el flujo de calor produce un flujo de entropía en la misma dirección.

Concepto intuitivo

 
Entropía de la información en un ensayo de Bernoulli X (experimento aleatorio en que X puede tomar los valores 0 o 1). La entropía depende de la probabilidad P(X=1) de que X tome el valor 1. Cuando P(X=1)=0.5, todos los resultados posibles son igualmente probables, por lo que el resultado es poco predecible y la entropía es máxima.

El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de «ruido» o «desorden» que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.

Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, «w»), mientras otros sí lo son (como la «a»), la cadena de caracteres no será tan "aleatoria" como podría llegar a ser. Obviamente, no podemos predecir con exactitud cuál será el siguiente carácter en la cadena, y eso la haría aparentemente aleatoria. Pero es la entropía la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artículo de 1948, A Mathematical Theory of Communication ("Una teoría matemática de la comunicación", en inglés).

Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones:

  • La medida de información debe ser proporcional (lineal continua). Es decir, el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía.
  • Si todos los elementos de la señal son equiprobables (igual de probables) a la hora de aparecer, entonces la entropía será máxima.

Ejemplos de máxima entropía: Suponiendo que estamos a la espera de un texto, por ejemplo un cable con un mensaje. En dicho cable solo se reciben las letras en minúscula de la a hasta la z, entonces si el mensaje que nos llega es "qalmnbphijcdgketrsfuvxyzwño" el cual posee una longitud de 27 caracteres, se puede decir que este mensaje llega a nosotros con la máxima entropía (o desorden posible); ya que es poco probable que se pueda pronosticar la entrada de caracteres, pues estos no se repiten ni están ordenados en una forma predecible.

Definición formal

Supongamos que un evento (variable aleatoria) tiene un grado de indeterminación inicial igual a   (i.e. existen   estados posibles) y supongamos todos los estados equiprobables. Entonces la probabilidad de que se dé una de esas combinaciones será  . Luego podemos representar la expresión   como:[a]

 

Si ahora cada uno de los   estados tiene una probabilidad  , entonces la entropía vendrá dada por la suma ponderada de la cantidad de información:[1][b]

 

Por lo tanto, la entropía de un mensaje  , denotado por  , es el valor medio ponderado de la cantidad de información de los diversos estados del mensaje:

 

que representa una medida de la incertidumbre media acerca de una variable aleatoria y por tanto de la cantidad de información.

Ejemplos

  • La entropía de un mensaje M de longitud 1 carácter que utiliza el conjunto de caracteres ASCII, suponiendo una equiprobabilidad en los 256 caracteres ASCII, será:
 
  • Supongamos que el número de estados de un mensaje es igual a 3, M1, M2 y M3 donde la probabilidad de M1 es 50 %, la de M2 25 % y la de M3 25 %. Por tanto, la entropía de la información es:
 

Información mutua

La entropía puede verse como caso especial de la información mutua. La información mutua de dos variables aleatorias, denotado por I(X;Y), es una cantidad que mide la dependencia mutua de las dos variables; es decir, mide la reducción de la incertidumbre (entropía) de una variable aleatoria, X, debido al conocimiento del valor de otra variable aleatoria, Y.[2]​ De la definición podemos concluir que, si X e Y son iguales, entonces I(X;Y)=H(X).

Propiedades

La entropía tiene las siguientes propiedades:

  1. La entropía es no negativa. Esto es evidente ya que al ser   una probabilidad entonces  . Por tanto, podemos decir que   y por tanto  
  2.   Es decir, la entropía H está acotada superiormente (cuando es máxima) y no supone pérdida de información.
  3. Dado un proceso con posibles resultados {A1,..,An} con probabilidades relativas p1,...,pn, la función   es máxima en el caso de que  . El resultado es intuitivo ya que tenemos la mayor incertidumbre del mensaje, cuando los valores posibles de la variable son equiprobables
  4. Dado un proceso con posibles resultados {A1,..,An} con probabilidades relativas p1,...,pn, la función   es nula en el caso de que   para todo i, excepto para una clase, tal que:  . De forma intuitiva podemos pensar que cuando uno o más estados tienen una probabilidad alta, disminuye significativamente la entropía porque, como es lógico, existe una menor incertidumbre respecto al mensaje que se recibirá.

Codificador óptimo

Un codificador óptimo es aquel que utiliza el mínimo número de bits para codificar un mensaje. Un codificador óptimo usará códigos cortos para codificar mensajes frecuentes y dejará los códigos de mayor longitud para aquellos mensajes que sean menos frecuentes. De esta forma se optimiza el rendimiento del canal o zona de almacenamiento y el sistema es eficiente en términos del número de bits para representar el mensaje.

Por ejemplo, el código Morse se aprovecha de este principio para optimizar el número de caracteres a transmitir a partir del estudio de las letras más frecuentes del alfabeto inglés. Aunque el código Morse no es un codificador óptimo, asigna a las letras más frecuente códigos más cortos. Otro ejemplo sería el algoritmo de Huffman de codificación que sirve para compactar información.[3]​ Este método se basa en el codificador óptimo. Para ello lo primero que hace es recorrer toda la información para encontrar la frecuencia de los caracteres y luego a partir de esta información busca el codificador óptimo por medio de árboles binarios. Algunas técnicas de compresión como LZW o deflación no usan probabilidades de los símbolos aislados, sino que usan las probabilidades conjuntas de pequeñas secuencias de símbolos para codificar el mensaje, por lo que pueden lograr un nivel de compresión mayor.

Podemos construir un codificador óptimo basándonos en la entropía de una variable aleatoria de información X. En efecto, la entropía nos da el número medio de bits (si usamos logaritmos de base 2) necesarios para codificar el mensaje a través de un codificador óptimo y por tanto nos determina el límite máximo al que se puede comprimir un mensaje usando un enfoque símbolo a símbolo sin ninguna pérdida de información (demostrado analíticamente por Shannon), el límite de compresión (en bits) es igual a la entropía multiplicada por el largo del mensaje. Reescribiendo la ecuación de cálculo de la entropía llegamos a que:

 

Por lo tanto, la información (que se encuentra definida en bits, dado que la base del logaritmo es 2) que aporta un determinado valor o símbolo   de una variable aleatoria discreta   se define como:

 

Esta expresión representa el número necesario de bits para codificar el mensaje x en el codificador óptimo y por tanto la entropía también se puede considerar como una medida de la información promedio contenida en cada símbolo del mensaje.

Ejemplo

Supongamos que el número de estados de un mensaje es igual a 3 M1, M2 y M3 donde la probabilidad de M1 es 50 %, la de M2 25 % y la de M3 25 %.

Para M1 tenemos que  
Para M2 tenemos que  
Para M3 tenemos que  

Por tanto, en el codificador óptimo para transmitir M1 hará falta un bit y para M2 y M3 será necesario contar con dos bits. Por ejemplo, podríamos codificar M1 con "0", M2 con "10" y M3 con "11". Usando este convenio para codificar el mensaje M1M2M1M1M3M1M2M3 usaríamos "010001101011" y por tanto 12 bits. El valor de la entropía sería:

 

Por tanto, el codificador óptimo necesita de media 1,5 bits para codificar cualquier valor de X.

Entropía condicional

Véase también artículo dedicado: Entropía condicional

Supongamos que en vez de tener una única variable aleatoria X, existe otra variable Y dependientes entre sí, es decir el conocimiento de una (por ejemplo, Y) entrega información sobre la otra (por ejemplo, X). Desde el punto de vista de la entropía de la información podemos decir que la información de Y disminuirá la incertidumbre de X. Por tanto, podemos decir que la entropía de X será condicional a Y, y por tanto:

 

Como por el teorema de Bayes tenemos que p(x,y)=p(y)p(x|y) donde p(x|y) es la probabilidad de que se dé un estado de X conocida Y, podemos decir:

 

Aplicación en criptoanálisis

El concepto de entropía condicional es muy interesante en el campo del criptoanálisis. Proporciona una herramienta para evaluar el grado de seguridad de los sistemas. Por ejemplo, para un sistema de cifrado hay dos entropías condicionales interesantes:[4]​ Supongamos

  • Un mensaje M1 es sometido a un proceso de cifrado usando la clave K1 obteniendo E(K1,M1)=C1.
  •   representan la probabilidad condicional de la clave K dado el criptograma recibido C. A veces también se denota por  
  •   representan la probabilidad condicional del mensaje M dado el criptograma recibido C. A veces también se denota por  

Entonces:

  • Podemos calcular la entropía del conocimiento de la clave una vez conocido el texto cifrado, y por tanto medir la equivocación del mensaje (en inglés, message equivocation),  , también denotada por  , mediante la fórmula:
 
La primera igualdad es por la definición de la entropía condicional y la segunda por aplicación del teorema de Bayes.
Observar que si   significa que se podrá romper el cifrado pues ya no hay incertidumbre. Esta anulación nos introduce en el concepto de distancia de unicidad.
  • Podemos calcular la entropía del conocimiento del mensaje una vez conocido el texto cifrado, y por tanto medir la equivocación de la clave (en inglés, key equivocation),  , también denotada por  , mediante la fórmula:
 
La primera igualdad es por la definición de la entropía condicional y la segunda por aplicación del teorema de Bayes.

Ejemplo

Supongamos una variable X con cuatro estados:   todos equiprobables y por tanto  . Existe además otra variable Y con tres estados;   con probabilidades   y  . Se conocen, además, las siguientes dependencias:

Si   entonces los posibles valores de x son  
Si   entonces los posibles valores de x son  
Si   entonces los posibles valores de x son  

Aplicando las fórmulas tenemos:

 
 
 

En este caso el conocimiento de la dependencia de X respecto Y reduce la entropía de X de 2 a 1,5.

Entropía de un proceso estocástico

[5]​Un proceso estocástico   es una secuencia indexada de variables aleatorias. En general, puede haber dependencias entre las variables aleatorias. Para estudiar la probabilidad de cierto conjunto de valores se suele adoptar el siguiente convenio:

 

Sea   un proceso estocástico de n variables aleatorias, y sea   el conjunto de la posibles combinaciones de valores de  . Se define la entropía del proceso estocástico, también llamada entropía del n-grama y denotado por  , como:

 

Ratio de entropía

Véase también artículo dedicado: Ratio de entropía

[5]​La ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia con el crecimiento de n.

La ratio de entropía de un proceso estocástico   viene definida por la ecuación:

 

siempre que dicho límite exista.

Otros tipos de entropía

Algunas veces resulta conveniente usar otras medidas de información distintas a la definición de Shannon. Entre ellas, para un conjunto de probabilidades   dado, se pueen definir las siguientes:

  1. Entropía lineal:  
  2. Entropía de Rényi de orden q:  
  3. Entropía de tsallis de orden q:  

Para todos estos tipos de entropía se verifica que:

  • Todas son mayores o igual a cero.

  ;   ;   para todo  

  • Toman su valor máximo si las probabilidades   son iguales.
  • La entropía de Shannon  es mayor o igual que L. i.e.

  ocurriendo igualdad solo en caso de que  

  • Las entropías de Rényi y Tsallis son generalizaciones de la entropía de Shannon   dado que

 

Véase también

Notas

  1. Obsérvese que se usa el logaritmo en base 2 porque se considera que la información se va a representar mediante código binario (se quiere representar con bits). Si para representar la información se usaran valores en una base   entonces sería conveniente utilizar el logaritmo en base  .
  2. Obsérvese que es una cantidad adimensional, es decir no lleva unidad.

Referencias

  1. Cuevas Agustín, Gonzalo, "Teoría de la información, codificación y lenguajes", Ed. SEPA (Sociedad para Estudios Pedagógicos Argentinos), Serie Informática 1986
  2. Dan C. Marinescu, Gabriela M. Marinescu, "Classical and Quantum Information",Academic Press 2012
  3. Huffman, D., "A method for the Construction of Minimum-Redundancy Codes", Proc. IRE, Vol 40 1952
  4. "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et al. American Mathematical Society 1983
  5. Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons. Second Edition 2006

Bibliografía

  • Jorge Ramió Aguirre, Aplicaciones criptográficas. Libro guía de la asignatura de Seguridad Informática. Escuela Universitaria de Informática. Universidad Politécnica de Madrid. Enero de 1998.

Enlaces externos

  • Una Teoría Matemática de la Comunicación (en inglés)
  • Calculadora de la entropía de Shannon (en inglés)
  • Calculadora de la entropía de Shannon para archivos (en inglés)
  •   Datos: Q204570
  •   Multimedia: Entropy and information

entropía, información, ámbito, teoría, información, entropía, también, llamada, entropía, información, entropía, shannon, honor, claude, shannon, mide, incertidumbre, fuente, información, entropía, también, puede, considerar, como, cantidad, información, prome. En el ambito de la teoria de la informacion la entropia tambien llamada entropia de la informacion y entropia de Shannon en honor a Claude E Shannon mide la incertidumbre de una fuente de informacion La entropia tambien se puede considerar como la cantidad de informacion promedio que contienen los simbolos usados Los simbolos con menor probabilidad son los que aportan mayor informacion por ejemplo si se considera como sistema de simbolos a las palabras en un texto palabras frecuentes como que el a aportan poca informacion mientras que palabras menos frecuentes como corren nino perro aportan mas informacion Si de un texto dado borramos un que seguramente no afectara a la comprension y se sobreentendera no siendo asi si borramos la palabra nino del mismo texto original Cuando todos los simbolos son igualmente probables distribucion de probabilidad plana todos aportan informacion relevante y la entropia es maxima El concepto de entropia es usado en termodinamica mecanica estadistica teoria de la informacion y seguridad entropica En todos los casos la entropia se concibe como una medida del desorden o la peculiaridad de ciertas combinaciones La entropia puede ser considerada como una medida de la incertidumbre y de la informacion necesaria para en cualquier proceso poder acotar reducir o eliminar la incertidumbre Resulta que el concepto de informacion y el de entropia estan basicamente relacionados entre si aunque se necesitaron anos de desarrollo de la mecanica estadistica y de la teoria de la informacion antes de que esto fuera percibido Indice 1 Relacion con la entropia termodinamica 2 Concepto intuitivo 3 Definicion formal 3 1 Ejemplos 3 2 Informacion mutua 4 Propiedades 5 Codificador optimo 5 1 Ejemplo 6 Entropia condicional 6 1 Aplicacion en criptoanalisis 6 2 Ejemplo 7 Entropia de un proceso estocastico 7 1 Ratio de entropia 8 Otros tipos de entropia 9 Vease tambien 10 Notas 11 Referencias 12 Bibliografia 13 Enlaces externosRelacion con la entropia termodinamica EditarLa entropia de la teoria de la informacion esta estrechamente relacionada con la entropia termodinamica En la termodinamica se estudia un sistema de particulas cuyos estados X usualmente posicion y velocidad tienen una cierta distribucion de probabilidad pudiendo ocupar varios microestados posibles equivalentes a los simbolos en la teoria de la informacion La entropia termodinamica es igual a la entropia de la teoria de la informacion de esa distribucion medida usando el logaritmo neperiano multiplicada por la constante de Boltzmann k la cual permite pasar de nats unidad semejante al bit a J K Cuando todos los microestados son igualmente probables la entropia termodinamica toma la forma k log N En un sistema aislado la interaccion entre las particulas tiende a aumentar su dispersion afectando sus posiciones y sus velocidades lo que causa que la entropia de la distribucion aumente con el tiempo hasta llegar a un cierto maximo cuando el mismo sistema es lo mas homogeneo y desorganizado posible lo que es denominado segunda ley de la termodinamica La diferencia entre la cantidad de entropia que tiene un sistema y el maximo que puede llegar a tener se denomina neguentropia y representa la cantidad de organizacion interna que tiene el sistema A partir de esta ultima se puede definir la energia libre de Gibbs que indica la energia que puede liberar el sistema al aumentar la entropia hasta su maximo y puede ser transformada en trabajo energia mecanica util usando una maquina ideal de Carnot Cuando un sistema recibe un flujo de calor las velocidades de las particulas aumentan lo que dispersa la distribucion y hace aumentar asi la entropia Asi el flujo de calor produce un flujo de entropia en la misma direccion Concepto intuitivo Editar Entropia de la informacion en un ensayo de Bernoulli X experimento aleatorio en que X puede tomar los valores 0 o 1 La entropia depende de la probabilidad P X 1 de que X tome el valor 1 Cuando P X 1 0 5 todos los resultados posibles son igualmente probables por lo que el resultado es poco predecible y la entropia es maxima El concepto basico de entropia en teoria de la informacion tiene mucho que ver con la incertidumbre que existe en cualquier experimento o senal aleatoria Es tambien la cantidad de ruido o desorden que contiene o libera un sistema De esta forma podremos hablar de la cantidad de informacion que lleva una senal Como ejemplo consideremos algun texto escrito en espanol codificado como una cadena de letras espacios y signos de puntuacion nuestra senal sera una cadena de caracteres Ya que estadisticamente algunos caracteres no son muy comunes por ejemplo w mientras otros si lo son como la a la cadena de caracteres no sera tan aleatoria como podria llegar a ser Obviamente no podemos predecir con exactitud cual sera el siguiente caracter en la cadena y eso la haria aparentemente aleatoria Pero es la entropia la encargada de medir precisamente esa aleatoriedad y fue presentada por Shannon en su articulo de 1948 A Mathematical Theory of Communication Una teoria matematica de la comunicacion en ingles Shannon ofrece una definicion de entropia que satisface las siguientes afirmaciones La medida de informacion debe ser proporcional lineal continua Es decir el cambio pequeno en una de las probabilidades de aparicion de uno de los elementos de la senal debe cambiar poco la entropia Si todos los elementos de la senal son equiprobables igual de probables a la hora de aparecer entonces la entropia sera maxima Ejemplos de maxima entropia Suponiendo que estamos a la espera de un texto por ejemplo un cable con un mensaje En dicho cable solo se reciben las letras en minuscula de la a hasta la z entonces si el mensaje que nos llega es qalmnbphijcdgketrsfuvxyzwno el cual posee una longitud de 27 caracteres se puede decir que este mensaje llega a nosotros con la maxima entropia o desorden posible ya que es poco probable que se pueda pronosticar la entrada de caracteres pues estos no se repiten ni estan ordenados en una forma predecible Definicion formal EditarSupongamos que un evento variable aleatoria tiene un grado de indeterminacion inicial igual a k displaystyle k i e existen k displaystyle k estados posibles y supongamos todos los estados equiprobables Entonces la probabilidad de que se de una de esas combinaciones sera p 1 k displaystyle p 1 k Luego podemos representar la expresion c i displaystyle c i como a c i log 2 k log 2 1 1 k log 2 1 p log 2 1 0 log 2 p log 2 p displaystyle c i log 2 k log 2 1 1 k log 2 1 p underbrace log 2 1 0 log 2 p log 2 p Si ahora cada uno de los k displaystyle k estados tiene una probabilidad p i displaystyle p i entonces la entropia vendra dada por la suma ponderada de la cantidad de informacion 1 b H p 1 log 2 p 1 p 2 log 2 p 2 p k log 2 p k i 1 k p i log 2 p i displaystyle H p 1 log 2 p 1 p 2 log 2 p 2 p k log 2 p k sum i 1 k p i log 2 p i Por lo tanto la entropia de un mensaje X displaystyle X denotado por H X displaystyle H X es el valor medio ponderado de la cantidad de informacion de los diversos estados del mensaje H X i p x i log 2 p x i i p x i log 2 1 p x i displaystyle H X sum i p x i log 2 p x i sum i p x i log 2 1 p x i que representa una medida de la incertidumbre media acerca de una variable aleatoria y por tanto de la cantidad de informacion Ejemplos Editar La entropia de un mensaje M de longitud 1 caracter que utiliza el conjunto de caracteres ASCII suponiendo una equiprobabilidad en los 256 caracteres ASCII sera H M i 1 256 1 256 log 2 1 256 log 2 1 256 log 2 256 8 displaystyle H M sum i 1 256 frac 1 256 log 2 biggl frac 1 256 biggr log 2 biggl frac 1 256 biggr log 2 256 8 Supongamos que el numero de estados de un mensaje es igual a 3 M1 M2 y M3 donde la probabilidad de M1 es 50 la de M2 25 y la de M3 25 Por tanto la entropia de la informacion es H M 1 2 log 2 2 1 4 log 2 4 1 4 log 2 4 1 5 displaystyle H M 1 2 log 2 2 1 4 log 2 4 1 4 log 2 4 1 5 Informacion mutua Editar La entropia puede verse como caso especial de la informacion mutua La informacion mutua de dos variables aleatorias denotado por I X Y es una cantidad que mide la dependencia mutua de las dos variables es decir mide la reduccion de la incertidumbre entropia de una variable aleatoria X debido al conocimiento del valor de otra variable aleatoria Y 2 De la definicion podemos concluir que si X e Y son iguales entonces I X Y H X Propiedades EditarLa entropia tiene las siguientes propiedades La entropia es no negativa Esto es evidente ya que al ser p i displaystyle p i una probabilidad entonces 0 lt p i 1 displaystyle 0 lt p i leq 1 Por tanto podemos decir que log 2 p i 0 displaystyle log 2 p i leq 0 y por tanto log 2 p i 0 displaystyle log 2 p i geq 0 H log a n displaystyle H leq log a n Es decir la entropia H esta acotada superiormente cuando es maxima y no supone perdida de informacion Dado un proceso con posibles resultados A1 An con probabilidades relativas p1 pn la funcion H p 1 p n displaystyle H p 1 dots p n es maxima en el caso de que p 1 p n 1 n displaystyle p 1 dots p n 1 n El resultado es intuitivo ya que tenemos la mayor incertidumbre del mensaje cuando los valores posibles de la variable son equiprobables Dado un proceso con posibles resultados A1 An con probabilidades relativas p1 pn la funcion H p 1 p n displaystyle H p 1 dots p n es nula en el caso de que p i 0 displaystyle p i 0 para todo i excepto para una clase tal que p j 1 displaystyle p j 1 De forma intuitiva podemos pensar que cuando uno o mas estados tienen una probabilidad alta disminuye significativamente la entropia porque como es logico existe una menor incertidumbre respecto al mensaje que se recibira Codificador optimo EditarUn codificador optimo es aquel que utiliza el minimo numero de bits para codificar un mensaje Un codificador optimo usara codigos cortos para codificar mensajes frecuentes y dejara los codigos de mayor longitud para aquellos mensajes que sean menos frecuentes De esta forma se optimiza el rendimiento del canal o zona de almacenamiento y el sistema es eficiente en terminos del numero de bits para representar el mensaje Por ejemplo el codigo Morse se aprovecha de este principio para optimizar el numero de caracteres a transmitir a partir del estudio de las letras mas frecuentes del alfabeto ingles Aunque el codigo Morse no es un codificador optimo asigna a las letras mas frecuente codigos mas cortos Otro ejemplo seria el algoritmo de Huffman de codificacion que sirve para compactar informacion 3 Este metodo se basa en el codificador optimo Para ello lo primero que hace es recorrer toda la informacion para encontrar la frecuencia de los caracteres y luego a partir de esta informacion busca el codificador optimo por medio de arboles binarios Algunas tecnicas de compresion como LZW o deflacion no usan probabilidades de los simbolos aislados sino que usan las probabilidades conjuntas de pequenas secuencias de simbolos para codificar el mensaje por lo que pueden lograr un nivel de compresion mayor Podemos construir un codificador optimo basandonos en la entropia de una variable aleatoria de informacion X En efecto la entropia nos da el numero medio de bits si usamos logaritmos de base 2 necesarios para codificar el mensaje a traves de un codificador optimo y por tanto nos determina el limite maximo al que se puede comprimir un mensaje usando un enfoque simbolo a simbolo sin ninguna perdida de informacion demostrado analiticamente por Shannon el limite de compresion en bits es igual a la entropia multiplicada por el largo del mensaje Reescribiendo la ecuacion de calculo de la entropia llegamos a que H X i p x i log 2 p x i i p x i log 2 p x i i p x i l o g 2 1 log 2 p x i x p x log 2 1 p x displaystyle H X sum i p x i log 2 p x i sum i p x i log 2 p x i sum i p x i log 2 1 log 2 p x i sum x p x log 2 1 p x Por lo tanto la informacion que se encuentra definida en bits dado que la base del logaritmo es 2 que aporta un determinado valor o simbolo x i displaystyle x i de una variable aleatoria discreta X displaystyle X se define como I x i log 2 1 p x i log 2 p x i displaystyle I x i log 2 frac 1 p x i log 2 p x i Esta expresion representa el numero necesario de bits para codificar el mensaje x en el codificador optimo y por tanto la entropia tambien se puede considerar como una medida de la informacion promedio contenida en cada simbolo del mensaje Ejemplo Editar Supongamos que el numero de estados de un mensaje es igual a 3 M1 M2 y M3 donde la probabilidad de M1 es 50 la de M2 25 y la de M3 25 Para M1 tenemos que log 2 1 p M 1 log 2 2 1 displaystyle log 2 1 p M 1 log 2 2 1 Para M2 tenemos que log 2 1 p M 2 log 2 4 2 displaystyle log 2 1 p M 2 log 2 4 2 Para M3 tenemos que log 2 1 p M 3 log 2 4 2 displaystyle log 2 1 p M 3 log 2 4 2 Por tanto en el codificador optimo para transmitir M1 hara falta un bit y para M2 y M3 sera necesario contar con dos bits Por ejemplo podriamos codificar M1 con 0 M2 con 10 y M3 con 11 Usando este convenio para codificar el mensaje M1M2M1M1M3M1M2M3 usariamos 010001101011 y por tanto 12 bits El valor de la entropia seria H X 1 2 log 2 2 1 4 log 2 4 1 4 log 2 4 1 5 displaystyle H X 1 2 log 2 2 1 4 log 2 4 1 4 log 2 4 1 5 Por tanto el codificador optimo necesita de media 1 5 bits para codificar cualquier valor de X Entropia condicional EditarVease tambien articulo dedicado Entropia condicionalSupongamos que en vez de tener una unica variable aleatoria X existe otra variable Y dependientes entre si es decir el conocimiento de una por ejemplo Y entrega informacion sobre la otra por ejemplo X Desde el punto de vista de la entropia de la informacion podemos decir que la informacion de Y disminuira la incertidumbre de X Por tanto podemos decir que la entropia de X sera condicional a Y y por tanto H X Y x y p x y log 2 p x y displaystyle H X Y sum x y p x y log 2 p x y Como por el teorema de Bayes tenemos que p x y p y p x y donde p x y es la probabilidad de que se de un estado de X conocida Y podemos decir H X Y y p y x p x y log 2 p x y displaystyle H X Y sum y p y sum x p x y log 2 p x y Aplicacion en criptoanalisis Editar El concepto de entropia condicional es muy interesante en el campo del criptoanalisis Proporciona una herramienta para evaluar el grado de seguridad de los sistemas Por ejemplo para un sistema de cifrado hay dos entropias condicionales interesantes 4 Supongamos Un mensaje M1 es sometido a un proceso de cifrado usando la clave K1 obteniendo E K1 M1 C1 P C K displaystyle P C K representan la probabilidad condicional de la clave K dado el criptograma recibido C A veces tambien se denota por P K C displaystyle P K C P C M displaystyle P C M representan la probabilidad condicional del mensaje M dado el criptograma recibido C A veces tambien se denota por P M C displaystyle P M C Entonces Podemos calcular la entropia del conocimiento de la clave una vez conocido el texto cifrado y por tanto medir la equivocacion del mensaje en ingles message equivocation H C K displaystyle H C K tambien denotada por H K C displaystyle H K C mediante la formula H C K E K P E K log P E K E P E K P E K log P E K displaystyle H C K sum E K P E K log P E K sum E P E sum K P E K log P E K dd La primera igualdad es por la definicion de la entropia condicional y la segunda por aplicacion del teorema de Bayes Observar que si H C K 0 displaystyle H C K 0 significa que se podra romper el cifrado pues ya no hay incertidumbre Esta anulacion nos introduce en el concepto de distancia de unicidad Podemos calcular la entropia del conocimiento del mensaje una vez conocido el texto cifrado y por tanto medir la equivocacion de la clave en ingles key equivocation H C M displaystyle H C M tambien denotada por H M C displaystyle H M C mediante la formula H C M E M P E M log P E M E P E M P E M log P E M displaystyle H C M sum E M P E M log P E M sum E P E sum M P E M log P E M dd La primera igualdad es por la definicion de la entropia condicional y la segunda por aplicacion del teorema de Bayes Ejemplo Editar Supongamos una variable X con cuatro estados x 1 x 2 x 3 x 4 displaystyle x 1 x 2 x 3 x 4 todos equiprobables y por tanto p x i 1 4 displaystyle p x i 1 4 Existe ademas otra variable Y con tres estados y 1 y 2 y 3 displaystyle y 1 y 2 y 3 con probabilidades p y 1 1 2 displaystyle p y 1 1 2 y p y 2 p y 3 1 4 displaystyle p y 2 p y 3 1 4 Se conocen ademas las siguientes dependencias Si Y y 1 displaystyle Y y 1 entonces los posibles valores de x son x 1 x 2 x 3 x 4 displaystyle x 1 x 2 x 3 x 4 Si Y y 2 displaystyle Y y 2 entonces los posibles valores de x son x 2 x 3 displaystyle x 2 x 3 Si Y y 3 displaystyle Y y 3 entonces los posibles valores de x son x 3 x 4 displaystyle x 3 x 4 Aplicando las formulas tenemos H X 2 displaystyle H X 2 H Y 1 5 displaystyle H Y 1 5 H X Y 1 5 displaystyle H X Y 1 5 En este caso el conocimiento de la dependencia de X respecto Y reduce la entropia de X de 2 a 1 5 Entropia de un proceso estocastico Editar 5 Un proceso estocastico X i displaystyle X i es una secuencia indexada de variables aleatorias En general puede haber dependencias entre las variables aleatorias Para estudiar la probabilidad de cierto conjunto de valores se suele adoptar el siguiente convenio P r X 1 X 2 X n x 1 x 2 x n p x 1 x 2 x n displaystyle Pr X 1 X 2 X n x 1 x 2 x n p x 1 x 2 x n Sea X i i 1 n displaystyle X i i 1 n un proceso estocastico de n variables aleatorias y sea A n displaystyle A n el conjunto de la posibles combinaciones de valores de X i i 1 n displaystyle X i i 1 n Se define la entropia del proceso estocastico tambien llamada entropia del n grama y denotado por H n displaystyle H n como H n H X 1 X n s A n P X 1 X n s log P X 1 X n s displaystyle H n H X 1 X n sum s in A n P X 1 X n s log P X 1 X n s Ratio de entropia Editar Vease tambien articulo dedicado Ratio de entropia 5 La ratio de entropia de una secuencia de n variables aleatorias proceso estocastico caracteriza la tasa de crecimiento de la entropia de la secuencia con el crecimiento de n La ratio de entropia de un proceso estocastico X i displaystyle X i viene definida por la ecuacion H X lim n 1 n H X 1 X n displaystyle H X lim n to infty dfrac 1 n H X 1 X n siempre que dicho limite exista Otros tipos de entropia EditarAlgunas veces resulta conveniente usar otras medidas de informacion distintas a la definicion de Shannon Entre ellas para un conjunto de probabilidades p i displaystyle p i dado se pueen definir las siguientes Entropia lineal L i p i 1 p i displaystyle L sum i p i 1 p i Entropia de Renyi de orden q R q 1 1 q l n i p i q displaystyle R q frac 1 1 q ln sum i p i q Entropia de tsallis de orden q T q p i k q 1 1 i p i q displaystyle T q p i k over q 1 left 1 sum i p i q right Para todos estos tipos de entropia se verifica que Todas son mayores o igual a cero L 0 displaystyle L geq 0 R q 0 displaystyle R q geq 0 T q 0 displaystyle T q geq 0 para todo q 0 displaystyle q geq 0 Toman su valor maximo si las probabilidades p i displaystyle p i son iguales La entropia de Shannon H e displaystyle H e es mayor o igual que L i e H e L displaystyle H e geq L ocurriendo igualdad solo en caso de que H e 0 displaystyle H e 0 Las entropias de Renyi y Tsallis son generalizaciones de la entropia de Shannon H e displaystyle H e dado quelim q 1 R q lim q 1 T q H e displaystyle lim q to 1 R q lim q to 1 T q H e Vease tambien EditarSeguridad entropica Entropia cruzada Perplejidad Capacidad de canal Neguentropia o Sintropia Antonimo de entropiaNotas Editar Observese que se usa el logaritmo en base 2 porque se considera que la informacion se va a representar mediante codigo binario se quiere representar con bits Si para representar la informacion se usaran valores en una base a displaystyle a entonces seria conveniente utilizar el logaritmo en base a displaystyle a Observese que es una cantidad adimensional es decir no lleva unidad Referencias Editar Cuevas Agustin Gonzalo Teoria de la informacion codificacion y lenguajes Ed SEPA Sociedad para Estudios Pedagogicos Argentinos Serie Informatica 1986 Dan C Marinescu Gabriela M Marinescu Classical and Quantum Information Academic Press 2012 Huffman D A method for the Construction of Minimum Redundancy Codes Proc IRE Vol 40 1952 Applied cryptology cryptographic protocols and computer security models Richard A DeMillo et al American Mathematical Society 1983 a b Thomas M Cover Joy A Thomas Elements of Information Theory John Wiley amp Sons Second Edition 2006Bibliografia EditarJorge Ramio Aguirre Aplicaciones criptograficas Libro guia de la asignatura de Seguridad Informatica Escuela Universitaria de Informatica Universidad Politecnica de Madrid Enero de 1998 Enlaces externos EditarUna Teoria Matematica de la Comunicacion en ingles Calculadora de la entropia de Shannon en ingles Calculadora de la entropia de Shannon para archivos en ingles Datos Q204570 Multimedia Entropy and information Obtenido de https es wikipedia org w index php title Entropia informacion amp oldid 138785589, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos