fbpx
Wikipedia

Teorema de Shannon-Hartley

En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de codificación para canales con ruido. Un caso muy frecuente es el de un canal de comunicación analógico continuo en el tiempo que presenta un ruido gaussiano.

El teorema establece la capacidad del canal de Shannon, una cota superior que establece la máxima cantidad de datos digitales que pueden ser transmitidos o no sin error (esto es, información) sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a la presencia de la interferencia del ruido.

En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación en la potencia de la señal y, además, que el proceso del ruido gaussiano es caracterizado por una potencia conocida o una densidad espectral de potencia.

La ley debe su nombre a Claude Shannon y Ralph Hartley.

Declaración del teorema

Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el teorema de Shannon-Hartley indica que la capacidad del canal C es:[1]

 

donde:

  •   es el ancho de banda del canal en Hertzios.
  •   es la capacidad del canal (tasa de bits de información bit/s)
  •   es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW, etc.)
  •   es la potencia del ruido presente en el canal, (mW,  W, etc.) que trata de enmascarar a la señal útil.

Desarrollo histórico

A finales de los años 20, Harry Nyquist y Ralph Hartley desarrollaron una serie de ideas fundamentales relacionadas con la transmisión de la información, de manera particular, en el contexto del telégrafo como sistema de comunicaciones. En aquellos años, estos conceptos eran avances de gran alcance de carácter individual, pero no formaban parte del corpus de una teoría exhaustiva.

Fue en los años 40, cuando Claude Shannon desarrolló el concepto de capacidad de un canal basándose, en parte, en las ideas que ya habían propuesto Nyquist y Hartley y formulando, después, una teoría completa sobre la información y la transmisión de esta, a través de canales.

Tasa de Nyquist

En 1927, Nyquist determinó que el número de pulsos independientes que podían pasar a través de un canal de telégrafo, por unidad de tiempo, estaba limitado a dos veces el ancho de banda del canal.

 

donde   es la frecuencia del pulso (en pulsos por segundo) y   es el ancho de banda (en hercios). La cantidad   se llamó, más adelante, tasa de Nyquist, y transmitiendo a esta tasa de pulsos límite de   pulsos por segundo se le denominó señalización a la tasa de Nyquist.

Nyquist publicó sus resultados en 1928 como parte de su artículo "Certain topics in Telegraph Transmission Theory".

Ley de Hartley

Durante ese mismo año, Hartley formuló una manera de cuantificar la información y su tasa de transmisión a través de un canal de comunicaciones. Este método, conocido más adelante como ley de Hartley, se convirtió en un importante precursor para la sofisticada noción de capacidad de un canal, formulada por Shannon.

Hartley indicó que el número máximo de pulsos distintos que se pueden transmitir y recibir, de manera fiable, sobre un canal de comunicaciones está limitado por el rango dinámico de la amplitud de la señal y de la precisión con la cual el receptor puede distinguir distintos niveles de amplitud.

De manera específica, si la amplitud de la señal transmitida se restringe al rango de    , y la precisión del receptor es +/-    , entonces el número máximos de pulsos distintos M está dado por:

 

Tomando la información para ser el logaritmo del número de los mensajes distintos que podrían ser enviados, Hartley después construyó una medida de la información proporcional al ancho de banda del canal y a la duración de su uso. A veces sólo se habla de dicha proporcionalidad cuando se cita a la ley de Hartley.

Posteriormente, Hartley combinó la observación de Nyquist,[2]​ y su propia cuantificación de la calidad o ruido de un canal en términos del número de niveles de pulso que podían ser distinguidos, de manera fiable y denotados por  , para llegar a una medida cuantitativa de la tasa de información que se puede obtener.

La ley de Hartley se explica, cuantitativamente, de manera usual, como la tasa de información alcanzable de   bits por segundo,  :

 

Hartley no resolvió, de manera precisa cómo el parámetro   debe depender de las estadísticas de ruido del canal, o cómo la comunicación podía ser fiable incluso cuando los pulsos individuales correspondientes a símbolos no se pudieran distinguir, de manera fiable, de los niveles de  ; con las estadísticas del ruido gaussiano.

Los diseñadores de sistemas tienen que elegir un valor muy conservador de   para alcanzar la mínima tasa de error.

El concepto de una capacidad libre de errores aguardó hasta que Claude Shannon investigó sobre las observaciones de Hartley con respecto a la medida logarítmica de la información y las observaciones de Nyquist sobre el efecto de las limitaciones del ancho de banda del canal.

El resultado de la tasa de Hartley se puede ver como la capacidad de un canal   sin errores de   símbolos por segundo. Algunos autores se refieren a ello como capacidad. Pero ese supuesto canal, libre de errores, es un canal ideal, y el resultado es, necesariamente, menor que la capacidad de Shannon de un canal con ruido de ancho de banda  , que es el resultado Hartley-Shannon que se estimó más adelante.

Teorema de codificación de canales con ruido y capacidad

El desarrollo de la teoría de la información de Claude Shannon durante la Segunda Guerra Mundial estimuló el siguiente gran paso para entender qué cantidad de información se podría comunicar, sin errores y de manera fiable, a través de canales con ruido gausiano de fondo.

Fundamentado sobre las ideas de Hartley, el teorema de Shannon de la codificación de canales con ruido (1948) describe la máxima eficiencia posible de los métodos de corrección de errores versus los niveles de interferencia de ruido y corrupción de datos. La prueba del teorema muestra que un código corrector de errores construido aleatoriamente es, esencialmente, igual de bueno que el mejor código posible. El teorema se prueba con la estadística de tales códigos aleatorios.

El teorema de Shannon demuestra cómo calcular la capacidad de un canal sobre una descripción estadística del canal y establece que, dado un canal con ruido con capacidad   e información transmitida en una tasa  , entonces si

 

existe una técnica de codificación que permite que la probabilidad de error en el receptor se haga arbitrariamente pequeña. Esto significa que, teóricamente, es posible transmitir información casi sin error hasta un límite cercano a   bits por segundo.

El inverso también es importante. Si

 

la probabilidad del error en el receptor se incrementa sin límite mientras se aumente la tasa. De esta manera no se puede transmitir ninguna información útil por encima de la capacidad del canal. El teorema no trata la situación, poco frecuente, en que la tasa y la capacidad son iguales.

Teorema de Shannon-Hartley

El teorema de Shannon-Hartley establece cuál es la capacidad del canal, para un canal con ancho de banda finito y una señal continua que sufre un ruido gaussiano. Conecta el resultado de Hartley con el teorema de Shannon de la capacidad del canal en una forma que es equivalente a especificar la   en la fórmula de Hartley de la tasa de información en términos de la relación señal/ruido, pero alcanzando fiabilidad a través de la codificación correctora de errores, más fiable, que los niveles de pulso distinguibles.

Si existiera una cosa tal como un canal analógico con ancho de banda infinito y sin ruido, uno podría transmitir cantidades ilimitadas de datos sin error, sobre este, por cada unidad de tiempo. Sin embargo, los canales de comunicación reales están sujetos a las limitaciones impuestas por el ancho de banda finito y el ruido.

Entonces, ¿cómo el ancho de banda y el ruido afectan a la tasa en la que la información puede ser transmitida sobre un canal analógico?

Aunque parezca sorprendente, las limitaciones del ancho de banda, por sí solas, no imponen restricciones sobre la tasa máxima de información. Esto es porque sigue siendo posible, para la señal, tomar un número infinitamente grande de valores distintos de voltaje para cada pulso de símbolo, siendo cada nivel levemente distinto del anterior que representa a un determinado significado o secuencia de bits. Sin embargo, si combinamos ambos factores, es decir, tanto el ruido como las limitaciones del ancho de banda, encontramos un límite a la cantidad de información que se puede transferir por una señal de potencia limitada, aun cuando se utilizan técnicas de codificación de niveles múltiples.

En el canal considerado por el teorema de Shannon-Hartley, el ruido y la señal se suman. Es decir, el receptor mide una señal que sea igual a la suma de la señal que codifica la información deseada y una variable aleatoria continua que represente el ruido. Esta suma crea incertidumbre en cuanto al valor de la señal original.

Si el receptor tiene cierta información sobre el proceso aleatorio que genera el ruido, se puede, en principio, recuperar la información de la señal original considerando todos los posibles estados del proceso del ruido. En el caso del teorema de Shannon-Hartley, se asume que el ruido es generado por un proceso gaussiano con una varianza conocida. Puesto que la varianza del proceso gaussiano es equivalente a su potencia, normalmente se llama a esta varianza la potencia de ruido.

Tal canal es llamado canal aditivo del ruido blanco gaussiano, porque el ruido gaussiano es añadido a la señal; blanco significa igual cantidad de ruido en todas las frecuencias dentro del ancho de banda del canal.[3]

Implicaciones del teorema

Comparación de la capacidad de Shannon con la ley de Hartley

Comparando la capacidad del canal con la tasa de información de la ley de Hartley, podemos encontrar el número eficaz de los niveles distinguibles  :

 
 

La raíz cuadrada convierte con eficacia el cociente de potencias de nuevo en un cociente de voltaje, así que el número de niveles es aproximadamente proporcional al cociente entre el valor de la raíz cuadrada media de la amplitud de la señal y la desviación estándar del ruido.

Esta semejanza entre la capacidad de Shannon y la ley de Hartley no se debe interpretar como   niveles de pulsos pueden enviarse literalmente sin ninguna confusión. Se necesitan más niveles, para permitir codificación redundante y la corrección de errores, pero la tasa de datos neta que puede acercarse con la codificación es equivalente a usar   en la ley de Hartley.

Formas alternativas

Caso dependiente de la frecuencia (ruido de color)

En la versión simple de arriba, la señal y el ruido están completamente incorreladas, y en ese caso   es la potencia total de la señal y del ruido recibidos juntos. Una generalización de la ecuación antedicha para el caso donde el ruido adicional no es blanco (es decir, la relación S/N no es constante con la frecuencia sobre el ancho de banda) como muchos canales estrechos independientes y gaussianos en paralelo:

 

donde:

  •   es la capacidad del canal en bits por segundo
  •   es el ancho de banda del canal en Hz
  •   es el espectro de potencia de la señal
  •   es el espectro de potencia del ruido
  •   es la frecuencia en Hz

Nota: el teorema se aplica solamente a los ruidos que son procesos gaussianos estacionarios. La manera en que esta fórmula introduce el ruido dependiente de la frecuencia no sirve para describir todos los procesos del ruido continuo en el tiempo. Por ejemplo, consideremos un proceso del ruido que consista en sumar una onda aleatoria cuya amplitud sea 1 o -1 en cualquier momento del tiempo, y un canal que añada dicha onda a la señal original. Los componentes de la frecuencia de la onda son altamente dependientes. Aunque tal ruido puede tener una alta potencia, es bastante fácil transmitir una señal continua con mucha menos potencia que la necesaria si el ruido subyacente fuera una suma de los ruidos independientes de cada banda de frecuencia.

Aproximaciones

Para las relaciones señal/ruido grandes o pequeñas y constantes, la fórmula de la capacidad puede ser aproximada:

Operación limitada por ancho de banda

Se trata del caso en el que  , entonces:

 

En esta situación es posible observar, que la capacidad crece logarítmicamente con la relación señal a ruido. Así, fijado un cierto ancho de banda  , duplicar la   implica incrementar la capacidad   en solo 1 bit/s.

La dependencia con el ancho de banda no es exactamente lineal ya que el ruido es blanco y por tanto,   también crece linealmente con  

Es habitual expresar la anterior aproximación en función de la   medida en decibelios. Es decir,  :

 

Operación limitada por potencia

En este caso  , entonces, teniendo en cuenta que  :

 

A diferencia del caso anterior, ahora la capacidad depende linealmente son la relación señal a ruido. Es decir, duplicar la   implica duplicar la capacidad  .

Por otro lado, desaparece la dependencia con el ancho de banda. Dado que el límite de Shannon-Hartley asume ruido blanco, su densidad espectral de potencia   (W/Hz) es constante. Por tanto, la potencia del ruido es   y en consecuencia, la capacidad se simplifica en:

 

Ejemplos numéricos

  • Si la   dB, y el ancho de banda disponible es   kHz, apropiados para las comunicaciones telefónicas, entonces la capacidad máxima posible bajo las restricciones de partida del teorema de Shannon-Hartley es   kbit/s. Obsérvese que el valor   en unidades lineales es equivalente a 20 dB.
  • Si se requiere transmitir   50 kbit/s, y el ancho de banda usado es  1 MHz, entonces la mínima relación   requerida está dada por   de forma que   en unidades lineales, o de forma equivalente, en decibelios:   dB. Esto demuestra que es posible transmitir con señales que son mucho más débiles que el nivel de ruido de fondo como en las comunicaciones de espectro ensanchado.


Referencias

  1. Se tiene en cuenta que es la tasa máxima teórica de datos limpios (o arbitrariamente la tasa mínima de error) que pueden ser enviados, con una determinada potencia media de señal S, a través de un canal de comunicación analógico que sufre un ruido blanco gausiano de potencia N
  2. El número de pulsos independientes que podían pasar a través de un canal de un ancho de banda de  herzios era   pulsos por segundo
  3. Se debe tener en cuenta que dicho ruido puede deberse a fuentes aleatorias de potencia y también a codificaciones y medidas de error en el emisor y receptor respectivamente. Puesto que la suma de variables aleatorias gaussianas independientes es también una variable aleatoria gaussiana el análisis se simplifica, si se considera que tales fuentes del error son también gaussianas e independientes.


Enlaces externos

  • A Mathematical Theory of Communication
  • A Symbolic Analysis of Relay and Switching Circuits
  • On-line textbook: Information Theory, Inference, and Learning Algorithms
  • Information Entropy
  •   Datos: Q1756194

teorema, shannon, hartley, teoría, información, teorema, shannon, hartley, aplicación, teorema, codificación, para, canales, ruido, caso, frecuente, canal, comunicación, analógico, continuo, tiempo, presenta, ruido, gaussiano, teorema, establece, capacidad, ca. En teoria de la informacion el teorema de Shannon Hartley es una aplicacion del teorema de codificacion para canales con ruido Un caso muy frecuente es el de un canal de comunicacion analogico continuo en el tiempo que presenta un ruido gaussiano El teorema establece la capacidad del canal de Shannon una cota superior que establece la maxima cantidad de datos digitales que pueden ser transmitidos o no sin error esto es informacion sobre dicho enlace de comunicaciones con un ancho de banda especifico y que esta sometido a la presencia de la interferencia del ruido En las hipotesis de partida para la correcta aplicacion del teorema se asume una limitacion en la potencia de la senal y ademas que el proceso del ruido gaussiano es caracterizado por una potencia conocida o una densidad espectral de potencia La ley debe su nombre a Claude Shannon y Ralph Hartley Indice 1 Declaracion del teorema 2 Desarrollo historico 2 1 Tasa de Nyquist 2 2 Ley de Hartley 2 3 Teorema de codificacion de canales con ruido y capacidad 2 4 Teorema de Shannon Hartley 3 Implicaciones del teorema 3 1 Comparacion de la capacidad de Shannon con la ley de Hartley 4 Formas alternativas 4 1 Caso dependiente de la frecuencia ruido de color 5 Aproximaciones 5 1 Operacion limitada por ancho de banda 5 2 Operacion limitada por potencia 6 Ejemplos numericos 7 Referencias 8 Enlaces externosDeclaracion del teorema EditarConsiderando todas las posibles tecnicas de codificacion de niveles multiples y polifasicas el teorema de Shannon Hartley indica que la capacidad del canal C es 1 C B log 2 1 S N displaystyle C B log 2 left 1 frac S N right dd dd donde B displaystyle B es el ancho de banda del canal en Hertzios C displaystyle C es la capacidad del canal tasa de bits de informacion bit s S displaystyle S es la potencia de la senal util que puede estar expresada en vatios milivatios etc W mW etc N displaystyle N es la potencia del ruido presente en el canal mW m displaystyle mu W etc que trata de enmascarar a la senal util Desarrollo historico EditarA finales de los anos 20 Harry Nyquist y Ralph Hartley desarrollaron una serie de ideas fundamentales relacionadas con la transmision de la informacion de manera particular en el contexto del telegrafo como sistema de comunicaciones En aquellos anos estos conceptos eran avances de gran alcance de caracter individual pero no formaban parte del corpus de una teoria exhaustiva Fue en los anos 40 cuando Claude Shannon desarrollo el concepto de capacidad de un canal basandose en parte en las ideas que ya habian propuesto Nyquist y Hartley y formulando despues una teoria completa sobre la informacion y la transmision de esta a traves de canales Tasa de Nyquist Editar En 1927 Nyquist determino que el numero de pulsos independientes que podian pasar a traves de un canal de telegrafo por unidad de tiempo estaba limitado a dos veces el ancho de banda del canal f p 2 B displaystyle f p geq 2B dd dd donde f p displaystyle f p es la frecuencia del pulso en pulsos por segundo y B displaystyle B es el ancho de banda en hercios La cantidad 2 B displaystyle 2B se llamo mas adelante tasa de Nyquist y transmitiendo a esta tasa de pulsos limite de 2 B displaystyle 2B pulsos por segundo se le denomino senalizacion a la tasa de Nyquist Nyquist publico sus resultados en 1928 como parte de su articulo Certain topics in Telegraph Transmission Theory Ley de Hartley Editar Durante ese mismo ano Hartley formulo una manera de cuantificar la informacion y su tasa de transmision a traves de un canal de comunicaciones Este metodo conocido mas adelante como ley de Hartley se convirtio en un importante precursor para la sofisticada nocion de capacidad de un canal formulada por Shannon Hartley indico que el numero maximo de pulsos distintos que se pueden transmitir y recibir de manera fiable sobre un canal de comunicaciones esta limitado por el rango dinamico de la amplitud de la senal y de la precision con la cual el receptor puede distinguir distintos niveles de amplitud De manera especifica si la amplitud de la senal transmitida se restringe al rango de A A displaystyle A A v o l t i o s displaystyle voltios y la precision del receptor es D V displaystyle Delta V v o l t i o s displaystyle voltios entonces el numero maximos de pulsos distintos M esta dado por M 1 A D V displaystyle M 1 A over Delta V dd dd Tomando la informacion para ser el logaritmo del numero de los mensajes distintos que podrian ser enviados Hartley despues construyo una medida de la informacion proporcional al ancho de banda del canal y a la duracion de su uso A veces solo se habla de dicha proporcionalidad cuando se cita a la ley de Hartley Posteriormente Hartley combino la observacion de Nyquist 2 y su propia cuantificacion de la calidad o ruido de un canal en terminos del numero de niveles de pulso que podian ser distinguidos de manera fiable y denotados por M displaystyle M para llegar a una medida cuantitativa de la tasa de informacion que se puede obtener La ley de Hartley se explica cuantitativamente de manera usual como la tasa de informacion alcanzable de R displaystyle R bits por segundo b s displaystyle b s R 2 B log 2 M displaystyle R 2B log 2 M dd dd Hartley no resolvio de manera precisa como el parametro M displaystyle M debe depender de las estadisticas de ruido del canal o como la comunicacion podia ser fiable incluso cuando los pulsos individuales correspondientes a simbolos no se pudieran distinguir de manera fiable de los niveles de M displaystyle M con las estadisticas del ruido gaussiano Los disenadores de sistemas tienen que elegir un valor muy conservador de M displaystyle M para alcanzar la minima tasa de error El concepto de una capacidad libre de errores aguardo hasta que Claude Shannon investigo sobre las observaciones de Hartley con respecto a la medida logaritmica de la informacion y las observaciones de Nyquist sobre el efecto de las limitaciones del ancho de banda del canal El resultado de la tasa de Hartley se puede ver como la capacidad de un canal M displaystyle M sin errores de 2 B displaystyle 2B simbolos por segundo Algunos autores se refieren a ello como capacidad Pero ese supuesto canal libre de errores es un canal ideal y el resultado es necesariamente menor que la capacidad de Shannon de un canal con ruido de ancho de banda B displaystyle B que es el resultado Hartley Shannon que se estimo mas adelante Teorema de codificacion de canales con ruido y capacidad Editar El desarrollo de la teoria de la informacion de Claude Shannon durante la Segunda Guerra Mundial estimulo el siguiente gran paso para entender que cantidad de informacion se podria comunicar sin errores y de manera fiable a traves de canales con ruido gausiano de fondo Fundamentado sobre las ideas de Hartley el teorema de Shannon de la codificacion de canales con ruido 1948 describe la maxima eficiencia posible de los metodos de correccion de errores versus los niveles de interferencia de ruido y corrupcion de datos La prueba del teorema muestra que un codigo corrector de errores construido aleatoriamente es esencialmente igual de bueno que el mejor codigo posible El teorema se prueba con la estadistica de tales codigos aleatorios El teorema de Shannon demuestra como calcular la capacidad de un canal sobre una descripcion estadistica del canal y establece que dado un canal con ruido con capacidad C displaystyle C e informacion transmitida en una tasa R displaystyle R entonces si R lt C displaystyle R lt C dd dd existe una tecnica de codificacion que permite que la probabilidad de error en el receptor se haga arbitrariamente pequena Esto significa que teoricamente es posible transmitir informacion casi sin error hasta un limite cercano a C displaystyle C bits por segundo El inverso tambien es importante Si R gt C displaystyle R gt C dd dd la probabilidad del error en el receptor se incrementa sin limite mientras se aumente la tasa De esta manera no se puede transmitir ninguna informacion util por encima de la capacidad del canal El teorema no trata la situacion poco frecuente en que la tasa y la capacidad son iguales Teorema de Shannon Hartley Editar El teorema de Shannon Hartley establece cual es la capacidad del canal para un canal con ancho de banda finito y una senal continua que sufre un ruido gaussiano Conecta el resultado de Hartley con el teorema de Shannon de la capacidad del canal en una forma que es equivalente a especificar la M displaystyle M en la formula de Hartley de la tasa de informacion en terminos de la relacion senal ruido pero alcanzando fiabilidad a traves de la codificacion correctora de errores mas fiable que los niveles de pulso distinguibles Si existiera una cosa tal como un canal analogico con ancho de banda infinito y sin ruido uno podria transmitir cantidades ilimitadas de datos sin error sobre este por cada unidad de tiempo Sin embargo los canales de comunicacion reales estan sujetos a las limitaciones impuestas por el ancho de banda finito y el ruido Entonces como el ancho de banda y el ruido afectan a la tasa en la que la informacion puede ser transmitida sobre un canal analogico Aunque parezca sorprendente las limitaciones del ancho de banda por si solas no imponen restricciones sobre la tasa maxima de informacion Esto es porque sigue siendo posible para la senal tomar un numero infinitamente grande de valores distintos de voltaje para cada pulso de simbolo siendo cada nivel levemente distinto del anterior que representa a un determinado significado o secuencia de bits Sin embargo si combinamos ambos factores es decir tanto el ruido como las limitaciones del ancho de banda encontramos un limite a la cantidad de informacion que se puede transferir por una senal de potencia limitada aun cuando se utilizan tecnicas de codificacion de niveles multiples En el canal considerado por el teorema de Shannon Hartley el ruido y la senal se suman Es decir el receptor mide una senal que sea igual a la suma de la senal que codifica la informacion deseada y una variable aleatoria continua que represente el ruido Esta suma crea incertidumbre en cuanto al valor de la senal original Si el receptor tiene cierta informacion sobre el proceso aleatorio que genera el ruido se puede en principio recuperar la informacion de la senal original considerando todos los posibles estados del proceso del ruido En el caso del teorema de Shannon Hartley se asume que el ruido es generado por un proceso gaussiano con una varianza conocida Puesto que la varianza del proceso gaussiano es equivalente a su potencia normalmente se llama a esta varianza la potencia de ruido Tal canal es llamado canal aditivo del ruido blanco gaussiano porque el ruido gaussiano es anadido a la senal blanco significa igual cantidad de ruido en todas las frecuencias dentro del ancho de banda del canal 3 Implicaciones del teorema EditarComparacion de la capacidad de Shannon con la ley de Hartley Editar Comparando la capacidad del canal con la tasa de informacion de la ley de Hartley podemos encontrar el numero eficaz de los niveles distinguibles M displaystyle M 2 B log 2 M B log 2 1 S N displaystyle 2B log 2 M B log 2 left 1 frac S N right dd dd M 1 S N displaystyle M sqrt 1 frac S N dd dd La raiz cuadrada convierte con eficacia el cociente de potencias de nuevo en un cociente de voltaje asi que el numero de niveles es aproximadamente proporcional al cociente entre el valor de la raiz cuadrada media de la amplitud de la senal y la desviacion estandar del ruido Esta semejanza entre la capacidad de Shannon y la ley de Hartley no se debe interpretar como M displaystyle M niveles de pulsos pueden enviarse literalmente sin ninguna confusion Se necesitan mas niveles para permitir codificacion redundante y la correccion de errores pero la tasa de datos neta que puede acercarse con la codificacion es equivalente a usar M displaystyle M en la ley de Hartley Formas alternativas EditarCaso dependiente de la frecuencia ruido de color Editar En la version simple de arriba la senal y el ruido estan completamente incorreladas y en ese caso S N displaystyle S N es la potencia total de la senal y del ruido recibidos juntos Una generalizacion de la ecuacion antedicha para el caso donde el ruido adicional no es blanco es decir la relacion S N no es constante con la frecuencia sobre el ancho de banda como muchos canales estrechos independientes y gaussianos en paralelo C 0 B log 2 1 S f N f d f displaystyle C int 0 B log 2 left 1 frac S f N f right df dd dd donde C displaystyle C es la capacidad del canal en bits por segundo B displaystyle B es el ancho de banda del canal en Hz S f displaystyle S f es el espectro de potencia de la senal N f displaystyle N f es el espectro de potencia del ruido f displaystyle f es la frecuencia en HzNota el teorema se aplica solamente a los ruidos que son procesos gaussianos estacionarios La manera en que esta formula introduce el ruido dependiente de la frecuencia no sirve para describir todos los procesos del ruido continuo en el tiempo Por ejemplo consideremos un proceso del ruido que consista en sumar una onda aleatoria cuya amplitud sea 1 o 1 en cualquier momento del tiempo y un canal que anada dicha onda a la senal original Los componentes de la frecuencia de la onda son altamente dependientes Aunque tal ruido puede tener una alta potencia es bastante facil transmitir una senal continua con mucha menos potencia que la necesaria si el ruido subyacente fuera una suma de los ruidos independientes de cada banda de frecuencia Aproximaciones EditarPara las relaciones senal ruido grandes o pequenas y constantes la formula de la capacidad puede ser aproximada Operacion limitada por ancho de banda Editar Se trata del caso en el que S N gt gt 1 displaystyle S N gt gt 1 entonces C B log 2 1 S N B log 2 S N displaystyle C B cdot log 2 biggl 1 frac S N biggr approx B cdot log 2 biggl frac S N biggr En esta situacion es posible observar que la capacidad crece logaritmicamente con la relacion senal a ruido Asi fijado un cierto ancho de banda B displaystyle B duplicar la S N displaystyle S N implica incrementar la capacidad C displaystyle C en solo 1 bit s La dependencia con el ancho de banda no es exactamente lineal ya que el ruido es blanco y por tanto N displaystyle N tambien crece linealmente con B displaystyle B Es habitual expresar la anterior aproximacion en funcion de la S N displaystyle frac S N medida en decibelios Es decir S N en dB 10 log 10 S N displaystyle frac S N text en dB 10 cdot log 10 biggl frac S N biggr C B log 2 S N B log 10 S N log 10 2 3 32 B log 10 S N 0 332 B S N en dB displaystyle C approx B cdot log 2 biggl frac S N biggl B cdot frac log 10 bigl frac S N bigl log 10 2 3 32 cdot B cdot log 10 biggl frac S N biggl 0 332 cdot B cdot biggl frac S N text en dB biggr Operacion limitada por potencia Editar En este caso S N lt lt 1 displaystyle S N lt lt 1 entonces teniendo en cuenta que ln 1 x x para x 1 displaystyle ln 1 x approx x quad text para quad x ll 1 C B log 2 1 S N B ln 1 S N ln 2 B S N ln 2 1 44 B S N displaystyle C B cdot log 2 biggl 1 frac S N biggl B cdot frac ln bigl 1 frac S N bigl ln 2 approx B cdot frac frac S N ln 2 1 44 cdot B cdot S over N A diferencia del caso anterior ahora la capacidad depende linealmente son la relacion senal a ruido Es decir duplicar la S N displaystyle S N implica duplicar la capacidad C displaystyle C Por otro lado desaparece la dependencia con el ancho de banda Dado que el limite de Shannon Hartley asume ruido blanco su densidad espectral de potencia N 0 2 displaystyle N 0 2 W Hz es constante Por tanto la potencia del ruido es N 2 B N 0 2 B N 0 displaystyle N 2B cdot N 0 2 B cdot N 0 y en consecuencia la capacidad se simplifica en C 1 44 S N 0 displaystyle C approx 1 44 cdot S over N 0 Ejemplos numericos EditarSi la S N 20 displaystyle S N 20 dB y el ancho de banda disponible es B 4 displaystyle B 4 kHz apropiados para las comunicaciones telefonicas entonces la capacidad maxima posible bajo las restricciones de partida del teorema de Shannon Hartley es C 4 e 3 log 2 1 100 26 63 displaystyle C 4e3 cdot log 2 1 100 26 63 kbit s Observese que el valor S N 100 displaystyle S N 100 en unidades lineales es equivalente a 20 dB Si se requiere transmitir C displaystyle C 50 kbit s y el ancho de banda usado es B displaystyle B 1 MHz entonces la minima relacion S N displaystyle S N requerida esta dada por 50 e 3 10 e 6 log 2 1 S N displaystyle 50e3 10e6 cdot log 2 1 S N de forma que S N 2 C B 1 0 035 displaystyle S N 2 C B 1 0 035 en unidades lineales o de forma equivalente en decibelios 10 log 10 S N 14 5 displaystyle 10 cdot log 10 S N 14 5 dB Esto demuestra que es posible transmitir con senales que son mucho mas debiles que el nivel de ruido de fondo como en las comunicaciones de espectro ensanchado Referencias Editar Se tiene en cuenta que es la tasa maxima teorica de datos limpios o arbitrariamente la tasa minima de error que pueden ser enviados con una determinada potencia media de senal S a traves de un canal de comunicacion analogico que sufre un ruido blanco gausiano de potencia N El numero de pulsos independientes que podian pasar a traves de un canal de un ancho de banda deB displaystyle B herzios era 2 B displaystyle 2B pulsos por segundo Se debe tener en cuenta que dicho ruido puede deberse a fuentes aleatorias de potencia y tambien a codificaciones y medidas de error en el emisor y receptor respectivamente Puesto que la suma de variables aleatorias gaussianas independientes es tambien una variable aleatoria gaussiana el analisis se simplifica si se considera que tales fuentes del error son tambien gaussianas e independientes Enlaces externos EditarA Mathematical Theory of Communication A Symbolic Analysis of Relay and Switching Circuits Communication in the Presence of Noise The relationship between information bandwidth and noise On line textbook Information Theory Inference and Learning Algorithms El Teorema de la Capacidad Maxima de un Canal Information Entropy Datos Q1756194Obtenido de https es wikipedia org w index php title Teorema de Shannon Hartley amp oldid 134058800, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos