fbpx
Wikipedia

Capacidad de canal

En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad máxima de información que puede transportar dicho canal de forma fiable, es decir, con una probabilidad de error tan pequeña como se quiera. Normalmente se expresa en bits/s (bps).[1]

Definición matemática

Existen dos definiciones equivalentes entre sí del concepto de capacidad de un canal, una es para canales de tiempo continuo y la otra es para canales de tiempo discreto.

Definición para canales discretos

 

Un canal discreto (sin memoria) está definido por:

  • el alfabeto de entrada,  , que es el conjunto de símbolos   que pueden ser transmitidos por el canal
  • el alfabeto de salida,  , que es el conjunto de símbolos   que pueden ser recibidos a la salida del canal
  • las relaciones estadísticas entre los símbolos de entrada   y los de salida  , esta información viene definida por la matriz de probabilidades condicionadas del canal   donde  

Se define la entropía de entrada, entropía de salida y entropía de entrada condicionada por la salida como

 
 
 

La información mutua entre la entrada y la salida del canal la denotamos por   y es una medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viceversa

 


Esta información mutua   depende de la distribución de probabilidad de la entrada  . Para una determinada distribución de entrada,   alcanza un máximo, este máximo es precisamente lo que se conoce como la capacidad del canal

 

Definición para canales continuos

La definición de capacidad para canales continuos es un poco diferente y exige utilizar el Teorema del muestreo y algunos otros conceptos de teoría de la señal, además de los conceptos puramente estadísticos vistos en el apartado anterior.


Ampliando los estudios del físico Harry Nyquist, compañero en los Laboratorios Bell, Claude Shannon demostró en 1949 que la capacidad teórica máxima de un canal de comunicaciones limitado en banda con ruido AWGN (ruido blanco aditivo gausiano) responde a la ecuación:

  bits/s (bps)

La ecuación anterior muestra que la capacidad de un canal está limitada por su ancho de banda ( ) y por su relación señal/ruido ( ). En términos de eficiencia espectral resulta:

  bps/Hz

es decir, la eficiencia espectral máxima depende de la calidad del canal (de su nivel de ruido).

Bit físico vs bit de información

En la ecuación de capacidad, el término "bit" no se refieren a un bit "físico" (por ejemplo un "0" lógico o un "1" lógico almacenado en una memoria digital) sino a un bit de información (entropía).

La diferencia entre ambos tipos de bit es que el primer tipo es un dígito binario mientras que el segundo es una unidad de información. La entropía   se mide en diferentes tipos de unidades dependiendo de la base que elijamos para el logaritmo:

  • bits si elegimos base 2
  • nats si elegimos base e
  • hartleys si elegimos base 10

Los bits físicos solo se pueden identificar con bits de información cuando han sido comprimidos con un codificador de fuente óptimo (el que utiliza un código cuya longitud media es igual a la entropía de la fuente,  ) para eliminar todos los bits físicos redundantes.

Por ejemplo: el canal telefónico tradicional (el de voz) tiene una capacidad[2]​ de unos 30kbps (bits de información), sin embargo, usando técnicas de compresión, los módems telefónicos V.90 consiguen enviar unos 56kbps (bits físicos, con redundancia)

Ejemplos de canales discretos

Canal binario simétrico

 
Canal binario simétrico, la probabilidad de error de bit es p.

Para el caso del canal binario simétrico con probabilidad de error de bit  , su capacidad viene dada por

 

La función   esto tiene sentido ya que en este caso el canal confunde los ceros y los unos con igual probabilidad lo que significa que es un canal inservible para enviar información, su capacidad es nula. Es una función que aparece mucho en teoría de la información. Se trata de una función cóncava (y por tanto cumple la desigualdad de Jensen) y alcanza su máximo, igual a  , cuando  , por otro lado, cuando   o   vale 0.

La capacidad   de este canal es cero cuando  ,

Note que si un canal tuviese probabilidad de error de bit   eso no significa que sea un canal malo, todo lo contrario. Bastaría con invertir los bits antes de enviarlos para tener un canal ideal (con probabilidad  ).

Canal binario con símbolo borrado

En inglés Canal binario con símbolo borrado.

Canal simétrico respecto de la entrada

Canal simétrico respecto de la salida

etc

Véase también

Enlaces externos

Referencias

  • Comunicación digital. Teoría matemática de la información, Codificación algebraica, criptología. J. Rifá, Ll. Huguet, Masson, ISBN 84-311-0576-3
  1. «capacidad de canal». Diccionario Español de Ingeniería (1.0 edición). Real Academia de Ingeniería de España. 2014. Consultado el 11 de mayo de 2014. 
  2. Suponiento que su ancho de banda es 4kHz y su SNR es 30dB, valores típicos para un canal telefónico tradicional
  •   Datos: Q870845

capacidad, canal, teoría, información, capacidad, canal, comunicación, cantidad, máxima, información, puede, transportar, dicho, canal, forma, fiable, decir, probabilidad, error, pequeña, como, quiera, normalmente, expresa, bits, Índice, definición, matemática. En Teoria de la Informacion la capacidad de un canal de comunicacion es la cantidad maxima de informacion que puede transportar dicho canal de forma fiable es decir con una probabilidad de error tan pequena como se quiera Normalmente se expresa en bits s bps 1 Indice 1 Definicion matematica 1 1 Definicion para canales discretos 1 2 Definicion para canales continuos 2 Bit fisico vs bit de informacion 3 Ejemplos de canales discretos 3 1 Canal binario simetrico 3 2 Canal binario con simbolo borrado 3 3 Canal simetrico respecto de la entrada 3 4 Canal simetrico respecto de la salida 3 5 etc 4 Vease tambien 5 Enlaces externos 6 ReferenciasDefinicion matematica EditarExisten dos definiciones equivalentes entre si del concepto de capacidad de un canal una es para canales de tiempo continuo y la otra es para canales de tiempo discreto Definicion para canales discretos Editar Un canal discreto sin memoria esta definido por el alfabeto de entrada X displaystyle X que es el conjunto de simbolos X x 1 x 2 x n displaystyle X x 1 x 2 ldots x n que pueden ser transmitidos por el canal el alfabeto de salida Y displaystyle Y que es el conjunto de simbolos Y y 1 y 2 y m displaystyle Y y 1 y 2 ldots y m que pueden ser recibidos a la salida del canal las relaciones estadisticas entre los simbolos de entrada x i displaystyle x i y los de salida y i displaystyle y i esta informacion viene definida por la matriz de probabilidades condicionadas del canal p i j displaystyle p ij donde p i j p y j x i displaystyle p ij p y j x i Se define la entropia de entrada entropia de salida y entropia de entrada condicionada por la salida como H X i 1 n p x i log 1 p x i displaystyle H X sum i 1 n p x i log frac 1 p x i H Y j 1 m p y j log 1 p y j displaystyle H Y sum j 1 m p y j log frac 1 p y j H X Y j 1 m p y j i 1 m p x i y j log 1 p x i y j displaystyle H X Y sum j 1 m p y j sum i 1 m p x i y j log frac 1 p x i y j La informacion mutua entre la entrada y la salida del canal la denotamos por I X Y displaystyle I X Y y es una medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viceversa I X Y H Y H Y X H X H X Y displaystyle I X Y H Y H Y X H X H X Y Esta informacion mutua I X Y displaystyle I X Y depende de la distribucion de probabilidad de la entrada p x i displaystyle p x i Para una determinada distribucion de entrada I X Y displaystyle I X Y alcanza un maximo este maximo es precisamente lo que se conoce como la capacidad del canal C max p x i I X Y displaystyle C max p x i I X Y Definicion para canales continuos Editar La definicion de capacidad para canales continuos es un poco diferente y exige utilizar el Teorema del muestreo y algunos otros conceptos de teoria de la senal ademas de los conceptos puramente estadisticos vistos en el apartado anterior Ampliando los estudios del fisico Harry Nyquist companero en los Laboratorios Bell Claude Shannon demostro en 1949 que la capacidad teorica maxima de un canal de comunicaciones limitado en banda con ruido AWGN ruido blanco aditivo gausiano responde a la ecuacion C B log 2 1 SNR displaystyle C B log 2 left 1 mbox SNR right bits s bps La ecuacion anterior muestra que la capacidad de un canal esta limitada por su ancho de banda B displaystyle B y por su relacion senal ruido SNR displaystyle mbox SNR En terminos de eficiencia espectral resulta E m a x C B log 2 1 SNR displaystyle E max frac C B log 2 left 1 mbox SNR right bps Hzes decir la eficiencia espectral maxima depende de la calidad del canal de su nivel de ruido Bit fisico vs bit de informacion EditarEn la ecuacion de capacidad el termino bit no se refieren a un bit fisico por ejemplo un 0 logico o un 1 logico almacenado en una memoria digital sino a un bit de informacion entropia La diferencia entre ambos tipos de bit es que el primer tipo es un digito binario mientras que el segundo es una unidad de informacion La entropia H displaystyle H se mide en diferentes tipos de unidades dependiendo de la base que elijamos para el logaritmo bits si elegimos base 2 nats si elegimos base e hartleys si elegimos base 10Los bits fisicos solo se pueden identificar con bits de informacion cuando han sido comprimidos con un codificador de fuente optimo el que utiliza un codigo cuya longitud media es igual a la entropia de la fuente L H X displaystyle L H X para eliminar todos los bits fisicos redundantes Por ejemplo el canal telefonico tradicional el de voz tiene una capacidad 2 de unos 30kbps bits de informacion sin embargo usando tecnicas de compresion los modems telefonicos V 90 consiguen enviar unos 56kbps bits fisicos con redundancia Ejemplos de canales discretos EditarCanal binario simetrico Editar Canal binario simetrico la probabilidad de error de bit es p Para el caso del canal binario simetrico con probabilidad de error de bit p displaystyle p su capacidad viene dada por C 1 H p displaystyle C 1 H p La funcion H p p log 2 p 1 p log 2 1 p displaystyle H p p cdot log 2 p 1 p cdot log 2 1 p esto tiene sentido ya que en este caso el canal confunde los ceros y los unos con igual probabilidad lo que significa que es un canal inservible para enviar informacion su capacidad es nula Es una funcion que aparece mucho en teoria de la informacion Se trata de una funcion concava y por tanto cumple la desigualdad de Jensen y alcanza su maximo igual a 1 displaystyle 1 cuando p 0 5 displaystyle p 0 5 por otro lado cuando p 0 displaystyle p 0 o p 1 displaystyle p 1 vale 0 La capacidad C displaystyle C de este canal es cero cuando p 0 5 displaystyle p 0 5 Note que si un canal tuviese probabilidad de error de bit p 1 displaystyle p 1 eso no significa que sea un canal malo todo lo contrario Bastaria con invertir los bits antes de enviarlos para tener un canal ideal con probabilidad p 0 displaystyle p 0 Canal binario con simbolo borrado Editar En ingles Canal binario con simbolo borrado Canal simetrico respecto de la entrada Editar Canal simetrico respecto de la salida Editar etc EditarVease tambien EditarEntropia Redundancia Codificacion de fuente Codificacion de canal Primer teorema de Shannon Teorema de codificacion de fuente Segundo teorema de Shannon Teorema de codificacion de canal Enlaces externos EditarReferencias EditarComunicacion digital Teoria matematica de la informacion Codificacion algebraica criptologia J Rifa Ll Huguet Masson ISBN 84 311 0576 3 capacidad de canal Diccionario Espanol de Ingenieria 1 0 edicion Real Academia de Ingenieria de Espana 2014 Consultado el 11 de mayo de 2014 Suponiento que su ancho de banda es 4kHz y su SNR es 30dB valores tipicos para un canal telefonico tradicional Datos Q870845Obtenido de https es wikipedia org w index php title Capacidad de canal amp oldid 128341229, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos