fbpx
Wikipedia

Capacidad del canal

En Ingeniería Electrónica y Teoría de la Información, la capacidad de canal es la cantidad de información que puede ser relativamente transmitida sobre canales de comunicación.


Sinopsis

La capacidad del canal se mide en bits por segundo (bps) y depende de su ancho de banda y de la relación S/N (Relación señal/ruido). La capacidad del canal limita la cantidad de información (se denomina régimen binario y se mide en bits por segundo, bps) que puede trasmitir la señal que se envía a través de él.

La capacidad máxima de un canal viene dada por la fórmula:


  (bps)


El régimen binario de una señal que se propaga por un canal no puede ser mayor que la capacidad del canal y depende del número de niveles o estados que se usan para codificar la información.


Régimen binario de la señal =  


donde:

  • n es el número de bits por cada elemento de la señal.
  • m es el conjunto de elementos diferentes que puede adoptar la señal.
  • C es la capacidad del canal según el teorema de Nyquist.


La capacidad del canal depende de la naturaleza del soporta, es decir, de los portadores canales de gran ancho de banda, como la fibra óptica, su capacidad siempre tiene un límite. Nyquist demostró la existencia de ese límite cuando se envían señales digitales por canales analógicos.

La teoría de la información, desarrollada por Claude E. Shannon durante la Segunda Guerra Mundial, define la noción de la capacidad del canal y provee un modelo matemático con el que se puede calcular. La cifra que resulta del estado de capacidad del canal, se define como la máxima de la información mutua entre la entrada y la salida del canal. Donde el punto máximo se encuentra en la entrada de la distribución.

Definición

Al igual que todos los tipos de comunicación, mantener un diálogo con otro sistema necesita un medio físico para transmitir los datos. En el caso de la Arquitectura de Redes, a ese medio se le denomina canal.


 

La X representa el espacio entre las señales que puede ser transmitidas y la Y el espacio de señales recibidas, durante un bloque de tiempo sobre el canal.


 


Con esta fórmula obtenemos la distribución condicional de la función de Y sobre X. Tratando el canal como un sistema estático conocido, pY | X(y | x), esto es una propiedad inherente del canal de comunicación (que representa la naturaleza del ruido en él). Entonces la distribución conjunta   de X e Y esta completamente determinada por el canal y por la elección de la distribución marginal de las señales que nosotros elegimos enviar sobre el canal:


 


La distribución conjunta puede ser recuperada usando la identidad:


 


Sobre estas limitaciones, se debe después maximizar la cantidad de información, o de mensaje, que uno puede comunicar sobre el canal. La medida apropiada para esto es la información mutua I(X;Y), y esta máxima información mutua es el llamado canal de capacidad y viene dado por:


 

Tipos de canales

A continuación veremos los diferentes canales que existen:

Canal ideal: debería tener una entrada y una salida. Sin embargo, nunca está aislado totalmente del exterior y siempre se acaban introduciendo señales no deseadas que alteran en mayor o menor medida los datos que queremos enviar a través de él. Por lo tanto, esa única entrada puede producir varias salidas, y distintas entradas pueden terminar en la misma salida.

Canal discreto sin memoria: con entrada y salida discreta. Ofrecen una salida que depende exclusivamente del símbolo de entrada actual, independientemente de sus valores anteriores.

Canal binario simétrico: canal binario que puede transmitir uno de dos símbolos posibles (0 y 1). La transmisión no es perfecta, y ocasionalmente el receptor recibe el bit equivocado.


 

Referencia al Teorema de Nyquist

El primer teorema de Nyquist establece que, para evitar la interferencia entre símbolos de una señal que se propaga por un canal de ancho de banda, su velocidad debe ser:


 

Eficiencia

La eficiencia E de un canal de comunicación, es la relación entre su capacidad y su ancho de banda e indica el número de bits por segundo de información que se puede transmitir por cada herzio de su ancho de banda:


 


La eficiencia de un canal está establecida por el número máximo de estados distintos que puede adoptar la señal que se transmite por él para codificar la información. La capacidad de un canal de ancho de banda determinado podría elevarse a infinito utilizando señales con un número infinito de niveles. Pero esto solo se puede obtener con un canal ideal, sin ruidos ni distorsión alguna, los cuales no existen en el mundo real. Por tanto, el número de estados posibles está limitado por la sensibilidad y la capacidad de resolución del propio receptor para diferenciar entre niveles contiguos de la señal que recibe junto con el ruido.

Canal Ruidoso del Teorema de Codificación

Sobre este canal, la capacidad que da el canal está limitada en una velocidad de información (en unidades de información por unidad de tiempo) que puede ser alcanzado con arbitrariedad con un pequeño error de probabilidad.

El Canal Ruidoso del Teorema de Codificación de estados dice que para alguna ε > 0 y para alguna velocidad R menor que la capacidad del canal C, hay un esquema de codificación y decodificación que puede ser usado para asegurar que la probabilidad del error de bloqueo es menor que ε para un código largo.

Para velocidades mayores que la capacidad del canal, la probabilidad del error de bloqueo que recibe va de 1 hasta infinito según sea la longitud de bloqueo.


Ejemplo de aplicación

Una aplicación del concepto de capacidad de canal a un canal aditivo blanco gaussiano con B Hz de ancho de banda y señal de proporción de ruido de S/N es el Teorema de Shannon–Hartley:


 


C está medido en bits por segundo. Si el logaritmo está tomado en base 2, B se medirá en hercios; la señal y la potencia de ruido S y N se miden en vatios o voltios2. Entonces, la relación señal/ruido queda expresada en "veces", o "relación de potencias" y no en decibeles(dB)

Referencias

  • Información mutua:
  • Channel Capacity: http://en.wikipedia.org/wiki/Channel_capacity
  •   Datos: Q5748183

capacidad, canal, ingeniería, electrónica, teoría, información, capacidad, canal, cantidad, información, puede, relativamente, transmitida, sobre, canales, comunicación, Índice, sinopsis, definición, tipos, canales, referencia, teorema, nyquist, eficiencia, ca. En Ingenieria Electronica y Teoria de la Informacion la capacidad de canal es la cantidad de informacion que puede ser relativamente transmitida sobre canales de comunicacion Indice 1 Sinopsis 2 Definicion 3 Tipos de canales 4 Referencia al Teorema de Nyquist 5 Eficiencia 6 Canal Ruidoso del Teorema de Codificacion 7 Ejemplo de aplicacion 8 ReferenciasSinopsis EditarLa capacidad del canal se mide en bits por segundo bps y depende de su ancho de banda y de la relacion S N Relacion senal ruido La capacidad del canal limita la cantidad de informacion se denomina regimen binario y se mide en bits por segundo bps que puede trasmitir la senal que se envia a traves de el La capacidad maxima de un canal viene dada por la formula C B l o g 2 1 S R displaystyle C Blog 2 1 S R bps El regimen binario de una senal que se propaga por un canal no puede ser mayor que la capacidad del canal y depende del numero de niveles o estados que se usan para codificar la informacion Regimen binario de la senal n V t b a u d i o s 2 B n 2 B l o g 2 m C b p s displaystyle nVt baudios 2Bn 2Blog 2 m C bps donde n es el numero de bits por cada elemento de la senal m es el conjunto de elementos diferentes que puede adoptar la senal C es la capacidad del canal segun el teorema de Nyquist La capacidad del canal depende de la naturaleza del soporta es decir de los portadores canales de gran ancho de banda como la fibra optica su capacidad siempre tiene un limite Nyquist demostro la existencia de ese limite cuando se envian senales digitales por canales analogicos La teoria de la informacion desarrollada por Claude E Shannon durante la Segunda Guerra Mundial define la nocion de la capacidad del canal y provee un modelo matematico con el que se puede calcular La cifra que resulta del estado de capacidad del canal se define como la maxima de la informacion mutua entre la entrada y la salida del canal Donde el punto maximo se encuentra en la entrada de la distribucion Definicion EditarAl igual que todos los tipos de comunicacion mantener un dialogo con otro sistema necesita un medio fisico para transmitir los datos En el caso de la Arquitectura de Redes a ese medio se le denomina canal La X representa el espacio entre las senales que puede ser transmitidas y la Y el espacio de senales recibidas durante un bloque de tiempo sobre el canal p Y X y x displaystyle p Y X y x Con esta formula obtenemos la distribucion condicional de la funcion de Y sobre X Tratando el canal como un sistema estatico conocido pY X y x esto es una propiedad inherente del canal de comunicacion que representa la naturaleza del ruido en el Entonces la distribucion conjunta p X Y x y displaystyle p X Y x y de X e Y esta completamente determinada por el canal y por la eleccion de la distribucion marginal de las senales que nosotros elegimos enviar sobre el canal p X x y p X Y x y d y displaystyle p X x int y p X Y x y dy La distribucion conjunta puede ser recuperada usando la identidad p X Y x y p Y X y x p X x displaystyle p X Y x y p Y X y x p X x Sobre estas limitaciones se debe despues maximizar la cantidad de informacion o de mensaje que uno puede comunicar sobre el canal La medida apropiada para esto es la informacion mutua I X Y y esta maxima informacion mutua es el llamado canal de capacidad y viene dado por C sup p X I X Y displaystyle C sup p X I X Y Tipos de canales EditarA continuacion veremos los diferentes canales que existen Canal ideal deberia tener una entrada y una salida Sin embargo nunca esta aislado totalmente del exterior y siempre se acaban introduciendo senales no deseadas que alteran en mayor o menor medida los datos que queremos enviar a traves de el Por lo tanto esa unica entrada puede producir varias salidas y distintas entradas pueden terminar en la misma salida Canal discreto sin memoria con entrada y salida discreta Ofrecen una salida que depende exclusivamente del simbolo de entrada actual independientemente de sus valores anteriores Canal binario simetrico canal binario que puede transmitir uno de dos simbolos posibles 0 y 1 La transmision no es perfecta y ocasionalmente el receptor recibe el bit equivocado Referencia al Teorema de Nyquist EditarEl primer teorema de Nyquist establece que para evitar la interferencia entre simbolos de una senal que se propaga por un canal de ancho de banda su velocidad debe ser V t b a u d i o s gt 2 B H z displaystyle Vt baudios gt 2B Hz Eficiencia EditarLa eficiencia E de un canal de comunicacion es la relacion entre su capacidad y su ancho de banda e indica el numero de bits por segundo de informacion que se puede transmitir por cada herzio de su ancho de banda E C B b p s H z displaystyle E C B bps Hz La eficiencia de un canal esta establecida por el numero maximo de estados distintos que puede adoptar la senal que se transmite por el para codificar la informacion La capacidad de un canal de ancho de banda determinado podria elevarse a infinito utilizando senales con un numero infinito de niveles Pero esto solo se puede obtener con un canal ideal sin ruidos ni distorsion alguna los cuales no existen en el mundo real Por tanto el numero de estados posibles esta limitado por la sensibilidad y la capacidad de resolucion del propio receptor para diferenciar entre niveles contiguos de la senal que recibe junto con el ruido Canal Ruidoso del Teorema de Codificacion EditarSobre este canal la capacidad que da el canal esta limitada en una velocidad de informacion en unidades de informacion por unidad de tiempo que puede ser alcanzado con arbitrariedad con un pequeno error de probabilidad El Canal Ruidoso del Teorema de Codificacion de estados dice que para alguna e gt 0 y para alguna velocidad R menor que la capacidad del canal C hay un esquema de codificacion y decodificacion que puede ser usado para asegurar que la probabilidad del error de bloqueo es menor que e para un codigo largo Para velocidades mayores que la capacidad del canal la probabilidad del error de bloqueo que recibe va de 1 hasta infinito segun sea la longitud de bloqueo Ejemplo de aplicacion EditarUna aplicacion del concepto de capacidad de canal a un canal aditivo blanco gaussiano con B Hz de ancho de banda y senal de proporcion de ruido de S N es el Teorema de Shannon Hartley C B log 1 S N displaystyle C B log left 1 frac S N right C esta medido en bits por segundo Si el logaritmo esta tomado en base 2 B se medira en hercios la senal y la potencia de ruido S y N se miden en vatios o voltios2 Entonces la relacion senal ruido queda expresada en veces o relacion de potencias y no en decibeles dB Referencias EditarInformacion mutua https web archive org web 20080411144240 http www it uc3m es prometeo trdt html temas tema1 t1 4 htmChannel Capacity http en wikipedia org wiki Channel capacity Datos Q5748183Obtenido de https es wikipedia org w index php title Capacidad del canal amp oldid 117391536, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos