fbpx
Wikipedia

Segundo teorema de Shannon

En teoría de la información, el segundo teorema de Shannon denominado también de «teorema de codificación de canal», o simplemente teorema de Shannon, es un teorema, matemático enunciado por Claude Shannon , que muestra que es posible transmitir datos discretos (información digital) casi sin errores sobre un mismo canal ruidoso, a un régimen máximo computable. Se le conoce simplemente como «teorema de Shannon» (a pesar de que es el segundo) puesto que este teorema conjuntamente con la obra de Claude Shannon sobre la teoría de la información, tuvieron una importancia fundamental en la teoría de la información, ofreciendo anchas aplicaciones en los dominios de las telecomunicaciones y del almacenamiento de información.[1]

El límite de Shannon o la capacidad de Shannon de un canal de comunicaciones es la velocidad teórica máxima de transferencia de información del canal, para un nivel de ruido determinado, que es el máximo fijado en la cantidad de símbolos por segundo que pueden ser transferidos a través de esta conexión con ruido. Este enunciado publicado por Claude Shannon el 1948 se basó sobre trabajos anteriores de Harry Nyquist y Ralph Hartley. La primera prueba rigurosa fue establecida por Amiel Feinstein el 1954.[1]

Enunciado

Una de las principales ventajas de la tecnología digital es que permite el intercambio de datos sin pérdida de información. Aun así, estos datos transitan la mayoría del tiempo sobre canales no fiables, sufriendo varias interferencias y por lo tanto se mezclan con el ruido. Entonces, ¿cómo se pueden eliminar los errores de transmisión? La solución consiste en introducir cierta redundancia en los mensajes emitidos por la fuente con el fin de que el receptor pueda corregir los errores, de tal forma que el mensaje sea compuesto por   símbolos, en donde   es la cantidad de símbolos que aportan información sobre el mensaje original (aquel que el emisor transmitió), y   es la cantidad de símbolos de redundancia, mismos que le servirán al receptor para corregir los errores que el canal ruidoso haya introducido en el mensaje, cabe recordar que estos   símbolos de redundancia también están sujetos a deformaciones debido al ruido del canal. A este tipo de código se le llama código corrector.

El Segundo Teorema de Shannon demuestra la existencia de un código corrector cuyo   cumple lo dicho anteriormente, con una probabilidad de interpretar un mensaje de forma errada muy pequeña, y con una velocidad de transmisión que se aproxima a la capacidad del canal.

El tiempo necesario para enviar un símbolo por la línea r, el símbolos llamado. Dentro de la símbolos la señal sigue siendo el mismo.

 

Con dos símbolos definidos (Nsymbols = 2), por lo tanto, Nsymbols transportados, en 8-PSK tres bits y en QAM-64, seis bits.

La unidad para medir el número de símbolos por segundo es el baudio.

Formulación matemática

 

 

Teorema (Shannon, 1948):

1. Para cualquier canal discreto sin memoria, la capacidad de canal.[2]
 .[3][4]
Tiene la siguiente propiedad. Para cualquier ε> 0 y R <C, para N bastante grande, existe un código de longitud N y una tasa ≥ R y un algoritmo de descodificación, de forma que la probabilidad máxima de error de bloque es ≤ ε.
2. Si la probabilidad de error de bits pb es aceptable, las tasas de transmisión hasta R (pb) son alcanzables, donde
 
y   es la función entropía binaria
 
3. Para cualquier pb, las tasas de transmisión más grandes que R (pb) no son alcanzables.

(MacKay (2003), p. 162; de Gallager (1968), ch.5; Cover and Thomas (1991), p. 198; Shannon (1948) thm. 11)

Véase también

Referencias

  1. Claude Shannon (July 1948). «A Mathematical Theory of Communication». Bell Labs Technical Journal. .
  2. tchow (19 de febrero de 2009). «Shannon capacity of the seven-cycle». Open Problem Garden. 
  3. Hunter (19 de febrero de 2009). «The supremum and infimum». math.ucdavis.edu. .
  4. wikidot (19 de febrero de 2009). «The supremum and infimum». mathonline. 

Bibliografía

  • Cover T. M., Thomas J. A., Elementos of Information Theory, John Wiley & Sonidos, 1991. ISBN 0-471-06259-6
  • Fano, R. A., Transmission of information; a statistical theory of communications, MIT Press, 1961. ISBN 0-262-06001-9
  • Feinstein, Amiel, "A New basic theorem of information theory", IEEE Transactions donde Information Theory, 4(4): 2-22, 1954.
  • MacKay, David J. C., Information Theory, Inference, and Learning Algorithms, Cambridge University Press, 2003. ISBN 0-521-64298-1 [free online]
  • Shannon, C. E., A Mathematical Theory of Communication Urbana, IL: University of Illinois Press, 1949 (reprinted 1998).
  • Wolfowitz, J., "The coding of messages subject tono chance errores", Illinois J. Math., 1: 591–606, 1957.

Enlaces externos

  •   Datos: Q2345282

segundo, teorema, shannon, teoría, información, segundo, teorema, shannon, denominado, también, teorema, codificación, canal, simplemente, teorema, shannon, teorema, matemático, enunciado, claude, shannon, muestra, posible, transmitir, datos, discretos, inform. En teoria de la informacion el segundo teorema de Shannon denominado tambien de teorema de codificacion de canal o simplemente teorema de Shannon es un teorema matematico enunciado por Claude Shannon que muestra que es posible transmitir datos discretos informacion digital casi sin errores sobre un mismo canal ruidoso a un regimen maximo computable Se le conoce simplemente como teorema de Shannon a pesar de que es el segundo puesto que este teorema conjuntamente con la obra de Claude Shannon sobre la teoria de la informacion tuvieron una importancia fundamental en la teoria de la informacion ofreciendo anchas aplicaciones en los dominios de las telecomunicaciones y del almacenamiento de informacion 1 El limite de Shannon o la capacidad de Shannon de un canal de comunicaciones es la velocidad teorica maxima de transferencia de informacion del canal para un nivel de ruido determinado que es el maximo fijado en la cantidad de simbolos por segundo que pueden ser transferidos a traves de esta conexion con ruido Este enunciado publicado por Claude Shannon el 1948 se baso sobre trabajos anteriores de Harry Nyquist y Ralph Hartley La primera prueba rigurosa fue establecida por Amiel Feinstein el 1954 1 Indice 1 Enunciado 2 Formulacion matematica 3 Vease tambien 4 Referencias 5 Bibliografia 6 Enlaces externosEnunciado EditarUna de las principales ventajas de la tecnologia digital es que permite el intercambio de datos sin perdida de informacion Aun asi estos datos transitan la mayoria del tiempo sobre canales no fiables sufriendo varias interferencias y por lo tanto se mezclan con el ruido Entonces como se pueden eliminar los errores de transmision La solucion consiste en introducir cierta redundancia en los mensajes emitidos por la fuente con el fin de que el receptor pueda corregir los errores de tal forma que el mensaje sea compuesto por n k displaystyle n k simbolos en donde n displaystyle n es la cantidad de simbolos que aportan informacion sobre el mensaje original aquel que el emisor transmitio y k displaystyle k es la cantidad de simbolos de redundancia mismos que le serviran al receptor para corregir los errores que el canal ruidoso haya introducido en el mensaje cabe recordar que estos k displaystyle k simbolos de redundancia tambien estan sujetos a deformaciones debido al ruido del canal A este tipo de codigo se le llama codigo corrector El Segundo Teorema de Shannon demuestra la existencia de un codigo corrector cuyo k displaystyle k cumple lo dicho anteriormente con una probabilidad de interpretar un mensaje de forma errada muy pequena y con una velocidad de transmision que se aproxima a la capacidad del canal El tiempo necesario para enviar un simbolo por la linea r el simbolos llamado Dentro de la simbolos la senal sigue siendo el mismo N b i t s log 2 N s y m b o l s displaystyle N bits log 2 N symbols Con dos simbolos definidos Nsymbols 2 por lo tanto Nsymbols transportados en 8 PSK tres bits y en QAM 64 seis bits La unidad para medir el numero de simbolos por segundo es el baudio Formulacion matematica Editar Teorema Shannon 1948 1 Para cualquier canal discreto sin memoria la capacidad de canal 2 C sup p X I X Y displaystyle C sup p X I X Y 3 4 dd Tiene la siguiente propiedad Para cualquier e gt 0 y R lt C para N bastante grande existe un codigo de longitud N y una tasa R y un algoritmo de descodificacion de forma que la probabilidad maxima de error de bloque es e 2 Si la probabilidad de error de bits pb es aceptable las tasas de transmision hasta R pb son alcanzables dondeR p b C 1 H 2 p b displaystyle R p b frac C 1 H 2 p b dd y H 2 p b displaystyle H 2 p b es la funcion entropia binariaH 2 p b p b log 2 p b 1 p b log 2 1 p b displaystyle H 2 p b left p b log 2 p b 1 p b log 2 1 p b right dd 3 Para cualquier pb las tasas de transmision mas grandes que R pb no son alcanzables MacKay 2003 p 162 de Gallager 1968 ch 5 Cover and Thomas 1991 p 198 Shannon 1948 thm 11 Vease tambien EditarParadoja de Freedman Desigualdad de Jensen Teorema de codificacion de fuentes de Shannon Teorema de Shannon HartleyReferencias Editar a b Claude Shannon July 1948 A Mathematical Theory of Communication Bell Labs Technical Journal tchow 19 de febrero de 2009 Shannon capacity of the seven cycle Open Problem Garden Hunter 19 de febrero de 2009 The supremum and infimum math ucdavis edu wikidot 19 de febrero de 2009 The supremum and infimum mathonline Bibliografia EditarCover T M Thomas J A Elementos of Information Theory John Wiley amp Sonidos 1991 ISBN 0 471 06259 6 Fano R A Transmission of information a statistical theory of communications MIT Press 1961 ISBN 0 262 06001 9 Feinstein Amiel A New basic theorem of information theory IEEE Transactions donde Information Theory 4 4 2 22 1954 MacKay David J C Information Theory Inference and Learning Algorithms Cambridge University Press 2003 ISBN 0 521 64298 1 free online Shannon C E A Mathematical Theory of Communication Urbana IL University of Illinois Press 1949 reprinted 1998 Wolfowitz J The coding of messages subject tono chance errores Illinois J Math 1 591 606 1957 Enlaces externos EditarEsta obra contiene una traduccion derivada de Segon teorema de Shannon de la Wikipedia en catalan concretamente de esta version del 17 de junio de 2017 publicada por sus editores bajo la Licencia de documentacion libre de GNU y la Licencia Creative Commons Atribucion CompartirIgual 3 0 Unported Esta obra contiene una traduccion derivada de Deuxieme theoreme de Shannon de la Wikipedia en frances concretamente de esta version del 3 de marzo de 2017 publicada por sus editores bajo la Licencia de documentacion libre de GNU y la Licencia Creative Commons Atribucion CompartirIgual 3 0 Unported Esta obra contiene una traduccion derivada de Noisy channel coderings theorema de la Wikipedia en neerlandes concretamente de esta version del 10 de marzo de 2013 publicada por sus editores bajo la Licencia de documentacion libre de GNU y la Licencia Creative Commons Atribucion CompartirIgual 3 0 Unported CE Shannon A Mathematical Theory of Communication Bello System Technical Journal vol 27 pp 379 423 julio de 1948 Donde Shannon and Shannon s law Archivado el 15 de marzo de 2016 en Wayback Machine Shannon s Noisy Channel Coding Theorem Datos Q2345282Obtenido de https es wikipedia org w index php title Segundo teorema de Shannon amp oldid 137195509, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos