fbpx
Wikipedia

Cotas de Chernoff

En la teoría de probabilidad, las Cotas de Chernoff fueron nombradas luego de su presentación por Herman Chernoff y, gracias a Herman Rubin,[1]​ se dieron cotas exponencialmente decrecientes para las distribuciones de sumas de variables aleatorias independientes. Son una cota más fina que las conocidas cotas basadas en el primer y segundo momento tales como la inecuación de Markov o la inecuación de Chebyshev, las cuales solo obtienen cotas de nivel exponencial cuando la distribución decrece. Sin embargo, las cotas de Chernoff requieren que las variables sean independientes - una condición que ni las inecuaciones de Markov ni de Chebyshev requieren.

Están relacionadas con las (antecesoras históricas) inecuaciones de Bernstein, y a la inecuación de Hoeffding.

Ejemplo

Sean X1, ..., Xn variables aleatorias independientes que distribuyen Bernoulli, cada una con probabilidad p > 1/2 de ser igual a 1. Entonces la probabilidad de la ocurrencia simultánea de más de n/2 de los eventos {Xk = 1} tiene un valor exacto S, donde

 

La cota de Chernoff muestra que S tiene la siguiente cota inferior:

 

En efecto, notando que μ = np, lo cual obtenemos por la forma multiplicativa de las cotas de Chernoff (ver más abajo o el Corolario 13.3 en las notas de clases de Sinclair),[2]

 

Estas cotas admiten varias generalizaciones como se señala más abajo. Podemos encontrar varias representaciones de las cotas de Chernoff: la original forma aditiva (la cual da una cota para el error absoluto) o la más práctica forma multiplicativa (la cual da una cota del error relativo para la esperanza).

Primer paso para probar las cotas de Chernoff

Las cotas de Chernoff para una variable aleatoria X, la cual es la suma de n variables aleatorias independientes X1, ..., Xn, se obtienen al aplicar etX para algún t bien elegido. Este método fue aplicado por primera vez por Sergei Bernstein para probar las relacionadas inecuaciones de Bernstein.

De la inecuación de Markov y usando la independencia podemos llegar a la siguiente inecuación:

Para cualquier t > 0,

 

En particular optimizando sobre t y usando la independencia de Xi obtenemos,

|   (1)

Similarmente,

 

y también,

 

Definiciones precisas y demostraciones

Teorema para la forma aditiva (error absoluto)

El siguiente teorema fue anunciado por Wassily Hoeffding y por esto es llamado el teorema Chernoff-Hoeffding.

Teorema Chernoff-Hoeffding. Supón que X1, ..., Xn son variables aleatorias igualmente distribuidas, tomando valores en {0, 1}. Sea p = E[Xi] y ε > 0. Entonces
 
donde
 
es la divergencia Kullback–Leibler entre dos variables aleatorias que distribuyen Bernoulli con parámetros x y y respectivamente. Si p1/2, entonces
 

Demostración

Sea q = p + ε. Tomando a = nq en (1), obtenemos:

 

Luego, conociendo que Pr(Xi = 1) = p, Pr(Xi = 0) = 1 − p, tenemos que

 

Por lo tanto podemos computar fácilmente el ínfimo, usando cálculo:

 

Igualando la ecuación a 0 y resolviéndola, tenemos

 

entonces

 

Por lo que,

 

Como q = p + ε > p, vemos que t > 0, por lo cual nuestra cota se satisface para t. Luego de resolverlo para t, podemos sustituir en las ecuaciones anteriores para llegar a que

 

Ahora tenemos el resultado deseado, que

 

Para completar la demostración para el caso simétrico, simplemente definimos la variable aleatoria Yi = 1 − Xi, aplicamos la misma demostración, y sustituímos en nuestra cota.

Cotas más simples

Una cota más simple se obtiene al relajar el teorema usando D(p + x || p) ≥ 2x2, debido a que D(p + x || p) es convexo y al hecho de que

 

Este resultado es un caso especial de la inecuación de Hoeffding. En algunas ocasiones, la cota

 

la cual es más fuerte para p < 1/8, es también usada.

Teorema para la forma multiplicativa de las cotas de Chernoff (error relativo)

Cota de Chernoff Multiplicativa. Supón que X1, ..., Xn son variables aleatorias independientes tomando valores en {0, 1}. Sea X la variable que denota su suma y μ = E[X] la suma de los valores esperados. Entonces para todo δ > 0,
 

Demostración

Evaluando Pr(Xi = 1) = pi. De acuerdo a (1),

 

La tercera línea abajo está dada porque   toma el valor et con probabilidad pi y el valor 1 con probabilidad 1 − pi. Este es idéntico al cálculo anterior en la demostración del teorema de la forma aditiva.

Reescribiendo   as   y notando que   (con inecuación estricta si x > 0), hacemos  . El mismo resultado puede obtenerse al reemplazar a en la ecuación para la cota de Chernoff con (1 + δ)μ.

Por lo tanto,

 

Si simplemente hacemos t = log(1 + δ) tal que t > 0 para δ > 0, podemos sustituir y encontrar

 

Esto prueba el resultado deseado. Una estrategia similar de demostración puede ser usada para mostrar que

 

La fórmula anterior en la práctica es usualmente torpe para computar,[3]​ por lo que las siguientes cotas más flojas pero más convenientes son usadas a menudo:

 
 
 

Mejores cotas de Chernoff para algunos casos especiales

Podemos obtener cotas más fuertes usando técnicas de demostración más simples para algunos casos especiales de variables aleatorias simétricas.

Supón que X1, ..., Xn son variables aleatorias independientes, y que X denota la suma de ellas.

  • Si  . Entonces,
 
y por lo tanto también
 
  • Si   Entonces,
 
 

Aplicaciones de las cotas de Chernoff

Las cotas de Chernoff tienen aplicaciones muy útiles en el balance de conjuntos y el enrutamiento de paquetes en redes esparcidas.

El problema del balance de conjuntos surge durante el diseño de experimentos estadísticos. Típicamente mientras diseñamos un experimento estadístico, dadas las características de cada participante en el experimento, necesitamos conocer como dividir los participantes en dos conjuntos disjuntos tal que las características están tan balanceada como sea posible entre los dos grupos. Referirse a sección del libro para más información del problema.

Las cotas de Chernoff son también usadas para obtener cotas ajustadas para los problemas de la permutación de enrutamiento con una congestión de redes reducida durante el enrutamiento de paquetes en redes esparcidas. Referirse a sección del libro para un completo tratamiento del problema.

Las cotas de Chernoff puedes ser usadas de manera efectiva para evaluar el "nivel de robustez" de una aplicación/algoritmo al explorar su espacio de perturbación con aleatoriedad.[4]​ El uso de cotas de Chernoff permite abandonar la hipótesis de las fuertes -y mayormente no realistas- pequeñas perturbaciones. El nivel de robustez puede ser, en cambio, usado para validar o rechazar una elección específica de algoritmo, una implementación de hardware o la pertinencia de una solución cuyos parámetros estructurales son afectados con incertidumbre.

Cotas de Chernoff para matrices

Rudolf Ahlswede y Andreas Winter introdujeron (Ahlswede y Winter, 2003) una cota de Chernoff para variables aleatorias con representación matricial.

Si M está distribuida acorde a cierta distribución sobre d × d matrices con esperanza 0, y si M1, ..., Mt son copias independientes de M entonces para todo ε > 0,

 

donde   se cumple casi siempre y C > 0 es una constante.

Notar que el número de muestras en la inecuación depende logarítmicamente de d. En general, desafortunadamente, tal dependencia es inevitable: toma por ejemplo una matriz diagona aleatoria de dimensión d. El operador norma de la suma de t muestras independientes es precisamente la máxima desviación entre d caminos independientes de longitud t. En orden de alcanzar una cota fija en la desviación máxima con probabilidad constante, es fácil darse cuenta de que t debería crecer logarítmicamente con d en este caso.[5]

El siguiente teorema se puede satisfacer si asumimos que M tiene bajo rango, con el objetivo de evitar la dependencia de las dimensiones.


Teorema sin la dependencia de las dimensiones

Sea 0 < ε < 1 y M una matriz simétrica real aleatoria con   y   casi siempre. Asume que cada elemento en la base de 'M' tiene a lo sumo rango r. Evalúa

 

Si   se cumple casi siempre, entonces

 

donde M1, ..., Mt son copias de 'M' igualmente distribuidas.

Variante de muestreo

La siguiente variante de las cotas de Chernoff puede ser usada para acotar la probabilidad de que una mayoría en una población se convierta en minoría en una muestra, o viceversa[6]

Supón que hay una población general A y una sub-población BA. Denota el tamaño relativo de la sub-población (|B|/|A|) con r.

Supón que elegimos un entero k y una muestra aleatoria SA de tamaño k. Denota el tamaño relativo de la sub-población (|BS|/|S|) con rS.

Entonces, para toda fracción d∈[0,1]:

 

En particular, si B es una mayoría en A (r > 0.5) podemos acotar la probabilidad de que B se mantenga como una minoría en S (rS>0.5) tomando: d = 1 - 1 / (2 r):[7]

 

Esta cota no es fina para nada. Por ejemplo, cuando r = 0.5 tenemos una cota trivial Prob > 0.

Referencias

  1. Chernoff, Herman (2014). «A career in statistics». En Lin, Xihong; Genest, Christian; Banks, David L.; Molenberghs, Geert; Scott, David W.; Wang, Jane-Ling, eds. Past, Present, and Future of Statistics. CRC Press. p. 35. ISBN 9781482204964. 
  2. Sinclair, Alistair (Fall 2011). . Archivado desde el original el 31 de octubre de 2014. Consultado el 30 de octubre de 2014. 
  3. Mitzenmacher, Michael and Upfal, Eli (2005). Probability and Computing: Randomized Algorithms and Probabilistic Analysis. Cambridge University Press. ISBN 0-521-83540-2. 
  4. C.Alippi: "Randomized Algorithms" chapter in Intelligence for Embedded Systems. Springer, 2014, 283pp, ISBN 978-3-319-05278-6.
  5. *Magen, A.; Zouzias, A. (2011). «Low Rank Matrix-Valued Chernoff Bounds and Approximate Matrix Multiplication». arXiv:1005.2724  [cs.DM]. 
  6. Goldberg, A. V.; Hartline, J. D. (2001). «Competitive Auctions for Multiple Digital Goods». Algorithms — ESA 2001. Lecture Notes in Computer Science 2161. p. 416. ISBN 978-3-540-42493-2. doi:10.1007/3-540-44676-1_35. ; lemma 6.1
  7. Ver grafos de: la cota como una función de r donde k cambia y la cota como una función de k donde r cambia.
  • Chernoff, H. (1952). «A Measure of Asymptotic Efficiency for Tests of a Hypothesis Based on the sum of Observations». [Annals of Mathematical Statistics] 23 (4): 493-507. JSTOR 2236576. MR 57518. Zbl 0048.11804. doi:10.1214/aoms/1177729330. 
  • Hoeffding, W. (1963). «Probability Inequalities for Sums of Bounded Random Variables». [Journal of the American Statistical Association] 58 (301): 13-30. JSTOR 2282952. doi:10.2307/2282952. 
  • Chernoff, H. (1981). «A Note on an Inequality Involving the Normal Distribution». [Annals of Probability] 9 (3): 533. JSTOR 2243541. MR 614640. Zbl 0457.60014. doi:10.1214/aop/1176994428. 
  • Hagerup, T. (1990). «A guided tour of Chernoff bounds». [Information Processing Letters] 33 (6): 305. doi:10.1016/0020-0190(90)90214-I. 
  • Ahlswede, R.; Winter, A. (2003). «Strong Converse for Identification via Quantum Channels». [IEEE Transactions on Information Theory] 48 (3): 569-579. arXiv:quant-ph/0012127. doi:10.1109/18.985947. 
  • Mitzenmacher, M.; Upfal, E. (2005). Probability and Computing: Randomized Algorithms and Probabilistic Analysis. ISBN 978-0-521-83540-4. 
  • Nielsen, F. (2011). «Chernoff information of exponential families». arXiv:1102.2684

 [cs.IT]. 


  •   Datos: Q1070305

cotas, chernoff, teoría, probabilidad, fueron, nombradas, luego, presentación, herman, chernoff, gracias, herman, rubin, dieron, cotas, exponencialmente, decrecientes, para, distribuciones, sumas, variables, aleatorias, independientes, cota, más, fina, conocid. En la teoria de probabilidad las Cotas de Chernoff fueron nombradas luego de su presentacion por Herman Chernoff y gracias a Herman Rubin 1 se dieron cotas exponencialmente decrecientes para las distribuciones de sumas de variables aleatorias independientes Son una cota mas fina que las conocidas cotas basadas en el primer y segundo momento tales como la inecuacion de Markov o la inecuacion de Chebyshev las cuales solo obtienen cotas de nivel exponencial cuando la distribucion decrece Sin embargo las cotas de Chernoff requieren que las variables sean independientes una condicion que ni las inecuaciones de Markov ni de Chebyshev requieren Estan relacionadas con las antecesoras historicas inecuaciones de Bernstein y a la inecuacion de Hoeffding Indice 1 Ejemplo 2 Primer paso para probar las cotas de Chernoff 3 Definiciones precisas y demostraciones 3 1 Teorema para la forma aditiva error absoluto 3 1 1 Demostracion 3 1 2 Cotas mas simples 3 2 Teorema para la forma multiplicativa de las cotas de Chernoff error relativo 3 2 1 Demostracion 3 3 Mejores cotas de Chernoff para algunos casos especiales 4 Aplicaciones de las cotas de Chernoff 5 Cotas de Chernoff para matrices 5 1 Teorema sin la dependencia de las dimensiones 6 Variante de muestreo 7 ReferenciasEjemplo EditarSean X1 Xn variables aleatorias independientes que distribuyen Bernoulli cada una con probabilidad p gt 1 2 de ser igual a 1 Entonces la probabilidad de la ocurrencia simultanea de mas de n 2 de los eventos Xk 1 tiene un valor exacto S donde S i n 2 1 n n i p i 1 p n i displaystyle S sum i lfloor tfrac n 2 rfloor 1 n binom n i p i 1 p n i La cota de Chernoff muestra que S tiene la siguiente cota inferior S 1 e 1 2 p n p 1 2 2 displaystyle S geq 1 e frac 1 2p n left p frac 1 2 right 2 En efecto notando que m np lo cual obtenemos por la forma multiplicativa de las cotas de Chernoff ver mas abajo o el Corolario 13 3 en las notas de clases de Sinclair 2 Pr k 1 n X k n 2 Pr k 1 n X k 1 1 1 2 p m e m 2 1 1 2 p 2 e n 2 p p 1 2 2 displaystyle begin aligned Pr left sum k 1 n X k leq left lfloor tfrac n 2 right rfloor right amp Pr left sum k 1 n X k leq left 1 left 1 tfrac 1 2p right right mu right amp leq e frac mu 2 left 1 frac 1 2p right 2 amp e frac n 2p left p frac 1 2 right 2 end aligned Estas cotas admiten varias generalizaciones como se senala mas abajo Podemos encontrar varias representaciones de las cotas de Chernoff la original forma aditiva la cual da una cota para el error absoluto o la mas practica forma multiplicativa la cual da una cota del error relativo para la esperanza Primer paso para probar las cotas de Chernoff EditarLas cotas de Chernoff para una variable aleatoria X la cual es la suma de n variables aleatorias independientes X1 Xn se obtienen al aplicar etX para algun t bien elegido Este metodo fue aplicado por primera vez por Sergei Bernstein para probar las relacionadas inecuaciones de Bernstein De la inecuacion de Markov y usando la independencia podemos llegar a la siguiente inecuacion Para cualquier t gt 0 Pr X a Pr e t X e t a E e t X e t a e t a E i e t X i displaystyle Pr X geq a Pr left e tX geq e ta right leq frac E left e tX right e ta e ta mathrm E left prod i e tX i right En particular optimizando sobre t y usando la independencia de Xi obtenemos Pr X a min t gt 0 e t a i E e t X i displaystyle Pr X geq a leq min t gt 0 e ta prod i E left e tX i right 1 Similarmente Pr X a Pr e t X e t a displaystyle Pr X leq a Pr left e tX geq e ta right y tambien Pr X a min t gt 0 e t a i E e t X i displaystyle Pr X leq a leq min t gt 0 e ta prod i mathrm E left e tX i right Definiciones precisas y demostraciones EditarTeorema para la forma aditiva error absoluto Editar El siguiente teorema fue anunciado por Wassily Hoeffding y por esto es llamado el teorema Chernoff Hoeffding Teorema Chernoff Hoeffding Supon que X1 Xn son variables aleatorias igualmente distribuidas tomando valores en 0 1 Sea p E Xi y e gt 0 EntoncesPr 1 n X i p e p p e p e 1 p 1 p e 1 p e n e D p e p n Pr 1 n X i p e p p e p e 1 p 1 p e 1 p e n e D p e p n displaystyle begin aligned Pr left frac 1 n sum X i geq p varepsilon right leq left left frac p p varepsilon right p varepsilon left frac 1 p 1 p varepsilon right 1 p varepsilon right n amp e D p varepsilon p n Pr left frac 1 n sum X i leq p varepsilon right leq left left frac p p varepsilon right p varepsilon left frac 1 p 1 p varepsilon right 1 p varepsilon right n amp e D p varepsilon p n end aligned dd dondeD x y x ln x y 1 x ln 1 x 1 y displaystyle D x y x ln frac x y 1 x ln left frac 1 x 1 y right dd es la divergencia Kullback Leibler entre dos variables aleatorias que distribuyen Bernoulli con parametros x y y respectivamente Si p 1 2 entoncesPr X gt n p x exp x 2 2 n p 1 p displaystyle Pr left X gt np x right leq exp left frac x 2 2np 1 p right dd Demostracion Editar Sea q p e Tomando a nq en 1 obtenemos Pr 1 n X i q inf t gt 0 E e t X i e t n q inf t gt 0 E e t X i e t q n displaystyle Pr left frac 1 n sum X i geq q right leq inf t gt 0 frac E left prod e tX i right e tnq inf t gt 0 left frac E left e tX i right e tq right n Luego conociendo que Pr Xi 1 p Pr Xi 0 1 p tenemos que E e t X i e t q n p e t 1 p e t q n p e 1 q t 1 p e q t n displaystyle left frac mathrm E left e tX i right e tq right n left frac pe t 1 p e tq right n left pe 1 q t 1 p e qt right n Por lo tanto podemos computar facilmente el infimo usando calculo d d t p e 1 q t 1 p e q t 1 q p e 1 q t q 1 p e q t displaystyle frac d dt left pe 1 q t 1 p e qt right 1 q pe 1 q t q 1 p e qt Igualando la ecuacion a 0 y resolviendola tenemos 1 q p e 1 q t q 1 p e q t 1 q p e t q 1 p displaystyle begin aligned 1 q pe 1 q t amp q 1 p e qt 1 q pe t amp q 1 p end aligned entonces e t 1 p q 1 q p displaystyle e t frac 1 p q 1 q p Por lo que t log 1 p q 1 q p displaystyle t log left frac 1 p q 1 q p right Como q p e gt p vemos que t gt 0 por lo cual nuestra cota se satisface para t Luego de resolverlo para t podemos sustituir en las ecuaciones anteriores para llegar a que log p e 1 q t 1 p e q t log e q t 1 p p e t log e q log 1 p q 1 q p log 1 p p e log 1 p 1 q e log q p q log 1 p 1 q q log q p log 1 p p 1 p 1 q q p q log 1 p 1 q q log q p log 1 p 1 q 1 q 1 p q 1 q q log q p q log 1 p 1 q log 1 p 1 q q log q p 1 q log 1 p 1 q D q p displaystyle begin aligned log left pe 1 q t 1 p e qt right amp log left e qt 1 p pe t right amp log left e q log left frac 1 p q 1 q p right right log left 1 p pe log left frac 1 p 1 q right e log frac q p right amp q log frac 1 p 1 q q log frac q p log left 1 p p left frac 1 p 1 q right frac q p right amp q log frac 1 p 1 q q log frac q p log left frac 1 p 1 q 1 q frac 1 p q 1 q right amp q log frac q p left q log frac 1 p 1 q log frac 1 p 1 q right amp q log frac q p 1 q log frac 1 p 1 q amp D q p end aligned Ahora tenemos el resultado deseado que Pr 1 n X i p e e D p e p n displaystyle Pr left tfrac 1 n sum X i geq p varepsilon right leq e D p varepsilon p n Para completar la demostracion para el caso simetrico simplemente definimos la variable aleatoria Yi 1 Xi aplicamos la misma demostracion y sustituimos en nuestra cota Cotas mas simples Editar Una cota mas simple se obtiene al relajar el teorema usando D p x p 2x2 debido a que D p x p es convexo y al hecho de que d 2 d x 2 D p x p 1 p x 1 p x 4 d 2 d x 2 2 x 2 displaystyle frac d 2 dx 2 D p x p frac 1 p x 1 p x geq 4 frac d 2 dx 2 2x 2 Este resultado es un caso especial de la inecuacion de Hoeffding En algunas ocasiones la cota D 1 x p p 1 4 x 2 p 1 2 x 1 2 displaystyle D 1 x p p geq tfrac 1 4 x 2 p qquad tfrac 1 2 leq x leq tfrac 1 2 la cual es mas fuerte para p lt 1 8 es tambien usada Teorema para la forma multiplicativa de las cotas de Chernoff error relativo Editar Cota de Chernoff Multiplicativa Supon que X1 Xn son variables aleatorias independientes tomando valores en 0 1 Sea X la variable que denota su suma y m E X la suma de los valores esperados Entonces para todo d gt 0 Pr X gt 1 d m lt e d 1 d 1 d m displaystyle Pr X gt 1 delta mu lt left frac e delta 1 delta 1 delta right mu dd Demostracion Editar Evaluando Pr Xi 1 pi De acuerdo a 1 Pr X gt 1 d m inf t gt 0 E i 1 n exp t X i exp t 1 d m inf t gt 0 i 1 n E e t X i exp t 1 d m inf t gt 0 i 1 n p i e t 1 p i exp t 1 d m displaystyle begin aligned Pr X gt 1 delta mu amp leq inf t gt 0 frac mathrm E left prod i 1 n exp tX i right exp t 1 delta mu amp inf t gt 0 frac prod i 1 n mathrm E left e tX i right exp t 1 delta mu amp inf t gt 0 frac prod i 1 n left p i e t 1 p i right exp t 1 delta mu end aligned La tercera linea abajo esta dada porque e t X i displaystyle e tX i toma el valor et con probabilidad pi y el valor 1 con probabilidad 1 pi Este es identico al calculo anterior en la demostracion del teorema de la forma aditiva Reescribiendo p i e t 1 p i displaystyle p i e t 1 p i as p i e t 1 1 displaystyle p i e t 1 1 y notando que 1 x e x displaystyle 1 x leq e x con inecuacion estricta si x gt 0 hacemos x p i e t 1 displaystyle x p i e t 1 El mismo resultado puede obtenerse al reemplazar a en la ecuacion para la cota de Chernoff con 1 d m Por lo tanto Pr X gt 1 d m lt i 1 n exp p i e t 1 exp t 1 d m exp e t 1 i 1 n p i exp t 1 d m exp e t 1 m exp t 1 d m displaystyle Pr X gt 1 delta mu lt frac prod i 1 n exp p i e t 1 exp t 1 delta mu frac exp left e t 1 sum i 1 n p i right exp t 1 delta mu frac exp e t 1 mu exp t 1 delta mu Si simplemente hacemos t log 1 d tal que t gt 0 para d gt 0 podemos sustituir y encontrar exp e t 1 m exp t 1 d m exp 1 d 1 m 1 d 1 d m e d 1 d 1 d m displaystyle frac exp e t 1 mu exp t 1 delta mu frac exp 1 delta 1 mu 1 delta 1 delta mu left frac e delta 1 delta 1 delta right mu Esto prueba el resultado deseado Una estrategia similar de demostracion puede ser usada para mostrar que Pr X lt 1 d m lt exp d 1 d 1 d m displaystyle Pr X lt 1 delta mu lt left frac exp delta 1 delta 1 delta right mu La formula anterior en la practica es usualmente torpe para computar 3 por lo que las siguientes cotas mas flojas pero mas convenientes son usadas a menudo Pr X 1 d m e d 2 m 3 0 lt d lt 1 displaystyle Pr X geq 1 delta mu leq e frac delta 2 mu 3 qquad 0 lt delta lt 1 Pr X 1 d m e d m 3 1 lt d displaystyle Pr X geq 1 delta mu leq e frac delta mu 3 qquad 1 lt delta Pr X 1 d m e d 2 m 2 0 lt d lt 1 displaystyle Pr X leq 1 delta mu leq e frac delta 2 mu 2 qquad 0 lt delta lt 1 Mejores cotas de Chernoff para algunos casos especiales Editar Podemos obtener cotas mas fuertes usando tecnicas de demostracion mas simples para algunos casos especiales de variables aleatorias simetricas Supon que X1 Xn son variables aleatorias independientes y que X denota la suma de ellas Si Pr X i 1 Pr X i 1 1 2 displaystyle Pr X i 1 Pr X i 1 tfrac 1 2 Entonces Pr X a e a 2 2 n a gt 0 displaystyle Pr X geq a leq e frac a 2 2n qquad a gt 0 dd y por lo tanto tambienPr X a 2 e a 2 2 n a gt 0 displaystyle Pr X geq a leq 2e frac a 2 2n qquad a gt 0 dd Si Pr X i 1 Pr X i 0 1 2 E X m n 2 displaystyle Pr X i 1 Pr X i 0 tfrac 1 2 mathrm E X mu frac n 2 Entonces Pr X m a e 2 a 2 n a gt 0 displaystyle Pr X geq mu a leq e frac 2a 2 n qquad a gt 0 Pr X m a e 2 a 2 n 0 lt a lt m displaystyle Pr X leq mu a leq e frac 2a 2 n qquad 0 lt a lt mu dd Aplicaciones de las cotas de Chernoff EditarLas cotas de Chernoff tienen aplicaciones muy utiles en el balance de conjuntos y el enrutamiento de paquetes en redes esparcidas El problema del balance de conjuntos surge durante el diseno de experimentos estadisticos Tipicamente mientras disenamos un experimento estadistico dadas las caracteristicas de cada participante en el experimento necesitamos conocer como dividir los participantes en dos conjuntos disjuntos tal que las caracteristicas estan tan balanceada como sea posible entre los dos grupos Referirse a seccion del libro para mas informacion del problema Las cotas de Chernoff son tambien usadas para obtener cotas ajustadas para los problemas de la permutacion de enrutamiento con una congestion de redes reducida durante el enrutamiento de paquetes en redes esparcidas Referirse a seccion del libro para un completo tratamiento del problema Las cotas de Chernoff puedes ser usadas de manera efectiva para evaluar el nivel de robustez de una aplicacion algoritmo al explorar su espacio de perturbacion con aleatoriedad 4 El uso de cotas de Chernoff permite abandonar la hipotesis de las fuertes y mayormente no realistas pequenas perturbaciones El nivel de robustez puede ser en cambio usado para validar o rechazar una eleccion especifica de algoritmo una implementacion de hardware o la pertinencia de una solucion cuyos parametros estructurales son afectados con incertidumbre Cotas de Chernoff para matrices EditarRudolf Ahlswede y Andreas Winter introdujeron Ahlswede y Winter 2003 una cota de Chernoff para variables aleatorias con representacion matricial Si M esta distribuida acorde a cierta distribucion sobre d d matrices con esperanza 0 y si M1 Mt son copias independientes de M entonces para todo e gt 0 Pr 1 t i 1 t M i 2 gt e d exp C e 2 t g 2 displaystyle Pr left left frac 1 t sum i 1 t M i right 2 gt varepsilon right leq d exp left C frac varepsilon 2 t gamma 2 right donde M 2 g displaystyle lVert M rVert 2 leq gamma se cumple casi siempre y C gt 0 es una constante Notar que el numero de muestras en la inecuacion depende logaritmicamente de d En general desafortunadamente tal dependencia es inevitable toma por ejemplo una matriz diagona aleatoria de dimension d El operador norma de la suma de t muestras independientes es precisamente la maxima desviacion entre d caminos independientes de longitud t En orden de alcanzar una cota fija en la desviacion maxima con probabilidad constante es facil darse cuenta de que t deberia crecer logaritmicamente con d en este caso 5 El siguiente teorema se puede satisfacer si asumimos que M tiene bajo rango con el objetivo de evitar la dependencia de las dimensiones Teorema sin la dependencia de las dimensiones Editar Sea 0 lt e lt 1 y M una matriz simetrica real aleatoria con E M 2 1 displaystyle mathrm E M 2 leq 1 y M 2 g displaystyle M 2 leq gamma casi siempre Asume que cada elemento en la base de M tiene a lo sumo rango r Evalua t W g log g e 2 e 2 displaystyle t Omega left frac gamma log gamma varepsilon 2 varepsilon 2 right Si r t displaystyle r leq t se cumple casi siempre entonces Pr 1 t i 1 t M i E M 2 gt e 1 p o l y t displaystyle Pr left left frac 1 t sum i 1 t M i mathrm E M right 2 gt varepsilon right leq frac 1 mathbf poly t donde M1 Mt son copias de M igualmente distribuidas Variante de muestreo EditarLa siguiente variante de las cotas de Chernoff puede ser usada para acotar la probabilidad de que una mayoria en una poblacion se convierta en minoria en una muestra o viceversa 6 Supon que hay una poblacion general A y una sub poblacion B A Denota el tamano relativo de la sub poblacion B A con r Supon que elegimos un entero k y una muestra aleatoria S A de tamano k Denota el tamano relativo de la sub poblacion B S S con rS Entonces para toda fraccion d 0 1 P r r S lt 1 d r lt exp r d 2 k 2 displaystyle mathrm Pr left r S lt 1 d cdot r right lt exp left r cdot d 2 cdot k 2 right En particular si B es una mayoria en A r gt 0 5 podemos acotar la probabilidad de que B se mantenga como una minoria en S rS gt 0 5 tomando d 1 1 2 r 7 P r r S gt 0 5 gt 1 exp r 1 1 2 r 2 k 2 displaystyle mathrm Pr left r S gt 0 5 right gt 1 exp left r cdot left 1 frac 1 2r right 2 cdot k 2 right Esta cota no es fina para nada Por ejemplo cuando r 0 5 tenemos una cota trivial Prob gt 0 Referencias Editar Chernoff Herman 2014 A career in statistics En Lin Xihong Genest Christian Banks David L Molenberghs Geert Scott David W Wang Jane Ling eds Past Present and Future of Statistics CRC Press p 35 ISBN 9781482204964 Sinclair Alistair Fall 2011 Class notes for the course Randomness and Computation Archivado desde el original el 31 de octubre de 2014 Consultado el 30 de octubre de 2014 Mitzenmacher Michael and Upfal Eli 2005 Probability and Computing Randomized Algorithms and Probabilistic Analysis Cambridge University Press ISBN 0 521 83540 2 C Alippi Randomized Algorithms chapter in Intelligence for Embedded Systems Springer 2014 283pp ISBN 978 3 319 05278 6 Magen A Zouzias A 2011 Low Rank Matrix Valued Chernoff Bounds and Approximate Matrix Multiplication arXiv 1005 2724 cs DM Goldberg A V Hartline J D 2001 Competitive Auctions for Multiple Digital Goods Algorithms ESA 2001 Lecture Notes in Computer Science 2161 p 416 ISBN 978 3 540 42493 2 doi 10 1007 3 540 44676 1 35 lemma 6 1 Ver grafos de la cota como una funcion de r donde k cambia y la cota como una funcion de k donde r cambia Chernoff H 1952 A Measure of Asymptotic Efficiency for Tests of a Hypothesis Based on the sum of Observations Annals of Mathematical Statistics 23 4 493 507 JSTOR 2236576 MR 57518 Zbl 0048 11804 doi 10 1214 aoms 1177729330 Hoeffding W 1963 Probability Inequalities for Sums of Bounded Random Variables Journal of the American Statistical Association 58 301 13 30 JSTOR 2282952 doi 10 2307 2282952 Chernoff H 1981 A Note on an Inequality Involving the Normal Distribution Annals of Probability 9 3 533 JSTOR 2243541 MR 614640 Zbl 0457 60014 doi 10 1214 aop 1176994428 Hagerup T 1990 A guided tour of Chernoff bounds Information Processing Letters 33 6 305 doi 10 1016 0020 0190 90 90214 I Ahlswede R Winter A 2003 Strong Converse for Identification via Quantum Channels IEEE Transactions on Information Theory 48 3 569 579 arXiv quant ph 0012127 doi 10 1109 18 985947 Mitzenmacher M Upfal E 2005 Probability and Computing Randomized Algorithms and Probabilistic Analysis ISBN 978 0 521 83540 4 Nielsen F 2011 Chernoff information of exponential families arXiv 1102 2684 cs IT Datos Q1070305 Obtenido de https es wikipedia org w index php title Cotas de Chernoff amp oldid 143031223, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos