fbpx
Wikipedia

Distribución normal

En estadística y probabilidad se llama distribución normal, distribución de Gauss, distribución gaussiana o distribución de Laplace-Gauss, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en estadística y en la teoría de probabilidades.[1]

Distribución normal

La línea verde corresponde a la distribución normal estándar
Función de densidad de probabilidad

Función de distribución de probabilidad
Parámetros

Dominio
Función de densidad (pdf)
Función de distribución (cdf)
Media
Mediana
Moda
Varianza
Coeficiente de simetría 0
Curtosis 0
Entropía
Función generadora de momentos (mgf)
Función característica

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.[2]

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos.[3]​Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

De hecho, la estadística descriptiva solo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.[4]​ Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una "normalidad" más o menos justificada de la variable aleatoria bajo estudio.

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.

Historia

 
Abraham de Moivre, primero en descubrir la distribución normal

La distribución normal fue presentada por primera vez por Abraham de Moivre en un artículo del año 1733,[5]​ que fue reimpreso en la segunda edición de su The Doctrine of Chances, de 1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las probabilidades (1812), y en la actualidad se llama Teorema de De Moivre-Laplace.

Laplace usó la distribución normal en el análisis de errores de experimentos. El importante método de mínimos cuadrados fue introducido por Legendre en 1805. Gauss, que afirmaba haber usado el método desde 1794, lo justificó rigurosamente en 1809 asumiendo una distribución normal de los errores. El nombre de Gauss se ha asociado a esta distribución porque la usó con profusión cuando analizaba datos astronómicos[6]​ y algunos autores le atribuyen un descubrimiento independiente del de De Moivre.[7]​Esta atribución del nombre de la distribución a una persona distinta de su primer descubridor es un claro ejemplo de la ley de Stigler.

El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface" (superficie campana) por primera vez en 1872 para una distribución normal bivariante de componentes independientes. El nombre de "distribución normal" fue otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm Lexis hacia 1875.[cita requerida] A pesar de esta terminología, otras distribuciones de probabilidad podrían ser más apropiadas en determinados contextos; véase la discusión sobre incidencia, más abajo.

Definición formal

La función de distribución de la distribución normal está definida como sigue:

 

donde:

  •   es la media (también puede ser la mediana, la moda o el valor esperado, según aplique)
  •   es la desviación típica [estándar es un anglicismo]
  •  es la varianza
  •   representa la función de densidad de probabilidad

También podemos definir la normal a través de la función de densidad:

 

La función de distribución normal estándar es un caso especial de la función donde   y  :

 

Esta función de distribución puede expresarse en términos de una función especial llamada función error de la siguiente forma:

 

y la propia función de distribución puede, por consiguiente, expresarse así:

 

El complemento de la función de distribución de la normal estándar,  , se denota con frecuencia  , y es referida, a veces, como simplemente función Q, especialmente en textos de ingeniería.[8][9]​ Esto representa la cola de probabilidad de la distribución gaussiana. También se usan ocasionalmente otras definiciones de la función Q, las cuales son todas ellas transformaciones simples de  .[10]

La inversa de la función de distribución de la normal estándar (función cuantil) puede expresarse en términos de la inversa de la función de error:

 

y la inversa de la función de distribución puede, por consiguiente, expresarse como:

 

Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental para la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado la inexistencia de tal función. Existen varios métodos exactos para aproximar la función cuantil mediante la distribución normal (véase función cuantil).

Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos, tales como integración numérica, series de Taylor, series asintóticas y fracciones continuas.

Límite inferior y superior estrictos para la función de distribución

Para grandes valores de x la función de distribución de la normal estándar   es muy próxima a 1 y   está muy cerca de 0. Los límites elementales

 

en términos de la densidad   son útiles.

Usando el cambio de variable v = u²/2, el límite superior se obtiene como sigue:

 

De forma similar, usando   y la regla del cociente,

 

Resolviendo para   proporciona el límite inferior.

Funciones generatrices

Función generatriz de momentos

La función generatriz de momentos se define como la esperanza de e(tX). Para una distribución normal, la función generatriz de momentos es:

 

como puede comprobarse al completar el cuadrado en el exponente.


Función característica

La función característica se define como la esperanza de eitX, donde i es la unidad imaginaria. De este modo, la función característica se obtiene reemplazando t por it en la función generatriz de momentos. Para una distribución normal, la función característica es[11]

 

Propiedades

Algunas propiedades de la distribución normal son las siguientes:

  1. Es simétrica respecto de su media,  ;
     
    Distribución de probabilidad alrededor de la media en una distribución N(μ, σ2).
  2. La moda y la mediana son ambas iguales a la media,  ;
  3. Los puntos de inflexión de la curva se dan para   y  .
  4. Distribución de probabilidad en un entorno de la media:
    1. en el intervalo  se encuentra comprendida, aproximadamente, el 68,26 % de la distribución;
    2. en el intervalo   se encuentra, aproximadamente, el 95,44 % de la distribución;
    3. por su parte, en el intervalo   se encuentra comprendida, aproximadamente, el 99,74 % de la distribución. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar.
  5. Si   y  , entonces  .
  6. Si   e   son variables aleatorias normales independientes, entonces:
    • Su suma está normalmente distribuida con   (demostración). Recíprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crámer).
    • Su diferencia está normalmente distribuida con  .
    • Si las varianzas de X e Y son iguales, entonces U y V son independientes entre sí.
    • La divergencia de Kullback-Leibler,  
  7. Si   e   son variables aleatorias independientes normalmente distribuidas, entonces:
    • Su producto   sigue una distribución con densidad   dada por
        donde   es una función de Bessel modificada de segundo tipo.
    • Su cociente sigue una distribución de Cauchy con  . De este modo la distribución de Cauchy es un tipo especial de distribución cociente.
  8. Si   son variables normales estándar independientes, entonces   sigue una distribución χ² con n grados de libertad.
  9. Si   son variables normales estándar independientes, entonces la media muestral   y la varianza muestral   son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qué el test-F no es robusto respecto a la no-normalidad).

Estandarización de variables aleatorias normales

Como consecuencia de la Propiedad 1; es posible relacionar todas las variables aleatorias normales con la distribución normal estándar.

Si  , entonces

 

es una variable aleatoria normal estándar:   ~  .

La transformación de una distribución X ~ N(μ, σ) en una N(0, 1) se llama normalización, estandarización o tipificación de la variable X.

Una consecuencia importante de esto es que la función de distribución de una distribución normal es, por consiguiente,

 

A la inversa, si   es una distribución normal estándar,   ~  , entonces

 

es una variable aleatoria normal tipificada de media   y varianza  .

La distribución normal estándar está tabulada (habitualmente en la forma del valor de la función de distribución Φ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como se describe más arriba, de la distribución estándar. De este modo se pueden usar los valores tabulados de la función de distribución normal estándar para encontrar valores de la función de distribución de cualquier otra distribución normal.

Momentos

Los primeros momentos de la distribución normal son:

Número Momento Momento central Cumulante
0 1 1
1   0  
2      
3   0 0
4     0
5   0 0
6     0
7   0 0
8     0

Todos los cumulantes de la distribución normal, más allá del segundo, son cero.


Los momentos centrales de orden superior (2k con μ = 0) vienen dados por la fórmula

 

El Teorema del Límite Central

 
Gráfica de la función de distribución de una normal con μ = 12 y σ = 3, aproximando la función de distribución de una binomial con n = 48 y p = 1/4.

El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser independientes e idénticamente distribuidas con varianza finita), la suma de un gran número de variables aleatorias se distribuye aproximadamente como una normal.

La importancia práctica del Teorema del límite central es que la función de distribución de la normal puede usarse como aproximación de algunas otras funciones de distribución. Por ejemplo:

  • Una distribución binomial de parámetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 0 o a 1 (algunos libros recomiendan usar esta aproximación solo si np y n(1 − p) son ambos, al menos, 5; en este caso se debería aplicar una corrección de continuidad).
    La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
  • Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes valores de λ.
    La distribución normal aproximada tiene parámetros μ = σ2 = λ.

La exactitud de estas aproximaciones depende del propósito para el que se necesiten y de la tasa de convergencia a la distribución normal. Se da el caso típico de que tales aproximaciones son menos precisas en las colas de la distribución. El Teorema de Berry-Esséen proporciona un límite superior general del error de aproximación de la función de distribución.

Divisibilidad infinita

Las normales tienen una distribución de probabilidad infinitamente divisible: Para una distribución normal X de media μ y varianza σ2 ≥ 0, es posible encontrar n variables aleatorias independientes {X1,...,Xn} cada una con distribución normal de media μ/n y varianza σ2/n dado que la suma X1 + . . . + Xn de estas n variables aleatorias

 

tenga esta específica distribución normal (para verificarlo, úsese la función característica de convolución y la inducción matemática).

Estabilidad

Las distribuciones normales son estrictamente estables.

Desviación típica e intervalos de confianza

Alrededor del 68 % de los valores de una distribución normal están a una distancia σ < 1 (desviación típica) de la media, μ; alrededor del 95 % de los valores están a dos desviaciones típicas de la media y alrededor del 99,7 % están a tres desviaciones típicas de la media. Esto se conoce como la "regla 68-95-99,7" o la "regla empírica".

Para ser más precisos, el área bajo la curva campana entre μ − nσ y μ + nσ en términos de la función de distribución normal viene dada por

 

donde erf es la función error. Los valores (con 12 decimales) para n=1, 2, ..., 6 son:

     
1 0,682689492137
2 0,954499736104
3 0,997300203937
4 0,999936657516
5 0,999999426697
6 0,999999998027

La siguiente tabla proporciona la relación inversa de múltiples σ correspondientes a unos pocos valores usados con frecuencia para el área bajo la campana de Gauss. Estos valores son útiles para determinar intervalos de confianza para los niveles especificados basados en una curva normalmente distribuida (o estimadores asintóticamente normales):

      
0,80 1,28155
0,90 1,64485
0,95 1,95996
0,98 2,32635
0,99 2,57583
0,995 2,80703
0,998 3,09023
0,999 3,29052
0,9999 3,8906
0,99999 4,4172

donde el valor a la izquierda de la tabla es la proporción de valores que caerán en el intervalo dado y n es un múltiplo de la desviación típica que determina la anchura del intervalo.

Forma familia exponencial

La distribución normal tiene forma de familia exponencial biparamétrica con dos parámetros naturales, μ y 1/σ2, y estadísticos naturales X y X2. La forma canónica tiene como parámetros   y   y estadísticos suficientes   y  

Distribución normal compleja

Considérese la variable aleatoria compleja gaussiana

 

donde X e Y son variables gaussianas reales e independientes con igual varianza  . La función de distribución de la variable conjunta es entonces

 

Como  , la función de distribución resultante para la variable gaussiana compleja Z es

 

Distribuciones relacionadas

  •   es una distribución de Rayleigh si   donde   y   son dos distribuciones normales independientes.
  •   es una distribución χ² con   grados de libertad si   donde   para   y son independientes.
  •   es una distribución de Cauchy si   para   y   son dos distribuciones normales independientes.
  •   es una distribución log-normal si   y  .
  • Relación con una distribución estable: si   entonces  .
  • Distribución normal truncada. si   entonces truncando X por debajo de   y por encima de   dará lugar a una variable aleatoria de media   donde   y   es la función de densidad de una variable normal estándar.
  • Si   es una variable aleatoria normalmente distribuida e  , entonces   tiene una distribución normal doblada.

Estadística descriptiva e inferencial

Resultados

De la distribución normal se derivan muchos resultados, incluyendo rangos de percentiles ("percentiles" o "cuantiles"), curvas normales equivalentes, stanines, z-scores, y T-scores. Además, un número de procedimientos de estadísticos de comportamiento están basados en la asunción de que esos resultados están normalmente distribuidos. Por ejemplo, el test de Student y el análisis de varianza (ANOVA) (véase más abajo). La gradación de la curva campana asigna grados relativos basados en una distribución normal de resultados.

Tests de normalidad

Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribución normal. La hipótesis nula es, en estos casos, si el conjunto de datos es similar a una distribución normal, por lo que un P-valor suficientemente pequeño indica datos no normales.

Estimación de parámetros

Estimación de parámetros de máxima verosimilitud

Supóngase que

 

son independientes y cada una está normalmente distribuida con media μ y varianza σ 2 > 0. En términos estadísticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamaño n de una población normalmente distribuida. Se desea estimar la media poblacional μ y la desviación típica poblacional σ, basándose en las valores observados de esta muestra. La función de densidad conjunta de estas n variables aleatorias independientes es

 

Como función de μ y σ, la función de verosimilitud basada en las observaciones X1, ..., Xn es

 

con alguna constante C > 0 (de la cual, en general, se permitiría incluso que dependiera de X1, ..., Xn, aunque desapareciera con las derivadas parciales de la función de log-verosimilitud respecto a los parámetros tenidos en cuenta, véase más abajo).

En el método de máxima verosimilitud, los valores de μ y σ que maximizan la función de verosimilitud se toman como estimadores de los parámetros poblacionales μ y σ.

Habitualmente en la maximización de una función de dos variables, se podrían considerar derivadas parciales. Pero aquí se explota el hecho de que el valor de μ que maximiza la función de verosimilitud con σ fijo no depende de σ. No obstante, encontramos que ese valor de μ, entonces se sustituye por μ en la función de verosimilitud y finalmente encontramos el valor de σ que maximiza la expresión resultante.

Es evidente que la función de verosimilitud es una función decreciente de la suma

 

Así que se desea el valor de μ que minimiza esta suma. Sea

 

la media muestral basada en las n observaciones. Nótese que

 

Solo el último término depende de μ y se minimiza por

 

Esta es la estimación de máxima verosimilitud de μ basada en las n observaciones X1, ..., Xn. Cuando sustituimos esta estimación por μ en la función de verosimilitud, obtenemos

 

Se conviene en denotar la "log-función de verosimilitud", esto es, el logaritmo de la función de verosimilitud, con una minúscula , y tenemos

 

entonces

 

Esta derivada es positiva, cero o negativa según σ2 esté entre 0 y

 

o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una observación, lo que significa que n = 1, o si X1 = ... = Xn, lo cual solo ocurre con probabilidad cero, entonces   por esta fórmula, refleja el hecho de que en estos casos la función de verosimilitud es ilimitada cuando σ decrece hasta cero).

Consecuentemente esta media de cuadrados de residuos es el estimador de máxima verosimilitud de σ2, y su raíz cuadrada es el estimador de máxima verosimilitud de σ basado en las n observaciones. Este estimador   es sesgado, pero tiene un menor error medio al cuadrado que el habitual estimador insesgado, que es n/(n − 1) veces este estimador.

Sorprendente generalización

La derivada del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es despreciable. Involucra el teorema espectral y la razón por la que puede ser mejor para ver un escalar como la traza de una matriz 1×1 que como un mero escalar. Véase estimación de la covarianza de matrices.

Estimación insesgada de parámetros

El estimador   de máxima verosimilitud de la media poblacional μ, es un estimador insesgado de la media poblacional.

El estimador de máxima verosimilitud de la varianza es insesgado si asumimos que la media de la población es conocida a priori, pero en la práctica esto no ocurre. Cuando disponemos de una muestra y no sabemos nada de la media o la varianza de la población de la que se ha extraído, como se asumía en la derivada de máxima verosimilitud de arriba, entonces el estimador de máxima verosimilitud de la varianza es sesgado. Un estimador insesgado de la varianza σ2 es la cuasi varianza muestral:

 

que sigue una distribución Gamma cuando las Xi son normales independientes e idénticamente distribuidas:

 

con media   y varianza  

La estimación de máxima verosimilitud de la desviación típica es la raíz cuadrada de la estimación de máxima verosimilitud de la varianza. No obstante, ni ésta, ni la raíz cuadrada de la cuasivarianza muestral proporcionan un estimador insesgado para la desviación típica (véase estimación insesgada de la desviación típica para una fórmula particular para la distribución normal).

Incidencia

Las distribuciones aproximadamente normales aparecen por doquier, como queda explicado por el teorema central del límite. Cuando en un fenómeno se sospecha la presencia de un gran número de pequeñas causas actuando de forma aditiva e independiente es razonable pensar que las observaciones serán "normales". Hay métodos estadísticos para probar empíricamente esta asunción, por ejemplo, el test de D'Agostino-Pearson. El test de Kolmogorov-Smirnov, antes ampliamente usado, ahora parece estar desaconsejado.

Hay causas que pueden actuar de forma multiplicativa (más que aditiva). En este caso, la asunción de normalidad no está justificada y es el logaritmo de la variable en cuestión el que estaría normalmente distribuido. La distribución de las variables directamente observadas en este caso se denomina log-normal.

Finalmente, si hay una simple influencia externa que tiene un gran efecto en la variable en consideración, la asunción de normalidad no está tampoco justificada. Esto es cierto incluso si, cuando la variable externa se mantiene constante, las distribuciones marginales resultantes son, en efecto, normales. La distribución completa será una superposición de variables normales, que no es en general normal. Ello está relacionado con la teoría de errores (véase más abajo).

A continuación se muestran una lista de situaciones que estarían, aproximadamente, normalmente distribuidas. Más abajo puede encontrarse una discusión detallada de cada una de ellas:

  • En problemas de recuento, donde el teorema central del límite incluye una aproximación de discreta a continua y donde las distribuciones infinitamente divisibles y descomponibles están involucradas, tales como:
  • En medidas fisiológicas de especímenes biológicos:
    • El logaritmo de las medidas del tamaño de tejidos vivos (longitud, altura, superficie de piel, peso);
    • La longitud de apéndices inertes (pelo, garras, rabos, dientes) de especímenes biológicos en la dirección del crecimiento;
    • Otras medidas fisiológicas podrían estar normalmente distribuidas, aunque no hay razón para esperarlo a priori;
  • Se asume con frecuencia que los errores de medida están normalmente distribuidos y cualquier desviación de la normalidad se considera una cuestión que debería explicarse;
  • Variables financieras, en el modelo Black-Scholes:
    • Cambios en el logaritmo de tasas de cambio, índices de precios, índices de existencias de mercado; estas variables se comportan como el interés compuesto, no como el interés simple, por tanto, son multiplicativas;
    • Mientras que el modelo Black-Scholes presupone normalidad, en realidad estas variables exhiben colas pesadas, como puede verse en crash de las existencias de mercado;
    • Otras variables financieras podrían estar normalmente distribuidas, pero no hay razón para esperarlo a priori;
  • Intensidad de la luz:
    • La intensidad de la luz láser está normalmente distribuida;
    • La luz térmica tiene una distribución de Bose-Einstein en escalas de tiempo muy breves y una distribución normal en grandes escalas de tiempo debido al teorema central del límite.

Es relevante para la biología y la economía el hecho de que los sistemas complejos tienden a mostrar la ley de potencias más que normal.

Recuento de fotones

La intensidad de la luz de una sola fuente varía con el tiempo, así como las fluctuaciones térmicas que pueden observarse si la luz se analiza a una resolución suficientemente alta. La mecánica cuántica interpreta las medidas de la intensidad de la luz como un recuento de fotones, donde la suposición natural lleva a usar la distribución de Poisson. Cuando la intensidad de la luz se integra a lo largo de grandes periodos de tiempo mayores que el tiempo de coherencia, la aproximación Poisson - Normal es apropiada.

Medida de errores

La normalidad es la asunción central de la teoría matemática de errores. De forma similar en el ajuste de modelos estadístico, un indicador de la bondad del ajuste es que el error residual (así es como se llaman los errores en esta circunstancia) sea independiente y normalmente distribuido. La asunción es que cualquier desviación de la normalidad necesita ser explicada. En ese sentido, en ambos, ajuste de modelos y teoría de errores, la normalidad es la única observación que no necesita ser explicada, sino que es esperada. No obstante, si los datos originales no están normalmente distribuidos (por ejemplo, si siguen una distribución de Cauchy, entonces los residuos tampoco estarán normalmente distribuidos. Este hecho es ignorado habitualmente en la práctica.

Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que están agrupados en torno a un valor particular. Si todas las fuentes principales de errores se han tomado en cuenta, se asume que el error que queda debe ser el resultado de un gran número de muy pequeños y aditivos efectos y, por consiguiente, normal. Las desviaciones de la normalidad se interpretan como indicaciones de errores sistemáticos que no han sido tomados en cuenta. Puede debatirse si esta asunción es válida.

Una famosa observación atribuida a Gabriel Lippmann dice:[cita requerida]

Todo el mundo cree en la ley normal de los errores: los matemáticos, porque piensan que es un hecho experimental; y los experimentadores, porque suponen que es un teorema matemático

Otra fuente podría ser Henri Poincaré.

Características físicas de especímenes biológicos

Los tamaños de los animales adultos siguen aproximadamente una distribución log-normal. La evidencia y explicación basada en modelos de crecimiento fue publicada por primera vez en el libro Problemas de crecimiento relativo, de 1932, por Julian Huxley.

Las diferencias de tamaño debido a dimorfismos sexuales u otros polimorfismos de insectos, como la división social de las abejas en obreras, zánganos y reinas, por ejemplo, hace que la distribución de tamaños se desvíe hacia la lognormalidad.

La asunción de que el tamaño lineal de los especímenes biológicos es normal (más que lognormal) nos lleva a una distribución no normal del peso (puesto que el peso o el volumen es proporcional al cuadrado o el cubo de la longitud y las distribuciones gaussianas solo mantienen las transformaciones lineales). A la inversa, asumir que el peso sigue una distribución normal implica longitudes no normales. Esto es un problema porque, a priori, no hay razón por la que cualquiera de ellas (longitud, masa corporal u otras) debería estar normalmente distribuida. Las distribuciones lognormales, por otro lado, se mantienen entre potencias, así que el "problema" se desvanece si se asume la lognormalidad.

Por otra parte, hay algunas medidas biológicas donde se asume normalidad, tales como la presión sanguínea en humanos adultos. Esta asunción solo es posible tras separar a hombres y mujeres en distintas poblaciones, cada una de las cuales está normalmente distribuida.

Variables financieras

 
El modelo normal de movimiento de activos no incluye movimientos extremos tales como quiebras financieras.

Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribución normal. Esta aproximación se ha modificado desde entonces ligeramente. A causa de la naturaleza multiplicativa del interés compuesto, los indicadores financieros como valores de mercado y precios de las materias primas exhiben un "comportamiento multiplicativo". Como tales, sus cambios periódicos (por ejemplo, cambios anuales) no son normales, sino lognormales. Esta es todavía la hipótesis más comúnmente aceptada en economía.

No obstante, en realidad las variables financieras exhiben colas pesadas y así, la asunción de normalidad infravalora la probabilidad de eventos extremos como quiebras financieras. Se han sugerido correcciones a este modelo por parte de matemáticos como Benoît Mandelbrot, quien observó que los cambios en el logaritmo durante breves periodos de tiempo (como un día) se aproximan bien por distribuciones que no tienen una varianza finita y, por consiguiente, el teorema central del límite no puede aplicarse. Más aún, la suma de muchos de tales cambios sigue una distribución de log-Levy.

Distribuciones en tests de inteligencia

A veces, la dificultad y número de preguntas en un test de inteligencia se selecciona de modo que proporcionen resultados normalmente distribuidos. Más aún, las puntuaciones "en crudo" se convierten a valores que marcan el cociente intelectual ajustándolas a la distribución normal. En cualquier caso se trata de un resultado causado deliberadamente por la construcción del test o de una interpretación de las puntuaciones que sugiere normalidad para la mayoría de la población. Sin embargo, la cuestión acerca de si la inteligencia en sí está normalmente distribuida es más complicada porque se trata de una variable latente y, por consiguiente, no puede observarse directamente.

Ecuación de difusión

La función de densidad de la distribución normal está estrechamente relacionada con la ecuación de difusión (homogénea e isótropa) y, por tanto, también con la ecuación de calor. Esta ecuación diferencial parcial describe el tiempo de evolución de una función de densidad bajo difusión. En particular, la función de densidad de masa

 

para la distribución normal con esperanza 0 y varianza t satisface la ecuación de difusión:

 

Si la densidad de masa para un tiempo t = 0 viene dada por la delta de Dirac, lo cual significa, esencialmente que toda la masa está inicialmente concentrada en un punto, entonces la función de densidad de masa en el tiempo t tendrá la forma de la función de densidad de la normal, con varianza creciendo linealmente con t. Esta conexión no es coincidencia: la difusión se debe a un movimiento browniano que queda descrito matemáticamente por un proceso de Wiener, y tal proceso en un tiempo t también resultará normal con varianza creciendo linealmente con t'.

Más generalmente, si la densidad de masa inicial viene dada por una función φ(x), entonces la densidad de masa en un tiempo t vendrá dada por la convolución de φ y una función de densidad normal.

 
Aplicación de la distribución normal de probabilidad acumulada a lluvias mensuales en Surinam.[12]

Hidrología

En la hidrología se presume que precipitaciones y descargas de ríos de larga duración (por ejemplo mensuales o anuales) siguen una distribución normal de acuerdo al teorema del límite central.[13]

La imagen azul ilustra un ejemplo del ajuste de la distribución normal a datos de lluvia mensual y muestra los intervalos de confianza basados en la distribución binomial.

Uso en estadística computacional

Generación de valores para una variable aleatoria normal

Para simulaciones por ordenador es útil, en ocasiones, generar valores que podrían seguir una distribución anormal. Hay varios métodos y el más básico de ellos es invertir la función de distribución de la normal estándar para así poder realizar la gráfica.

Se conocen otros métodos más eficientes, uno de los cuales es la transformación de Box-Muller. Un algoritmo incluso más rápido es el algoritmo zigurat. Ambos se discuten más abajo. Una aproximación simple a estos métodos es programarlos como sigue: simplemente súmense 12 desviaciones uniformes (0,1) y réstense 6 (la mitad de 12). Esto es bastante útil en muchas aplicaciones. La suma de esos 12 valores sigue la distribución de Irwin-Hall; son elegidos 12 para dar a la suma una varianza de uno, exactamente. Las desviaciones aleatorias resultantes están limitadas al rango (−6, 6) y tienen una densidad que es una doceava sección de una aproximación polinomial de undécimo orden a la distribución normal.[14]

El método de Box-Muller dice que, si tienes dos números aleatorios U y V uniformemente distribuidos en [0, 1], (por ejemplo, la salida de un generador de números aleatorios), entonces X e Y son dos variables aleatorias estándar normalmente distribuidas, donde:

 
 

Esta formulación aparece porque la distribución χ² con dos grados de libertad (véase la propiedad 4, más arriba) es una variable aleatoria exponencial fácilmente generada (la cual corresponde a la cantidad lnU en estas ecuaciones). Así, un ángulo elegido uniformemente alrededor de un círculo vía la variable aleatoria V y un radio elegido para ser exponencial se transforman entonces en coordenadas x e y normalmente distribuidas.

Un método mucho más rápido que la transformación de Box-Muller, pero que sigue siendo exacto es el llamado algoritmo Zigurat, desarrollado por George Marsaglia. En alrededor del 97 % de los casos usa solo dos números aleatorios, un entero aleatorio y un uniforme aleatorio, una multiplicación y un test-si. Solo un 3 % de los casos donde la combinación de estos dos cae fuera del "corazón del zigurat", un tipo de rechazo muestral usando logaritmos, exponenciales y números aleatorios más uniformes deberían ser empleados.

Hay también alguna investigación sobre la conexión entre la rápida transformación de Hadamard y la distribución normal, en virtud de que la transformación emplea solo adición y sustracción y por el teorema central del límite los números aleatorios de casi cualquier distribución serán transformados en la distribución normal. En esta visión se pueden combinar una serie de transformaciones de Hadamard con permutaciones aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos.

Aproximaciones numéricas de la distribución normal y su función de distribución

La función de distribución normal se usa extensamente en computación científica y estadística. Por consiguiente, ha sido implementada de varias formas.

Abramowitz y Stegun (1964) dan la conocida como "mejor aproximación de Hastings" para Φ(x) con x > 0 con un error absoluto |ε(x)| < 7,5·10−8 (algoritmo 26.2.17):

 

donde ϕ(x) es la función de densidad de la distribución normal estándar,

 

y las constantes son b0 = 0,2316419, b1 = 0,319381530, b2 = −0,356563782, b3 = 1,781477937, b4 = −1,821255978, b5 = 1,330274429.

La Biblioteca Científica GNU calcula valores de la función de distribución normal estándar usando aproximaciones por funciones racionales a trozos. Otro método de aproximación usa polinomios de tercer grado en intervalos.[15]​ El artículo sobre el lenguaje de programación bc proporciona un ejemplo de cómo computar la función de distribución en GNU bc.

Para una discusión más detallada sobre cómo calcular la distribución normal, véase la sección 3.4.1C. de The Art of Computer Programming (El arte de la programación por ordenador), de Knuth.

Véase también

Referencias

  1. Estadística Básica. ITM. 2007. ISBN 9789589831410. Consultado el 12 de diciembre de 2017. 
  2. Orrego, Juan José Manzano (2014). LOGISTICA DE APROVISIONAMIENTO. Ediciones Paraninfo, S.A. ISBN 9788497329811. Consultado el 12 de diciembre de 2017. 
  3. Gómez-Chacón, Inés Ma; Català, Claudi Alsina; Raig, Núria Planas; Rodríguez, Joaquim Giménez; Muñoz, Yuly Marsela Vanegas; Sirera, Marta Civil (4 de octubre de 2010). Educación matemática y ciudadanía. Grao. ISBN 9788499801667. Consultado el 12 de diciembre de 2017. 
  4. Es una consecuencia del Teorema Central del Límite
  5. Abraham de Moivre, "Approximatio ad Summam Terminorum Binomii (a + b)n in Seriem expansi" (impreso el 12 de noviembre de 1733 en Londres para una edición privada). Este panfleto se reimprimió en: (1) Richard C. Archibald (1926) “A rare pamphlet of Moivre and some of his discoveries,” Isis, vol. 8, páginas 671-683; (2) Helen M. Walker, “De Moivre on the law of normal probability” en David Eugene Smith, A Source Book in Mathematics [Nueva York, Nueva York: McGraw-Hill, 1929; reimpresión: Nueva York, Nueva York: Dover, 1959], vol. 2, páginas 566-575.; (3) Abraham De Moivre, The Doctrine of Chances (2ª ed.) [Londres: H. Woodfall, 1738; reimpresión: Londres: Cass, 1967], páginas 235-243; (3ª ed.) [Londres: A Millar, 1756; reimpresión: Nueva York, Nueva York: Chelsea, 1967], páginas 243-254; (4) Florence N. David, Games, Gods and Gambling: A History of Probability and Statistical Ideas [Londres: Griffin, 1962], Apéndice 5, páginas 254-267.
  6. Havil, 2003
  7. Wussing, Hans (marzo de 1998). «Lección 10». Lecciones de Historia de las Matemáticas (1ª (castellano) edición). Siglo XXI de España Editores, S.A. p. 190. ISBN 84-323-0966-4. «"La distribución normal y sus aplicaciones a la teoría de errores se asocia a menudo con el nombre de Gauss, quien la descubrió -igual que Laplace- independientemente; no obstante ya había sido estudiada por de Moivre». 
  8. La función Q
  9. Weisstein, Eric W. «Normal Distribution Function». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research. 
  10. M.A. Sanders. . Archivado desde el original el 25 de marzo de 2009. Consultado el 6 de marzo de 2009. 
  11. CumFreq software para adecuación de distribuciones de probabilidad [1]
  12. Ritzema (ed.), H.P. (1994). Frequency and Regression Analysis. Chapter 6 in: Drainage Principles and Applications, Publication 16, International Institute for Land Reclamation and Improvement (ILRI), Wageningen, The Netherlands. pp. 175-224. ISBN 90-70754-33-9. 
  13. Johnson NL, Kotz S, Balakrishnan N. (1995) Continuous Univariate Distributions Volume 2, Wiley. Equation(26.48)
  14. Andy Salter. «B-Spline curves». Consultado el 5 de diciembre de 2008. 

Enlaces externos

  • Graficadora de la distribución normal - CalEst en la Web
  • Calculadora de distribuciones (discretas y continuas) - CalEst en la Web
  • Graficadora de una o varias distribuciones normales - CalEst en la Web
  • Tabla conteniendo los valores de la función normal
  • Calculadora de probabilidades en una distribución Normal. Permite hacer cálculos directos e inversos.
  • DynStats: Laboratorio estadístico en línea con calculadora de funciones de distribución
  • Tabla de la distribución normal Tabla de la distribución normal en formato PDF
  • http://mathworld.wolfram.com/NormalDistribution.html

Ajuste por software de una distribución de probabilidad a un conjunto de datos

  • Easy fit el 23 de febrero de 2018 en Wayback Machine., "data analysis & simulation"
  • MathWorks Benelux (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).
  • ModelRisk, "risk modelling software"
  • Ricci distributions, fitting distrubutions with R , Vito Ricci, 2005
  • Risksolver, automatically fit distributions and parameters to samples
  • StatSoft distribution fitting el 30 de agosto de 2012 en Wayback Machine.
  • CumFreq , libre sin costo, incluye la distribución normal, la lognormal, raíz-normal, cuadrado-normal, e intervalos de confianza a base de la distribución binomial
  • Calculadora Distribución normal
  • Calcular la probabilidad de una distribución normal con R (lenguaje de programación)
  • Implementación Real en C del algoritmo Expectation Maximization (EM) para estimar Gaussian Mixture Models (GMMs).


  •   Datos: Q133871
  •   Multimedia: Normal distribution

distribución, normal, estadística, probabilidad, llama, distribución, normal, distribución, gauss, distribución, gaussiana, distribución, laplace, gauss, distribuciones, probabilidad, variable, continua, más, frecuencia, aparece, estadística, teoría, probabili. En estadistica y probabilidad se llama distribucion normal distribucion de Gauss distribucion gaussiana o distribucion de Laplace Gauss a una de las distribuciones de probabilidad de variable continua que con mas frecuencia aparece en estadistica y en la teoria de probabilidades 1 Distribucion normalLa linea verde corresponde a la distribucion normal estandarFuncion de densidad de probabilidadFuncion de distribucion de probabilidadParametrosm R displaystyle mu in mathbb R s gt 0 displaystyle sigma gt 0 Dominiox R displaystyle x in mathbb R Funcion de densidad pdf 1 s 2 p e x m 2 2 s 2 displaystyle frac 1 sigma sqrt 2 pi e frac x mu 2 2 sigma 2 Funcion de distribucion cdf 1 2 1 erf x m s 2 displaystyle frac 1 2 left 1 operatorname erf left frac x mu sigma sqrt 2 right right Mediam displaystyle mu Medianam displaystyle mu Modam displaystyle mu Varianzas 2 displaystyle sigma 2 Coeficiente de simetria0Curtosis0Entropialn s 2 p e displaystyle ln left sigma sqrt 2 pi e right Funcion generadora de momentos mgf M X t e m t s 2 t 2 2 displaystyle M X t e mu t frac sigma 2 t 2 2 Funcion caracteristicax X t e m i t s 2 t 2 2 displaystyle chi X t e mu i t frac sigma 2 t 2 2 editar datos en Wikidata La grafica de su funcion de densidad tiene una forma acampanada y es simetrica respecto de un determinado parametro estadistico Esta curva se conoce como campana de Gauss y es el grafico de una funcion gaussiana 2 La importancia de esta distribucion radica en que permite modelar numerosos fenomenos naturales sociales y psicologicos 3 Mientras que los mecanismos que subyacen a gran parte de este tipo de fenomenos son desconocidos por la enorme cantidad de variables incontrolables que en ellos intervienen el uso del modelo normal puede justificarse asumiendo que cada observacion se obtiene como la suma de unas pocas causas independientes De hecho la estadistica descriptiva solo permite describir un fenomeno sin explicacion alguna Para la explicacion causal es preciso el diseno experimental de ahi que al uso de la estadistica en psicologia y sociologia sea conocido como metodo correlacional La distribucion normal tambien es importante por su relacion con la estimacion por minimos cuadrados uno de los metodos de estimacion mas simples y antiguos Algunos ejemplos de variables asociadas a fenomenos naturales que siguen el modelo de la normal son caracteres morfologicos de individuos como la estatura caracteres fisiologicos como el efecto de un farmaco caracteres sociologicos como el consumo de cierto producto por un mismo grupo de individuos caracteres psicologicos como el cociente intelectual nivel de ruido en telecomunicaciones errores cometidos al medir ciertas magnitudes etc La distribucion normal tambien aparece en muchas areas de la propia estadistica Por ejemplo la distribucion muestral de las medias muestrales es aproximadamente normal cuando la distribucion de la poblacion de la cual se extrae la muestra no es normal 4 Ademas la distribucion normal maximiza la entropia entre todas las distribuciones con media y varianza conocidas lo cual la convierte en la eleccion natural de la distribucion subyacente a una lista de datos resumidos en terminos de media muestral y varianza La distribucion normal es la mas extendida en estadistica y muchos tests estadisticos estan basados en una normalidad mas o menos justificada de la variable aleatoria bajo estudio En probabilidad la distribucion normal aparece como el limite de varias distribuciones de probabilidad continuas y discretas Indice 1 Historia 2 Definicion formal 2 1 Limite inferior y superior estrictos para la funcion de distribucion 2 2 Funciones generatrices 2 2 1 Funcion generatriz de momentos 2 2 2 Funcion caracteristica 3 Propiedades 3 1 Estandarizacion de variables aleatorias normales 3 2 Momentos 3 3 El Teorema del Limite Central 3 4 Divisibilidad infinita 3 5 Estabilidad 4 Desviacion tipica e intervalos de confianza 4 1 Forma familia exponencial 5 Distribucion normal compleja 6 Distribuciones relacionadas 7 Estadistica descriptiva e inferencial 7 1 Resultados 7 2 Tests de normalidad 7 3 Estimacion de parametros 7 3 1 Estimacion de parametros de maxima verosimilitud 7 3 1 1 Sorprendente generalizacion 7 3 2 Estimacion insesgada de parametros 8 Incidencia 8 1 Recuento de fotones 8 2 Medida de errores 8 3 Caracteristicas fisicas de especimenes biologicos 8 4 Variables financieras 8 5 Distribuciones en tests de inteligencia 8 6 Ecuacion de difusion 8 7 Hidrologia 9 Uso en estadistica computacional 9 1 Generacion de valores para una variable aleatoria normal 9 2 Aproximaciones numericas de la distribucion normal y su funcion de distribucion 10 Vease tambien 11 Referencias 12 Enlaces externos 12 1 Ajuste por software de una distribucion de probabilidad a un conjunto de datosHistoria Editar Abraham de Moivre primero en descubrir la distribucion normal La distribucion normal fue presentada por primera vez por Abraham de Moivre en un articulo del ano 1733 5 que fue reimpreso en la segunda edicion de su The Doctrine of Chances de 1738 en el contexto de cierta aproximacion de la distribucion binomial para grandes valores de n Su resultado fue ampliado por Laplace en su libro Teoria analitica de las probabilidades 1812 y en la actualidad se llama Teorema de De Moivre Laplace Laplace uso la distribucion normal en el analisis de errores de experimentos El importante metodo de minimos cuadrados fue introducido por Legendre en 1805 Gauss que afirmaba haber usado el metodo desde 1794 lo justifico rigurosamente en 1809 asumiendo una distribucion normal de los errores El nombre de Gauss se ha asociado a esta distribucion porque la uso con profusion cuando analizaba datos astronomicos 6 y algunos autores le atribuyen un descubrimiento independiente del de De Moivre 7 Esta atribucion del nombre de la distribucion a una persona distinta de su primer descubridor es un claro ejemplo de la ley de Stigler El nombre de campana viene de Esprit Jouffret que uso el termino bell surface superficie campana por primera vez en 1872 para una distribucion normal bivariante de componentes independientes El nombre de distribucion normal fue otorgado independientemente por Charles S Peirce Francis Galton y Wilhelm Lexis hacia 1875 cita requerida A pesar de esta terminologia otras distribuciones de probabilidad podrian ser mas apropiadas en determinados contextos vease la discusion sobre incidencia mas abajo Definicion formal EditarLa funcion de distribucion de la distribucion normal esta definida como sigue F m s 2 x x f m s 2 u d u 1 s 2 p x e u m 2 2 s 2 d u x R displaystyle begin aligned Phi mu sigma 2 x amp int infty x varphi mu sigma 2 u du amp frac 1 sigma sqrt 2 pi int infty x e frac u mu 2 2 sigma 2 du quad x in mathbb R end aligned donde m displaystyle mu es la media tambien puede ser la mediana la moda o el valor esperado segun aplique s displaystyle sigma es la desviacion tipica estandar es un anglicismo s 2 displaystyle sigma 2 es la varianza f displaystyle varphi representa la funcion de densidad de probabilidadTambien podemos definir la normal a traves de la funcion de densidad ϕ m s 2 x 1 s 2 p e x m 2 2 s 2 x R displaystyle begin aligned phi mu sigma 2 x amp frac 1 sigma sqrt 2 pi e frac x mu 2 2 sigma 2 quad x in mathbb R end aligned La funcion de distribucion normal estandar es un caso especial de la funcion donde m 0 displaystyle mu 0 y s 1 displaystyle sigma 1 F x F 0 1 x 1 2 p x e u 2 2 d u x R displaystyle Phi x Phi 0 1 x frac 1 sqrt 2 pi int infty x e frac u 2 2 du quad x in mathbb R Esta funcion de distribucion puede expresarse en terminos de una funcion especial llamada funcion error de la siguiente forma F x 1 2 1 erf x 2 x R displaystyle Phi x frac 1 2 Bigl 1 operatorname erf Bigl frac x sqrt 2 Bigr Bigr quad x in mathbb R y la propia funcion de distribucion puede por consiguiente expresarse asi F m s 2 x 1 2 1 erf x m s 2 x R displaystyle Phi mu sigma 2 x frac 1 2 Bigl 1 operatorname erf Bigl frac x mu sigma sqrt 2 Bigr Bigr quad x in mathbb R El complemento de la funcion de distribucion de la normal estandar 1 F x displaystyle 1 Phi x se denota con frecuencia Q x displaystyle Q x y es referida a veces como simplemente funcion Q especialmente en textos de ingenieria 8 9 Esto representa la cola de probabilidad de la distribucion gaussiana Tambien se usan ocasionalmente otras definiciones de la funcion Q las cuales son todas ellas transformaciones simples de F displaystyle Phi 10 La inversa de la funcion de distribucion de la normal estandar funcion cuantil puede expresarse en terminos de la inversa de la funcion de error F 1 p 2 erf 1 2 p 1 p 0 1 displaystyle Phi 1 p sqrt 2 operatorname erf 1 2p 1 quad p in 0 1 y la inversa de la funcion de distribucion puede por consiguiente expresarse como F m s 2 1 p m s F 1 p m s 2 erf 1 2 p 1 p 0 1 displaystyle Phi mu sigma 2 1 p mu sigma Phi 1 p mu sigma sqrt 2 operatorname erf 1 2p 1 quad p in 0 1 Esta funcion cuantil se llama a veces la funcion probit No hay una primitiva elemental para la funcion probit Esto no quiere decir meramente que no se conoce sino que se ha probado la inexistencia de tal funcion Existen varios metodos exactos para aproximar la funcion cuantil mediante la distribucion normal vease funcion cuantil Los valores F x pueden aproximarse con mucha precision por distintos metodos tales como integracion numerica series de Taylor series asintoticas y fracciones continuas Limite inferior y superior estrictos para la funcion de distribucion Editar Para grandes valores de x la funcion de distribucion de la normal estandar F x displaystyle scriptstyle Phi x es muy proxima a 1 y F x 1 F x displaystyle scriptstyle Phi x 1 Phi x esta muy cerca de 0 Los limites elementales x 1 x 2 f x lt 1 F x lt f x x x gt 0 displaystyle frac x 1 x 2 varphi x lt 1 Phi x lt frac varphi x x qquad x gt 0 en terminos de la densidad f displaystyle scriptstyle varphi son utiles Usando el cambio de variable v u 2 el limite superior se obtiene como sigue 1 F x x f u d u lt x u x f u d u x 2 2 e v x 2 p d v e v x 2 p x 2 2 f x x displaystyle begin aligned 1 Phi x amp int x infty varphi u du amp lt int x infty frac u x varphi u du int x 2 2 infty frac e v x sqrt 2 pi dv biggl frac e v x sqrt 2 pi biggr x 2 2 infty frac varphi x x end aligned De forma similar usando f u u f u displaystyle scriptstyle varphi u u varphi u y la regla del cociente 1 1 x 2 1 F x 1 1 x 2 x f u d u x 1 1 x 2 f u d u gt x 1 1 u 2 f u d u f u u x f x x displaystyle begin aligned Bigl 1 frac 1 x 2 Bigr 1 Phi x amp Bigl 1 frac 1 x 2 Bigr int x infty varphi u du amp int x infty Bigl 1 frac 1 x 2 Bigr varphi u du amp gt int x infty Bigl 1 frac 1 u 2 Bigr varphi u du biggl frac varphi u u biggr x infty frac varphi x x end aligned Resolviendo para 1 F x displaystyle scriptstyle 1 Phi x proporciona el limite inferior Funciones generatrices Editar Funcion generatriz de momentos Editar La funcion generatriz de momentos se define como la esperanza de e tX Para una distribucion normal la funcion generatriz de momentos es M X t E e t X 1 s 2 p e x m 2 2 s 2 e t x d x e m t s 2 t 2 2 displaystyle M X t mathrm E left e tX right int infty infty frac 1 sigma sqrt 2 pi e frac x mu 2 2 sigma 2 e tx dx e mu t frac sigma 2 t 2 2 como puede comprobarse al completar el cuadrado en el exponente Funcion caracteristica Editar La funcion caracteristica se define como la esperanza de eitX donde i es la unidad imaginaria De este modo la funcion caracteristica se obtiene reemplazando t por it en la funcion generatriz de momentos Para una distribucion normal la funcion caracteristica es 11 x X t m s M X i t E e i t X 1 s 2 p e x m 2 2 s 2 e i t x d x e i m t s 2 t 2 2 displaystyle begin aligned chi X t mu sigma amp M X it mathrm E left e itX right amp int infty infty frac 1 sigma sqrt 2 pi e frac x mu 2 2 sigma 2 e itx dx amp e i mu t frac sigma 2 t 2 2 end aligned Propiedades EditarAlgunas propiedades de la distribucion normal son las siguientes Es simetrica respecto de su media m displaystyle mu Distribucion de probabilidad alrededor de la media en una distribucion N m s2 La moda y la mediana son ambas iguales a la media m displaystyle mu Los puntos de inflexion de la curva se dan para x m s displaystyle x mu sigma y x m s displaystyle x mu sigma Distribucion de probabilidad en un entorno de la media en el intervalo m s m s displaystyle mu sigma mu sigma se encuentra comprendida aproximadamente el 68 26 de la distribucion en el intervalo m 2 s m 2 s displaystyle mu 2 sigma mu 2 sigma se encuentra aproximadamente el 95 44 de la distribucion por su parte en el intervalo m 3 s m 3 s displaystyle mu 3 sigma mu 3 sigma se encuentra comprendida aproximadamente el 99 74 de la distribucion Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza Por otra parte el hecho de que practicamente la totalidad de la distribucion se encuentre a tres desviaciones tipicas de la media justifica los limites de las tablas empleadas habitualmente en la normal estandar Si X N m s 2 displaystyle X sim N mu sigma 2 y a b R displaystyle a b in mathbb R entonces a X b N a m b a 2 s 2 displaystyle aX b sim N a mu b a 2 sigma 2 Si X N m X s X 2 displaystyle X sim N mu X sigma X 2 e Y N m Y s Y 2 displaystyle Y sim N mu Y sigma Y 2 son variables aleatorias normales independientes entonces Su suma esta normalmente distribuida con U X Y N m X m Y s X 2 s Y 2 displaystyle U X Y sim N mu X mu Y sigma X 2 sigma Y 2 demostracion Reciprocamente si dos variables aleatorias independientes tienen una suma normalmente distribuida deben ser normales Teorema de Cramer Su diferencia esta normalmente distribuida con V X Y N m X m Y s X 2 s Y 2 displaystyle V X Y sim N mu X mu Y sigma X 2 sigma Y 2 Si las varianzas de X e Y son iguales entonces U y V son independientes entre si La divergencia de Kullback Leibler D K L X Y 1 2 log s Y 2 s X 2 s X 2 s Y 2 m Y m X 2 s Y 2 1 displaystyle D rm KL X Y 1 over 2 left log left sigma Y 2 over sigma X 2 right frac sigma X 2 sigma Y 2 frac left mu Y mu X right 2 sigma Y 2 1 right Si X N 0 s X 2 displaystyle X sim N 0 sigma X 2 e Y N 0 s Y 2 displaystyle Y sim N 0 sigma Y 2 son variables aleatorias independientes normalmente distribuidas entonces Su producto X Y displaystyle XY sigue una distribucion con densidad p displaystyle p dada por p z 1 p s X s Y K 0 z s X s Y displaystyle p z frac 1 pi sigma X sigma Y K 0 left frac z sigma X sigma Y right donde K 0 displaystyle K 0 es una funcion de Bessel modificada de segundo tipo Su cociente sigue una distribucion de Cauchy con X Y C a u c h y 0 s X s Y displaystyle X Y sim mathrm Cauchy 0 sigma X sigma Y De este modo la distribucion de Cauchy es un tipo especial de distribucion cociente Si X 1 X n displaystyle X 1 dots X n son variables normales estandar independientes entonces X 1 2 X n 2 displaystyle X 1 2 cdots X n 2 sigue una distribucion x con n grados de libertad Si X 1 X n displaystyle X 1 dots X n son variables normales estandar independientes entonces la media muestral X X 1 X n n displaystyle bar X X 1 cdots X n n y la varianza muestral S 2 X 1 X 2 X n X 2 n 1 displaystyle S 2 X 1 bar X 2 cdots X n bar X 2 n 1 son independientes Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por que el test F no es robusto respecto a la no normalidad Estandarizacion de variables aleatorias normales Editar Como consecuencia de la Propiedad 1 es posible relacionar todas las variables aleatorias normales con la distribucion normal estandar Si X N m s 2 displaystyle X sim N mu sigma 2 entonces Z X m s displaystyle Z frac X mu sigma es una variable aleatoria normal estandar Z displaystyle Z N 0 1 displaystyle N 0 1 La transformacion de una distribucion X N m s en una N 0 1 se llama normalizacion estandarizacion o tipificacion de la variable X Una consecuencia importante de esto es que la funcion de distribucion de una distribucion normal es por consiguiente Pr X x F x m s 1 2 1 erf x m s 2 displaystyle Pr X leq x Phi left frac x mu sigma right frac 1 2 left 1 operatorname erf left frac x mu sigma sqrt 2 right right A la inversa si Z displaystyle Z es una distribucion normal estandar Z displaystyle Z N 0 1 displaystyle N 0 1 entonces X s Z m displaystyle X sigma Z mu es una variable aleatoria normal tipificada de media m displaystyle mu y varianza s 2 displaystyle sigma 2 La distribucion normal estandar esta tabulada habitualmente en la forma del valor de la funcion de distribucion F y las otras distribuciones normales pueden obtenerse como transformaciones simples como se describe mas arriba de la distribucion estandar De este modo se pueden usar los valores tabulados de la funcion de distribucion normal estandar para encontrar valores de la funcion de distribucion de cualquier otra distribucion normal Momentos Editar Los primeros momentos de la distribucion normal son Numero Momento Momento central Cumulante0 1 11 m displaystyle mu 0 m displaystyle mu 2 m 2 s 2 displaystyle mu 2 sigma 2 s 2 displaystyle sigma 2 s 2 displaystyle sigma 2 3 m 3 3 m s 2 displaystyle mu 3 3 mu sigma 2 0 04 m 4 6 m 2 s 2 3 s 4 displaystyle mu 4 6 mu 2 sigma 2 3 sigma 4 3 s 4 displaystyle 3 sigma 4 05 m 5 10 m 3 s 2 15 m s 4 displaystyle mu 5 10 mu 3 sigma 2 15 mu sigma 4 0 06 m 6 15 m 4 s 2 45 m 2 s 4 15 s 6 displaystyle mu 6 15 mu 4 sigma 2 45 mu 2 sigma 4 15 sigma 6 15 s 6 displaystyle 15 sigma 6 07 m 7 21 m 5 s 2 105 m 3 s 4 105 m s 6 displaystyle mu 7 21 mu 5 sigma 2 105 mu 3 sigma 4 105 mu sigma 6 0 08 m 8 28 m 6 s 2 210 m 4 s 4 420 m 2 s 6 105 s 8 displaystyle mu 8 28 mu 6 sigma 2 210 mu 4 sigma 4 420 mu 2 sigma 6 105 sigma 8 105 s 8 displaystyle 105 sigma 8 0Todos los cumulantes de la distribucion normal mas alla del segundo son cero Los momentos centrales de orden superior 2k con m 0 vienen dados por la formula E X 2 k 2 k 2 k k s 2 k displaystyle E left X 2k right frac 2k 2 k k sigma 2k El Teorema del Limite Central Editar Articulo principal Teorema del limite central Grafica de la funcion de distribucion de una normal con m 12 y s 3 aproximando la funcion de distribucion de una binomial con n 48 y p 1 4 El Teorema del limite central establece que bajo ciertas condiciones como pueden ser independientes e identicamente distribuidas con varianza finita la suma de un gran numero de variables aleatorias se distribuye aproximadamente como una normal La importancia practica del Teorema del limite central es que la funcion de distribucion de la normal puede usarse como aproximacion de algunas otras funciones de distribucion Por ejemplo Una distribucion binomial de parametros n y p es aproximadamente normal para grandes valores de n y p no demasiado cercano a 0 o a 1 algunos libros recomiendan usar esta aproximacion solo si np y n 1 p son ambos al menos 5 en este caso se deberia aplicar una correccion de continuidad La normal aproximada tiene parametros m np s2 np 1 p Una distribucion de Poisson con parametro l es aproximadamente normal para grandes valores de l La distribucion normal aproximada tiene parametros m s2 l La exactitud de estas aproximaciones depende del proposito para el que se necesiten y de la tasa de convergencia a la distribucion normal Se da el caso tipico de que tales aproximaciones son menos precisas en las colas de la distribucion El Teorema de Berry Esseen proporciona un limite superior general del error de aproximacion de la funcion de distribucion Divisibilidad infinita Editar Articulo principal Divisibilidad infinita probabilidad Las normales tienen una distribucion de probabilidad infinitamente divisible Para una distribucion normal X de media m y varianza s2 0 es posible encontrar n variables aleatorias independientes X1 Xn cada una con distribucion normal de media m n y varianza s2 n dado que la suma X1 Xn de estas n variables aleatorias X 1 X 2 X n N m s 2 displaystyle X 1 X 2 dots X n sim N mu sigma 2 tenga esta especifica distribucion normal para verificarlo usese la funcion caracteristica de convolucion y la induccion matematica Estabilidad Editar Las distribuciones normales son estrictamente estables Desviacion tipica e intervalos de confianza EditarAlrededor del 68 de los valores de una distribucion normal estan a una distancia s lt 1 desviacion tipica de la media m alrededor del 95 de los valores estan a dos desviaciones tipicas de la media y alrededor del 99 7 estan a tres desviaciones tipicas de la media Esto se conoce como la regla 68 95 99 7 o la regla empirica Para ser mas precisos el area bajo la curva campana entre m ns y m ns en terminos de la funcion de distribucion normal viene dada por F m s 2 m n s F m s 2 m n s F n F n 2 F n 1 e r f n 2 displaystyle begin aligned amp Phi mu sigma 2 mu n sigma Phi mu sigma 2 mu n sigma amp Phi n Phi n 2 Phi n 1 mathrm erf bigl n sqrt 2 bigr end aligned donde erf es la funcion error Los valores con 12 decimales para n 1 2 6 son n displaystyle n e r f n 2 displaystyle mathrm erf bigl n sqrt 2 bigr 1 0 6826894921372 0 9544997361043 0 9973002039374 0 9999366575165 0 9999994266976 0 999999998027La siguiente tabla proporciona la relacion inversa de multiples s correspondientes a unos pocos valores usados con frecuencia para el area bajo la campana de Gauss Estos valores son utiles para determinar intervalos de confianza para los niveles especificados basados en una curva normalmente distribuida o estimadores asintoticamente normales e r f n 2 displaystyle mathrm erf bigl n sqrt 2 bigr n displaystyle n 0 80 1 281550 90 1 644850 95 1 959960 98 2 326350 99 2 575830 995 2 807030 998 3 090230 999 3 290520 9999 3 89060 99999 4 4172donde el valor a la izquierda de la tabla es la proporcion de valores que caeran en el intervalo dado y n es un multiplo de la desviacion tipica que determina la anchura del intervalo Forma familia exponencial Editar La distribucion normal tiene forma de familia exponencial biparametrica con dos parametros naturales m y 1 s2 y estadisticos naturales X y X2 La forma canonica tiene como parametros m s 2 displaystyle mu over sigma 2 y 1 s 2 displaystyle 1 over sigma 2 y estadisticos suficientes x displaystyle sum x y 1 2 x 2 displaystyle 1 over 2 sum x 2 Distribucion normal compleja EditarConsiderese la variable aleatoria compleja gaussiana Z X i Y displaystyle Z X iY donde X e Y son variables gaussianas reales e independientes con igual varianza s r 2 displaystyle sigma r 2 La funcion de distribucion de la variable conjunta es entonces 1 2 p s r 2 e x 2 y 2 2 s r 2 displaystyle frac 1 2 pi sigma r 2 e x 2 y 2 2 sigma r 2 Como s Z 2 s r displaystyle sigma Z sqrt 2 sigma r la funcion de distribucion resultante para la variable gaussiana compleja Z es 1 p s Z 2 e Z 2 s Z 2 displaystyle frac 1 pi sigma Z 2 e Z 2 sigma Z 2 Distribuciones relacionadas EditarR R a y l e i g h s displaystyle R sim mathrm Rayleigh sigma es una distribucion de Rayleigh si R X 2 Y 2 displaystyle R sqrt X 2 Y 2 donde X N 0 s 2 displaystyle X sim N 0 sigma 2 y Y N 0 s 2 displaystyle Y sim N 0 sigma 2 son dos distribuciones normales independientes Y x n 2 displaystyle Y sim chi nu 2 es una distribucion x con n displaystyle nu grados de libertad si Y k 1 n X k 2 displaystyle Y sum k 1 nu X k 2 donde X k N 0 1 displaystyle X k sim N 0 1 para k 1 n displaystyle k 1 dots nu y son independientes Y C a u c h y m 0 8 1 displaystyle Y sim mathrm Cauchy mu 0 theta 1 es una distribucion de Cauchy si Y X 1 X 2 displaystyle Y X 1 X 2 para X 1 N 0 1 displaystyle X 1 sim N 0 1 y X 2 N 0 1 displaystyle X 2 sim N 0 1 son dos distribuciones normales independientes Y Log N m s 2 displaystyle Y sim mbox Log N mu sigma 2 es una distribucion log normal si Y e X displaystyle Y e X y X N m s 2 displaystyle X sim N mu sigma 2 Relacion con una distribucion estable si X stable 2 b s 2 m displaystyle X sim textrm stable 2 beta sigma sqrt 2 mu entonces X N m s 2 displaystyle X sim N mu sigma 2 Distribucion normal truncada si X N m s 2 displaystyle X sim N mu sigma 2 entonces truncando X por debajo de A displaystyle A y por encima de B displaystyle B dara lugar a una variable aleatoria de media E X m s f 1 f 2 T displaystyle E X mu frac sigma varphi 1 varphi 2 T donde T F B m s F A m s f 1 f A m s f 2 f B m s displaystyle T Phi left frac B mu sigma right Phi left frac A mu sigma right varphi 1 varphi left frac A mu sigma right varphi 2 varphi left frac B mu sigma right y f displaystyle varphi es la funcion de densidad de una variable normal estandar Si X displaystyle X es una variable aleatoria normalmente distribuida e Y X displaystyle Y X entonces Y displaystyle Y tiene una distribucion normal doblada Estadistica descriptiva e inferencial EditarResultados Editar De la distribucion normal se derivan muchos resultados incluyendo rangos de percentiles percentiles o cuantiles curvas normales equivalentes stanines z scores y T scores Ademas un numero de procedimientos de estadisticos de comportamiento estan basados en la asuncion de que esos resultados estan normalmente distribuidos Por ejemplo el test de Student y el analisis de varianza ANOVA vease mas abajo La gradacion de la curva campana asigna grados relativos basados en una distribucion normal de resultados Tests de normalidad Editar Articulo principal Test de normalidad Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribucion normal La hipotesis nula es en estos casos si el conjunto de datos es similar a una distribucion normal por lo que un P valor suficientemente pequeno indica datos no normales Prueba de Kolmogorov Smirnov Test de Lilliefors Test de Anderson Darling Test de Ryan Joiner Test de Shapiro Wilk Normal probability plot rankit plot Test de Jarque Bera Test omnibus de SpiegelhalterEstimacion de parametros Editar Estimacion de parametros de maxima verosimilitud Editar Vease tambien Maxima verosimilitud Supongase que X 1 X n displaystyle X 1 dots X n son independientes y cada una esta normalmente distribuida con media m y varianza s 2 gt 0 En terminos estadisticos los valores observados de estas n variables aleatorias constituyen una muestra de tamano n de una poblacion normalmente distribuida Se desea estimar la media poblacional m y la desviacion tipica poblacional s basandose en las valores observados de esta muestra La funcion de densidad conjunta de estas n variables aleatorias independientes es f x 1 x n m s i 1 n f m s 2 x i 1 s 2 p n i 1 n exp 1 2 x i m s 2 x 1 x n R n displaystyle begin aligned f x 1 dots x n mu sigma amp prod i 1 n varphi mu sigma 2 x i amp frac 1 sigma sqrt 2 pi n prod i 1 n exp biggl 1 over 2 Bigl x i mu over sigma Bigr 2 biggr quad x 1 ldots x n in mathbb R n end aligned Como funcion de m y s la funcion de verosimilitud basada en las observaciones X1 Xn es L m s C s n exp i 1 n X i m 2 2 s 2 m R s gt 0 displaystyle L mu sigma frac C sigma n exp left sum i 1 n X i mu 2 over 2 sigma 2 right quad mu in mathbb R sigma gt 0 con alguna constante C gt 0 de la cual en general se permitiria incluso que dependiera de X1 Xn aunque desapareciera con las derivadas parciales de la funcion de log verosimilitud respecto a los parametros tenidos en cuenta vease mas abajo En el metodo de maxima verosimilitud los valores de m y s que maximizan la funcion de verosimilitud se toman como estimadores de los parametros poblacionales m y s Habitualmente en la maximizacion de una funcion de dos variables se podrian considerar derivadas parciales Pero aqui se explota el hecho de que el valor de m que maximiza la funcion de verosimilitud con s fijo no depende de s No obstante encontramos que ese valor de m entonces se sustituye por m en la funcion de verosimilitud y finalmente encontramos el valor de s que maximiza la expresion resultante Es evidente que la funcion de verosimilitud es una funcion decreciente de la suma i 1 n X i m 2 displaystyle sum i 1 n X i mu 2 Asi que se desea el valor de m que minimiza esta suma Sea X n X 1 X n n displaystyle overline X n X 1 cdots X n n la media muestral basada en las n observaciones Notese que i 1 n X i m 2 i 1 n X i X n X n m 2 i 1 n X i X n 2 2 X n m i 1 n X i X n 0 i 1 n X n m 2 i 1 n X i X n 2 n X n m 2 displaystyle begin aligned sum i 1 n X i mu 2 amp sum i 1 n bigl X i overline X n overline X n mu bigr 2 amp sum i 1 n X i overline X n 2 2 overline X n mu underbrace sum i 1 n X i overline X n 0 sum i 1 n overline X n mu 2 amp sum i 1 n X i overline X n 2 n overline X n mu 2 end aligned Solo el ultimo termino depende de m y se minimiza por m n X n displaystyle widehat mu n overline X n Esta es la estimacion de maxima verosimilitud de m basada en las n observaciones X1 Xn Cuando sustituimos esta estimacion por m en la funcion de verosimilitud obtenemos L X n s C s n exp i 1 n X i X n 2 2 s 2 s gt 0 displaystyle L overline X n sigma frac C sigma n exp biggl sum i 1 n X i overline X n 2 over 2 sigma 2 biggr quad sigma gt 0 Se conviene en denotar la log funcion de verosimilitud esto es el logaritmo de la funcion de verosimilitud con una minuscula ℓ y tenemos ℓ X n s log C n log s i 1 n X i X n 2 2 s 2 s gt 0 displaystyle ell overline X n sigma log C n log sigma sum i 1 n X i overline X n 2 over 2 sigma 2 quad sigma gt 0 entonces s ℓ X n s n s i 1 n X i X n 2 s 3 n s 3 s 2 1 n i 1 n X i X n 2 s gt 0 displaystyle begin aligned partial over partial sigma ell overline X n sigma amp n over sigma sum i 1 n X i overline X n 2 over sigma 3 amp n over sigma 3 biggl sigma 2 1 over n sum i 1 n X i overline X n 2 biggr quad sigma gt 0 end aligned Esta derivada es positiva cero o negativa segun s2 este entre 0 y s n 2 1 n i 1 n X i X n 2 displaystyle hat sigma n 2 1 over n sum i 1 n X i overline X n 2 o sea igual a esa cantidad o mayor que esa cantidad Si hay solamente una observacion lo que significa que n 1 o si X1 Xn lo cual solo ocurre con probabilidad cero entonces s n 2 0 displaystyle hat sigma n 2 0 por esta formula refleja el hecho de que en estos casos la funcion de verosimilitud es ilimitada cuando s decrece hasta cero Consecuentemente esta media de cuadrados de residuos es el estimador de maxima verosimilitud de s2 y su raiz cuadrada es el estimador de maxima verosimilitud de s basado en las n observaciones Este estimador s n 2 displaystyle hat sigma n 2 es sesgado pero tiene un menor error medio al cuadrado que el habitual estimador insesgado que es n n 1 veces este estimador Sorprendente generalizacion Editar La derivada del estimador de maxima verosimilitud de la matriz de covarianza de una distribucion normal multivariante es despreciable Involucra el teorema espectral y la razon por la que puede ser mejor para ver un escalar como la traza de una matriz 1 1 que como un mero escalar Vease estimacion de la covarianza de matrices Estimacion insesgada de parametros Editar El estimador X displaystyle overline X de maxima verosimilitud de la media poblacional m es un estimador insesgado de la media poblacional El estimador de maxima verosimilitud de la varianza es insesgado si asumimos que la media de la poblacion es conocida a priori pero en la practica esto no ocurre Cuando disponemos de una muestra y no sabemos nada de la media o la varianza de la poblacion de la que se ha extraido como se asumia en la derivada de maxima verosimilitud de arriba entonces el estimador de maxima verosimilitud de la varianza es sesgado Un estimador insesgado de la varianza s2 es la cuasi varianza muestral S 2 1 n 1 i 1 n X i X 2 displaystyle S 2 frac 1 n 1 sum i 1 n X i overline X 2 que sigue una distribucion Gamma cuando las Xi son normales independientes e identicamente distribuidas S 2 Gamma n 1 2 2 s 2 n 1 displaystyle S 2 sim operatorname Gamma left frac n 1 2 frac 2 sigma 2 n 1 right con media E S 2 s 2 displaystyle operatorname E S 2 sigma 2 y varianza Var S 2 2 s 4 n 1 displaystyle operatorname Var S 2 2 sigma 4 n 1 La estimacion de maxima verosimilitud de la desviacion tipica es la raiz cuadrada de la estimacion de maxima verosimilitud de la varianza No obstante ni esta ni la raiz cuadrada de la cuasivarianza muestral proporcionan un estimador insesgado para la desviacion tipica vease estimacion insesgada de la desviacion tipica para una formula particular para la distribucion normal Incidencia EditarLas distribuciones aproximadamente normales aparecen por doquier como queda explicado por el teorema central del limite Cuando en un fenomeno se sospecha la presencia de un gran numero de pequenas causas actuando de forma aditiva e independiente es razonable pensar que las observaciones seran normales Hay metodos estadisticos para probar empiricamente esta asuncion por ejemplo el test de D Agostino Pearson El test de Kolmogorov Smirnov antes ampliamente usado ahora parece estar desaconsejado Hay causas que pueden actuar de forma multiplicativa mas que aditiva En este caso la asuncion de normalidad no esta justificada y es el logaritmo de la variable en cuestion el que estaria normalmente distribuido La distribucion de las variables directamente observadas en este caso se denomina log normal Finalmente si hay una simple influencia externa que tiene un gran efecto en la variable en consideracion la asuncion de normalidad no esta tampoco justificada Esto es cierto incluso si cuando la variable externa se mantiene constante las distribuciones marginales resultantes son en efecto normales La distribucion completa sera una superposicion de variables normales que no es en general normal Ello esta relacionado con la teoria de errores vease mas abajo A continuacion se muestran una lista de situaciones que estarian aproximadamente normalmente distribuidas Mas abajo puede encontrarse una discusion detallada de cada una de ellas En problemas de recuento donde el teorema central del limite incluye una aproximacion de discreta a continua y donde las distribuciones infinitamente divisibles y descomponibles estan involucradas tales como variables aleatorias binomiales asociadas con preguntas si no variables aleatorias de Poisson asociadas con eventos raros En medidas fisiologicas de especimenes biologicos El logaritmo de las medidas del tamano de tejidos vivos longitud altura superficie de piel peso La longitud de apendices inertes pelo garras rabos dientes de especimenes biologicos en la direccion del crecimiento Otras medidas fisiologicas podrian estar normalmente distribuidas aunque no hay razon para esperarlo a priori Se asume con frecuencia que los errores de medida estan normalmente distribuidos y cualquier desviacion de la normalidad se considera una cuestion que deberia explicarse Variables financieras en el modelo Black Scholes Cambios en el logaritmo de tasas de cambio indices de precios indices de existencias de mercado estas variables se comportan como el interes compuesto no como el interes simple por tanto son multiplicativas Mientras que el modelo Black Scholes presupone normalidad en realidad estas variables exhiben colas pesadas como puede verse en crash de las existencias de mercado Otras variables financieras podrian estar normalmente distribuidas pero no hay razon para esperarlo a priori Intensidad de la luz La intensidad de la luz laser esta normalmente distribuida La luz termica tiene una distribucion de Bose Einstein en escalas de tiempo muy breves y una distribucion normal en grandes escalas de tiempo debido al teorema central del limite Es relevante para la biologia y la economia el hecho de que los sistemas complejos tienden a mostrar la ley de potencias mas que normal Recuento de fotones Editar La intensidad de la luz de una sola fuente varia con el tiempo asi como las fluctuaciones termicas que pueden observarse si la luz se analiza a una resolucion suficientemente alta La mecanica cuantica interpreta las medidas de la intensidad de la luz como un recuento de fotones donde la suposicion natural lleva a usar la distribucion de Poisson Cuando la intensidad de la luz se integra a lo largo de grandes periodos de tiempo mayores que el tiempo de coherencia la aproximacion Poisson Normal es apropiada Medida de errores Editar La normalidad es la asuncion central de la teoria matematica de errores De forma similar en el ajuste de modelos estadistico un indicador de la bondad del ajuste es que el error residual asi es como se llaman los errores en esta circunstancia sea independiente y normalmente distribuido La asuncion es que cualquier desviacion de la normalidad necesita ser explicada En ese sentido en ambos ajuste de modelos y teoria de errores la normalidad es la unica observacion que no necesita ser explicada sino que es esperada No obstante si los datos originales no estan normalmente distribuidos por ejemplo si siguen una distribucion de Cauchy entonces los residuos tampoco estaran normalmente distribuidos Este hecho es ignorado habitualmente en la practica Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que estan agrupados en torno a un valor particular Si todas las fuentes principales de errores se han tomado en cuenta se asume que el error que queda debe ser el resultado de un gran numero de muy pequenos y aditivos efectos y por consiguiente normal Las desviaciones de la normalidad se interpretan como indicaciones de errores sistematicos que no han sido tomados en cuenta Puede debatirse si esta asuncion es valida Una famosa observacion atribuida a Gabriel Lippmann dice cita requerida Todo el mundo cree en la ley normal de los errores los matematicos porque piensan que es un hecho experimental y los experimentadores porque suponen que es un teorema matematico Otra fuente podria ser Henri Poincare Caracteristicas fisicas de especimenes biologicos Editar Los tamanos de los animales adultos siguen aproximadamente una distribucion log normal La evidencia y explicacion basada en modelos de crecimiento fue publicada por primera vez en el libro Problemas de crecimiento relativo de 1932 por Julian Huxley Las diferencias de tamano debido a dimorfismos sexuales u otros polimorfismos de insectos como la division social de las abejas en obreras zanganos y reinas por ejemplo hace que la distribucion de tamanos se desvie hacia la lognormalidad La asuncion de que el tamano lineal de los especimenes biologicos es normal mas que lognormal nos lleva a una distribucion no normal del peso puesto que el peso o el volumen es proporcional al cuadrado o el cubo de la longitud y las distribuciones gaussianas solo mantienen las transformaciones lineales A la inversa asumir que el peso sigue una distribucion normal implica longitudes no normales Esto es un problema porque a priori no hay razon por la que cualquiera de ellas longitud masa corporal u otras deberia estar normalmente distribuida Las distribuciones lognormales por otro lado se mantienen entre potencias asi que el problema se desvanece si se asume la lognormalidad Por otra parte hay algunas medidas biologicas donde se asume normalidad tales como la presion sanguinea en humanos adultos Esta asuncion solo es posible tras separar a hombres y mujeres en distintas poblaciones cada una de las cuales esta normalmente distribuida Variables financieras Editar El modelo normal de movimiento de activos no incluye movimientos extremos tales como quiebras financieras Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribucion normal Esta aproximacion se ha modificado desde entonces ligeramente A causa de la naturaleza multiplicativa del interes compuesto los indicadores financieros como valores de mercado y precios de las materias primas exhiben un comportamiento multiplicativo Como tales sus cambios periodicos por ejemplo cambios anuales no son normales sino lognormales Esta es todavia la hipotesis mas comunmente aceptada en economia No obstante en realidad las variables financieras exhiben colas pesadas y asi la asuncion de normalidad infravalora la probabilidad de eventos extremos como quiebras financieras Se han sugerido correcciones a este modelo por parte de matematicos como Benoit Mandelbrot quien observo que los cambios en el logaritmo durante breves periodos de tiempo como un dia se aproximan bien por distribuciones que no tienen una varianza finita y por consiguiente el teorema central del limite no puede aplicarse Mas aun la suma de muchos de tales cambios sigue una distribucion de log Levy Distribuciones en tests de inteligencia Editar A veces la dificultad y numero de preguntas en un test de inteligencia se selecciona de modo que proporcionen resultados normalmente distribuidos Mas aun las puntuaciones en crudo se convierten a valores que marcan el cociente intelectual ajustandolas a la distribucion normal En cualquier caso se trata de un resultado causado deliberadamente por la construccion del test o de una interpretacion de las puntuaciones que sugiere normalidad para la mayoria de la poblacion Sin embargo la cuestion acerca de si la inteligencia en si esta normalmente distribuida es mas complicada porque se trata de una variable latente y por consiguiente no puede observarse directamente Ecuacion de difusion Editar La funcion de densidad de la distribucion normal esta estrechamente relacionada con la ecuacion de difusion homogenea e isotropa y por tanto tambien con la ecuacion de calor Esta ecuacion diferencial parcial describe el tiempo de evolucion de una funcion de densidad bajo difusion En particular la funcion de densidad de masa f 0 t x 1 2 p t exp x 2 2 t displaystyle varphi 0 t x frac 1 sqrt 2 pi t exp left frac x 2 2t right para la distribucion normal con esperanza 0 y varianza t satisface la ecuacion de difusion t f 0 t x 1 2 2 x 2 f 0 t x displaystyle frac partial partial t varphi 0 t x frac 1 2 frac partial 2 partial x 2 varphi 0 t x Si la densidad de masa para un tiempo t 0 viene dada por la delta de Dirac lo cual significa esencialmente que toda la masa esta inicialmente concentrada en un punto entonces la funcion de densidad de masa en el tiempo t tendra la forma de la funcion de densidad de la normal con varianza creciendo linealmente con t Esta conexion no es coincidencia la difusion se debe a un movimiento browniano que queda descrito matematicamente por un proceso de Wiener y tal proceso en un tiempo t tambien resultara normal con varianza creciendo linealmente con t Mas generalmente si la densidad de masa inicial viene dada por una funcion f x entonces la densidad de masa en un tiempo t vendra dada por la convolucion de f y una funcion de densidad normal Aplicacion de la distribucion normal de probabilidad acumulada a lluvias mensuales en Surinam 12 Hidrologia Editar En la hidrologia se presume que precipitaciones y descargas de rios de larga duracion por ejemplo mensuales o anuales siguen una distribucion normal de acuerdo al teorema del limite central 13 La imagen azul ilustra un ejemplo del ajuste de la distribucion normal a datos de lluvia mensual y muestra los intervalos de confianza basados en la distribucion binomial Uso en estadistica computacional EditarGeneracion de valores para una variable aleatoria normal Editar Para simulaciones por ordenador es util en ocasiones generar valores que podrian seguir una distribucion anormal Hay varios metodos y el mas basico de ellos es invertir la funcion de distribucion de la normal estandar para asi poder realizar la grafica Se conocen otros metodos mas eficientes uno de los cuales es la transformacion de Box Muller Un algoritmo incluso mas rapido es el algoritmo zigurat Ambos se discuten mas abajo Una aproximacion simple a estos metodos es programarlos como sigue simplemente sumense 12 desviaciones uniformes 0 1 y restense 6 la mitad de 12 Esto es bastante util en muchas aplicaciones La suma de esos 12 valores sigue la distribucion de Irwin Hall son elegidos 12 para dar a la suma una varianza de uno exactamente Las desviaciones aleatorias resultantes estan limitadas al rango 6 6 y tienen una densidad que es una doceava seccion de una aproximacion polinomial de undecimo orden a la distribucion normal 14 El metodo de Box Muller dice que si tienes dos numeros aleatorios U y V uniformemente distribuidos en 0 1 por ejemplo la salida de un generador de numeros aleatorios entonces X e Y son dos variables aleatorias estandar normalmente distribuidas donde X 2 ln U cos 2 p V displaystyle X sqrt 2 ln U cos 2 pi V Y 2 ln U sen 2 p V displaystyle Y sqrt 2 ln U operatorname sen 2 pi V Esta formulacion aparece porque la distribucion x con dos grados de libertad vease la propiedad 4 mas arriba es una variable aleatoria exponencial facilmente generada la cual corresponde a la cantidad lnU en estas ecuaciones Asi un angulo elegido uniformemente alrededor de un circulo via la variable aleatoria V y un radio elegido para ser exponencial se transforman entonces en coordenadas x e y normalmente distribuidas Un metodo mucho mas rapido que la transformacion de Box Muller pero que sigue siendo exacto es el llamado algoritmo Zigurat desarrollado por George Marsaglia En alrededor del 97 de los casos usa solo dos numeros aleatorios un entero aleatorio y un uniforme aleatorio una multiplicacion y un test si Solo un 3 de los casos donde la combinacion de estos dos cae fuera del corazon del zigurat un tipo de rechazo muestral usando logaritmos exponenciales y numeros aleatorios mas uniformes deberian ser empleados Hay tambien alguna investigacion sobre la conexion entre la rapida transformacion de Hadamard y la distribucion normal en virtud de que la transformacion emplea solo adicion y sustraccion y por el teorema central del limite los numeros aleatorios de casi cualquier distribucion seran transformados en la distribucion normal En esta vision se pueden combinar una serie de transformaciones de Hadamard con permutaciones aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos Aproximaciones numericas de la distribucion normal y su funcion de distribucion Editar La funcion de distribucion normal se usa extensamente en computacion cientifica y estadistica Por consiguiente ha sido implementada de varias formas Abramowitz y Stegun 1964 dan la conocida como mejor aproximacion de Hastings para F x con x gt 0 con un error absoluto e x lt 7 5 10 8 algoritmo 26 2 17 F x 1 ϕ x b 1 t b 2 t 2 b 3 t 3 b 4 t 4 b 5 t 5 e x t 1 1 b 0 x displaystyle Phi x 1 phi x Big b 1 t b 2 t 2 b 3 t 3 b 4 t 4 b 5 t 5 Big varepsilon x qquad t frac 1 1 b 0 x donde ϕ x es la funcion de densidad de la distribucion normal estandar ϕ x 1 2 p e 1 2 x 2 displaystyle phi x tfrac 1 sqrt 2 pi e frac scriptscriptstyle 1 scriptscriptstyle 2 x 2 y las constantes son b0 0 2316419 b1 0 319381530 b2 0 356563782 b3 1 781477937 b4 1 821255978 b5 1 330274429 La Biblioteca Cientifica GNU calcula valores de la funcion de distribucion normal estandar usando aproximaciones por funciones racionales a trozos Otro metodo de aproximacion usa polinomios de tercer grado en intervalos 15 El articulo sobre el lenguaje de programacion bc proporciona un ejemplo de como computar la funcion de distribucion en GNU bc Para una discusion mas detallada sobre como calcular la distribucion normal vease la seccion 3 4 1C de The Art of Computer Programming El arte de la programacion por ordenador de Knuth Vease tambien EditarCarl Friedrich Gauss Cociente intelectual Desenfoque gaussiano y convolucion usando la distribucion normal como nucleo Distribucion x Distribucion logistica Distribucion log normal Distribucion normal multivariante Distribucion t de Student Funcion gaussiana campana de Gauss Funcion logit Funcion probit Grafico de probabilidad normal Iannis Xenakis distribucion gaussiana en musica Proceso de Gauss Prueba de Mann Whitney Metodo no parametrico que aproxima a una normal Tabla distribucion normal tipificada Tamano de la muestra Teorema Central del Limite Tablas estadisticasReferencias Editar Estadistica Basica ITM 2007 ISBN 9789589831410 Consultado el 12 de diciembre de 2017 Orrego Juan Jose Manzano 2014 LOGISTICA DE APROVISIONAMIENTO Ediciones Paraninfo S A ISBN 9788497329811 Consultado el 12 de diciembre de 2017 Gomez Chacon Ines Ma Catala Claudi Alsina Raig Nuria Planas Rodriguez Joaquim Gimenez Munoz Yuly Marsela Vanegas Sirera Marta Civil 4 de octubre de 2010 Educacion matematica y ciudadania Grao ISBN 9788499801667 Consultado el 12 de diciembre de 2017 Es una consecuencia del Teorema Central del Limite Abraham de Moivre Approximatio ad Summam Terminorum Binomii a b n in Seriem expansi impreso el 12 de noviembre de 1733 en Londres para una edicion privada Este panfleto se reimprimio en 1 Richard C Archibald 1926 A rare pamphlet of Moivre and some of his discoveries Isis vol 8 paginas 671 683 2 Helen M Walker De Moivre on the law of normal probability en David Eugene Smith A Source Book in Mathematics Nueva York Nueva York McGraw Hill 1929 reimpresion Nueva York Nueva York Dover 1959 vol 2 paginas 566 575 3 Abraham De Moivre The Doctrine of Chances 2ª ed Londres H Woodfall 1738 reimpresion Londres Cass 1967 paginas 235 243 3ª ed Londres A Millar 1756 reimpresion Nueva York Nueva York Chelsea 1967 paginas 243 254 4 Florence N David Games Gods and Gambling A History of Probability and Statistical Ideas Londres Griffin 1962 Apendice 5 paginas 254 267 Havil 2003 Wussing Hans marzo de 1998 Leccion 10 Lecciones de Historia de las Matematicas 1ª castellano edicion Siglo XXI de Espana Editores S A p 190 ISBN 84 323 0966 4 La distribucion normal y sus aplicaciones a la teoria de errores se asocia a menudo con el nombre de Gauss quien la descubrio igual que Laplace independientemente no obstante ya habia sido estudiada por de Moivre La referencia utiliza el parametro obsoleto mes ayuda La funcion Q https web archive org web 20090325160012 http www eng tau ac il jo academic Q pdf Weisstein Eric W Normal Distribution Function En Weisstein Eric W ed MathWorld en ingles Wolfram Research M A Sanders Characteristic function of the univariate normal distribution Archivado desde el original el 25 de marzo de 2009 Consultado el 6 de marzo de 2009 CumFreq software para adecuacion de distribuciones de probabilidad 1 Ritzema ed H P 1994 Frequency and Regression Analysis Chapter 6 in Drainage Principles and Applications Publication 16 International Institute for Land Reclamation and Improvement ILRI Wageningen The Netherlands pp 175 224 ISBN 90 70754 33 9 Johnson NL Kotz S Balakrishnan N 1995 Continuous Univariate Distributions Volume 2 Wiley Equation 26 48 Andy Salter B Spline curves Consultado el 5 de diciembre de 2008 Enlaces externos EditarGraficadora de la distribucion normal CalEst en la Web Calculadora de distribuciones discretas y continuas CalEst en la Web Graficadora de una o varias distribuciones normales CalEst en la Web Areas bajo la curva normal Tabla conteniendo los valores de la funcion normal Calculadora de probabilidades en una distribucion Normal Permite hacer calculos directos e inversos DynStats Laboratorio estadistico en linea con calculadora de funciones de distribucion Tabla de la distribucion normal Tabla de la distribucion normal en formato PDF http mathworld wolfram com NormalDistribution htmlAjuste por software de una distribucion de probabilidad a un conjunto de datos Editar Easy fit Archivado el 23 de febrero de 2018 en Wayback Machine data analysis amp simulation MathWorks Benelux enlace roto disponible en Internet Archive vease el historial la primera version y la ultima ModelRisk risk modelling software Ricci distributions fitting distrubutions with R Vito Ricci 2005 Risksolver automatically fit distributions and parameters to samples StatSoft distribution fitting Archivado el 30 de agosto de 2012 en Wayback Machine CumFreq libre sin costo incluye la distribucion normal la lognormal raiz normal cuadrado normal e intervalos de confianza a base de la distribucion binomial Calculadora Distribucion normal Calcular la probabilidad de una distribucion normal con R lenguaje de programacion Implementacion Real en C del algoritmo Expectation Maximization EM para estimar Gaussian Mixture Models GMMs Datos Q133871 Multimedia Normal distributionObtenido de https es wikipedia org w index php title Distribucion normal amp oldid 134203286, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos