fbpx
Wikipedia

Distribución normal multivariada

En probabilidad y estadística, una distribución normal multivariante, también llamada distribución gaussiana multivariante, es una generalización de la distribución normal unidimensional a dimensiones superiores.

Normal multivariante
Parámetros (vector real)
matriz de covarianza (matriz real definida positiva de dimensión )
Dominio
Función de densidad (pdf)
Función de distribución (cdf) Sin expresión analítica
Media
Mediana
Moda
Varianza
Coeficiente de simetría 0
Curtosis 0
Entropía
Función generadora de momentos (mgf)
Función característica

Definición

Notación

Si   es un vector aleatorio de dimensión   con distribución normal multivariada normal entonces escribimos

 

o si queremos decir que   es un vector de dimensión   entonces se usa la notación

 

El vector aleatorio   sigue una distribución normal multivariante si satisface las siguientes condiciones equivalentes:

  • Toda combinación lineal   está normalmente distribuida.
  • Hay un vector aleatorio  , cuyas componentes son variables aleatorias independientes distribuidas según la normal estándar, un vector   y una matriz     tal que  .
  • Hay un vector   y una matriz semidefinida positiva simétrica   tal que la función característica de   es
 

Si   es una matriz no singular, entonces la distribución puede describirse por la siguiente función de densidad:

 

donde   denota el determinante de la matriz  . Nótese cómo la ecuación de arriba se reduce a la distribución normal si   es un escalar (es decir, una matriz 1x1).

El vector   en estas circunstancias es la esperanza de   y la matriz   es la matriz de covarianza de las componentes  .

Es importante comprender que la matriz de covarianza puede ser singular (aunque no esté así descrita por la fórmula de arriba, para la cual   está definida).

Este caso aparece con frecuencia en estadística; por ejemplo, en la distribución del vector de residuos en problemas ordinarios de regresión lineal. Nótese también que los Xi son en general no independientes; pueden verse como el resultado de aplicar la transformación lineal   a una colección de variables normales  .

Función de distribución

La función de distribución   se define como la probabilidad de que todos los valores de un vector aleatorio   sean menores o iguales que los valores correspondientes de un vector  . Aunque   no tenga una fórmula, hay una serie de algoritmos que permiten estimarla numéricamente.[1]

Un contraejemplo

El hecho de que dos variables aleatorias   e   sigan una distribución normal, cada una, no implica que el par (XY) siga una distribución normal conjunta. Un ejemplo simple se da con   Normal(0,1),   si   e   si  . Esto también es cierto para más de dos variables aleatorias.[2]

Normalmente distribuidas e independencia

Si   y   están normalmente distribuidas y son independientes, su distribución conjunta también está normalmente distribuida, es decir, el par (XY) debe tener una distribución normal bivariante. En cualquier caso, un par de variables aleatorias normalmente distribuidas no tienen por qué ser independientes al ser consideradas de forma conjunta.

Caso bivariante

En el caso particular de dos dimensiones, la función de densidad (con media (0, 0) es

 

donde   es el coeficiente de correlación entre   e  . En este caso,

 

Transformación afín

Si   es una transformación afín de   donde   es un   vector de constantes y   una   matriz, entonces   tiene una distribución normal multivariante con esperanza   y varianza   esto es,  . En particular, cualquier subconjunto de las   tiene una distribución marginal que es también una normal multivariante.

Para ver esto, considérese el siguiente ejemplo: para extraer el subconjunto  , úsese

 

lo que extrae directamente los elementos deseados.

Otro corolario sería que la distribución de  , donde   es un vector de la misma longitud que   y el punto indica un producto vectorial, sería una distribución gaussiana unidimensional con  . Este resultado se obtiene usando

 

y considerando sólo la primera componente del producto (la primera fila de   es el vector  ). Obsérvese cómo la definición positiva de   implica que la varianza del producto vectorial debería ser positiva.

Interpretación geométrica

Las curvas de equidensidad de una distribución normal multivariante son elipsoides (es decir, transformaciones lineales de hiperesferas) centrados en la media.[3]​ Las direcciones de los ejes principales de los elipsoides vienen dados por los vectores propios de la matriz de covarianza  . Las longitudes relativas de los cuadrados de los ejes principales vienen dados por los correspondientes vectores propios.

Si   es una descomposición espectral donde las columnas de U son vectores propios unitarios y   es una matriz diagonal de valores propios, entonces tenemos

 

Además, U puede elegirse de tal modo que sea una matriz de rotación, tal que invirtiendo un eje no tenga ningún efecto en  , pero invirtiendo una columna, cambie el signo del determinante de U'. La distribución   es en efecto   escalada por  , rotada por U y trasladada por  .

Recíprocamente, cualquier elección de  , matriz de rango completo U, y valores diagonales positivos   cede el paso a una distribución normal no singular multivariante. Si cualquier   es cero y U es cuadrada, la matriz de covarianza   es una singular. Geométricamente esto significa que cada curva elipsoide es infinitamente delgada y tiene volumen cero en un espacio n-dimensional, así como, al menos, uno de los principales ejes tiene longitud cero.

Correlaciones e independencia

En general, las variables aleatorias pueden ser incorreladas, pero altamente dependientes. Pero si un vector aleatorio tiene una distribución normal multivariante, entonces cualesquiera dos o más de sus componentes que sean incorreladas, son independientes.

Pero no es cierto que dos variables aleatorias que están (separadamente, marginalmente) normalmente distribuidas e incorreladas sean independientes. Dos variables aleatorias que están normalmente distribuidas pueden que no lo estén conjuntamente. Para un ejemplo de dos variables normalmente distribuidas que sean incorreladas pero no independientes, véase normalmente distribuidas e incorreladas no implica independencia.

Momentos más altos

El momento estándar de k-ésimo orden de X se define como

 

donde  

Los momentos centrales de orden k viene dados como sigue:

(a) Si k es impar,  .

(b) Si k es par, con  , entonces

 

donde la suma se toma sobre todas las disposiciones de conjuntos   en   parejas (no ordenadas). Esto es, si se tiene un k-ésimo ( ) momento central, se estarán sumando los productos de   covarianzas (la notación -  se ha despreciado para facilitar la lectura):

 

Esto da lugar a   términos en la suma (15 en el caso de arriba), cada uno siendo el producto de   (3 en este caso) covarianzas. Para momentos de cuarto orden (cuatro variables) hay tres términos. Para momentos de sexto orden hay 3 × 5 = 15 términos, y para momentos de octavo orden hay 3 × 5 × 7 = 105 términos.

Las covarianzas son entonces determinadas mediante el reemplazo de los términos de la lista   por los términos correspondientes de la lista que consiste en   unos, entonces   doses, etc... Para ilustrar esto, examínese el siguiente caso de momento central de cuarto orden:

 
 
 
 
 

donde   es la covarianza de   y  . La idea del método de arriba es que primero se encuentra el caso general para el momento  -ésimo, donde se tiene   diferentes variables   -   y entonces se pueden simplificar apropiadamente. Si se tiene   entonces, simplemente sea   y se sigue que  .

Distribuciones condicionales

Si   y   son divididas como sigue:

  con tamaños  
  con tamaños  

entonces la distribución de   condicionada a   es una normal multivariante   donde

 

y matriz de covarianza

 

Esta matriz es el complemento de Schur de   en  . Esto significa que para calcular la matriz condicional de covarianza, se invierte la matriz global de covarianza, se desprecian las filas y columnas correspondientes a las variables bajo las cuales está condicionada y entonces se invierte de nuevo para conseguir la matriz condicional de covarianza.

Nótese que se sabe que   altera la varianza, aunque la nueva varianza no dependa del valor específico de  ; quizás más sorprendentemente, la media se cambia por  ; compárese esto con la situación en la que no se conoce el valor de  , en cuyo caso   tendría como distribución

 .

La matriz   se conoce como la matriz de coeficientes de regresión.

Esperanza condicional bivariante

En el caso

 

entonces

 

donde esta última razón se llama a menudo razón inversa de Mills.

Matriz de información de Fisher

La matriz de información de Fisher (MIF) para una distribución normal toma una formulación especial. El elemento   de la MIF para   es

 

donde

  •  
  •  
  •  
  •   es la función traza de una matriz.

Divergencia de Kullback-Leibler

La divergencia de Kullback-Leibler de   a   es:

 

El logaritmo debe tomarse con base e en los dos términos (logaritmos neperianos), siguiendo el logaritmo están los logaritmos neperianos de las expresiones que son ambos factores de la función de densidad o si no, surgen naturalmente. La divergencia de arriba se mide en nats. Dividiendo la expresión de arriba por loge 2 se da paso a la divergencia en bits.

Estimación de parámetros

La derivación del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es, quizás sorprendentemente, sutil y elegante. Véase estimación de matrices de covarianza.

En pocas palabras, la función de densidad de probabilidad de una normal multivariante N-dimensional es

 

y el estimador MV de la matriz de covarianza para una muestra de n observaciones es

 

lo cual es, simplemente, la matriz muestral de covarianza. Este es un estimador sesgado cuya esperanza es

 

Una covarianza muestral insesgada es

 

Entropía

La entropía diferencial de la distribución normal multivariante es[4]

 

donde   es el determinante de la matriz de covarianza  .

Tests de normalidad multivariante

Los tests de normalidad multivariante comprueban la similitud de un conjunto dado de datos con la distribución normal multivariante. La hipótesis nula es que el conjunto de datos es similar a la distribución normal, por consiguiente un p-valor suficientemente pequeño indica datos no normales. Los tests de normalidad multivariante incluyen el test de Cox-Small[5]​ y la adaptación de Smith y Jain [6]​ del test de Friedman-Rafsky.

Simulando valores de la distribución

Un método ampliamente usado para simular un vector aleatorio   de la distribución normal multivariada  -dimensional con vector de medias   y matriz de covarianza   (requerida para ser simétrica y definida positiva) funciona como sigue:

  1. Se calcula la descomposición de Cholesky de  , esto es, se encuentra la única matriz triangular inferior   tal que  . Nótese que cualquier otra matriz   que satisfaga esta condición, o sea, que es uno la raíz cuadrada de  , podría usarse, pero a menudo encontrar tal matriz, distinta de la de la descomposición de Cholesky, sería bastante más costoso en términos de computación.
  2. Sea   un vector cuyas componentes   normales e independientes varían (lo cual puede generarse, por ejemplo, usando el método de Box-Muller.
  3. Sea    

Referencias

  1. Véase MVNDST en [1] (incluye código FORTRAN) o (incluye código MATLAB).
  2. Véase también normalmente distribuidas e incorreladas no implica independencia
  3. Nikolaus Hansen. (PDF). Archivado desde el original el 31 de marzo de 2010. Consultado el 7 de enero de 2012. 
  4. Gokhale, DV; NA Ahmed, BC Res, NJ Piscataway (mayo de 1989). «Entropy Expressions and Their Estimators for Multivariate Distributions». Information Theory, IEEE Transactions on 35 (3): 688-692. doi:10.1109/18.30996. 
  5. Cox, D. R.; N. J. H. Small (agosto de 1978). «Testing multivariate normality». Biometrika 65 (2): 263-272. doi:10.1093/biomet/65.2.263. 
  6. Smith, Stephen P.; Anil K. Jain (septiembre de 1988). «A test to determine the multivariate normality of a dataset». IEEE Transactions on Pattern Analysis and Machine Intelligence 10 (5): 757-761. doi:10.1109/34.6789. 


  •   Datos: Q1149000

distribución, normal, multivariada, probabilidad, estadística, distribución, normal, multivariante, también, llamada, distribución, gaussiana, multivariante, generalización, distribución, normal, unidimensional, dimensiones, superiores, normal, multivariantepa. En probabilidad y estadistica una distribucion normal multivariante tambien llamada distribucion gaussiana multivariante es una generalizacion de la distribucion normal unidimensional a dimensiones superiores Normal multivarianteParametrosm m 1 m n T displaystyle mu mu 1 dots mu n T vector real S displaystyle Sigma matriz de covarianza matriz real definida positiva de dimension n n displaystyle n times n Dominiox R n displaystyle x in mathbb R n Funcion de densidad pdf f X x 1 x n 1 2 p n 2 S 1 2 displaystyle f X x 1 dots x n frac 1 2 pi n 2 left Sigma right 1 2 exp 1 2 x m S 1 x m displaystyle exp left frac 1 2 x mu top Sigma 1 x mu right Funcion de distribucion cdf Sin expresion analiticaMediam displaystyle mu Medianam displaystyle mu Modam displaystyle mu Varianzas 2 displaystyle sigma 2 Coeficiente de simetria0Curtosis0Entropialn 2 p e n S displaystyle ln left sqrt 2 pi e n left Sigma right right Funcion generadora de momentos mgf M X t exp m t 1 2 t S t displaystyle M X t exp left mu top t frac 1 2 t top Sigma t right Funcion caracteristicaϕ X t m S exp i m t 1 2 t S t displaystyle phi X t mu Sigma exp left i mu top t frac 1 2 t top Sigma t right editar datos en Wikidata Indice 1 Definicion 1 1 Notacion 1 2 Funcion de distribucion 1 3 Un contraejemplo 1 4 Normalmente distribuidas e independencia 2 Caso bivariante 3 Transformacion afin 4 Interpretacion geometrica 5 Correlaciones e independencia 6 Momentos mas altos 7 Distribuciones condicionales 7 1 Esperanza condicional bivariante 8 Matriz de informacion de Fisher 9 Divergencia de Kullback Leibler 10 Estimacion de parametros 11 Entropia 12 Tests de normalidad multivariante 13 Simulando valores de la distribucion 14 ReferenciasDefinicion EditarNotacion Editar Si X X 1 X n T displaystyle X X 1 dots X n T es un vector aleatorio de dimension n displaystyle n con distribucion normal multivariada normal entonces escribimos X N m S displaystyle X sim mathcal N mu Sigma o si queremos decir que X displaystyle X es un vector de dimension n displaystyle n entonces se usa la notacion X N n m S displaystyle X sim mathcal N n mu Sigma El vector aleatorio X X 1 X n T displaystyle X X 1 dots X n T sigue una distribucion normal multivariante si satisface las siguientes condiciones equivalentes Toda combinacion lineal Y a 1 X 1 a n X n displaystyle Y a 1 X 1 cdots a n X n esta normalmente distribuida Hay un vector aleatorio Z Z 1 Z m T displaystyle Z Z 1 dots Z m T cuyas componentes son variables aleatorias independientes distribuidas segun la normal estandar un vector m m 1 m n T displaystyle mu mu 1 dots mu n T y una matriz n m displaystyle n times m A displaystyle A tal que X A Z m displaystyle X AZ mu Hay un vector m displaystyle mu y una matriz semidefinida positiva simetrica S displaystyle Sigma tal que la funcion caracteristica de X displaystyle X esϕ X u m S exp i m u 1 2 u S u displaystyle phi X left u mu Sigma right exp left i mu top u frac 1 2 u top Sigma u right Si S displaystyle Sigma es una matriz no singular entonces la distribucion puede describirse por la siguiente funcion de densidad f X x 1 x n 1 2 p n 2 S 1 2 exp 1 2 x m S 1 x m displaystyle f X x 1 dots x n frac 1 2 pi n 2 Sigma 1 2 exp left frac 1 2 mathbf x mathbf mu top Sigma 1 mathbf x mathbf mu right donde S displaystyle left Sigma right denota el determinante de la matriz S displaystyle Sigma Notese como la ecuacion de arriba se reduce a la distribucion normal si S displaystyle Sigma es un escalar es decir una matriz 1x1 El vector m displaystyle mu en estas circunstancias es la esperanza de X displaystyle X y la matriz S A A T displaystyle Sigma AA T es la matriz de covarianza de las componentes X j displaystyle X j Es importante comprender que la matriz de covarianza puede ser singular aunque no este asi descrita por la formula de arriba para la cual S 1 displaystyle Sigma 1 esta definida Este caso aparece con frecuencia en estadistica por ejemplo en la distribucion del vector de residuos en problemas ordinarios de regresion lineal Notese tambien que los Xi son en general no independientes pueden verse como el resultado de aplicar la transformacion lineal A displaystyle A a una coleccion de variables normales Z displaystyle Z Funcion de distribucion Editar La funcion de distribucion F x displaystyle F x se define como la probabilidad de que todos los valores de un vector aleatorio X displaystyle X sean menores o iguales que los valores correspondientes de un vector x displaystyle x Aunque F displaystyle F no tenga una formula hay una serie de algoritmos que permiten estimarla numericamente 1 Un contraejemplo Editar El hecho de que dos variables aleatorias X displaystyle X e Y displaystyle Y sigan una distribucion normal cada una no implica que el par X Y siga una distribucion normal conjunta Un ejemplo simple se da con X displaystyle X Normal 0 1 Y X displaystyle Y X si X gt 1 displaystyle X gt 1 e Y X displaystyle Y X si X lt 1 displaystyle X lt 1 Esto tambien es cierto para mas de dos variables aleatorias 2 Normalmente distribuidas e independencia Editar Si X displaystyle X y Y displaystyle Y estan normalmente distribuidas y son independientes su distribucion conjunta tambien esta normalmente distribuida es decir el par X Y debe tener una distribucion normal bivariante En cualquier caso un par de variables aleatorias normalmente distribuidas no tienen por que ser independientes al ser consideradas de forma conjunta Caso bivariante EditarEn el caso particular de dos dimensiones la funcion de densidad con media 0 0 es f x y 1 2 p s x s y 1 r 2 exp 1 2 1 r 2 x 2 s x 2 y 2 s y 2 2 r x y s x s y displaystyle f x y frac 1 2 pi sigma x sigma y sqrt 1 rho 2 exp left frac 1 2 1 rho 2 left frac x 2 sigma x 2 frac y 2 sigma y 2 frac 2 rho xy sigma x sigma y right right donde r displaystyle rho es el coeficiente de correlacion entre X displaystyle X e Y displaystyle Y En este caso S s x 2 r s x s y r s x s y s y 2 displaystyle Sigma begin bmatrix sigma x 2 amp rho sigma x sigma y rho sigma x sigma y amp sigma y 2 end bmatrix Transformacion afin EditarSi Y c B X displaystyle Y c BX es una transformacion afin de X N m S displaystyle X sim mathcal N mu Sigma donde c displaystyle c es un M 1 displaystyle M times 1 vector de constantes y B displaystyle B una M N displaystyle M times N matriz entonces Y displaystyle Y tiene una distribucion normal multivariante con esperanza c B m displaystyle c B mu y varianza B S B T displaystyle B Sigma B T esto es Y N c B m B S B T displaystyle Y sim mathcal N left c B mu B Sigma B T right En particular cualquier subconjunto de las X i displaystyle X i tiene una distribucion marginal que es tambien una normal multivariante Para ver esto considerese el siguiente ejemplo para extraer el subconjunto X 1 X 2 X 4 T displaystyle X 1 X 2 X 4 T usese B 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 displaystyle B begin bmatrix 1 amp 0 amp 0 amp 0 amp 0 amp ldots amp 0 0 amp 1 amp 0 amp 0 amp 0 amp ldots amp 0 0 amp 0 amp 0 amp 1 amp 0 amp ldots amp 0 end bmatrix lo que extrae directamente los elementos deseados Otro corolario seria que la distribucion de Z b X displaystyle Z b cdot X donde b displaystyle b es un vector de la misma longitud que X displaystyle X y el punto indica un producto vectorial seria una distribucion gaussiana unidimensional con Z N b m b T S b displaystyle Z sim mathcal N left b cdot mu b T Sigma b right Este resultado se obtiene usando B b 1 b 2 b n 0 0 0 0 0 0 displaystyle B begin bmatrix b 1 amp b 2 amp ldots amp b n 0 amp 0 amp ldots amp 0 vdots amp vdots amp ddots amp vdots 0 amp 0 amp ldots amp 0 end bmatrix y considerando solo la primera componente del producto la primera fila de B displaystyle B es el vector b displaystyle b Observese como la definicion positiva de S displaystyle Sigma implica que la varianza del producto vectorial deberia ser positiva Interpretacion geometrica EditarLas curvas de equidensidad de una distribucion normal multivariante son elipsoides es decir transformaciones lineales de hiperesferas centrados en la media 3 Las direcciones de los ejes principales de los elipsoides vienen dados por los vectores propios de la matriz de covarianza S displaystyle Sigma Las longitudes relativas de los cuadrados de los ejes principales vienen dados por los correspondientes vectores propios Si S U L U T U L 1 2 U L 1 2 T displaystyle Sigma U Lambda U T U Lambda 1 2 U Lambda 1 2 T es una descomposicion espectral donde las columnas de U son vectores propios unitarios y L displaystyle Lambda es una matriz diagonal de valores propios entonces tenemos X N m S X m U L 1 2 N 0 I X m U N 0 L displaystyle X sim N mu Sigma iff X sim mu U Lambda 1 2 N 0 I iff X sim mu UN 0 Lambda dd Ademas U puede elegirse de tal modo que sea una matriz de rotacion tal que invirtiendo un eje no tenga ningun efecto en N 0 L displaystyle N 0 Lambda pero invirtiendo una columna cambie el signo del determinante de U La distribucion N m S displaystyle N mu Sigma es en efecto N 0 I displaystyle N 0 I escalada por L 1 2 displaystyle Lambda 1 2 rotada por U y trasladada por m displaystyle mu Reciprocamente cualquier eleccion de m displaystyle mu matriz de rango completo U y valores diagonales positivos L i displaystyle Lambda i cede el paso a una distribucion normal no singular multivariante Si cualquier L i displaystyle Lambda i es cero y U es cuadrada la matriz de covarianza U L U T displaystyle U Lambda U T es una singular Geometricamente esto significa que cada curva elipsoide es infinitamente delgada y tiene volumen cero en un espacio n dimensional asi como al menos uno de los principales ejes tiene longitud cero Correlaciones e independencia EditarEn general las variables aleatorias pueden ser incorreladas pero altamente dependientes Pero si un vector aleatorio tiene una distribucion normal multivariante entonces cualesquiera dos o mas de sus componentes que sean incorreladas son independientes Pero no es cierto que dos variables aleatorias que estan separadamente marginalmente normalmente distribuidas e incorreladas sean independientes Dos variables aleatorias que estan normalmente distribuidas pueden que no lo esten conjuntamente Para un ejemplo de dos variables normalmente distribuidas que sean incorreladas pero no independientes vease normalmente distribuidas e incorreladas no implica independencia Momentos mas altos EditarEl momento estandar de k esimo orden de X se define como m 1 N X d e f m r 1 r N X d e f E j 1 N X j r j displaystyle mu 1 dots N X stackrel mathrm def mu r 1 dots r N X stackrel mathrm def E left prod limits j 1 N X j r j right donde r 1 r 2 r N k displaystyle r 1 r 2 cdots r N k Los momentos centrales de orden k viene dados como sigue a Si k es impar m 1 N X m 0 displaystyle mu 1 dots N X mu 0 b Si k es par con k 2 l displaystyle k 2 lambda entonces m 1 2 l X m s i j s k ℓ s X Z displaystyle mu 1 dots 2 lambda X mu sum left sigma ij sigma k ell cdots sigma XZ right donde la suma se toma sobre todas las disposiciones de conjuntos 1 2 l displaystyle left 1 dots 2 lambda right en l displaystyle lambda parejas no ordenadas Esto es si se tiene un k esimo 2 l 6 displaystyle 2 lambda 6 momento central se estaran sumando los productos de l 3 displaystyle lambda 3 covarianzas la notacion m displaystyle mu se ha despreciado para facilitar la lectura E X 1 X 2 X 3 X 4 X 5 X 6 E X 1 X 2 E X 3 X 4 E X 5 X 6 E X 1 X 2 E X 3 X 5 E X 4 X 6 E X 1 X 2 E X 3 X 6 E X 4 X 5 E X 1 X 3 E X 2 X 4 E X 5 X 6 E X 1 X 3 E X 2 X 5 E X 4 X 6 E X 1 X 3 E X 2 X 6 E X 4 X 5 E X 1 X 4 E X 2 X 3 E X 5 X 6 E X 1 X 4 E X 2 X 5 E X 3 X 6 E X 1 X 4 E X 2 X 6 E X 3 X 5 E X 1 X 5 E X 2 X 3 E X 4 X 6 E X 1 X 5 E X 2 X 4 E X 3 X 6 E X 1 X 5 E X 2 X 6 E X 3 X 4 E X 1 X 6 E X 2 X 3 E X 4 X 5 E X 1 X 6 E X 2 X 4 E X 3 X 5 E X 1 X 6 E X 2 X 5 E X 3 X 4 displaystyle begin aligned amp E X 1 X 2 X 3 X 4 X 5 X 6 amp E X 1 X 2 E X 3 X 4 E X 5 X 6 E X 1 X 2 E X 3 X 5 E X 4 X 6 E X 1 X 2 E X 3 X 6 E X 4 X 5 amp E X 1 X 3 E X 2 X 4 E X 5 X 6 E X 1 X 3 E X 2 X 5 E X 4 X 6 E X 1 X 3 E X 2 X 6 E X 4 X 5 amp E X 1 X 4 E X 2 X 3 E X 5 X 6 E X 1 X 4 E X 2 X 5 E X 3 X 6 E X 1 X 4 E X 2 X 6 E X 3 X 5 amp E X 1 X 5 E X 2 X 3 E X 4 X 6 E X 1 X 5 E X 2 X 4 E X 3 X 6 E X 1 X 5 E X 2 X 6 E X 3 X 4 amp E X 1 X 6 E X 2 X 3 E X 4 X 5 E X 1 X 6 E X 2 X 4 E X 3 X 5 E X 1 X 6 E X 2 X 5 E X 3 X 4 end aligned Esto da lugar a 2 l 1 2 l 1 l 1 displaystyle 2 lambda 1 2 lambda 1 lambda 1 terminos en la suma 15 en el caso de arriba cada uno siendo el producto de l displaystyle lambda 3 en este caso covarianzas Para momentos de cuarto orden cuatro variables hay tres terminos Para momentos de sexto orden hay 3 5 15 terminos y para momentos de octavo orden hay 3 5 7 105 terminos Las covarianzas son entonces determinadas mediante el reemplazo de los terminos de la lista 1 2 l displaystyle left 1 dots 2 lambda right por los terminos correspondientes de la lista que consiste en r 1 displaystyle r 1 unos entonces r 2 displaystyle r 2 doses etc Para ilustrar esto examinese el siguiente caso de momento central de cuarto orden E X i 4 3 s i i 2 displaystyle E left X i 4 right 3 sigma ii 2 E X i 3 X j 3 s i i s i j displaystyle E left X i 3 X j right 3 sigma ii sigma ij E X i 2 X j 2 s i i s j j 2 s i j 2 displaystyle E left X i 2 X j 2 right sigma ii sigma jj 2 left sigma ij right 2 E X i 2 X j X k s i i s j k 2 s i j s i k displaystyle E left X i 2 X j X k right sigma ii sigma jk 2 sigma ij sigma ik E X i X j X k X n s i j s k n s i k s j n s i n s j k displaystyle E left X i X j X k X n right sigma ij sigma kn sigma ik sigma jn sigma in sigma jk donde s i j displaystyle sigma ij es la covarianza de X i displaystyle X i y X j displaystyle X j La idea del metodo de arriba es que primero se encuentra el caso general para el momento k displaystyle k esimo donde se tiene k displaystyle k diferentes variables X displaystyle X E X i X j X k X n displaystyle E left X i X j X k X n right y entonces se pueden simplificar apropiadamente Si se tiene E X i 2 X k X n displaystyle E left X i 2 X k X n right entonces simplemente sea X i X j displaystyle X i X j y se sigue que s i i s i 2 displaystyle sigma ii sigma i 2 Distribuciones condicionales EditarSi m displaystyle mu y S displaystyle Sigma son divididas como sigue m m 1 m 2 displaystyle mu begin bmatrix mu 1 mu 2 end bmatrix quad con tamanos q 1 N q 1 displaystyle begin bmatrix q times 1 N q times 1 end bmatrix S S 11 S 12 S 21 S 22 displaystyle Sigma begin bmatrix Sigma 11 amp Sigma 12 Sigma 21 amp Sigma 22 end bmatrix quad con tamanos q q q N q N q q N q N q displaystyle begin bmatrix q times q amp q times N q N q times q amp N q times N q end bmatrix entonces la distribucion de x 1 displaystyle x 1 condicionada a x 2 a displaystyle x 2 a es una normal multivariante X 1 X 2 a N m S displaystyle X 1 X 2 a sim N bar mu overline Sigma donde m m 1 S 12 S 22 1 a m 2 displaystyle bar mu mu 1 Sigma 12 Sigma 22 1 left a mu 2 right y matriz de covarianza S S 11 S 12 S 22 1 S 21 displaystyle overline Sigma Sigma 11 Sigma 12 Sigma 22 1 Sigma 21 Esta matriz es el complemento de Schur de S 22 displaystyle mathbf Sigma 22 en S displaystyle mathbf Sigma Esto significa que para calcular la matriz condicional de covarianza se invierte la matriz global de covarianza se desprecian las filas y columnas correspondientes a las variables bajo las cuales esta condicionada y entonces se invierte de nuevo para conseguir la matriz condicional de covarianza Notese que se sabe que x 2 a displaystyle x 2 a altera la varianza aunque la nueva varianza no dependa del valor especifico de a displaystyle a quizas mas sorprendentemente la media se cambia por S 12 S 22 1 a m 2 displaystyle Sigma 12 Sigma 22 1 left a mu 2 right comparese esto con la situacion en la que no se conoce el valor de a displaystyle a en cuyo caso x 1 displaystyle x 1 tendria como distribucionN q m 1 S 11 displaystyle N q left mu 1 Sigma 11 right La matriz S 12 S 22 1 displaystyle Sigma 12 Sigma 22 1 se conoce como la matriz de coeficientes de regresion Esperanza condicional bivariante Editar En el caso X 1 X 2 N 0 0 1 r r 1 displaystyle begin pmatrix X 1 X 2 end pmatrix sim mathcal N left begin pmatrix 0 0 end pmatrix begin pmatrix 1 amp rho rho amp 1 end pmatrix right entoncesE X 1 X 2 gt z r ϕ z F z displaystyle E X 1 X 2 gt z rho phi z over Phi z donde esta ultima razon se llama a menudo razon inversa de Mills Matriz de informacion de Fisher EditarLa matriz de informacion de Fisher MIF para una distribucion normal toma una formulacion especial El elemento m n displaystyle m n de la MIF para X N m 8 S 8 displaystyle X sim N mu theta Sigma theta es I m n m 8 m S 1 m 8 n 1 2 t r S 1 S 8 m S 1 S 8 n displaystyle mathcal I m n frac partial mu partial theta m Sigma 1 frac partial mu top partial theta n frac 1 2 mathrm tr left Sigma 1 frac partial Sigma partial theta m Sigma 1 frac partial Sigma partial theta n right donde m 8 m m 1 8 m m 2 8 m m N 8 m displaystyle frac partial mu partial theta m begin bmatrix frac partial mu 1 partial theta m amp frac partial mu 2 partial theta m amp cdots amp frac partial mu N partial theta m amp end bmatrix m 8 m m 8 m m 1 8 m m 2 8 m m N 8 m displaystyle frac partial mu top partial theta m left frac partial mu partial theta m right top begin bmatrix frac partial mu 1 partial theta m frac partial mu 2 partial theta m vdots frac partial mu N partial theta m end bmatrix S 8 m S 1 1 8 m S 1 2 8 m S 1 N 8 m S 2 1 8 m S 2 2 8 m S 2 N 8 m S N 1 8 m S N 2 8 m S N N 8 m displaystyle frac partial Sigma partial theta m begin bmatrix frac partial Sigma 1 1 partial theta m amp frac partial Sigma 1 2 partial theta m amp cdots amp frac partial Sigma 1 N partial theta m frac partial Sigma 2 1 partial theta m amp frac partial Sigma 2 2 partial theta m amp cdots amp frac partial Sigma 2 N partial theta m vdots amp vdots amp ddots amp vdots frac partial Sigma N 1 partial theta m amp frac partial Sigma N 2 partial theta m amp cdots amp frac partial Sigma N N partial theta m end bmatrix t r displaystyle mathrm tr es la funcion traza de una matriz Divergencia de Kullback Leibler EditarLa divergencia de Kullback Leibler de N 0 N m 0 S 0 displaystyle N0 N mu 0 Sigma 0 a N 1 N m 1 S 1 displaystyle N1 N mu 1 Sigma 1 es D KL N 0 N 1 1 2 log e det S 1 det S 0 t r S 1 1 S 0 m 1 m 0 S 1 1 m 1 m 0 N displaystyle D text KL N0 N1 1 over 2 left log e left det Sigma 1 over det Sigma 0 right mathrm tr left Sigma 1 1 Sigma 0 right left mu 1 mu 0 right top Sigma 1 1 mu 1 mu 0 N right El logaritmo debe tomarse con base e en los dos terminos logaritmos neperianos siguiendo el logaritmo estan los logaritmos neperianos de las expresiones que son ambos factores de la funcion de densidad o si no surgen naturalmente La divergencia de arriba se mide en nats Dividiendo la expresion de arriba por loge 2 se da paso a la divergencia en bits Estimacion de parametros EditarLa derivacion del estimador de maxima verosimilitud de la matriz de covarianza de una distribucion normal multivariante es quizas sorprendentemente sutil y elegante Vease estimacion de matrices de covarianza En pocas palabras la funcion de densidad de probabilidad de una normal multivariante N dimensional es f x 2 p N 2 det S 1 2 exp 1 2 x m T S 1 x m displaystyle f x 2 pi N 2 det Sigma 1 2 exp left 1 over 2 x mu T Sigma 1 x mu right y el estimador MV de la matriz de covarianza para una muestra de n observaciones es S 1 n i 1 n X i X X i X T displaystyle widehat Sigma 1 over n sum i 1 n X i overline X X i overline X T lo cual es simplemente la matriz muestral de covarianza Este es un estimador sesgado cuya esperanza es E S n 1 n S displaystyle E widehat Sigma n 1 over n Sigma Una covarianza muestral insesgada es S 1 n 1 i 1 n X i X X i X T displaystyle widehat Sigma 1 over n 1 sum i 1 n X i overline X X i overline X T Entropia EditarLa entropia diferencial de la distribucion normal multivariante es 4 h f f x ln f x d x 1 2 N N ln 2 p ln S 1 2 ln 2 p e N S displaystyle begin aligned h left f right amp int infty infty int infty infty cdots int infty infty f x ln f x dx amp frac 1 2 left N N ln left 2 pi right ln left Sigma right right amp frac 1 2 ln 2 pi e N left Sigma right end aligned donde S displaystyle left Sigma right es el determinante de la matriz de covarianza S displaystyle Sigma Tests de normalidad multivariante EditarLos tests de normalidad multivariante comprueban la similitud de un conjunto dado de datos con la distribucion normal multivariante La hipotesis nula es que el conjunto de datos es similar a la distribucion normal por consiguiente un p valor suficientemente pequeno indica datos no normales Los tests de normalidad multivariante incluyen el test de Cox Small 5 y la adaptacion de Smith y Jain 6 del test de Friedman Rafsky Simulando valores de la distribucion EditarUn metodo ampliamente usado para simular un vector aleatorio X displaystyle X de la distribucion normal multivariada N displaystyle N dimensional con vector de medias m displaystyle mu y matriz de covarianza S displaystyle Sigma requerida para ser simetrica y definida positiva funciona como sigue Se calcula la descomposicion de Cholesky de S displaystyle Sigma esto es se encuentra la unica matriz triangular inferior A displaystyle A tal que A A T S displaystyle A A T Sigma Notese que cualquier otra matriz A displaystyle A que satisfaga esta condicion o sea que es uno la raiz cuadrada de S displaystyle Sigma podria usarse pero a menudo encontrar tal matriz distinta de la de la descomposicion de Cholesky seria bastante mas costoso en terminos de computacion Sea Z z 1 z N T displaystyle Z z 1 dots z N T un vector cuyas componentes N displaystyle N normales e independientes varian lo cual puede generarse por ejemplo usando el metodo de Box Muller Sea X displaystyle X m A Z displaystyle mu AZ Referencias Editar Vease MVNDST en 1 incluye codigo FORTRAN o 2 incluye codigo MATLAB Vease tambien normalmente distribuidas e incorreladas no implica independencia Nikolaus Hansen The CMA Evolution Strategy A Tutorial PDF Archivado desde el original el 31 de marzo de 2010 Consultado el 7 de enero de 2012 Gokhale DV NA Ahmed BC Res NJ Piscataway mayo de 1989 Entropy Expressions and Their Estimators for Multivariate Distributions Information Theory IEEE Transactions on 35 3 688 692 doi 10 1109 18 30996 La referencia utiliza el parametro obsoleto coautores ayuda Cox D R N J H Small agosto de 1978 Testing multivariate normality Biometrika 65 2 263 272 doi 10 1093 biomet 65 2 263 La referencia utiliza el parametro obsoleto coautores ayuda Smith Stephen P Anil K Jain septiembre de 1988 A test to determine the multivariate normality of a dataset IEEE Transactions on Pattern Analysis and Machine Intelligence 10 5 757 761 doi 10 1109 34 6789 La referencia utiliza el parametro obsoleto coautores ayuda Datos Q1149000 Obtenido de https es wikipedia org w index php title Distribucion normal multivariada amp oldid 134459805, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos