fbpx
Wikipedia

Criterio de información bayesiano

En estadística, el criterio de información bayesiano (BIC) o el más general criterio de Schwarz (SBC también, SBIC) es un criterio para la selección de modelos entre un conjunto finito de modelos. Se basa, en parte, de la función de probabilidad y que está estrechamente relacionado con el Criterio de Información de Akaike (AIC).

Cuando el ajuste de modelos, es posible aumentar la probabilidad mediante la adición de parámetros, pero si lo hace puede resultar en sobreajuste. Tanto el BIC y AIC resuelven este problema mediante la introducción de un término de penalización para el número de parámetros en el modelo, el término de penalización es mayor en el BIC que en el AIC.

El BIC fue desarrollado por Gideon E. Schwarz, quien dio un argumento bayesiano a favor de su adopción.[1]​ Akaike también desarrolló su propio formalismo Bayesiano, que ahora se conoce como la ABIC por Criterio de Información Bayesiano de Akaike ".[2]

Matemáticamente

El BIC es una consecuencia derivada asintótica bajo los supuestos de que la distribución de los datos se encuentra en la familia exponencial. Vamos:

  •   = los datos observados;
  •   = el número de datos u observaciones  , o equivalentemente, el tamaño de la muestra;
  •   = el número de parámetros libres a ser estimados. Si el modelo está bajo el supuesto de que es lineal,   es el número de regresores, incluyendo el intercepto;
  •   = La probabilidad marginal de los datos observados dado el modelo  ; esto es, Es decir, la integral de la función de verosimilitud   veces la distribución de probabilidad antes   sobre los parámetros   del modelo   para los datos observados fijos   ;
  •   = El máximo valor de la función de verosimilitud del modelo  , i.e.  , donde   son los valores de los parámetros que maximizan la función de verosimilitud.

La fórmula para el BIC es:

 

Bajo la suposición de que los errores de modelo o perturbaciones son independientes e idénticamente distribuidos según una distribución normal y que la condición límite de que la derivada de la probabilidad de registro con respecto a la varianza real es cero, esto se convierte en (hasta una constante aditiva, la cual sólo depende de n, y no en el modelo): [3]

 

donde   es la varianza del error.

La varianza del error, en este caso se define como:

 

Uno puede señalar de teoría de la probabilidad de que   es un estimador sesgado de la varianza verdadera,  . Dejar   denotar la forma no sesgada de la aproximación de la varianza del error. Se define como:

 

Adicionalmente, bajo el supuesto de normalidad la siguiente versión puede ser más manejable:

 

Tenga en cuenta que hay una constante añadido que se deriva de transición de la log-verosimilitud para  , sin embargo, en el uso del BIC para determinar el "mejor" modelo de la constante se convierte en trivial.

Dadas dos modelos estimados, el modelo con el menor valor de BIC es el que se prefiere. El BIC es un aumento de la función de   y una función creciente de k. Es decir, la variación no explicada en la variable dependiente y el número de variables explicativas aumentan el valor de BIC. Por lo tanto, menor BIC implica un número menor de variables explicativas, mejor ajuste, o ambos. La fuerza de la evidencia en contra del modelo con el mayor valor de BIC se puede resumir de la siguiente manera:[3]

ΔBIC Evidencia contra un BIC alto
0 to 2 No vale la pena más que una simple mención
2 to 6 Positivo
6 to 10 Fuerte
>10 Muy fuerte

El BIC generalmente penaliza parámetros libres con más fuerza que hace el criterio de información de Akaike, aunque depende del tamaño de n y la magnitud relativa de n y k.

Es importante tener en cuenta que el BIC se puede utilizar para comparar los modelos estimados sólo cuando los valores numéricos de la variable dependiente son idénticos para todas las estimaciones que se están comparando. Los modelos que se comparan no tienen que ser anidados , a diferencia del caso cuando los modelos se comparan utilizando un F o prueba de razón verosimilitud .

Referencias

  1. Schwarz, Gideon E. (1978). «Estimating the dimension of a model». Annals of Statistics 6 (2): 461-464. MR 468014. doi:10.1214/aos/1176344136. 
  2. Akaike, H., 1977. "On entropy maximization principle". In: Krishnaiah, P.R. (Editor). Applications of Statistics, North-Holland, Amsterdam, pp. 27–41.
  3. Kass, Robert E.; Adrian E. Raftery (1995). «Bayes Factors». Journal of the American Statistical Association 90 (430): 773-795. ISSN 0162-1459. doi:10.2307/2291091. 
  •   Datos: Q1988242

criterio, información, bayesiano, estadística, criterio, información, bayesiano, más, general, criterio, schwarz, también, sbic, criterio, para, selección, modelos, entre, conjunto, finito, modelos, basa, parte, función, probabilidad, está, estrechamente, rela. En estadistica el criterio de informacion bayesiano BIC o el mas general criterio de Schwarz SBC tambien SBIC es un criterio para la seleccion de modelos entre un conjunto finito de modelos Se basa en parte de la funcion de probabilidad y que esta estrechamente relacionado con el Criterio de Informacion de Akaike AIC Cuando el ajuste de modelos es posible aumentar la probabilidad mediante la adicion de parametros pero si lo hace puede resultar en sobreajuste Tanto el BIC y AIC resuelven este problema mediante la introduccion de un termino de penalizacion para el numero de parametros en el modelo el termino de penalizacion es mayor en el BIC que en el AIC El BIC fue desarrollado por Gideon E Schwarz quien dio un argumento bayesiano a favor de su adopcion 1 Akaike tambien desarrollo su propio formalismo Bayesiano que ahora se conoce como la ABIC por Criterio de Informacion Bayesiano de Akaike 2 Matematicamente EditarEl BIC es una consecuencia derivada asintotica bajo los supuestos de que la distribucion de los datos se encuentra en la familia exponencial Vamos x displaystyle x los datos observados n displaystyle n el numero de datos u observaciones x displaystyle x o equivalentemente el tamano de la muestra k displaystyle k el numero de parametros libres a ser estimados Si el modelo esta bajo el supuesto de que es lineal k displaystyle k es el numero de regresores incluyendo el intercepto p x M displaystyle p x M La probabilidad marginal de los datos observados dado el modelo M displaystyle M esto es Es decir la integral de la funcion de verosimilitud p x 8 M displaystyle p x theta M veces la distribucion de probabilidad antes p 8 M displaystyle p theta M sobre los parametros 8 displaystyle theta del modelo M displaystyle M para los datos observados fijos x displaystyle x L displaystyle hat L El maximo valor de la funcion de verosimilitud del modelo M displaystyle M i e L p x 8 M displaystyle hat L p x hat theta M donde 8 displaystyle hat theta son los valores de los parametros que maximizan la funcion de verosimilitud La formula para el BIC es 2 ln p x M B I C 2 ln L k ln n displaystyle 2 cdot ln p x M approx mathrm BIC 2 cdot ln hat L k ln n Bajo la suposicion de que los errores de modelo o perturbaciones son independientes e identicamente distribuidos segun una distribucion normal y que la condicion limite de que la derivada de la probabilidad de registro con respecto a la varianza real es cero esto se convierte en hasta una constante aditiva la cual solo depende de n y no en el modelo 3 B I C n ln s e 2 k ln n displaystyle mathrm BIC n cdot ln widehat sigma e 2 k cdot ln n donde s e 2 displaystyle widehat sigma e 2 es la varianza del error La varianza del error en este caso se define como s e 2 1 n i 1 n x i x i 2 displaystyle widehat sigma e 2 frac 1 n sum i 1 n x i hat x i 2 Uno puede senalar de teoria de la probabilidad de que s e 2 displaystyle widehat sigma e 2 es un estimador sesgado de la varianza verdadera s 2 displaystyle sigma 2 Dejar s e 2 displaystyle widehat widehat sigma e 2 denotar la forma no sesgada de la aproximacion de la varianza del error Se define como s e 2 1 n 1 i 1 n x i x i 2 displaystyle widehat widehat sigma e 2 frac 1 n 1 sum i 1 n x i hat x i 2 Adicionalmente bajo el supuesto de normalidad la siguiente version puede ser mas manejable B I C x 2 k ln n displaystyle mathrm BIC chi 2 k cdot ln n Tenga en cuenta que hay una constante anadido que se deriva de transicion de la log verosimilitud para x 2 displaystyle chi 2 sin embargo en el uso del BIC para determinar el mejor modelo de la constante se convierte en trivial Dadas dos modelos estimados el modelo con el menor valor de BIC es el que se prefiere El BIC es un aumento de la funcion de s e 2 displaystyle sigma e 2 y una funcion creciente de k Es decir la variacion no explicada en la variable dependiente y el numero de variables explicativas aumentan el valor de BIC Por lo tanto menor BIC implica un numero menor de variables explicativas mejor ajuste o ambos La fuerza de la evidencia en contra del modelo con el mayor valor de BIC se puede resumir de la siguiente manera 3 DBIC Evidencia contra un BIC alto0 to 2 No vale la pena mas que una simple mencion2 to 6 Positivo6 to 10 Fuerte gt 10 Muy fuerteEl BIC generalmente penaliza parametros libres con mas fuerza que hace el criterio de informacion de Akaike aunque depende del tamano de n y la magnitud relativa de n y k Es importante tener en cuenta que el BIC se puede utilizar para comparar los modelos estimados solo cuando los valores numericos de la variable dependiente son identicos para todas las estimaciones que se estan comparando Los modelos que se comparan no tienen que ser anidados a diferencia del caso cuando los modelos se comparan utilizando un F o prueba de razon verosimilitud Referencias Editar Schwarz Gideon E 1978 Estimating the dimension of a model Annals of Statistics 6 2 461 464 MR 468014 doi 10 1214 aos 1176344136 Akaike H 1977 On entropy maximization principle In Krishnaiah P R Editor Applications of Statistics North Holland Amsterdam pp 27 41 Kass Robert E Adrian E Raftery 1995 Bayes Factors Journal of the American Statistical Association 90 430 773 795 ISSN 0162 1459 doi 10 2307 2291091 La referencia utiliza el parametro obsoleto coautores ayuda Datos Q1988242Obtenido de https es wikipedia org w index php title Criterio de informacion bayesiano amp oldid 124218920, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos