fbpx
Wikipedia

Modelo autorregresivo

En estadística y procesamiento de señales, un modelo autorregresivo (AR) es una representación de un proceso aleatorio, en el que la variable de interés depende de sus observaciones pasadas. Específicamente, la variable de interés o de salida, depende linealmente de sus valores anteriores. Por esto decimos que existe dependencia lineal entre las distintas observaciones de la variable.

Una forma de entender un modelo autorregresivo es un proceso que luego de enfrentado a una perturbación tarda tiempo en regresar a su equilibrio de largo plazo. Suponga que nuestra variable de interés es la producción de trigo (en miles de toneladas) en una región. En cada año, la producción de trigo dependerá de las condiciones del suelo, la tecnología agrícola disponible y las condiciones climáticas. Nótese que entre un año y el siguiente, las condiciones del suelo y la tecnología agrícola pueden no cambiar (o hacerlo de forma muy lenta) como para dramáticamente afectar la producción de trigo. Las condiciones climáticas, sin embargo, pueden cambiar dramáticamente de un año a otro. Podríamos argumentar que, en la mayoría de los años (en promedio) las condiciones climáticas son buenas. Pero hay años en los que una sequía se produce. Decimos que esa sequía es una perturbación: aleja nuestra variable (la producción de trigo) de su equilibrio de largo plazo (equilibrio en el que las condiciones climáticas son buenas en promedio). Como la tecnología agrícola y las condiciones del suelo cambian lentamente entre un año y otro, la producción de trigo en cualquier año determinado estará parcialmente influida por la producción en el año anterior. La otra influencia en la producción de trigo estará dada por las perturbaciones, el clima.

El modelo autorregresivo se trata de un caso especial del más general modelo ARMA de series de tiempo.

Definición

La notación AR(p) presenta un modelo autorregresivo de orden p. El modelo AR(p) se define como:

 

donde   son los parámetros del modelo,   es una constante, y   es Ruido blanco. Esto se puede escribir de manera equivalente usando el operador de retroceso B como

 

de manera que, moviendo el término sumatorio hacia el lado izquierdo y el uso de la notación polinómica, tenemos

 

Un modelo autorregresivo por lo tanto se puede ver como la salida de un todo- polo de impulso respuesta infinito filtro cuya entrada es ruido blanco.

Algunas limitaciones son necesarios en los valores de los parámetros de este modelo con el fin de que el modelo se mantiene estacionario en sentido amplio . Por ejemplo, los procesos AR(1) con el modelo |φ1| ≥ 1 no son estacionarias. Generalizando, para que un modelo AR(p) sea estacionario en sentido amplio, las raíces del polinomio \  debe estar dentro del círculo unitario, es decir, cada raíz   debe satisfacer  .

Efecto intertemporal de los choques

En un proceso AR, un choque de una sola vez afecta a los valores de la variable evolución infinitamente lejos en el futuro. Por ejemplo, considere el AR(1)  . Un valor distinto de cero para  en el momento t = 1, afecta   por la cantidad  . Dado que la ecuación para AR es recursiva,   se encuentra en términos de  , haciendo que el fenómeno citado con anterioridad afecta a   por la cantidad  . A continuación, por la ecuación,   esta en términos de  , lo que afecta por ende a   por la cantidad  . Continuando este proceso, se muestra que el efecto de   nunca termina. Si el proceso es estacionario, entonces el efecto disminuye hacia cero en el límite.

Debido a que cada choque afecta a los valores de X infinitamente lejos en el futuro desde el momento en que se producen, cualquier valor dado Xt es afectado por perturbaciones que ocurren infinitamente lejos en el pasado. Esto también se puede ver mediante la reescritura de la autorregresión

 

Donde el término constante ha sido suprimida por el supuesto de que la variable se ha medido como desviaciones de su media

 

Cuando la división polinómica en el lado derecho se lleva a cabo, el polinomio en el operador aplica a   , o sea, un número infinito de valores rezagados de un infinito de orden que   aparecerá en el lado derecho de la ecuación.

Ecuación polinómica característica

La función de autocorrelación de un proceso AR(p) se puede expresar como

 

donde   son las raíces del polinomio

 

donde B es el operador de backshift , donde   es la función que define la autorregresión, y donde   son los coeficientes de la autorregresión.

La función de autocorrelación de un proceso AR(p) es una suma de exponenciales en descomposición.

Cada raíz real contribuye un componente de la función de autocorrelación que decae exponencialmente. Del mismo modo, cada par de raíces complejas conjugadas contribuye una oscilación amortiguada exponencialmente.

Los gráficos de los procesos AR(p)

El proceso AR simple es AR(0), que no tiene dependencia entre los términos. Sólo el término de error / innovación / ruido contribuye a la salida del proceso, por lo que en la figura, AR (0) corresponde al ruido blanco.

Por un proceso AR(1) con un resultado positivo  , sólo el término anterior en el proceso y el término de ruido contribuyen a la salida. Si   está cerca de 0, entonces el proceso todavía se ve como ruido blanco, pero como   se aproxima a 1, la salida se pone una mayor contribución de la anterior legislatura en relación con el ruido. Esto resulta en una "suavizado" o integración de la salida, similar a un filtro de paso bajo.

Para un proceso AR(2), los dos términos anteriores y el término de ruido contribuyen a la salida. Si tanto   y   son positivos, la salida se asemejan a un filtro de paso bajo, con la parte de alta frecuencia del ruido disminuido. Si   es positivo, mientras que   es negativo, entonces el proceso favorece a los cambios en la señal entre los términos del proceso. La salida oscila.

Ejemplo: Un proceso AR(1)

Un proceso AR(1) viene dada por:

 

donde   es un proceso de ruido blanco con media cero y varianza constante  . (Nota: El subíndice de   fue eliminado.) El proceso es en todo sentido estacionaria si   ya que se obtiene como la salida de un filtro estable cuya entrada es ruido blanco. (Si   entonces   tiene varianza infinita, y por lo tanto no es estacionaria en sentido amplio.) Por lo tanto, suponiendo  , la media   es idéntico para todos los valores de t. Si la media se denota por  , se desprende de

 

que

 

y por tanto

 

En particular, si  , Entonces la media es 0.

La varianza es

 

donde   es la desviación estándar de  . Esto se puede demostrar por señalar que

 

y luego por darse cuenta de que la cantidad anterior es un punto fijo estable de esta relación.

La autocovarianza está dada por

 

Se puede ver que la función de autocovarianza decae con un tiempo de caída (o constante de tiempo ) de   (notar que  , donde K es independiente de n. Luego cuenta que   y combinar esto con la ley de decaimiento exponencial  ).

La densidad espectral de la función es la transformada de Fourier de la función de autocovarianza. En términos discretos este será el tiempo discreto transformada de Fourier:

 

Esta expresión es periódica debido a la naturaleza discreta de la   , Lo que se manifiesta como la expresión del coseno en el denominador. Si asumimos que el tiempo de muestreo  es mucho menor que el tiempo de decaimiento  , entonces podemos utilizar una aproximación continua:

 

que se obtiene un perfil de Lorentz para la densidad espectral:

 


donde   es la frecuencia angular asociada a la constante de tiempo  .

Una expresión alternativa para  pueden ser derivados por primera sustitución   para   en la ecuación de definición. Continuar con este proceso N veces los rendimientos

 

Para N tendiendo a infinito,   se acercará a cero y

 

Se ve que   es ruido blanco convolución con la   núcleo más la media constante. Si el ruido blanco   es un proceso Gaussiano luego   es también un proceso Gaussiano. En otros casos, el teorema del límite central indica que   se distribuirán aproximadamente normal cuando   es cercano a uno.

Elección de Rezagos

Cálculo de los parámetros AR

Hay muchas formas de calcular los coeficientes, como el de mínimos cuadrados ordinarios procedimiento, método de momentos (a través de ecuaciones de Yule Walker), o cadena de Markov Monte Carlo métodos.

El modelo AR (P) es dada por la ecuación

 

Se basa en los parámetros de   donde i = 1, ..., p. Existe una correspondencia directa entre estos parámetros y la función de covarianza del proceso, y esta correspondencia puede ser invertida para determinar los parámetros de la función de autocorrelación (que es obtenido a partir de las covarianzas). Esto se hace utilizando las ecuaciones de Yule-Walker.

Ecuaciones de Yule-Walker

Las ecuaciones de Yule-Walker son el siguiente conjunto de ecuaciones.[1]

 

donde m = 0, ..., p, produciendo p + 1 ecuaciones. Aquí   es la función de autocovarianza de Xt,   es la desviación estándar del proceso de ruido de entrada, y   es la función delta de Kronecker.

Debido a que la última parte de una ecuación individuo es distinto de cero sólo si m = 0, el conjunto de ecuaciones se puede resolver mediante la representación de las ecuaciones para m> 0 en forma de matriz, consiguiendo de este modo la ecuación

 

que puede ser resuelto para todos   La ecuación restante para m = 0 es

 

que, una vez   son conocidos, pueden ser resueltos por  

Una formulación alternativa es en términos de la función de autocorrelación . Los parámetros AR se determinan por la primera p 1 elementos \ Rho (\ tau) de la función de autocorrelación. La función de autocorrelación completo puede luego ser derivada de forma recursiva mediante el cálculo de:[2]

 

Ejemplos de algunos AR baja para los procesos (p)

  • p=1
    •  
    • Hence  
  • p=2
    • The Yule-Walker equations for an AR(2) process are
       
       
      • Remember that  
      • Using the first equation yields  
      • Using the recursion formula yields  

Estimación de parámetros AR

Las ecuaciones anteriores (las ecuaciones de Yule-Walker) proporcionan varias rutas a la estimación de los parámetros de un AR (p) del modelo, mediante la sustitución de las covarianzas teóricas con valores estimados [. cita requerida ] Algunas de estas variantes se puede describir de la siguiente manera:

  • Estimación de autocovarianzas o autocorrelaciones. Aquí cada uno de estos términos se estima por separado, utilizando estimaciones convencionales. Hay diferentes maneras de hacerlo y la elección entre estos afectos a las propiedades del esquema de estimación. Por ejemplo, las estimaciones negativas de la varianza se pueden producir por algunas opciones.
  • Formulación como una regresión de mínimos cuadrados problema en el que se construyó un problema de predicción de mínimos cuadrados ordinarios, basando la predicción de los valores de X t en los p valores anteriores de la misma serie. Esto puede ser pensado como un plan con visión de predicción. Las ecuaciones normales para este problema se puede ver que corresponden a una aproximación de la forma de la matriz de las ecuaciones de Yule-Walker en el que cada aparición de un autocovarianza de la misma retardo se sustituye por una estimación ligeramente diferente.
  • Formulación como una forma extendida de un problema de mínimos cuadrados ordinarios predicción. Aquí dos conjuntos de ecuaciones de predicción se combinan en un solo régimen de estimación y un único conjunto de ecuaciones normales. Un grupo es el conjunto de ecuaciones de predicción hacia adelante y el otro es un conjunto correspondiente de ecuaciones de predicción hacia atrás, en relación con la representación de retroceso del modelo AR:
 

Aquí predicho de valores de Xt se basaría en los p valores futuros de la misma serie. Esta forma de estimación de los parámetros AR se debe a Burg,[3]​ y llame al método Burg:[4]​ Burg y autores posteriores llamadas estas estimaciones particulares "estima de máxima entropía",[5]​ pero el razonamiento detrás de esto se aplica a la utilización de cualquier conjunto de parámetros AR estimados. En comparación con el sistema de estimación utilizando sólo las ecuaciones de predicción hacia delante, se producen diferentes estimaciones de los autocovarianzas, y las estimaciones tienen diferentes propiedades de estabilidad. Estimaciones Burg están particularmente asociados con la estimación espectral máxima entropía.[6]

Otros posibles enfoques para la estimación incluyen estimación de máxima verosimilitud . Dos variantes distintas de máxima verosimilitud están disponibles: en uno (aproximadamente equivalente a la predicción hacia delante esquema de mínimos cuadrados) la función de probabilidad considerada es la que corresponde a la distribución condicional de los valores posteriores de la serie dado los valores de p iniciales en la serie; en el segundo, la función de probabilidad considerada es la que corresponde a la distribución incondicional conjunta de todos los valores de la serie observada. Diferencias sustanciales en los resultados de estos enfoques pueden ocurrir si la serie observada es corto, o si el proceso está cerca de no estacionariedad.

Espectro

 
 

La densidad espectral de potencia de un proceso AR(p) con la varianza del ruido  is[2]

 

AR (0)

Para el ruido blanco (AR (0))

 

AR (1)

Para AR(1)

 

Si   hay un solo pico espectral a f = 0, a menudo referido como ruido rojo . Como \ Varphi_1 se convierte más cerca de 1, hay poder más fuerte en las frecuencias bajas, el tiempo es decir, más grande se queda. Se trata entonces de un filtro de paso bajo, cuando se aplica a la luz de espectro completo, todo a excepción de la luz roja se filtra. Si   hay un mínimo en f = 0, a menudo referido como ruido azul . Esta forma similar actúa como un filtro de paso alto, todo a excepción de la luz azul se filtra.

AR (2)

AR (2) Los procesos se pueden dividir en tres grupos en función de las características de sus raíces:

 

¿Cuándo  , el proceso tiene un par de raíces complejos conjugados, la creación de un pico de frecuencia media en:

 

De lo contrario, el proceso tiene raíces reales, y:

¿Cuándo   que actúa como un filtro de paso bajo en el ruido blanco con un pico espectral a f = 0 ¿Cuándo   que actúa como un filtro de paso alto en el ruido blanco con un pico espectral a  .

El proceso es estacionario cuando las raíces están fuera del círculo unitario. El proceso es estable cuando las raíces están dentro del círculo unitario, o de manera equivalente, cuando los coeficientes son en el triángulo  .

La función PSD completa se puede expresar en forma real como:

 

Referencias

  1. Basu, S., & Reinsel, G. C. (1992). A note on properties of spatial Yule-Walker estimators. Journal of statistical computation and simulation, 41(3-4), 243-255.
  2. Von Storch, H.; F. W Zwiers (2001). Statistical analysis in climate research. Cambridge Univ Pr. ISBN 0-521-01230-9. [página requerida]
  3. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas Burg
  4. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas Brockwell
  5. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas Burg1
  6. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas Bos

Bibliografía Adicional

  • Mills, Terence C. (1990) Time Series Techniques for Economists. Cambridge University Press
  • Percival, Donald B. and Andrew T. Walden. (1993) Spectral Analysis for Physical Applications. Cambridge University Press
  • Pandit, Sudhakar M. and Wu, Shien-Ming. (1983) Time Series and System Analysis with Applications. John Wiley & Sons
  • Yule, G. Udny (1927) "On a Method of Investigating Periodicities in Disturbed Series, with Special Reference to Wolfer's Sunspot Numbers", Philosophical Transactions of the Royal Society of London, Ser. A, Vol. 226, 267–298.]
  • Walker, Gilbert (1931) "On Periodicity in Series of Related Terms", Proceedings of the Royal Society of London, Ser. A, Vol. 131, 518–532.
  •   Datos: Q2202883

modelo, autorregresivo, estadística, procesamiento, señales, modelo, autorregresivo, representación, proceso, aleatorio, variable, interés, depende, observaciones, pasadas, específicamente, variable, interés, salida, depende, linealmente, valores, anteriores, . En estadistica y procesamiento de senales un modelo autorregresivo AR es una representacion de un proceso aleatorio en el que la variable de interes depende de sus observaciones pasadas Especificamente la variable de interes o de salida depende linealmente de sus valores anteriores Por esto decimos que existe dependencia lineal entre las distintas observaciones de la variable Una forma de entender un modelo autorregresivo es un proceso que luego de enfrentado a una perturbacion tarda tiempo en regresar a su equilibrio de largo plazo Suponga que nuestra variable de interes es la produccion de trigo en miles de toneladas en una region En cada ano la produccion de trigo dependera de las condiciones del suelo la tecnologia agricola disponible y las condiciones climaticas Notese que entre un ano y el siguiente las condiciones del suelo y la tecnologia agricola pueden no cambiar o hacerlo de forma muy lenta como para dramaticamente afectar la produccion de trigo Las condiciones climaticas sin embargo pueden cambiar dramaticamente de un ano a otro Podriamos argumentar que en la mayoria de los anos en promedio las condiciones climaticas son buenas Pero hay anos en los que una sequia se produce Decimos que esa sequia es una perturbacion aleja nuestra variable la produccion de trigo de su equilibrio de largo plazo equilibrio en el que las condiciones climaticas son buenas en promedio Como la tecnologia agricola y las condiciones del suelo cambian lentamente entre un ano y otro la produccion de trigo en cualquier ano determinado estara parcialmente influida por la produccion en el ano anterior La otra influencia en la produccion de trigo estara dada por las perturbaciones el clima El modelo autorregresivo se trata de un caso especial del mas general modelo ARMA de series de tiempo Indice 1 Definicion 2 Efecto intertemporal de los choques 3 Ecuacion polinomica caracteristica 4 Los graficos de los procesos AR p 5 Ejemplo Un proceso AR 1 6 Eleccion de Rezagos 7 Calculo de los parametros AR 8 Ecuaciones de Yule Walker 9 Estimacion de parametros AR 10 Espectro 10 1 AR 0 10 2 AR 1 10 3 AR 2 11 Referencias 12 Bibliografia AdicionalDefinicion EditarLa notacion AR p presenta un modelo autorregresivo de orden p El modelo AR p se define como X t c i 1 p f i X t i e t displaystyle X t c sum i 1 p varphi i X t i varepsilon t donde f 1 f p displaystyle varphi 1 ldots varphi p son los parametros del modelo c displaystyle c es una constante y e t displaystyle varepsilon t es Ruido blanco Esto se puede escribir de manera equivalente usando el operador de retroceso B como X t c i 1 p f i B i X t e t displaystyle X t c sum i 1 p varphi i B i X t varepsilon t de manera que moviendo el termino sumatorio hacia el lado izquierdo y el uso de la notacion polinomica tenemos ϕ B X t c e t displaystyle phi B X t c varepsilon t Un modelo autorregresivo por lo tanto se puede ver como la salida de un todo polo de impulso respuesta infinito filtro cuya entrada es ruido blanco Algunas limitaciones son necesarios en los valores de los parametros de este modelo con el fin de que el modelo se mantiene estacionario en sentido amplio Por ejemplo los procesos AR 1 con el modelo f1 1 no son estacionarias Generalizando para que un modelo AR p sea estacionario en sentido amplio las raices del polinomio z p i 1 p f i z p i displaystyle textstyle z p sum i 1 p varphi i z p i debe estar dentro del circulo unitario es decir cada raiz z i displaystyle z i debe satisfacer z i lt 1 displaystyle z i lt 1 Efecto intertemporal de los choques EditarEn un proceso AR un choque de una sola vez afecta a los valores de la variable evolucion infinitamente lejos en el futuro Por ejemplo considere el AR 1 X t c f 1 X t 1 e t displaystyle X t c varphi 1 X t 1 varepsilon t Un valor distinto de cero para e t displaystyle varepsilon t en el momento t 1 afecta X 1 displaystyle X 1 por la cantidad e 1 displaystyle varepsilon 1 Dado que la ecuacion para AR es recursiva X 2 displaystyle X 2 se encuentra en terminos de X 1 displaystyle X 1 haciendo que el fenomeno citado con anterioridad afecta a X 2 displaystyle X 2 por la cantidad f 1 e 1 displaystyle varphi 1 varepsilon 1 A continuacion por la ecuacion X 3 displaystyle X 3 esta en terminos de X 2 displaystyle X 2 lo que afecta por ende a X 3 displaystyle X 3 por la cantidad f 1 2 e 1 displaystyle varphi 1 2 varepsilon 1 Continuando este proceso se muestra que el efecto de e 1 displaystyle varepsilon 1 nunca termina Si el proceso es estacionario entonces el efecto disminuye hacia cero en el limite Debido a que cada choque afecta a los valores de X infinitamente lejos en el futuro desde el momento en que se producen cualquier valor dado Xt es afectado por perturbaciones que ocurren infinitamente lejos en el pasado Esto tambien se puede ver mediante la reescritura de la autorregresion ϕ B X t e t displaystyle phi B X t varepsilon t Donde el termino constante ha sido suprimida por el supuesto de que la variable se ha medido como desviaciones de su media X t 1 ϕ B e t displaystyle X t frac 1 phi B varepsilon t Cuando la division polinomica en el lado derecho se lleva a cabo el polinomio en el operador aplica a e t displaystyle varepsilon t o sea un numero infinito de valores rezagados de un infinito de orden que e t displaystyle varepsilon t aparecera en el lado derecho de la ecuacion Ecuacion polinomica caracteristica EditarLa funcion de autocorrelacion de un proceso AR p se puede expresar como r t k 1 p a k y k t displaystyle rho tau sum k 1 p a k y k tau donde y k displaystyle y k son las raices del polinomio ϕ B 1 k 1 p f k B k displaystyle phi B 1 sum k 1 p varphi k B k donde B es el operador de backshift donde ϕ displaystyle phi es la funcion que define la autorregresion y donde f k displaystyle varphi k son los coeficientes de la autorregresion La funcion de autocorrelacion de un proceso AR p es una suma de exponenciales en descomposicion Cada raiz real contribuye un componente de la funcion de autocorrelacion que decae exponencialmente Del mismo modo cada par de raices complejas conjugadas contribuye una oscilacion amortiguada exponencialmente Los graficos de los procesos AR p EditarEl proceso AR simple es AR 0 que no tiene dependencia entre los terminos Solo el termino de error innovacion ruido contribuye a la salida del proceso por lo que en la figura AR 0 corresponde al ruido blanco Por un proceso AR 1 con un resultado positivo f displaystyle varphi solo el termino anterior en el proceso y el termino de ruido contribuyen a la salida Si f displaystyle varphi esta cerca de 0 entonces el proceso todavia se ve como ruido blanco pero como f displaystyle varphi se aproxima a 1 la salida se pone una mayor contribucion de la anterior legislatura en relacion con el ruido Esto resulta en una suavizado o integracion de la salida similar a un filtro de paso bajo Para un proceso AR 2 los dos terminos anteriores y el termino de ruido contribuyen a la salida Si tanto f 1 displaystyle varphi 1 y f 2 displaystyle varphi 2 son positivos la salida se asemejan a un filtro de paso bajo con la parte de alta frecuencia del ruido disminuido Si f 1 displaystyle varphi 1 es positivo mientras que f 2 displaystyle varphi 2 es negativo entonces el proceso favorece a los cambios en la senal entre los terminos del proceso La salida oscila Ejemplo Un proceso AR 1 EditarUn proceso AR 1 viene dada por X t c f X t 1 e t displaystyle X t c varphi X t 1 varepsilon t donde e t displaystyle varepsilon t es un proceso de ruido blanco con media cero y varianza constante s e 2 displaystyle sigma varepsilon 2 Nota El subindice de f 1 displaystyle varphi 1 fue eliminado El proceso es en todo sentido estacionaria si f lt 1 displaystyle varphi lt 1 ya que se obtiene como la salida de un filtro estable cuya entrada es ruido blanco Si f 1 displaystyle varphi 1 entonces X t displaystyle X t tiene varianza infinita y por lo tanto no es estacionaria en sentido amplio Por lo tanto suponiendo f lt 1 displaystyle varphi lt 1 la media E X t displaystyle operatorname E X t es identico para todos los valores de t Si la media se denota por m displaystyle mu se desprende de E X t E c f E X t 1 E e t displaystyle operatorname E X t operatorname E c varphi operatorname E X t 1 operatorname E varepsilon t que m c f m 0 displaystyle mu c varphi mu 0 y por tanto m c 1 f displaystyle mu frac c 1 varphi En particular si c 0 displaystyle c 0 Entonces la media es 0 La varianza es var X t E X t 2 m 2 s e 2 1 f 2 displaystyle textrm var X t operatorname E X t 2 mu 2 frac sigma varepsilon 2 1 varphi 2 donde s e displaystyle sigma varepsilon es la desviacion estandar de e t displaystyle varepsilon t Esto se puede demostrar por senalar que var X t f 2 var X t 1 s e 2 displaystyle textrm var X t varphi 2 textrm var X t 1 sigma varepsilon 2 y luego por darse cuenta de que la cantidad anterior es un punto fijo estable de esta relacion La autocovarianza esta dada por B n E X t n X t m 2 s e 2 1 f 2 f n displaystyle B n operatorname E X t n X t mu 2 frac sigma varepsilon 2 1 varphi 2 varphi n Se puede ver que la funcion de autocovarianza decae con un tiempo de caida o constante de tiempo de t 1 ln f displaystyle tau 1 ln varphi notar que B n K ϕ n displaystyle B n K phi n donde K es independiente de n Luego cuenta que ϕ n e n ln ϕ displaystyle phi n e n ln phi y combinar esto con la ley de decaimiento exponencial e n t displaystyle e n tau La densidad espectral de la funcion es la transformada de Fourier de la funcion de autocovarianza En terminos discretos este sera el tiempo discreto transformada de Fourier F w 1 2 p n B n e i w n 1 2 p s e 2 1 f 2 2 f cos w displaystyle Phi omega frac 1 sqrt 2 pi sum n infty infty B n e i omega n frac 1 sqrt 2 pi left frac sigma varepsilon 2 1 varphi 2 2 varphi cos omega right Esta expresion es periodica debido a la naturaleza discreta de la x j displaystyle x j Lo que se manifiesta como la expresion del coseno en el denominador Si asumimos que el tiempo de muestreo D t 1 displaystyle Delta t 1 es mucho menor que el tiempo de decaimiento t displaystyle tau entonces podemos utilizar una aproximacion continua B t s e 2 1 f 2 f t displaystyle B t approx frac sigma varepsilon 2 1 varphi 2 varphi t que se obtiene un perfil de Lorentz para la densidad espectral F w 1 2 p s e 2 1 f 2 g p g 2 w 2 displaystyle Phi omega frac 1 sqrt 2 pi frac sigma varepsilon 2 1 varphi 2 frac gamma pi gamma 2 omega 2 donde g 1 t displaystyle gamma 1 tau es la frecuencia angular asociada a la constante de tiempo t displaystyle tau Una expresion alternativa para X t displaystyle X t pueden ser derivados por primera sustitucion c f X t 2 e t 1 displaystyle c varphi X t 2 varepsilon t 1 para X t 1 displaystyle X t 1 en la ecuacion de definicion Continuar con este proceso N veces los rendimientos X t c k 0 N 1 f k f N X t N k 0 N 1 f k e t k displaystyle X t c sum k 0 N 1 varphi k varphi N X t N sum k 0 N 1 varphi k varepsilon t k Para N tendiendo a infinito F N displaystyle Phi N se acercara a cero y X t c 1 f k 0 f k e t k displaystyle X t frac c 1 varphi sum k 0 infty varphi k varepsilon t k Se ve que X t displaystyle X t es ruido blanco convolucion con la F k displaystyle Phi k nucleo mas la media constante Si el ruido blanco e t displaystyle varepsilon t es un proceso Gaussiano luego X t displaystyle X t es tambien un proceso Gaussiano En otros casos el teorema del limite central indica que X t displaystyle X t se distribuiran aproximadamente normal cuando f displaystyle varphi es cercano a uno Eleccion de Rezagos EditarArticulo principal Funcion de autocorrelacion parcialCalculo de los parametros AR EditarHay muchas formas de calcular los coeficientes como el de minimos cuadrados ordinarios procedimiento metodo de momentos a traves de ecuaciones de Yule Walker o cadena de Markov Monte Carlo metodos El modelo AR P es dada por la ecuacion X t i 1 p f i X t i e t displaystyle X t sum i 1 p varphi i X t i varepsilon t Se basa en los parametros de f i displaystyle varphi i donde i 1 p Existe una correspondencia directa entre estos parametros y la funcion de covarianza del proceso y esta correspondencia puede ser invertida para determinar los parametros de la funcion de autocorrelacion que es obtenido a partir de las covarianzas Esto se hace utilizando las ecuaciones de Yule Walker Ecuaciones de Yule Walker EditarLas ecuaciones de Yule Walker son el siguiente conjunto de ecuaciones 1 g m k 1 p f k g m k s e 2 d m 0 displaystyle gamma m sum k 1 p varphi k gamma m k sigma varepsilon 2 delta m 0 donde m 0 p produciendo p 1 ecuaciones Aqui g m displaystyle gamma m es la funcion de autocovarianza de Xt s e displaystyle sigma varepsilon es la desviacion estandar del proceso de ruido de entrada y d m 0 displaystyle delta m 0 es la funcion delta de Kronecker Debido a que la ultima parte de una ecuacion individuo es distinto de cero solo si m 0 el conjunto de ecuaciones se puede resolver mediante la representacion de las ecuaciones para m gt 0 en forma de matriz consiguiendo de este modo la ecuacion g 1 g 2 g 3 g p g 0 g 1 g 2 g 1 g 0 g 1 g 2 g 1 g 0 g p 1 g p 2 g p 3 f 1 f 2 f 3 f p displaystyle begin bmatrix gamma 1 gamma 2 gamma 3 vdots gamma p end bmatrix begin bmatrix gamma 0 amp gamma 1 amp gamma 2 amp dots gamma 1 amp gamma 0 amp gamma 1 amp dots gamma 2 amp gamma 1 amp gamma 0 amp dots vdots amp vdots amp vdots amp ddots gamma p 1 amp gamma p 2 amp gamma p 3 amp dots end bmatrix begin bmatrix varphi 1 varphi 2 varphi 3 vdots varphi p end bmatrix que puede ser resuelto para todos f m m 1 2 p displaystyle varphi m m 1 2 cdots p La ecuacion restante para m 0 es g 0 k 1 p f k g k s e 2 displaystyle gamma 0 sum k 1 p varphi k gamma k sigma varepsilon 2 que una vez f m m 1 2 p displaystyle varphi m m 1 2 cdots p son conocidos pueden ser resueltos por s e 2 displaystyle sigma varepsilon 2 Una formulacion alternativa es en terminos de la funcion de autocorrelacion Los parametros AR se determinan por la primera p 1 elementos Rho tau de la funcion de autocorrelacion La funcion de autocorrelacion completo puede luego ser derivada de forma recursiva mediante el calculo de 2 r t k 1 p f k r k t displaystyle rho tau sum k 1 p varphi k rho k tau Ejemplos de algunos AR baja para los procesos p p 1 g 1 f 1 g 0 displaystyle gamma 1 varphi 1 gamma 0 Hence r 1 g 1 g 0 f 1 displaystyle rho 1 gamma 1 gamma 0 varphi 1 p 2 The Yule Walker equations for an AR 2 process are g 1 f 1 g 0 f 2 g 1 displaystyle gamma 1 varphi 1 gamma 0 varphi 2 gamma 1 g 2 f 1 g 1 f 2 g 0 displaystyle gamma 2 varphi 1 gamma 1 varphi 2 gamma 0 Remember that g k g k displaystyle gamma k gamma k Using the first equation yields r 1 g 1 g 0 f 1 1 f 2 displaystyle rho 1 gamma 1 gamma 0 frac varphi 1 1 varphi 2 Using the recursion formula yields r 2 g 2 g 0 f 1 2 f 2 2 f 2 1 f 2 displaystyle rho 2 gamma 2 gamma 0 frac varphi 1 2 varphi 2 2 varphi 2 1 varphi 2 Estimacion de parametros AR EditarLas ecuaciones anteriores las ecuaciones de Yule Walker proporcionan varias rutas a la estimacion de los parametros de un AR p del modelo mediante la sustitucion de las covarianzas teoricas con valores estimados cita requerida Algunas de estas variantes se puede describir de la siguiente manera Estimacion de autocovarianzas o autocorrelaciones Aqui cada uno de estos terminos se estima por separado utilizando estimaciones convencionales Hay diferentes maneras de hacerlo y la eleccion entre estos afectos a las propiedades del esquema de estimacion Por ejemplo las estimaciones negativas de la varianza se pueden producir por algunas opciones Formulacion como una regresion de minimos cuadrados problema en el que se construyo un problema de prediccion de minimos cuadrados ordinarios basando la prediccion de los valores de X t en los p valores anteriores de la misma serie Esto puede ser pensado como un plan con vision de prediccion Las ecuaciones normales para este problema se puede ver que corresponden a una aproximacion de la forma de la matriz de las ecuaciones de Yule Walker en el que cada aparicion de un autocovarianza de la misma retardo se sustituye por una estimacion ligeramente diferente Formulacion como una forma extendida de un problema de minimos cuadrados ordinarios prediccion Aqui dos conjuntos de ecuaciones de prediccion se combinan en un solo regimen de estimacion y un unico conjunto de ecuaciones normales Un grupo es el conjunto de ecuaciones de prediccion hacia adelante y el otro es un conjunto correspondiente de ecuaciones de prediccion hacia atras en relacion con la representacion de retroceso del modelo AR X t c i 1 p f i X t i e t displaystyle X t c sum i 1 p varphi i X t i varepsilon t dd Aqui predicho de valores de Xt se basaria en los p valores futuros de la misma serie Esta forma de estimacion de los parametros AR se debe a Burg 3 y llame al metodo Burg 4 Burg y autores posteriores llamadas estas estimaciones particulares estima de maxima entropia 5 pero el razonamiento detras de esto se aplica a la utilizacion de cualquier conjunto de parametros AR estimados En comparacion con el sistema de estimacion utilizando solo las ecuaciones de prediccion hacia delante se producen diferentes estimaciones de los autocovarianzas y las estimaciones tienen diferentes propiedades de estabilidad Estimaciones Burg estan particularmente asociados con la estimacion espectral maxima entropia 6 Otros posibles enfoques para la estimacion incluyen estimacion de maxima verosimilitud Dos variantes distintas de maxima verosimilitud estan disponibles en uno aproximadamente equivalente a la prediccion hacia delante esquema de minimos cuadrados la funcion de probabilidad considerada es la que corresponde a la distribucion condicional de los valores posteriores de la serie dado los valores de p iniciales en la serie en el segundo la funcion de probabilidad considerada es la que corresponde a la distribucion incondicional conjunta de todos los valores de la serie observada Diferencias sustanciales en los resultados de estos enfoques pueden ocurrir si la serie observada es corto o si el proceso esta cerca de no estacionariedad Espectro Editar La densidad espectral de potencia de un proceso AR p con la varianza del ruidoV a r Z t s Z 2 displaystyle Var Z t sigma Z 2 is 2 S f s Z 2 1 k 1 p f k e 2 p i k f 2 displaystyle S f frac sigma Z 2 1 sum k 1 p varphi k e 2 pi ikf 2 AR 0 Editar Para el ruido blanco AR 0 S f s Z 2 displaystyle S f sigma Z 2 AR 1 Editar Para AR 1 S f s Z 2 1 f 1 e 2 p i f 2 s Z 2 1 f 1 2 2 f 1 c o s 2 p f displaystyle S f frac sigma Z 2 1 varphi 1 e 2 pi if 2 frac sigma Z 2 1 varphi 1 2 2 varphi 1 cos 2 pi f Si f 1 gt 0 displaystyle varphi 1 gt 0 hay un solo pico espectral a f 0 a menudo referido como ruido rojo Como Varphi 1 se convierte mas cerca de 1 hay poder mas fuerte en las frecuencias bajas el tiempo es decir mas grande se queda Se trata entonces de un filtro de paso bajo cuando se aplica a la luz de espectro completo todo a excepcion de la luz roja se filtra Si f 1 lt 0 displaystyle varphi 1 lt 0 hay un minimo en f 0 a menudo referido como ruido azul Esta forma similar actua como un filtro de paso alto todo a excepcion de la luz azul se filtra AR 2 Editar AR 2 Los procesos se pueden dividir en tres grupos en funcion de las caracteristicas de sus raices z 1 z 2 1 2 f 1 f 1 2 4 f 2 displaystyle z 1 z 2 frac 1 2 left varphi 1 pm sqrt varphi 1 2 4 varphi 2 right Cuando f 1 2 4 f 2 lt 0 displaystyle varphi 1 2 4 varphi 2 lt 0 el proceso tiene un par de raices complejos conjugados la creacion de un pico de frecuencia media en f 1 2 p cos 1 f 1 f 2 1 4 f 2 displaystyle f frac 1 2 pi cos 1 left frac varphi 1 varphi 2 1 4 varphi 2 right De lo contrario el proceso tiene raices reales y Cuando f 1 gt 0 displaystyle varphi 1 gt 0 que actua como un filtro de paso bajo en el ruido blanco con un pico espectral a f 0 Cuando f 1 lt 0 displaystyle varphi 1 lt 0 que actua como un filtro de paso alto en el ruido blanco con un pico espectral a f 1 2 displaystyle f 1 2 El proceso es estacionario cuando las raices estan fuera del circulo unitario El proceso es estable cuando las raices estan dentro del circulo unitario o de manera equivalente cuando los coeficientes son en el triangulo 1 f 2 1 f 1 displaystyle 1 leq varphi 2 leq 1 varphi 1 La funcion PSD completa se puede expresar en forma real como S f s Z 2 1 f 1 2 f 2 2 2 f 1 1 f 2 cos 2 p f 2 f 2 cos 4 p f displaystyle S f frac sigma Z 2 1 varphi 1 2 varphi 2 2 2 varphi 1 1 varphi 2 cos 2 pi f 2 varphi 2 cos 4 pi f Referencias Editar Basu S amp Reinsel G C 1992 A note on properties of spatial Yule Walker estimators Journal of statistical computation and simulation 41 3 4 243 255 a b Von Storch H F W Zwiers 2001 Statistical analysis in climate research Cambridge Univ Pr ISBN 0 521 01230 9 pagina requerida Error en la cita Etiqueta lt ref gt no valida no se ha definido el contenido de las referencias llamadas Burg Error en la cita Etiqueta lt ref gt no valida no se ha definido el contenido de las referencias llamadas Brockwell Error en la cita Etiqueta lt ref gt no valida no se ha definido el contenido de las referencias llamadas Burg1 Error en la cita Etiqueta lt ref gt no valida no se ha definido el contenido de las referencias llamadas BosBibliografia Adicional EditarMills Terence C 1990 Time Series Techniques for Economists Cambridge University Press Percival Donald B and Andrew T Walden 1993 Spectral Analysis for Physical Applications Cambridge University Press Pandit Sudhakar M and Wu Shien Ming 1983 Time Series and System Analysis with Applications John Wiley amp Sons Yule G Udny 1927 On a Method of Investigating Periodicities in Disturbed Series with Special Reference to Wolfer s Sunspot Numbers Philosophical Transactions of the Royal Society of London Ser A Vol 226 267 298 Walker Gilbert 1931 On Periodicity in Series of Related Terms Proceedings of the Royal Society of London Ser A Vol 131 518 532 Datos Q2202883 Obtenido de https es wikipedia org w index php title Modelo autorregresivo amp oldid 124365506, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos