Un RIMA significa autorregresivos integrados en movimiento modelos Promedio. Univariado (solo vector) ARIMA es una técnica de predicción que proyecta los valores futuros de una serie basada enteramente en su propia inercia. Su principal aplicación es en el área de predicción a corto plazo que requiere un mínimo de 40 puntos de datos históricos. Funciona mejor cuando sus datos exhibe un patrón estable o constante en el tiempo con una cantidad mínima de valores atípicos. A veces llamado Box-Jenkins (después de que los autores originales), ARIMA es generalmente superior a técnicas de suavizado exponencial cuando los datos son razonablemente largo y la correlación entre las observaciones anteriores es estable. Si los datos son de corto o muy volátiles, y luego algún método de alisado puede funcionar mejor. Si usted no tiene al menos 38 puntos de datos, se debe considerar otro método que no ARIMA. El primer paso en la aplicación de la metodología ARIMA es para comprobar si hay estacionariedad. Estacionariedad implica que la serie se mantiene en un nivel bastante constante en el tiempo. Si existe una tendencia, como en la mayoría de las aplicaciones económicas o de negocios, a continuación, sus datos no es estacionaria. Los datos también debe mostrar una varianza constante en sus fluctuaciones en el tiempo. Esto se ve fácilmente con una serie que es muy estacional y crece a un ritmo más rápido. En tal caso, las subidas y bajadas en la estacionalidad se harán más dramática en el tiempo. Sin estas condiciones de estacionariedad se cumplen, muchos de los cálculos asociados con el proceso no se puede calcular. Si una representación gráfica de los datos indica no estacionariedad, entonces debería diferencia de la serie. La diferenciación es una excelente manera de transformar una serie no estacionaria a uno estacionario. Esto se realiza restando la observación en el periodo actual de la anterior. Si esta transformación se realiza sólo una vez para una serie, se dice que los datos han sido primera diferenciados. Este proceso elimina esencialmente la tendencia si la serie está creciendo a un ritmo bastante constante. Si está creciendo a un ritmo creciente, se puede aplicar el mismo procedimiento y la diferencia de los datos de nuevo. Sus datos serían entonces segundo diferenciada. Autocorrelaciones son valores numéricos que indican cómo una serie de datos está relacionado con sí mismo en el tiempo. Más precisamente, se mide la fuerza con los valores de datos en un número especificado de periodos aparte se correlacionan entre sí en el tiempo. El número de períodos separados generalmente se llama el retraso. Por ejemplo, una autocorrelación en medidas de retardo 1 cómo valora 1 periodo aparte están correlacionados entre sí a lo largo de la serie. Una autocorrelación en el retraso de 2 medidas de cómo los datos de dos períodos separados están correlacionadas en toda la serie. Autocorrelaciones pueden variar 1--1. Un valor cercano a 1 indica una correlación positiva alta, mientras que un valor cercano a -1 indica una correlación negativa alta. Estas medidas son más a menudo evaluados a través de representaciones gráficas llamadas correlagrams. Un correlagram representa los valores de autocorrelación para una serie dada en diferentes retardos. Esto se conoce como la función de autocorrelación y es muy importante en el método ARIMA. metodología ARIMA intenta describir los movimientos de una serie de tiempo estacionaria en función de lo que se denomina autorregresivo y moviendo parámetros medios. Estos se conocen como parámetros AR (autoregessive) y los parámetros MA (promedios móviles). Un modelo AR con sólo 1 de parámetros se puede escribir como. X (t) Un (1) X (t-1) E (t) en la que X (t) de series de tiempo bajo investigación Un (1) el parámetro autorregresivo de orden 1 X (t-1) las series de tiempo se retrasó 1 periodo E (t) el término de error del modelo Esto simplemente significa que cualquier valor dado de X (t) puede explicarse por alguna función de su valor anterior, X (t-1), además de algunos errores aleatorios inexplicable, E (t). Si el valor estimado de A (1) fue 0,30, entonces el valor actual de la serie estaría relacionado con 30 de su valor hace 1 período. Por supuesto, la serie podría estar relacionado con más de un valor pasado. Por ejemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Esto indica que el valor actual de la serie es una combinación de los dos valores inmediatamente anteriores, X (t-1) y X (t-2), además de algunos al azar de error e (t). Nuestro modelo es ahora un modelo autorregresivo de orden 2. Mover Modelos Promedio: Un segundo tipo de modelo de Box-Jenkins se llama un modelo de media móvil. Aunque estos modelos son muy similares al modelo AR, el concepto detrás de ellos es muy diferente. Móviles parámetros medios relacionan lo que ocurre en el período t sólo a los errores aleatorios que ocurrieron en periodos pasados, es decir, E (t-1), E (t-2), etc en lugar de X (t-1), X ( t-2), (Xt-3) como en los enfoques autorregresivos. Un modelo de media móvil con un término MA se puede escribir de la siguiente manera. X (t) - B (1) E (t-1) E (t) El término B (1) se llama un MA de orden 1. El signo negativo delante del parámetro se utiliza para la única convención y por lo general se imprime a cabo automáticamente por la mayoría de los programas de ordenador. El modelo anterior simplemente dice que cualquier valor dado de X (t) está directamente relacionado solamente con el error aleatorio en el periodo anterior, E (t-1), y con el término de error actual, E (t). Como en el caso de los modelos autorregresivos, los modelos de media móvil se pueden extender a estructuras de orden superior que cubren diferentes combinaciones y en movimiento longitudes medias. metodología ARIMA también permite que los modelos que se construirán que incorporan tanto autorregresivo y moviendo parámetros medios juntos. Estos modelos se conocen como modelos mixtos a menudo. Aunque esto lo convierte en una herramienta de pronóstico más complicado, de hecho, la estructura puede simular la serie mejor y producir un pronóstico más exacto. modelos puros implican que la estructura se compone sólo de los parámetros AR o MA - no ambas. Los modelos desarrollados por este enfoque generalmente se llaman los modelos ARIMA, ya que utilizan una combinación de autorregresivo (AR), la integración (I) - refiriéndose al proceso de diferenciación inversa para producir el pronóstico, y moviendo las operaciones promedio (MA). Un modelo ARIMA se indica generalmente como ARIMA (p, d, q). Esto representa el orden de los componentes autorregresivos (P), el número de operadores de diferenciación (d), y el más alto orden del plazo de media móvil. Por ejemplo, ARIMA (2,1,1) significa que usted tiene un modelo de segundo orden autorregresivo de primer orden con un componente promedio cuya serie se ha diferenciado una vez para inducir estacionariedad en movimiento. Recogiendo la Especificación de la derecha: El principal problema en la clásica Box-Jenkins está tratando de decidir qué especificación ARIMA utilizar - i. e. cuántos parámetros AR y / o MA que incluyen. Esto es lo que gran parte de la caja-Jenkings 1976 se dedicó al proceso de identificación. Dependía de gráfica y numérica eva - luación de la autocorrelación de la muestra y las funciones de autocorrelación parcial. Bueno, para sus modelos básicos, la tarea no es demasiado difícil. Cada uno tiene funciones de autocorrelación que se ven de cierta manera. Sin embargo, cuando se sube en la complejidad, los patrones no se detectan tan fácilmente. Para hacer las cosas más difíciles, los datos representan solamente una muestra del proceso subyacente. Esto significa que los errores de muestreo (valores atípicos, error de medición, etc.) pueden distorsionar el proceso de identificación teórica. Es por ello que la modelización ARIMA tradicional es un arte en lugar de un modelo de modelo de pronóstico science. autoregressive media móvil (ARMA) o un proceso en el que se aplican tanto en el análisis de autorregresión y moviendo métodos de media a una serie temporal de datos de buen comportamiento. ARMA supone que la serie de tiempo es estacionaria-fluctúa más o menos uniformemente alrededor de una media invariante en el tiempo. series no estacionarias deben ser diferenciada una o más veces para lograr la estacionariedad. modelos ARMA se consideran inadecuados para el análisis de impacto o de datos que incorpora los choques aleatorios. Ver también el modelo autorregresivo integrado de media móvil (ARIMA). El mejor de BusinessDictionary, entregado el comunismo media diaria de los números primos selección natural constitución pensando dependiente hipótesis variable de la ecología epifanía desviación estándar de la difusión de la energía globalización de fondos de inversión de proxy volátil grupo de control corporación consenso de Garantía de Calidad vs. Estructura de Control de Calidad en qué negocio debe usted elegir Siete formas de financiar crítica su Educación Superior Cómo evitar un despido GMAT GRE vs. Cómo leer un estado financiero la vida y los tiempos del legendario Steve Jobs Oficina de Diseño para el Fomento de la Innovación Derechos de Autor 2016 copia WebFinance Inc. Todos los derechos reservados. La duplicación no autorizada, en su totalidad o en parte, es estrictamente prohibited. Arabic Búlgaro Chino Croata Checo Danés Holandés Inglés Estonio Finlandés Francés Griego Hebreo Hindi Húngaro Islandés Indonesio Italiano Japonés Coreano Letón Lituano Noruego Persa malgache Polaco Portugués Rumano Ruso Serbio Eslovaco Esloveno Español Sueco Tailandés Turco Vietnamita árabe búlgaro chino croata checo danés Holandés Inglés estonio Finlandés francés griego hebreo Hindi húngaro islandés indonesio italiano japonés letón lituano malgache Noruego persa polaco Portugués rumano ruso serbio eslovaco esloveno español Sueco tailandés definición vietnamita turco Corea - autorregresivo integrado de media móvil autorregresivo integrado de media móvil En estadística y econometría. y en particular en el análisis de series de tiempo. un modelo autorregresivo integrado de media (ARIMA) que se mueve es una generalización de un modelo autorregresivo de media (ARMA) que se mueve. Estos modelos están equipados con los datos de series de tiempo, ya sea para comprender mejor los datos o para predecir futuros puntos en la serie (previsión). Se aplican en algunos casos donde los datos muestran evidencia de no estacionariedad, donde un paso de diferenciación inicial (correspondiente a la parte integral del modelo) se puede aplicar para eliminar el no estacionariedad. El modelo se refiere generalmente como un modelo ARIMA (p, d, q), donde p. d. y q son números enteros no negativos que hacen referencia a la orden del autorregresivo, integrada, y las partes móviles de la media del modelo, respectivamente. modelos ARIMA forman una parte importante del enfoque Box-Jenkins para la modelización de series temporales. Cuando uno de los términos es cero, su habitual para dejar AR. I o MA. Por ejemplo, un I (1) modelo es ARIMA (0,1,0). y un MA (1) modelo es ARIMA (0,0,1). Contenido Definición Supongamos ahora que el polinomio tiene una raíz unitaria de la multiplicidad d. Entonces se puede reescribir como: Un (p, d, q) proceso ARIMA expresa esta propiedad factorización polinómica, y viene dada por: y por lo tanto se puede considerar como un caso particular de un proceso ARMA (pd, q) que tiene el auto polinómica regresiva con algunas raíces en la unidad. Por esta razón, cada modelo ARIMA con d Gt0 no es amplia estacionaria sentido. Otras formas especiales La identificación explícita de la factorización de la autorregresión polinomio en factores como anteriormente, se pueden extender a otros casos, en primer lugar de aplicar al polinomio de media móvil y en segundo lugar para incluir otros factores especiales. Por ejemplo, tener un factor en un modelo es una manera de incluir una estacionalidad no estacionario de período s en el modelo. Otro ejemplo es el factor, que incluye una estacionalidad (no estacionario) del período de 12. El efecto de la primera tipo de factor es permitir que cada valor de estaciones a la deriva por separado en el tiempo, mientras que con los segundos valores de tipo para las estaciones adyacentes se mueven juntos . Identificación y especificación de los factores apropiados en un modelo ARIMA puede ser un paso importante en el modelado, ya que puede permitir una reducción en el número total de parámetros a estimar, al tiempo que permite la imposición sobre el modelo de tipos de conductas que la lógica y la experiencia sugiera deben estar allí. Los pronósticos utilizando modelos ARIMA modelos ARIMA se utilizan para los procesos observables no estacionarios que tienen algunas tendencias claramente identificables: En estos casos, el modelo ARIMA puede ser visto como una cascada de dos modelos. La primera es no estacionario: mientras que el segundo es estacionaria en sentido amplio: Ahora técnicas previsiones estándar pueden ser formulados para el proceso, y luego (que tiene el número suficiente de condiciones iniciales) se puede predecir a través de pasos de integración oportunas. Ejemplos Algunos casos especiales conocidas surgen naturalmente. Por ejemplo, se le da una (0,1,0) modelo ARIMA por: se utilizan comúnmente una serie de variaciones sobre el modelo ARIMA. Por ejemplo, si varias series temporales se utilizan entonces el puede ser pensado como vectores y un modelo VARIMA que proceda. A veces, un efecto estacional se sospecha en el modelo. Por ejemplo, considere un modelo de los volúmenes de tráfico diario. Los fines de semana se observa con claridad el comportamiento diferente de los días de semana. En este caso, a menudo se considera mejor usar un modelo que para aumentar el orden de las partes de AR o MA del modelo SARIMA (estacional ARIMA). Si se sospecha de la serie de tiempo para exponer la dependencia de largo alcance, el parámetro puede ser reemplazado por ciertos valores no enteros en un autorregresivo integrado fraccionadamente modelo de media, que también se llama un fraccional ARIMA (Farima o ARFIMA) modelo de movimiento. Las implementaciones en las estadísticas de los paquetes de distintos paquetes que aplican la metodología como la optimización de los parámetros de Box-Jenkins están disponibles para encontrar los parámetros correctos para el modelo ARIMA. En R. el paquete de estadísticas incluye una función de Arima. La función está documentada en Arima Modelización de la serie de tiempo. Además de la parte ARIMA (p, d, q), la función también incluye factores estacionales, un término de intersección, y las variables exógenas (xreg. Regresores llamada externos). El paquete de previsión en I puede seleccionar automáticamente un modelo ARIMA para una serie de tiempo determinado con la función auto. arima (). El paquete también puede simular modelos ARIMA estacionales y no estacionales con su función simulate. Arima (). También tiene una función de Arima (), que es un contenedor para el Arima del paquete de estadísticas. SAS (R) de SAS Institute Inc. incluye un extenso procesamiento ARIMA en su econométrica y análisis de series temporales del sistema: SAS / ETS. Stata incluye la modelización ARIMA (utilizando su mando Arima) como de Stata 9. Véase también En este artículo se incluye una lista de referencias. Lectura relacionada o enlaces externos. pero sus fuentes no están claras porque carece de citas en línea. Por favor, mejorar este artículo introduciendo citas más precisas. (Mayo de 2011) Referencias Mills, Terence C. (1990) Técnicas de series temporales para los economistas. Cambridge University Press Percival, Donald B. y Andrew T. Walden. (1993) Análisis espectral para aplicaciones físicas. Prensa de la Universidad de Cambridge. Enlaces externos Esta entrada es de Wikipedia, la enciclopedia el principal aportado por los usuarios. Puede que no haya sido revisado por los editores profesionales (ver aviso legal completo) El orden de un modelo ARIMA (autorregresivo integrado de media móvil) se denota generalmente por la notación ARIMA (p, d, q), donde es el orden de la parte autorregresiva es el orden de la diferenciación es el fin del proceso de media móvil Si no se hace diferenciación (d 0), los modelos se refieren generalmente como modelos ARMA (p. q). El modelo final en el ejemplo anterior es un modelo ARIMA (1,1,1), ya que la declaración IDENTIFICAR especificada d 1, y la estimación final de sentencia especificado p 1 y q 1. Notación de los modelos ARIMA puros Matemáticamente el modelo ARIMA pura está escrito como es la serie de respuesta o una diferencia de la serie de respuesta es la media plazo es el operador autorregresivo, representado como un polinomio en el operador backshift: es el operador de media móvil, representado como un polinomio en el operador backshift: es la perturbación independiente , también llamado el error aleatorio la serie se calcula por la declaración IDENTIFICAR y es la serie de procesado por la declaración de estimación. Por lo tanto, es o bien la Y serie respuesta o una diferencia de especificado por los operadores de diferenciación en el estado de identificar. Por sencilla diferenciación (no estacional),. Para la diferenciación estacional, donde d es el grado de diferenciación no estacional, D es el grado de diferenciación estacional, y s es la longitud del ciclo estacional. Por ejemplo, la forma matemática del modelo ARIMA (1,1,1) estimado en el ejemplo anterior isAutoregressive media móvil ARMA (p, q) los modelos de análisis de series temporales - Parte 1 Por Michael Salas-Moore el 17 de agosto, 2015 el último artículo nos fijamos en paseos aleatorios y ruido blanco como modelos básicos de series de tiempo para ciertos instrumentos financieros, como los precios de las acciones y el índice de acciones diarias. Hemos encontrado que en algunos casos un modelo de paseo aleatorio era insuficiente para capturar el comportamiento de autocorrelación completo del instrumento, lo que motiva modelos más sofisticados. En el próximo par de artículos que vamos a discutir tres tipos de modelo, a saber, el modelo autorregresivo (AR) de orden p, la media de modelo en movimiento (MA) de orden q, y el mixto Autogressive media móvil modelo (ARMA) de orden p , q. Estos modelos nos ayudarán intentamos capturar o explicar más de la correlación serial presente dentro de un instrumento. En última instancia, nos proporcionarán un medio para pronosticar los precios futuros. Sin embargo, es bien sabido que series de tiempo financieras poseen una propiedad conocida como agrupamiento de la volatilidad. Es decir, la volatilidad del instrumento no es constante en el tiempo. El término técnico para este comportamiento se conoce como heterocedasticidad condicional. Dado que la AR, MA y ARMA modelos no son condicionalmente heterocedástica, es decir, que no toma en cuenta la volatilidad agrupación, que en última instancia, tendrá que utilizar un modelo más sofisticado para nuestras predicciones. Estos modelos incluyen el modelo Autogressive condicional Heterocedástico (ARCH) y el modelo generalizado Autogressive condicional Heterocedástico (GARCH), y las muchas variantes de los mismos. GARCH es particularmente conocido en finanzas cuantitativo y se utiliza principalmente para las simulaciones de series de tiempo financiera como medio para la estimación del riesgo. Sin embargo, como con todos los artículos QuantStart, quiero construir hasta estos modelos a partir de versiones más simples para que podamos ver cómo cada nueva variante cambia nuestra capacidad predictiva. A pesar del hecho de que AR, MA y ARMA modelos son relativamente sencillos de series temporales, que son la base de los modelos más complicados como la autorregresivos integrados de media móvil (ARIMA) y la familia GARCH. Por lo tanto es importante que los estudiamos. Una de nuestras primeras estrategias de negociación en la serie de artículos de series de tiempo será combinar ARIMA y GARCH con el fin de predecir los precios de n periodos de antemano. Sin embargo, tendremos que esperar hasta que hemos discutido tanto ARIMA y GARCH por separado antes de las aplicamos a una estrategia real de cómo vamos a proceder en este artículo vamos a describir algunos de los nuevos conceptos de series de tiempo que también necesitan de los métodos restantes, a saber estricta estacionariedad y el criterio de información de Akaike (AIC). Con posterioridad a estos nuevos conceptos que seguirá el patrón tradicional para el estudio de nuevos modelos de series temporales: Justificación - La primera tarea es proporcionar una razón por la que estaban interesados en un modelo en particular, como los cuantos. ¿Por qué estamos introduciendo el modelo de series de tiempo ¿Qué efectos puede capturar ¿Qué ganamos (o perder) mediante la adición de complejidad mayor definición - Tenemos que proporcionar la definición completa matemática (y la notación asociada) del modelo de series de tiempo con el fin de reducir al mínimo cualquier ambigüedad. Segundo Orden Propiedades - Vamos a discutir (y en algunos casos derivar) las segundas propiedades de orden del modelo de serie temporal, lo que incluye su media, su varianza y su función de autocorrelación. Correlograma - Utilizaremos las segundas propiedades de orden para trazar un correlogram de una realización del modelo de series de tiempo con el fin de visualizar su comportamiento. Simulación - Simularemos realizaciones del modelo de series de tiempo y luego ajustar el modelo para estas simulaciones para asegurar que tenemos implementaciones precisas y comprender el proceso de adaptación. Real de datos financieros - Vamos a ajustar el modelo de serie temporal a los datos financieros reales y considerar la correlogram de los residuos con el fin de ver cómo el modelo da cuenta de la correlación en serie en la serie original. Predicción - Nos creará n-paso por delante de las previsiones del modelo de serie temporal para las realizaciones particulares con el fin de producir en última instancia, las señales de comercio. Casi todos los artículos que escribo sobre los modelos de series de tiempo caerán en este patrón y que nos permitirá comparar fácilmente las diferencias entre cada modelo, ya que añaden complejidad. Se va a empezar por mirar estricta estacionalidad y la AIC. Estrictamente estacionario Proporcionamos la definición de estacionariedad en el artículo sobre la correlación serial. Sin embargo, debido a que vamos a estar entrando en el reino de muchas series financiera, con varias frecuencias, tenemos que asegurarnos de que nuestros modelos (eventuales) tener en cuenta la volatilidad variable en el tiempo de estas series. En particular, tenemos que considerar su heterocedasticidad. Vamos a venir a través de este problema cuando tratamos de encajar ciertos modelos de la serie histórica. Generalmente, no todos de la correlación serial en los residuos de los modelos de armarios puede explicarse sin tener en cuenta la heterocedasticidad. Esto nos lleva de nuevo a la estacionalidad. Una serie no es estacionaria en la varianza si tiene volatilidad variable en el tiempo, por definición. Esto motiva una definición más rigurosa de estacionariedad, a saber estricta estacionariedad: Estrictamente Stationary Series A modelo de serie temporal, es estrictamente estacionario si la distribución estadística conjunta de los elementos de x, ldots, x es el mismo que el de xm, ldots, xm, forall ti, m. Uno puede pensar de esta definición tan simple que la distribución de las series de tiempo no se ha modificado para cualquier cambio abritrary en el tiempo. En particular, la media y la varianza son constantes en el tiempo para una serie estrictamente estacionario y el autocovarianza entre xt y xs (digamos) sólo depende de la diferencia absoluta de t y s, t-s. Nosotros regresaremos serie estrictamente estacionaria en el futuro puestos. Criterio de Información de Akaike he mencionado en artículos anteriores que tendríamos que considerar el tiempo que permiten elegir la mejores modelos distintos. Esto es cierto no sólo de análisis de series temporales, sino también de la máquina de aprendizaje y, en términos más generales, las estadísticas en general. Los dos métodos principales que vamos a utilizar (por el momento) son el Criterio de Información de Akaike (AIC) y el criterio de información bayesiano (a medida que avanzamos más allá con nuestros artículos sobre Bayesiano Estadísticas). Bien considerar brevemente la AIC, como se va a utilizar en la Parte 2 del artículo ARMA. AIC es esencialmente una herramienta para ayudar en la selección del modelo. Es decir, si tenemos una selección de modelos estadísticos (incluidas las series de tiempo), entonces el AIC estima la calidad de cada modelo, con relación a los otros que tenemos disponible. Se basa en la teoría de la información. que es un tema muy interesante, en el fondo que, lamentablemente, no podemos entrar en demasiados detalles acerca. Se intenta equilibrar la complejidad del modelo, que en este caso significa el número de parámetros, con lo bien que se ajusta a los datos. Vamos a proporcionar una definición: Criterio de Información de Akaike Si tomamos la función de verosimilitud para un modelo estadístico, que tiene parámetros K, L y maximiza la probabilidad. entonces el criterio de información de Akaike viene dada por: El modelo preferido, entre una selección de modelos, tiene la AIC minio del grupo. Se puede ver que la AIC crece a medida que el número de parámetros, k, aumenta, pero se reduce si los incrementos negativos de probabilidad logarítmica. Esencialmente se penaliza a los modelos que son sobreajuste. Vamos a ser la creación de AR, modelos ARMA de diferentes órdenes y MA y una manera de elegir el mejor modelo de ajuste a un determinado conjunto de datos es utilizar la AIC. Esto es lo que así se hace en el siguiente artículo, principalmente para modelos ARMA. Autorregresivo (AR) Modelos de orden p El primer modelo se va a tener en cuenta, que constituye la base de la parte 1, es el modelo autorregresivo de orden p, a menudo abreviado como AR (p). Justificación En el artículo anterior hemos considerado el paseo aleatorio. donde cada término, xt es sólo depende de la expresión anterior, x y un término estocástico ruido blanco, WT: El modelo autorregresivo es simplemente una extensión del paseo aleatorio que incluye términos más atrás en el tiempo. La estructura del modelo es lineal. Ese es el modelo depende linealmente de los términos anteriores, con coeficientes de cada término. Aquí es donde viene el regresiva a partir de autorregresivo. Se trata esencialmente de un modelo de regresión donde los términos anteriores son los predictores. Modelo autorregresivo de orden p Un modelo de series de tiempo, y es un modelo autorregresivo de orden p. AR (p), si: comenzar xt alfa 1 x ldots alphap x peso suma p alphai x peso final Donde es ruido blanco y alphai en mathbb, con alphap neq 0 para un proceso autorregresivo de p-orden. Si tenemos en cuenta el operador de desplazamiento hacia atrás. (Ver artículo anterior), entonces podemos volver a escribir lo anterior como una teta en función de: comenzar thetap () xt (1 - alfa 1 - alfa 2 2 - ldots - alphap) xt peso termina Tal vez el primero que se observa sobre el modelo AR (p) es que un camino aleatorio es simplemente AR (1) con alpha1 igual a la unidad. Como dijimos anteriormente, el modelo autogressive es una extensión de la caminata al azar, por lo que esto tiene sentido es sencillo de hacer predicciones con el modelo AR (p), para cualquier tiempo t, ya que una vez que tenemos los coeficientes alphai determinaron, nuestra estimación simplemente se convierte en: comienza el sombrero t alfa 1 x ldots alphap X Fin de ahí que podemos hacer n-paso por delante pronósticos mediante la producción de sombrero t, sombrero, gorra, etc hasta el sombrero. De hecho, una vez que tenemos en cuenta los modelos ARMA en la Parte 2, vamos a utilizar el R función para crear pronósticos (junto con el error estándar de confianza bandas de intervalo) que le ayudará a producir señales de comercio predecir. Estacionariedad para autorregresivo Procesos Uno de los aspectos más importantes del modelo AR (p) es que no siempre es estacionario. De hecho, la estacionariedad de un modelo particular depende de los parámetros. He tocado en esto antes en un artículo anterior. Con el fin de determinar si un AR (p) el proceso es estacionario o no tenemos que resolver la ecuación característica. La ecuación característica es simplemente el modelo autorregresivo, escrita en forma de desplazamiento hacia atrás, ajuste a cero: Se resuelve esta ecuación para. Para que el proceso autorregresivo particular, a ser estacionario necesitamos que todos los valores absolutos de las raíces de esta ecuación para mayor que la unidad. Esta es una propiedad muy útil y nos permite calcular rápidamente si un AR (p) el proceso es estacionario o no. Vamos a considerar algunos ejemplos para que esta idea concreta: Random Walk - El AR (1) con el proceso de alfa1 1 tiene la ecuación característica theta 1 -. Es evidente que esto tiene raíz 1 y como tal no es estacionaria. AR (1) - Si elegimos frac alfa1 obtenemos XT frac x peso. Esto nos da una ecuación característica de 1 - frac 0, que tiene una raíz 4 gt 1 y por lo que este AR en particular (1) proceso es estacionario. AR (2) - Si fijamos alfa1 alfa2 frac entonces obtenemos frac frac xt x x peso. Su ecuación característica se convierte en - frac () () 0, lo que da dos raíces de 1, -2. Dado que este tiene una raíz unitaria es una serie no estacionaria. Sin embargo, otros AR (2) la serie puede ser estacionaria. Segundas propiedades de orden La media de un proceso AR (p) es cero. Sin embargo, las autocovarianzas y autocorrelaciones son dadas por las funciones recursivas, conocidas como las ecuaciones de Yule-Walker. Las propiedades completas se dan a continuación: comienzan mux E (xt) 0 final comienzan Gammak gamma suma p alphai, enspace k 0 final comienzan RHoK rho suma p alphai, enspace k 0 extremo en cuenta que es necesario conocer los valores de los parámetros alphai antes de la el cálculo de las autocorrelaciones. Ahora que el weve declaró el segundo propiedades de orden podemos simular diferentes órdenes de AR (p) y trazar las correlograms correspondientes. Las simulaciones y Correlogramas AR (1) Le permite comenzar con un (1) proceso de AR. Esto es similar a un camino aleatorio, excepto que alpha1 no tiene que igual a la unidad. Nuestro modelo va a tener alfa1 0.6. El código R para la creación de esta simulación se da como sigue: Nótese que nuestro bucle se lleva a cabo de 2 a 100, no 1 a 100, como xt-1 cuando t0 no es indexable. De manera similar para los procesos de orden superior AR (p), t debe variar de p a 100 en este bucle. Se puede trazar la realización de este modelo y su correlogram asociada utilizando la función de diseño: Deja ahora pasa a la colocación de un proceso AR (p) y la simulación de datos que hemos acaba de generar, para ver si podemos recuperar los parámetros subyacentes. Usted puede recordar que llevamos a cabo un procedimiento similar en el artículo sobre el ruido blanco y paseos aleatorios. Pues resulta que R proporciona un ar comando útil para adaptarse a los modelos autorregresivos. Podemos utilizar este método nos dice en primer lugar el mejor orden p del modelo (según lo determinado por el AIC arriba) y nos proporcionan estimaciones de los parámetros para el alphai, que podemos usar para formar los intervalos de confianza. Para completar, permite recrear la serie X: Ahora usamos el comando ar para adaptarse a un modelo autorregresivo AR en nuestro simulado (1) proceso, utilizando la estimación de máxima verosimilitud (MLE) como el procedimiento de ajuste. Vamos a extraer en primer lugar el orden obtenido mejor: El comando ar ha determinado con éxito que nuestro modelo de series de tiempo subyacente es un (1) proceso de AR. A continuación, podemos obtener el parámetro (s) alphai estimaciones: El procedimiento MLE ha producido una estimación, el sombrero de 0,523, que es ligeramente más bajo que el verdadero valor de alfa 1 0.6. Por último, podemos utilizar el error estándar (con la varianza asintótica) para construir intervalos de confianza del 95 alrededor del parámetro (s) subyacente. Para lograr esto, simplemente creamos un vector c (-1.96, 1.96) y luego se multiplica por el error estándar: El verdadero parámetro se encuentre dentro del intervalo de confianza del 95, como se casó esperar del hecho de que hemos generado la realización del modelo concreto . ¿Qué tal si cambiamos el -0.6 alfa1 Como antes de que podamos encajar un AR (p) utilizando el modelo AR: Una vez que recuperamos el orden correcto del modelo, con un muy buen sombrero estimación de -0.597 alpha1-0.6. También vemos que el verdadero parámetro cae dentro del intervalo de confianza del 95 una vez más. AR (2) Le permite añadir un poco más de complejidad a nuestros procesos autorregresivos mediante la simulación de un modelo de orden 2. En particular, vamos a establecer alpha10.666, sino que también establece alfa2 -0.333. Aquí está el código completo para simular y trazar la realización, así como la correlogram para una serie como: Al igual que antes, podemos ver que el correlogram difiere significativamente de la de ruido blanco, como casarse esperar. Hay estadísticamente picos significativos en K1, K3 y K4. Una vez más, se va a utilizar el comando ar para adaptarse a un modelo AR (p) a nuestro AR subyacente (2) realización. El procedimiento es similar al de la AR (1) en forma: El orden correcto se ha recuperado y el parámetro calcula el sombrero y el sombrero 0,696 -0,395 no están demasiado lejos de los verdaderos valores de los parámetros de alpha10.666 y alpha2-0.333. Tenga en cuenta que recibimos un mensaje de advertencia de convergencia. Nótese también que R realmente utiliza la función arima0 para calcular el modelo AR. Además de aprender en los artículos siguientes, AR (p) son simplemente modelos ARIMA (p, 0, 0) modelos, y por lo tanto un modelo AR es un caso especial de ARIMA sin componente de media móvil (MA). Así también a utilizar el comando Arima para crear intervalos de confianza alrededor de múltiples parámetros, es por ello que hemos dejado de hacer aquí. Ahora que hayamos creado algunos datos simulados es el momento de aplicar el modelo AR (p) para series de tiempo activo financiero. Información Financiera de Amazon Inc. Deja comienzan obteniendo el precio de las acciones de Amazon (AMZN) usando quantmod como en el último artículo: La primera tarea consiste en trazar siempre el precio de una breve inspección visual. En este caso también el uso de los precios de cierre diarios: Youll aviso de que quantmod añade algo de formato para nosotros, es decir, la fecha, y un cuadro ligeramente más bonita que las cartas habituales R: Ahora vamos a tomar las logarítmicas rendimientos de AMZN y luego la primera - order diferencia de la serie con el fin de convertir la serie de precios original a partir de una serie no estacionaria a una (potencialmente) uno estacionario. Esto nos permite comparar manzanas con manzanas entre acciones, índices o cualquier otro activo, para su uso en la estadística multivariante posteriores, como cuando se calcula una matriz de covarianza. Si desea una explicación detallada de por qué los rendimientos de registro son preferibles, echar un vistazo a este artículo sobre al Quantivity. Vamos a crear una nueva serie, amznrt. para mantener nuestra declaración de registro diferenciadas: Una vez más, podemos trazar la serie: En esta etapa queremos trazar la correlogram. Estaban buscando para ver si la serie diferenciada parece que el ruido blanco. Si no lo hace, entonces hay correlación serial inexplicable, lo que podría explicarse por un modelo autorregresivo. Notamos un pico statististically significativa en k2. Por lo tanto hay una posibilidad razonable de correlación serial inexplicable. Tenga en cuenta sin embargo, que esto puede ser debido a sesgo de muestreo. Como tal, podemos tratar el montaje de un modelo AR (p) a la serie y producir intervalos de confianza para los parámetros: Montaje del modelo autorregresivo ar a la primera orden diferenciada serie de precios de la madera produce una (2) modelo AR, con sombrero -0.0278 y -0,0687 sombrero. También he de salida de la varianza aysmptotic de manera que podemos calcular los errores estándar de los parámetros y producir intervalos de confianza. Queremos ver si el cero es parte del intervalo de confianza del 95, como si lo es, se reduce nuestra confianza en que tenemos un cierto AR subyacente (2) Proceso para la serie AMZN. Para el cálculo de los intervalos de confianza al 95 para cada parámetro, se utilizan los siguientes comandos. Tomamos la raíz cuadrada del primer elemento de la matriz de varianza asintótica para producir un error estándar, a continuación, crear los intervalos de confianza multiplicándolo por -1.96 y 1.96, respectivamente, para el nivel 95: Tenga en cuenta que esto se hace más sencillo cuando se utiliza la función de Arima , pero bien esperar hasta que la parte 2 antes de introducirlo correctamente. Por lo tanto, podemos ver que para alfa1 cero está contenido dentro del intervalo de confianza, mientras que para alfa2 cero no está contenido en el intervalo de confianza. Por lo tanto, debemos ser muy cuidadosos al pensar que realmente tenemos un AR generativa subyacente (2) modelo para AMZN. En particular, se observa que el modelo autorregresivo no tiene en cuenta agrupamiento de la volatilidad, lo que conduce a la agrupación de correlación serial en series de tiempo financieras. Cuando consideramos los modelos ARCH y GARCH en artículos posteriores, vamos a dar cuenta de esto. Cuando llegamos a usar la función de Arima completa en el próximo artículo, vamos a hacer predicciones de la serie de precios de registro diario con el fin de que nos permita crear las señales de comercio. SampP500 Índice de Equidad de EE. UU. Junto con las acciones individuales que también se puede considerar el índice de acciones de EE. UU., la SampP500. Le permite aplicar todos los comandos anteriores de esta serie y producir las parcelas como antes: podemos trazar los precios: Al igual que antes, así crear la primera diferencia orden de los precios de cierre de registro: Una vez más, podemos trazar la serie: Está claro a partir de este gráfico que la volatilidad no es estacionaria en el tiempo. Esto también se refleja en la trama de la correlogram. Hay muchos picos, incluyendo k1 y k2, que son estadísticamente significativa más allá de un modelo de ruido blanco. Además, vemos la evidencia de los procesos de memoria larga, ya que hay algunos picos estadísticamente significativas en k16, k18 y k21: En última instancia, necesitaremos un modelo más sofisticado que un modelo autorregresivo de orden p. Sin embargo, en esta etapa todavía podemos tratar apropiado tal modelo. Vamos a ver lo que obtenemos si lo hacemos así: Usando ar produce un AR (22) del modelo, es decir, un modelo con 22 parámetros distintos de cero ¿Qué nos dice esto es indicativo de que es posible que haya mucha más complejidad en la correlación serial de un modelo lineal simple de los precios del pasado puede realmente explicar. Sin embargo, esto ya lo sabíamos porque podemos ver que existe una importante correlación en serie de la volatilidad. Por ejemplo, considere el período de alta volatilidad en torno a 2008. Esto motiva la siguiente serie de modelos, es decir, la media móvil MA (q) y la media móvil autorregresiva ARMA (p, q). Así aprender sobre ambos en la parte 2 de este artículo. Como hemos mencionado en varias ocasiones, en última instancia, estos nos van a llevar a la familia Arima y GARCH de los modelos, los cuales proporcionarán un ajuste mucho mejor a la complejidad de la correlación serial Samp500. Esta voluntad nos permite mejorar significativamente nuestros pronósticos y finalmente producen las estrategias más rentables. Michael Salas-Moore Mike es el fundador de QuantStart y ha estado involucrado en la industria de las finanzas cuantitativas en los últimos cinco años, principalmente como un desarrollador quant y luego como consultora comerciante cuant para los fondos de cobertura.
No comments:
Post a Comment