Monday 27 November 2017

Moving Average Model Order 1


8.4 Verschieben von Durchschnittsmodellen Anstatt vergangene Werte der Prognosedatei in einer Regression zu verwenden, verwendet ein gleitendes Durchschnittsmodell vergangene Prognosefehler in einem Regressionsmodell. Y c et the theta e dots theta e, wobei et weißes Rauschen ist. Wir bezeichnen dies als MA (q) - Modell. Natürlich beobachten wir nicht die Werte von et, also ist es nicht wirklich Regression im üblichen Sinne. Man beachte, daß jeder Wert von yt als gewichteter gleitender Durchschnitt der letzten Prognosefehler betrachtet werden kann. Jedoch sollten gleitende Durchschnittsmodelle nicht mit der gleitenden glatten Glättung verwechselt werden, die wir in Kapitel 6 besprochen haben. Ein gleitendes Durchschnittsmodell wird für die Prognose zukünftiger Werte verwendet, während die gleitende gleitende Durchschnittskurve für die Abschätzung des Trendzyklus der vergangenen Werte verwendet wird. Abbildung 8.6: Zwei Beispiele für Daten aus gleitenden Durchschnittsmodellen mit unterschiedlichen Parametern. Links: MA (1) mit yt 20e t 0,8e t-1. Rechts: MA (2) mit y t e t - e t-1 0,8e t-2. In beiden Fällen ist e t normal verteiltes Weißrauschen mit Mittelwert Null und Varianz Eins. Abbildung 8.6 zeigt einige Daten aus einem MA (1) - Modell und einem MA (2) - Modell. Das Ändern der Parameter theta1, dots, thetaq führt zu unterschiedlichen Zeitreihenmustern. Wie bei autoregressiven Modellen wird die Varianz des Fehlerterms et nur den Maßstab der Reihe ändern, nicht die Muster. Es ist möglich, jedes stationäre AR (p) - Modell als MA (infty) - Modell zu schreiben. Beispielsweise können wir dies bei einem AR (1) - Modell demonstrieren: begin yt amp phi1y et amp phi1 (phi1y e) et amp phi12y phi1 e et amp phi13y phi12e phi1 e et amptext end Vorausgesetzt -1 lt phi1 lt 1 wird der Wert von phi1k kleiner, wenn k größer wird. So erhalten wir schließlich yt und phi1 e phi12 e phi13 e cdots, ein MA (infty) Prozess. Das umgekehrte Ergebnis gilt, wenn wir den MA-Parametern einige Einschränkungen auferlegen. Dann wird das MA-Modell invertierbar. Das heißt, dass wir alle invertierbaren MA (q) Prozess als AR (infty) Prozess schreiben können. Invertible Modelle sind nicht einfach, damit wir von MA-Modellen auf AR-Modelle umwandeln können. Sie haben auch einige mathematische Eigenschaften, die sie in der Praxis einfacher zu verwenden. Die Invertibilitätsbedingungen sind den stationären Einschränkungen ähnlich. Für ein MA (1) Modell: -1lttheta1lt1. Für ein MA (2) - Modell: -1lttheta2lt1, theta2theta1 gt-1, theta1 - theta2 lt 1. Kompliziertere Bedingungen gelten für qge3. Wiederum wird R diese Einschränkungen bei der Schätzung der Modelle berücksichtigen.2.1 Gleitende Durchschnittsmodelle (MA-Modelle) Zeitreihenmodelle, die als ARIMA-Modelle bekannt sind, können autoregressive Begriffe und / oder gleitende Durchschnittsterme enthalten. In Woche 1 erlernten wir einen autoregressiven Term in einem Zeitreihenmodell für die Variable x t ist ein verzögerter Wert von x t. Beispielsweise ist ein autoregressiver Term der Verzögerung 1 x t-1 (multipliziert mit einem Koeffizienten). Diese Lektion definiert gleitende Durchschnittsterme. Ein gleitender Durchschnittsterm in einem Zeitreihenmodell ist ein vergangener Fehler (multipliziert mit einem Koeffizienten). Es sei n (0, sigma2w) überschritten, was bedeutet, daß die wt identisch unabhängig voneinander verteilt sind, jeweils mit einer Normalverteilung mit dem Mittelwert 0 und der gleichen Varianz. Das durch MA (1) bezeichnete gleitende Durchschnittsmodell der 1. Ordnung ist (xt mu wt theta1w) Das durch MA (2) bezeichnete gleitende Durchschnittsmodell der zweiten Ordnung ist (xt mu wt theta1w theta2w) Das gleitende Mittelmodell der q-ten Ordnung , Mit MA (q) bezeichnet, ist (xt mu wt theta1w theta2w dots thetaqw) Hinweis. Viele Lehrbücher und Softwareprogramme definieren das Modell mit negativen Vorzeichen vor den Begriffen. Dies ändert nicht die allgemeinen theoretischen Eigenschaften des Modells, obwohl es die algebraischen Zeichen der geschätzten Koeffizientenwerte und (nicht quadrierten) Ausdrücke in Formeln für ACFs und Abweichungen umwandelt. Sie müssen Ihre Software überprüfen, um zu überprüfen, ob negative oder positive Vorzeichen verwendet worden sind, um das geschätzte Modell korrekt zu schreiben. R verwendet positive Vorzeichen in seinem zugrunde liegenden Modell, wie wir hier tun. Theoretische Eigenschaften einer Zeitreihe mit einem MA (1) Modell Beachten Sie, dass der einzige Wert ungleich Null im theoretischen ACF für Verzögerung 1 ist. Alle anderen Autokorrelationen sind 0. Somit ist ein Proben-ACF mit einer signifikanten Autokorrelation nur bei Verzögerung 1 ein Indikator für ein mögliches MA (1) - Modell. Für interessierte Studierende, Beweise dieser Eigenschaften sind ein Anhang zu diesem Handout. Beispiel 1 Angenommen, dass ein MA (1) - Modell x t 10 w t .7 w t-1 ist. Wobei (wt überstehendes N (0,1)). Somit ist der Koeffizient 1 0,7. Die theoretische ACF wird durch eine Plot dieser ACF folgt folgt. Die graphische Darstellung ist die theoretische ACF für eine MA (1) mit 1 0,7. In der Praxis liefert eine Probe gewöhnlich ein solches klares Muster. Unter Verwendung von R simulierten wir n 100 Abtastwerte unter Verwendung des Modells x t 10 w t .7 w t-1, wobei w t iid N (0,1) war. Für diese Simulation folgt ein Zeitreihen-Diagramm der Probendaten. Wir können nicht viel von dieser Handlung erzählen. Die Proben-ACF für die simulierten Daten folgt. Wir sehen eine Spitze bei Verzögerung 1, gefolgt von im Allgemeinen nicht signifikanten Werten für Verzögerungen nach 1. Es ist zu beachten, dass das Beispiel-ACF nicht mit dem theoretischen Muster des zugrunde liegenden MA (1) übereinstimmt, was bedeutet, dass alle Autokorrelationen für Verzögerungen nach 1 0 sein werden Eine andere Probe hätte eine geringfügig unterschiedliche Probe ACF wie unten gezeigt, hätte aber wahrscheinlich die gleichen breiten Merkmale. Theroretische Eigenschaften einer Zeitreihe mit einem MA (2) - Modell Für das MA (2) - Modell sind die theoretischen Eigenschaften die folgenden: Die einzigen Werte ungleich Null im theoretischen ACF sind für die Lags 1 und 2. Autokorrelationen für höhere Lags sind 0 , So zeigt ein Beispiel-ACF mit signifikanten Autokorrelationen bei den Verzögerungen 1 und 2, aber nicht signifikante Autokorrelationen für höhere Verzögerungen ein mögliches MA (2) - Modell. Iid N (0,1). Die Koeffizienten betragen 1 0,5 und 2 0,3. Da es sich hierbei um ein MA (2) handelt, wird der theoretische ACF nur bei den Verzögerungen 1 und 2 Werte ungleich Null aufweisen. Werte der beiden Nicht-Autokorrelationen sind A-Plots des theoretischen ACFs. Wie fast immer der Fall ist, verhalten sich Musterdaten nicht ganz so perfekt wie die Theorie. Wir simulierten n 150 Beispielwerte für das Modell x t 10 w t .5 w t-1 .3 w t-2. Wobei wt iid N (0,1) ist. Die Zeitreihenfolge der Daten folgt. Wie bei dem Zeitreihenplot für die MA (1) Beispieldaten können Sie nicht viel davon erzählen. Die Proben-ACF für die simulierten Daten folgt. Das Muster ist typisch für Situationen, in denen ein MA (2) - Modell nützlich sein kann. Es gibt zwei statistisch signifikante Spikes bei Lags 1 und 2, gefolgt von nicht signifikanten Werten für andere Lags. Beachten Sie, dass aufgrund des Stichprobenfehlers das Muster ACF nicht genau dem theoretischen Muster entsprach. ACF für allgemeine MA (q) - Modelle Eine Eigenschaft von MA (q) - Modellen besteht im Allgemeinen darin, dass Autokorrelationen ungleich Null für die ersten q-Verzögerungen und Autokorrelationen 0 für alle Verzögerungen gt q existieren. Nicht-Eindeutigkeit der Verbindung zwischen Werten von 1 und (rho1) in MA (1) Modell. Im MA (1) - Modell für einen Wert von 1. Die reziproke 1/1 gibt den gleichen Wert für Als Beispiel, verwenden Sie 0.5 für 1. Und dann 1 / (0,5) 2 für 1 verwenden. Youll erhalten (rho1) 0,4 in beiden Fällen. Um eine theoretische Einschränkung als Invertibilität zu befriedigen. Wir beschränken MA (1) - Modelle auf Werte mit einem Absolutwert von weniger als 1. In dem gerade angegebenen Beispiel ist 1 0,5 ein zulässiger Parameterwert, während 1 1 / 0,5 2 nicht. Invertibilität von MA-Modellen Ein MA-Modell soll invertierbar sein, wenn es algebraisch äquivalent zu einem konvergierenden unendlichen Ordnungs-AR-Modell ist. Durch Konvergenz meinen wir, dass die AR-Koeffizienten auf 0 sinken, wenn wir in der Zeit zurückgehen. Invertibilität ist eine Einschränkung, die in Zeitreihensoftware programmiert ist, die verwendet wird, um die Koeffizienten von Modellen mit MA-Begriffen abzuschätzen. Sein nicht etwas, das wir in der Datenanalyse überprüfen. Zusätzliche Informationen über die Invertibilitätsbeschränkung für MA (1) - Modelle finden Sie im Anhang. Fortgeschrittene Theorie Anmerkung. Für ein MA (q) - Modell mit einem angegebenen ACF gibt es nur ein invertierbares Modell. Die notwendige Bedingung für die Invertierbarkeit ist, daß die Koeffizienten Werte haben, daß die Gleichung 1- 1 y-. - q y q 0 hat Lösungen für y, die außerhalb des Einheitskreises liegen. R-Code für die Beispiele In Beispiel 1 wurde der theoretische ACF des Modells x t 10 w t aufgetragen. 7w t-1. Und dann n 150 Werte aus diesem Modell simuliert und die Abtastzeitreihen und die Abtast-ACF für die simulierten Daten aufgetragen. Die R-Befehle, die verwendet wurden, um den theoretischen ACF aufzuzeichnen, waren: acfma1ARMAacf (mac (0,7), lag. max10) 10 Verzögerungen von ACF für MA (1) mit theta1 0,7 lags0: 10 erzeugt eine Variable namens lags, die im Bereich von 0 bis 10 liegt (H0) fügt dem Diagramm eine horizontale Achse hinzu Der erste Befehl bestimmt den ACF und speichert ihn in einem Objekt Genannt acfma1 (unsere Wahl des Namens). Der Plotbefehl (der dritte Befehl) verläuft gegen die ACF-Werte für die Verzögerungen 1 bis 10. Der ylab-Parameter bezeichnet die y-Achse und der Hauptparameter einen Titel auf dem Plot. Um die Zahlenwerte der ACF zu sehen, benutzen Sie einfach den Befehl acfma1. Die Simulation und Diagramme wurden mit den folgenden Befehlen durchgeführt. (N150, list (mac (0.7))) Simuliert n 150 Werte aus MA (1) xxc10 addiert 10, um Mittelwert 10. Simulationsvorgaben bedeuten 0. Plot (x, typeb, mainSimulated MA (1) Acf (x, xlimc (1,10), mainACF für simulierte Probendaten) In Beispiel 2 wurde der theoretische ACF des Modells xt 10 wt. 5 w t-1 .3 w t-2 aufgetragen. Und dann n 150 Werte aus diesem Modell simuliert und die Abtastzeitreihen und die Abtast-ACF für die simulierten Daten aufgetragen. Die verwendeten R-Befehle waren acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 Plot (lags, acfma2, xlimc (1,10), ylabr, typh, main ACF für MA (2) mit theta1 0,5, (X, x) (x, x) (x, x, x, y) (1) Für interessierte Studierende sind hier Beweise für die theoretischen Eigenschaften des MA (1) - Modells. Variante: (Text (xt) Text (mu wt theta1 w) 0 Text (wt) Text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Wenn h 1 der vorhergehende Ausdruck 1 w 2. Für irgendeinen h 2 ist der vorhergehende Ausdruck 0 Der Grund dafür ist, dass, durch Definition der Unabhängigkeit der wt. E (w k w j) 0 für beliebige k j. Da w w die Mittelwerte 0, E (w j w j) E (w j 2) w 2 haben. Für eine Zeitreihe, Wenden Sie dieses Ergebnis an, um den oben angegebenen ACF zu erhalten. Ein invertierbares MA-Modell ist eines, das als unendliches Ordnungs-AR-Modell geschrieben werden kann, das konvergiert, so daß die AR-Koeffizienten gegen 0 konvergieren, wenn wir unendlich zurück in der Zeit bewegen. Gut zeigen Invertibilität für die MA (1) - Modell. Dann setzen wir die Beziehung (2) für wt-1 in Gleichung (1) (3) ein (zt wt theta1 (z-therma1w) wt theta1z - theta2w) Zum Zeitpunkt t-2. Gleichung (2) wird dann in Gleichung (3) die Gleichung (4) für wt-2 ersetzen (zt wt theta1 z - theta21w wt theta1z - theta21 (z - theta1w) wt theta1z - theta12z theta31w) Unendlich), erhalten wir das unendliche Ordnungsmodell (zt wt theta1 z - theta21z theta31z - theta41z Punkte) Beachten Sie jedoch, dass bei 1 1 die Koeffizienten, die die Verzögerungen von z vergrößern Zeit. Um dies zu verhindern, benötigen wir 1 lt1. Dies ist die Bedingung für ein invertierbares MA (1) - Modell. Unendlich Ordnung MA Modell In Woche 3, gut sehen, dass ein AR (1) Modell in ein unendliches order MA Modell umgewandelt werden kann: (xt - mu wt phi1w phi21w Punkte phik1 w Punkte sum phij1w) Diese Summation der Vergangenheit weißer Rauschbegriffe ist bekannt Als die kausale Darstellung eines AR (1). Mit anderen Worten, x t ist eine spezielle Art von MA mit einer unendlichen Anzahl von Begriffen, die in der Zeit zurückgehen. Dies wird als unendliche Ordnung MA oder MA () bezeichnet. Eine endliche Ordnung MA ist eine unendliche Ordnung AR und jede endliche Ordnung AR ist eine unendliche Ordnung MA. Rückruf in Woche 1, stellten wir fest, dass eine Anforderung für eine stationäre AR (1) ist, dass 1 lt1. Berechnen Sie die Var (x t) mit der kausalen Darstellung. Dieser letzte Schritt verwendet eine Grundtatsache über geometrische Reihen, die (phi1lt1) erforderlich sind, ansonsten divergiert die Reihe. NavigationAutoregressive Moving Average ARMA (p, q) Modelle für die Zeitreihenanalyse - Teil 1 Im letzten Artikel sahen wir zufällige Wanderungen und weißes Rauschen als grundlegende Zeitreihenmodelle für bestimmte Finanzinstrumente wie Tagesaktien und Aktienindexpreise an. Wir fanden, dass in einigen Fällen ein zufälliges Wanderungsmodell nicht ausreicht, um das vollständige Autokorrelationsverhalten des Instruments zu erfassen, das anspruchsvollere Modelle motiviert. In den folgenden Artikeln werden drei Modelltypen diskutiert, nämlich das Autoregressive (AR) - Modell der Ordnung p, das Moving Average (MA) - Modell der Ordnung q und das gemischte Autogressive Moving Average (ARMA) - Modell der Ordnung p , Q. Diese Modelle werden uns helfen zu erfassen oder zu erklären, mehr der seriellen Korrelation in einem Instrument. Letztlich werden sie uns ein Mittel zur Prognose der künftigen Preise bieten. Es ist jedoch bekannt, dass finanzielle Zeitreihen eine Eigenschaft besitzen, die als Volatilitäts-Clusterung bekannt ist. Das heißt, die Flüchtigkeit des Instruments ist nicht zeitlich konstant. Der technische Begriff für dieses Verhalten wird als bedingte Heteroskedastizität bezeichnet. Da die AR-, MA - und ARMA-Modelle nicht bedingt heteroskedastisch sind, dh sie nicht das Volatilitäts-Clustering berücksichtigen, benötigen wir letztlich ein anspruchsvolleres Modell für unsere Prognosen. Zu diesen Modellen gehören das Autogressive Conditional Heteroskedastic (ARCH) Modell und das Generalized Autogressive Conditional Heteroskedastic (GARCH) Modell und die vielen Varianten davon. GARCH ist in Quantfinance besonders bekannt und wird vor allem für finanzielle Zeitreihensimulationen als Mittel zur Risikoabschätzung eingesetzt. Wie bei allen QuantStart-Artikeln möchte ich aber diese Modelle aus einfacheren Versionen aufbauen, damit wir sehen können, wie jede neue Variante unsere Vorhersagefähigkeit ändert. Trotz der Tatsache, dass AR, MA und ARMA relativ einfache Zeitreihenmodelle sind, sind sie die Grundlage für kompliziertere Modelle wie den Autoregressive Integrated Moving Average (ARIMA) und die GARCH-Familie. Daher ist es wichtig, dass wir sie studieren. Einer unserer ersten Trading-Strategien in der Zeitreihe Artikel-Serie wird es sein, ARIMA und GARCH zu kombinieren, um die Preise n Perioden im Voraus vorherzusagen. Allerdings müssen wir warten, bis wir beide diskutiert sowohl ARIMA und GARCH separat, bevor wir sie auf eine echte Strategie anwenden Wie werden wir in diesem Artikel werden wir einige neue Zeitreihen-Konzepte, die gut für die übrigen Methoden, nämlich streng Stationarität und dem Akaike-Informationskriterium (AIC). Im Anschluss an diese neuen Konzepte werden wir dem traditionellen Muster für das Studium neuer Zeitreihenmodelle folgen: Begründung - Die erste Aufgabe ist es, einen Grund dafür zu liefern, warum sich ein bestimmtes Modell als Quants interessierte. Warum stellen wir das Zeitreihenmodell vor Welche Auswirkungen kann es erfassen Was gewinnen wir (oder verlieren), indem wir zusätzliche Komplexität hinzufügen Definition - Wir müssen die vollständige mathematische Definition (und damit verbundene Notation) des Zeitreihenmodells zur Minimierung bereitstellen Jede Unklarheit. Eigenschaften der zweiten Ordnung - Wir diskutieren (und in einigen Fällen) die Eigenschaften zweiter Ordnung des Zeitreihenmodells, das sein Mittel, seine Varianz und seine Autokorrelationsfunktion enthält. Correlogram - Wir verwenden die Eigenschaften zweiter Ordnung, um ein Korrektramm einer Realisierung des Zeitreihenmodells zu zeichnen, um sein Verhalten zu visualisieren. Simulation - Wir simulieren Realisierungen des Zeitreihenmodells und passen dann das Modell an diese Simulationen an, um sicherzustellen, dass wir genaue Implementierungen haben und den Anpassungsprozess verstehen. Echte Finanzdaten - Wir passen das Zeitreihenmodell auf echte Finanzdaten an und betrachten das Korrektramm der Residuen, um zu sehen, wie das Modell die serielle Korrelation in der ursprünglichen Serie berücksichtigt. Vorhersage - Wir erstellen n-Schritt-Voraus-Prognosen des Zeitreihenmodells für besondere Realisierungen, um letztendlich Handelssignale zu erzeugen. Fast alle Artikel, die ich auf Zeitreihenmodellen schreibe, werden in dieses Muster fallen und es wird uns erlauben, die Unterschiede zwischen jedem Modell leicht zu vergleichen, da wir weitere Komplexität hinzufügen. Wurden zu Beginn mit Blick auf strenge Stationarität und die AIC. Strengst stationär Wir haben die Definition der Stationarität in dem Artikel über die serielle Korrelation. Da wir jedoch in die Reichweite vieler Finanzserien mit verschiedenen Frequenzen treten, müssen wir sicherstellen, dass unsere (eventuellen) Modelle die zeitlich variierende Volatilität dieser Serien berücksichtigen. Insbesondere müssen wir ihre Heteroskedastizität berücksichtigen. Wir werden auf dieses Problem stoßen, wenn wir versuchen, bestimmte Modelle zu historischen Serien zu passen. Grundsätzlich können nicht alle seriellen Korrelationen in den Resten von eingebauten Modellen berücksichtigt werden, ohne Heteroskedastizität zu berücksichtigen. Das bringt uns zurück zur Stationarität. Eine Serie ist nicht stationär in der Varianz, wenn sie zeitvariable Volatilität hat, per Definition. Dies motiviert eine rigorosere Definition der Stationarität, nämlich eine strenge Stationarität: Strengst stationäre Serie Ein Zeitreihenmodell ist streng stationär, wenn die gemeinsame statistische Verteilung der Elemente x, ldots, x die gleiche ist wie die von xm, ldots, xm, Für alle ti, m. Man kann an diese Definition nur denken, daß die Verteilung der Zeitreihen für jede zeitliche Verschiebung unverändert bleibt. Insbesondere sind das Mittel und die Varianz rechtzeitig für eine streng stationäre Reihe konstant und die Autokovarianz zwischen xt und xs (nur) hängt nur von der absoluten Differenz von t und s, t-s ab. In zukünftigen Beiträgen werden wir streng stationäre Serien besprechen. Akaike Information Criterion Ich erwähnte in früheren Artikeln, dass wir schließlich zu prüfen, wie die Wahl zwischen getrennten besten Modelle. Dies gilt nicht nur für die Zeitreihenanalyse, sondern auch für das maschinelle Lernen und generell für die Statistik im Allgemeinen. Die beiden Hauptmethoden (vorläufig) sind das Akaike Information Criterion (AIC) und das Bayesian Information Criterion (wie wir mit unseren Artikeln über Bayesian Statistics weiter vorankommen). Nun kurz die AIC, wie es in Teil 2 des ARMA Artikel verwendet werden. AIC ist im Wesentlichen ein Hilfsmittel zur Modellauswahl. Das heißt, wenn wir eine Auswahl von statistischen Modellen (einschließlich Zeitreihen) haben, dann schätzt die AIC die Qualität jedes Modells, relativ zu den anderen, die wir zur Verfügung haben. Es basiert auf Informationstheorie. Das ist ein sehr interessantes, tiefes Thema, das wir leider nicht in zu viel Details gehen können. Es versucht, die Komplexität des Modells, die in diesem Fall bedeutet die Anzahl der Parameter, wie gut es passt die Daten. Lets eine Definition: Akaike Information Criterion Wenn wir die Likelihood-Funktion für ein statistisches Modell, das k Parameter hat, und L maximiert die Wahrscheinlichkeit. Dann ist das Akaike Information Criterion gegeben durch: Das bevorzugte Modell, aus einer Auswahl von Modellen, hat die minium AIC der Gruppe. Sie können sehen, dass die AIC wächst mit der Anzahl der Parameter, k, erhöht, aber reduziert wird, wenn die negative Log-Likelihood erhöht. Im Wesentlichen bestraft sie Modelle, die übermäßig sind. Wir werden AR, MA und ARMA Modelle von unterschiedlichen Aufträgen erstellen und eine Möglichkeit, das beste Modell zu wählen, das zu einem bestimmten Datensatz passt, ist, die AIC zu verwenden. Dies ist, was gut tun, im nächsten Artikel, vor allem für ARMA Modelle. Autoregressive (AR) Modelle der Ordnung p Das erste Modell, das die Grundlage von Teil 1 bildet, ist das autoregressive Modell der Ordnung p, oft verkürzt zu AR (p). Im vorherigen Artikel betrachteten wir den zufälligen Weg. Wobei jeder Term xt nur von dem vorherigen Term x und einem stochastischen weißen Rauschterm abhängt, wt: Das autoregressive Modell ist einfach eine Erweiterung des zufälligen Weges, der Terme weiter zurück in der Zeit enthält. Die Struktur des Modells ist linear. Das heißt, das Modell hängt linear von den vorherigen Bedingungen ab, wobei für jeden Term Koeffizienten vorliegen. Dies ist, wo die regressive kommt aus der autoregressive. Es ist im Wesentlichen ein Regressionsmodell, bei dem die vorherigen Begriffe die Prädiktoren sind. Autoregressives Modell der Ordnung p Ein Zeitreihenmodell ist ein autoregressives Modell der Ordnung p. AR (p), wenn: begin xt alpha1 x ldots alphap x wt sum p alpha x wt end Wo ist weißes Rauschen und alpha in mathbb, mit alphap neq 0 für einen autoregressiven p-order Prozess. Wenn wir den Backward Shift Operator betrachten. (Siehe vorheriger Artikel), dann können wir das obige als eine Funktion theta folgendermaßen umschreiben: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt Ende Vielleicht das erste, was über das AR (p) Ist, dass ein zufälliger Weg einfach AR (1) mit alpha1 gleich Eins ist. Wie oben erwähnt, ist das autogressive Modell eine Erweiterung des zufälligen Weges, so dass dies sinnvoll ist. Es ist einfach, Vorhersagen mit dem AR (p) - Modell zu jeder Zeit t vorzunehmen, sobald wir die alphai-Koeffizienten bestimmt haben, unsere Schätzung Wird einfach: anfangen Hut t alpha1 x ldots alphap x end So können wir n-Schritt voraus Prognosen durch die Herstellung Hut t, Hut, Hut, etc. bis zu Hut. Tatsächlich werden wir, wenn wir die ARMA-Modelle in Teil 2 betrachten, die R-Vorhersagefunktion verwenden, um Prognosen (zusammen mit Standardfehler-Konfidenzintervallbändern) zu erzeugen, die uns helfen, Handelssignale zu erzeugen. Stationarität für autoregressive Prozesse Eines der wichtigsten Aspekte des AR (p) - Modells ist, dass es nicht immer stationär ist. Tatsächlich hängt die Stationarität eines bestimmten Modells von den Parametern ab. Ive berührte dieses vorher in einem vorhergehenden Artikel. Um zu bestimmen, ob ein AR (p) - Prozeß stationär ist oder nicht, müssen wir die charakteristische Gleichung lösen. Die charakteristische Gleichung ist einfach das autoregressive Modell, geschrieben in Rückwärtsverschiebung Form, auf Null gesetzt: Wir lösen diese Gleichung für. Damit das bestimmte autoregressive Verfahren stationär ist, brauchen wir alle Absolutwerte der Wurzeln dieser Gleichung, um Eins zu übersteigen. Dies ist eine äußerst nützliche Eigenschaft und ermöglicht es uns schnell zu berechnen, ob ein AR (p) - Prozeß stationär ist oder nicht. Wir betrachten einige Beispiele, um diese Idee konkret zu machen: Random Walk - Der AR (1) Prozess mit alpha1 1 hat die charakteristische Gleichung theta 1 -. Offensichtlich hat diese Wurzel 1 und als solche ist nicht stationär. AR (1) - Wenn wir alpha1 frac wählen, erhalten wir xt frac x wt. Dies ergibt eine charakteristische Gleichung von 1 - frac 0, die eine Wurzel von 4 gt 1 hat und somit dieses AR (1) - Verfahren stationär ist. AR (2) - Wenn wir alpha1 alpha2 frac setzen, erhalten wir xt frac x frac x wt. Seine charakteristische Gleichung wird - frac () () 0, die zwei Wurzeln von 1, -2 ergibt. Da es sich um eine Einheitswurzel handelt, handelt es sich um eine nichtstationäre Serie. Andere AR (2) - Serien können jedoch stationär sein. Eigenschaften der zweiten Ordnung Der Mittelwert eines AR (p) - Prozesses ist Null. Allerdings sind die Autokovarianzen und Autokorrelationen durch rekursive Funktionen, bekannt als die Yule-Walker-Gleichungen gegeben. Die vollständigen Eigenschaften sind unten angegeben: begin mux E (xt) 0 end begin gammak sum p alpha gamma, enspace k 0 end begin rhok sum p alphai rho, enspace k 0 end Beachten Sie, dass es notwendig ist, die alpha-Parameterwerte vor zu kennen Berechnen der Autokorrelationen. Nachdem wir die Eigenschaften zweiter Ordnung angegeben haben, können wir verschiedene Ordnungen von AR (p) simulieren und die entsprechenden Korrektramme darstellen. Simulationen und Correlogramme Beginnen wir mit einem AR (1) - Prozess. Dies ist ähnlich einem zufälligen Weg, außer dass alpha1 nicht gleich Eins haben muss. Unser Modell wird alpha1 0,6 haben. Der R-Code für die Erzeugung dieser Simulation ist wie folgt gegeben: Beachten Sie, dass unsere for-Schleife von 2 bis 100, nicht 1 bis 100, als xt-1 ausgeführt wird, wenn t0 nicht indexierbar ist. Ähnlich für AR (p) Prozesse höherer Ordnung muss t in dieser Schleife von p bis 100 reichen. Wir können die Realisierung dieses Modells und seines zugehörigen Korrelogramms mit Hilfe der Layout-Funktion darstellen: Lasst uns jetzt versuchen, einen AR (p) - Prozeß an die soeben erzeugten simulierten Daten anzupassen, um zu sehen, ob wir die zugrunde liegenden Parameter wiederherstellen können. Sie können daran erinnern, dass wir ein ähnliches Verfahren in dem Artikel über weiße Rauschen und zufällige Wanderungen durchgeführt. Wie sich herausstellt, bietet R einen nützlichen Befehl ar, um autoregressive Modelle zu passen. Wir können diese Methode verwenden, um uns zuerst die beste Ordnung p des Modells zu erzählen (wie durch die AIC oben bestimmt) und liefern uns mit Parameterschätzungen für das alphai, die wir dann verwenden können, um Konfidenzintervalle zu bilden. Für die Vollständigkeit können wir die x-Reihe neu erstellen: Jetzt verwenden wir den ar-Befehl, um ein autoregressives Modell an unseren simulierten AR (1) - Prozess anzupassen, wobei die maximale Wahrscheinlichkeitsschätzung (MLE) als Anpassungsverfahren verwendet wird. Wir werden zunächst die beste erhaltene Ordnung extrahieren: Der ar Befehl hat erfolgreich festgestellt, dass unser zugrunde liegendes Zeitreihenmodell ein AR (1) Prozess ist. Wir erhalten dann die Alpha-Parameter (s) Schätzungen: Die MLE-Prozedur hat eine Schätzung erzeugt, Hut 0,523, die etwas niedriger als der wahre Wert von alpha1 0,6 ist. Schließlich können wir den Standardfehler (mit der asymptotischen Varianz) verwenden, um 95 Konfidenzintervalle um den / die zugrunde liegenden Parameter zu konstruieren. Um dies zu erreichen, erstellen wir einfach einen Vektor c (-1.96, 1.96) und multiplizieren ihn dann mit dem Standardfehler: Der wahre Parameter fällt in das 95 Konfidenzintervall, da wir von der Tatsache erwarten, dass wir die Realisierung aus dem Modell spezifisch generiert haben . Wie wäre es, wenn wir die alpha1 -0.6 ändern, können wir wie folgt ein AR (p) - Modell mit ar: Wiederherstellen wir die richtige Reihenfolge des Modells, mit einem sehr guten Schätzung Hut -0.597 von alpha1-0.6. Wir sehen auch, dass der wahre Parameter wieder innerhalb des Konfidenzintervalls liegt. Fügen wir mehr Komplexität zu unseren autoregressiven Prozessen hinzu, indem wir ein Modell der Ordnung 2 simulieren. Insbesondere setzen wir alpha10.666, setzen aber auch alpha2 -0.333. Heres den vollständigen Code, um die Realisierung zu simulieren und zu plotten, sowie das Korrelogram für eine solche Serie: Wie zuvor können wir sehen, dass sich das Korrelogramm deutlich von dem des weißen Rauschens unterscheidet, wie man es erwarten kann. Es gibt statistisch signifikante Peaks bei k1, k3 und k4. Wieder einmal wollten wir den ar-Befehl verwenden, um ein AR (p) - Modell zu unserer zugrundeliegenden AR (2) - Ausführung zu passen. Die Prozedur ist ähnlich wie bei der AR (1) - Sitzung: Die korrekte Reihenfolge wurde wiederhergestellt, und die Parameterschätzungen Hut 0.696 und Hut -0.395 sind nicht zu weit weg von den wahren Parameterwerten von alpha10.666 und alpha2-0.333. Beachten Sie, dass wir eine Konvergenz-Warnmeldung erhalten. Beachten Sie auch, dass R tatsächlich die arima0-Funktion verwendet, um das AR-Modell zu berechnen. AR (p) - Modelle sind ARIMA (p, 0, 0) - Modelle und somit ein AR-Modell ein Spezialfall von ARIMA ohne Moving Average (MA) - Komponente. Nun auch mit dem Befehl arima, um Konfidenzintervalle um mehrere Parameter zu erstellen, weshalb wir vernachlässigt haben, es hier zu tun. Nachdem wir nun einige simulierte Daten erstellt haben, ist es an der Zeit, die AR (p) - Modelle auf finanzielle Asset-Zeitreihen anzuwenden. Financial Data Amazon Inc. Lets beginnen mit dem Erwerb der Aktienkurs für Amazon (AMZN) mit quantmod wie im letzten Artikel: Die erste Aufgabe ist es, immer den Preis für eine kurze visuelle Inspektion. In diesem Fall auch die täglichen Schlusskurse: Youll bemerken, dass quantmod einige Formatierungen für uns, nämlich das Datum, und ein etwas hübscheres Diagramm als die üblichen R-Diagramme hinzufügt: Wir werden jetzt die logarithmische Rückkehr von AMZN und dann die erste nehmen Um die ursprüngliche Preisreihe von einer nichtstationären Serie auf eine (potentiell) stationäre zu konvertieren. Dies ermöglicht es uns, Äpfel mit Äpfeln zwischen Aktien, Indizes oder anderen Vermögenswerten zu vergleichen, für die Verwendung in späteren multivariaten Statistiken, wie bei der Berechnung einer Kovarianzmatrix. Wenn Sie eine ausführliche Erklärung, warum Protokoll Rückkehr bevorzugen möchten, werfen Sie einen Blick auf diesen Artikel über bei Quantivity. Erstellt eine neue Serie, amznrt. Um unsere differenzierten Logarithmen zurückzuhalten: Wieder einmal können wir die Serie darstellen: In diesem Stadium wollen wir das Korrektramm zeichnen. Sie suchten, um zu sehen, ob die differenzierte Reihe wie weißes Rauschen aussieht. Wenn es nicht dann gibt es unerklärliche serielle Korrelation, die durch ein autoregressives Modell erklärt werden könnte. Wir bemerken einen statistisch signifikanten Peak bei k2. Daher gibt es eine vernünftige Möglichkeit der unerklärlichen seriellen Korrelation. Seien Sie sich jedoch bewusst, dass dies aufgrund der Stichprobe. Als solches können wir versuchen, ein AR (p) - Modell an die Serie anzubringen und Konfidenzintervalle für die Parameter zu erzeugen: Die Anpassung des ar-autoregressiven Modells an die erste Reihe differenzierte Serien von Logarithmen erzeugt ein AR (2) - Modell mit Hut -0,0278 Und hat -0.0687. Ive auch die aysmptotische Varianz, so dass wir berechnen können Standard-Fehler für die Parameter und erzeugen Vertrauen Intervalle. Wir wollen sehen, ob null Teil des 95 Konfidenzintervalls ist, als ob es ist, es reduziert unser Vertrauen, dass wir ein echtes zugrunde liegendes AR (2) - Verfahren für die AMZN-Serie haben. Um die Konfidenzintervalle auf der 95-Ebene für jeden Parameter zu berechnen, verwenden wir die folgenden Befehle. Wir nehmen die Quadratwurzel des ersten Elements der asymptotischen Varianzmatrix auf, um einen Standardfehler zu erzeugen, dann erzeugen Sie Konfidenzintervalle, indem wir sie mit -1,96 bzw. 1,96 für die 95-Ebene multiplizieren: Beachten Sie, dass dies bei Verwendung der Arima-Funktion einfacher wird , Aber gut bis Teil 2 warten, bevor es richtig eingeführt. Somit können wir sehen, dass für alpha1 Null innerhalb des Konfidenzintervalls enthalten ist, während für alpha2 Null nicht im Konfidenzintervall enthalten ist. Daher sollten wir sehr vorsichtig sein, wenn wir denken, dass wir tatsächlich ein zugrundeliegendes generatives AR (2) - Modell für AMZN haben. Insbesondere berücksichtigen wir, dass das autoregressive Modell nicht das Volatilitäts-Clustering berücksichtigt, was zu einer Clusterbildung der seriellen Korrelation in finanziellen Zeitreihen führt. Wenn wir die ARCH - und GARCH-Modelle in späteren Artikeln betrachten, werden wir dies berücksichtigen. Wenn wir kommen, um die volle Arima-Funktion in den nächsten Artikel verwenden, werden wir Vorhersagen der täglichen Log-Preis-Serie, um uns zu ermöglichen, Trading-Signale zu schaffen. SampP500 US Equity Index Zusammen mit einzelnen Aktien können wir auch den US Equity Index, den SampP500, berücksichtigen. Lets alle vorherigen Befehle zu dieser Serie und produzieren die Plots wie zuvor: Wir können die Preise: Wie zuvor, erstellen Sie auch die erste Ordnung Differenz der Log-Schlusskurse: Wieder einmal können wir die Serie plotten: Es ist klar Aus dieser Grafik, dass die Volatilität nicht in der Zeit stationär ist. Dies spiegelt sich auch in der Darstellung des Korrelogramms wider. Es gibt viele Peaks, einschließlich k1 und k2, die statistisch signifikant über ein weißes Rauschmodell hinausgehen. Darüber hinaus sehen wir Hinweise auf Langzeitgedächtnisprozesse, da es einige statistisch signifikante Peaks bei k16, k18 und k21 gibt: Letztendlich benötigen wir ein komplexeres Modell als ein autoregressives Modell der Ordnung p. Allerdings können wir in diesem Stadium noch versuchen, ein solches Modell anzupassen. Wir sehen, was wir bekommen, wenn wir dies tun: Mit ar erzeugt ein AR (22) - Modell, dh ein Modell mit 22 Nicht-Null-Parametern Was bedeutet dies sagen uns Es ist bezeichnend, dass es wahrscheinlich viel mehr Komplexität in der seriellen Korrelation als Ein einfaches lineares Modell der vergangenen Preise kann wirklich erklären. Jedoch wussten wir dies bereits, weil wir sehen können, dass es eine signifikante serielle Korrelation in der Volatilität gibt. Betrachten wir zum Beispiel die sehr volatile Periode um 2008. Dies motiviert den nächsten Satz von Modellen, nämlich den Moving Average MA (q) und den autoregressiven Moving Average ARMA (p, q). Nun lernen Sie über diese beiden in Teil 2 dieses Artikels. Wie wir immer wieder erwähnen, werden diese letztlich zu der ARIMA - und GARCH-Modellfamilie führen, die beide eine viel bessere Anpassung an die serielle Korrelationskomplexität des Samp500 bieten. Dadurch können wir unsere Prognosen signifikant verbessern und letztendlich rentabler gestalten. Klicken Sie unten, um mehr darüber zu erfahren. Die Informationen auf dieser Website ist die Meinung der einzelnen Autoren auf der Grundlage ihrer persönlichen Beobachtung, Forschung und jahrelange Erfahrung. Der Herausgeber und seine Autoren sind nicht registrierte Anlageberater, Rechtsanwälte, CPAs oder andere Finanzdienstleister und machen keine Rechts-, Steuer-, Rechnungswesen, Anlageberatung oder andere professionelle Dienstleistungen. Die Informationen, die von dieser Web site angeboten werden, sind nur allgemeine Ausbildung. Weil jeder Einzelne sachliche Situation anders ist, sollte der Leser seinen persönlichen Berater suchen. Weder der Autor noch der Herausgeber übernehmen jegliche Haftung oder Verantwortung für Fehler oder Unterlassungen und haben weder eine Haftung noch Verantwortung gegenüber Personen oder Körperschaften in Bezug auf Schäden, die direkt oder indirekt durch die auf dieser Website enthaltenen Informationen verursacht oder vermutet werden. Benutzung auf eigene Gefahr. Darüber hinaus kann diese Website erhalten finanzielle Entschädigung von den Unternehmen erwähnt durch Werbung, Affiliate-Programme oder auf andere Weise. Preise und Angebote von Inserenten auf dieser Website ändern sich häufig, manchmal ohne Vorankündigung. Während wir uns bemühen, rechtzeitige und genaue Informationen aufrechtzuerhalten, können Angebot Details veraltet sein. Besucher sollten daher die Bedingungen dieser Angebote vor der Teilnahme an ihnen überprüfen. Der Autor und sein Herausgeber haften nicht für die Aktualisierung von Informationen und haften nicht für Inhalte, Produkte und Dienstleistungen von Drittanbietern, auch wenn sie über Hyperlinks und / oder Anzeigen auf dieser Website aufgerufen werden.

No comments:

Post a Comment