Wednesday 24 May 2017

Moving Average Modelle Für Volatilität Und Korrelation Und Kovarianz Matrizen


Bewegen von durchschnittlichen Modellen für Volatilität und Korrelation und Kovarianz-Matrizen Zitate Zitate 5 Referenzen Referenzen 4 - Die zeitvariable Kovarianz-Modell kann auf viele multivariate Zeitreihen angewendet werden, einschließlich der Volatilitätsanalyse in Finanzierung 4 und EEG-Aktivität in der Neurologie 5. Populäre Ansätze zur Schätzung reibungslos Variable Kovarianzmatrizen beinhalten das exponentiell gewichtete gleitende Globale (EWMA) Modell 25 und multivariate generalisierte autoregressive bedingte heterosedastische (GARCH) Modelle 26. Das erstere erfasst die gleichmäßig variierenden Trends, fehlt aber fehlende Daten und erfordert lange Serien, um eine hohe Schätzgenauigkeit zu erreichen 27. Auszug ausblenden Zusammenfassung ausblenden ABSTRAKT: Dimensionalitätsreduktion in der multivariaten Zeitreihenanalyse hat breite Anwendungen, angefangen von der Finanzdatenanalyse bis zur biomedizinischen Forschung. Jedoch führen hohe Umgebungsgeräusche und verschiedene Interferenzen zu nichtstationären Signalen, was zu einer ineffizienten Durchführung herkömmlicher Verfahren führen kann. In diesem Beitrag schlagen wir ein nichtlineares Dimensionalitätsreduktions-Framework mit Diffusionskarten auf einer gelernten statistischen Mannigfaltigkeit vor, die den Aufbau einer niederdimensionalen Darstellung der hochdimensionalen nichtstationären Zeitreihen zur Folge hat. Wir zeigen, dass Diffusionskarten mit Affinitätskern auf der Basis der Kullback-Leibler-Divergenz zwischen der lokalen Statistik von Proben eine effiziente Approximation von paarweisen geodätischen Abständen ermöglichen. Um die statistische Mannigfaltigkeit zu konstruieren, schätzen wir die zeitlichen sich entwickelnden parametrischen Verteilungen, indem wir eine Familie von Bayesschen generativen Modellen entwerfen. Das vorgeschlagene Framework kann auf Probleme angewendet werden, bei denen die zeitverlaufenden Verteilungen (von zeitlich lokalisierten Daten) anstatt der Samples selbst durch einen niederdimensionalen zugrunde liegenden Prozess angetrieben werden. Wir bieten effiziente Parameterschätzungs - und Dimensionsreduktionsmethoden an und wenden sie auf zwei Anwendungen an: Musikanalyse und epileptische Anfallvorhersage. Volltext Artikel April 2015 Quotierung zur Berechnung der EWMA-Korrelation Die Kovarianz wird durch die Quadratwurzel des Produktes der beiden EWMA-Varianzschätzungen geteilt (Alexander, 2008). Das ist: Auszug ausblenden Ausblenden ABSTRAKT: Dieses Papier analysiert, ob die Aktienmärkte Südosteuropas (SEE) in den 2000er Jahren stärker in die regionalen und globalen Aktienmärkte integriert wurden. Mit einer Vielzahl von Kointegrationsmethoden zeigen wir, dass SEE-Aktienmärkte keine langfristige Beziehung zu ihren reifen Pendants haben. Dies bedeutet, dass SEE-Märkte auf externe Schocks immunisiert werden könnten. Wir modellieren auch zeitveränderliche Korrelationen zwischen diesen Märkten, indem wir multivariate generalized Autoregressive Conditional Heteroschedastic (MGARCH) Modelle sowie die Exponential Weighted Moving Average (EWMA) Methodik verwenden. Die Ergebnisse zeigen, dass sich die Korrelationen der britischen und US-Aktienmärkte mit Südost-Europa-Markt im Laufe der Zeit ändern. Diese Veränderungen in den Korrelationen zwischen unseren Benchmark-Märkten und einzelnen SEE-Marktpaaren sind nicht einheitlich, obwohl der Nachweis einer zunehmenden Konvergenz zwischen Südosteuropa und dem entwickelten Aktienmarkt offensichtlich ist. Auch in diesem Papier untersucht, ob sich die Struktur der Korrelationen zwischen den Renditen von Indizes in verschiedenen Märkten in verschiedenen Phasen der globalen Finanzkrise 2007-2009 änderte. Insgesamt zeigen unsere Ergebnisse, dass für Investoren, die ihr Portfolio zwischen entwickelten und aufstrebenden SEE-Aktienmärkten diversifizieren möchten, noch Diversifizierungsvorteile möglich sind. Volltext Artikel Feb 2013 Francesco Guidi Mehmet Ugur Zeige abstrakt Ausblenden abstrakt ABSTRAKT: Fixed Income Analysten sind daran gewöhnt, ein paar Benchmark-Renditen auf kontinuierlicher Basis zu überwachen und Punktschätzungen für diese Erträge oder für eine Kombination von ihnen zu liefern. Dennoch erfordert die Optimierung von Fixed-Income-Portfolios eine genaue Prognose von nicht nur wenigen Benchmark-Renditen, sondern von kompletten Renditekurven. Dieses Kapitel leitet eine Prognose von einer oder mehreren Renditekurven ab, die mit den Ansichten der Analysten übereinstimmt. Das Modell basiert auf einer neuartigen Anwendung der Hauptkomponentenanalyse (PCA). Es kann auf andere Märkte ausgedehnt werden und hat keine Beschränkungen für die Anzahl der Prognosevariablen oder die Anzahl der Sichten. Wir betrachten Beispiele für die Prognose der Staatsanleihenrenditenkurven der USA, der Eurozone und des Vereinigten Königreichs gleichzeitig oder nicht. Kapitel Jan 2010 SSRN Elektronisches Journal Leonardo M. NogueiraMoving Durchschnittliche Modelle für Volatilität und Korrelation und Kovarianzmatrizen Transkription 1 JWPR0-Fabozzi c-cc November, 00. Au: Begriff erscheint nicht im Text 0 KAPITEL CC Bewegliche durchschnittliche Modelle für Volatilität und Korrelation , Und Kovarianzmatrizen CAROL ALEXANDER, PhD Lehrstuhl für Risikomanagement und Direktor der Forschung, ICMA Center, Business School, The University of Reading Grundlegende Eigenschaften von Kovarianz und Korrelationsmatrizen Gleichgewichtete Mittelwerte Statistische Methodik Konfidenzintervalle für Varianz und Volatilität Standardfehler für gleich gewichtete Durchschnittliche Schätzer gleich gewichtete bewegliche durchschnittliche Kovarianzmatrizen Fallstudie: Messung der Volatilität und Korrelation der US-Treasuries-Entscheidung. Wie lange eine historische Datenperiode verwendet werden sollte Fallstricke der gleich gewichteten beweglichen Mittelmethode mit gleich gewichteten beweglichen Mittelwerten 0 Exponentiell gewichtete Bewegungsdurchschnitte Statistische Methodik Interpretation von Lambda Eigenschaften der Schätzungen Das EWMA-Prognosemodell Standardfehler für EWMA-Prognosen Die RiskMetrics TM Methodology Summary Referenzen Abstract: Die Volatilitäten und Korrelationen der Renditen auf eine Reihe von Vermögenswerten, Risikofaktoren oder Zinssätzen sind in einer Kovarianzmatrix zusammengefasst. Diese Matrix liegt im Mittelpunkt der Risiko - und Rücklaufanalyse. Es enthält alle notwendigen Informationen zur Schätzung der Volatilität eines Portfolios, zur Simulation korrelierter Werte für seine Risikofaktoren, zur Diversifizierung von Anlagen und zur Erzielung effizienter Portfolios, die einen optimalen Kompromiss zwischen Risiko und Rendite aufweisen. Sowohl Risikomanager als auch Vermögensverwalter benötigen Kovarianzmatrizen, die sehr viele Vermögenswerte oder Risikofaktoren enthalten können. So werden in einem globalen Risikomanagementsystem einer großen internationalen Bank alle wichtigen Renditekurven, Aktienindizes, Devisenkurse und Rohstoffpreise in einer sehr großen dimensionalen Kovarianzmatrix erfasst. Schlüsselwörter: Volatilität, Korrelation, Kovarianz, Matrix, gleich gewichteter gleitender Durchschnitt, exponentiell gewichteter gleitender Durchschnitt EWMA), Glättungskonstante, RiskMetrics, Standardfehler der Volatilitätsprognose Varianten und Kovarianzen sind Parameter der gemeinsamen Verteilung von Vermögens - oder Risikofaktoren) Renditen. Es ist wichtig zu verstehen, dass sie nicht beobachtbar sind. Sie können nur im Rahmen eines Modells geschätzt oder prognostiziert werden. Kontinuierliche Zeitmodelle, die für die Optionspreise verwendet werden, basieren oft auf stochastischen Prozessen für die Varianz und Kovarianz. Diskrete Zeitmodelle, die zur Messung des Portfolio-Risikos verwendet werden, basieren auf Zeitreihenmodellen für Varianz und Kovarianz. In jedem Fall können wir im Kontext eines angenommenen Modells nur Varianz und Kovarianz abschätzen oder prognostizieren. Es muss betont werden, dass es keine absolute wahre Varianz oder Kovarianz gibt. Was wahr ist, hängt nur vom statistischen Modell ab. Auch wenn wir sicher wissen, dass unser Modell eine korrekte Darstellung des Datenerzeugungsprozesses war, konnten wir die wahren Varianz - und Kovarianzparameter nicht genau messen, weil reine Varianz und Kovarianz nicht auf dem Markt gehandelt werden. Ein 2 JWPR0-Fabozzi c-cc November, 00. Verschieben von durchschnittlichen Modellen für Volatilität und Korrelation und Kovarianzmatrizen 0 Ausnahme hierfür sind die Futures auf Volatilitätsindizes wie der Chicago Board Options Exchange Volatility Index VIX). Daher wird eine risikoneutrale Volatilität beobachtet. Allerdings handelt es sich bei diesem Kapitel um Kovarianzmatrizen in der physischen Maßnahme. Die Schätzung einer Varianz nach den Formeln eines Modells unter Verwendung historischer Daten ergibt eine beobachtete Varianz, die durch den in unserem Modell angenommenen Prozess realisiert wird. Aber diese realisierte Varianz ist immer noch nur eine Schätzung. Beispielschätzungen unterliegen immer dem Stichprobenfehler, was bedeutet, dass ihr Wert von den verwendeten Beispieldaten abhängt. Zusammenfassend können verschiedene statistische Modelle aus zwei Gründen unterschiedliche Schätzungen der Varianz und Kovarianz geben: Eine echte Varianz oder Kovarianz) unterscheidet sich zwischen den Modellen. Infolgedessen besteht ein beträchtliches Maß an Modellrisiko, das dem Aufbau einer Kovarianz - oder Korrelationsmatrix innewohnt. Das heißt, sehr unterschiedliche Ergebnisse können mit zwei verschiedenen statistischen Modellen erhalten werden, auch wenn sie auf genau den gleichen Daten basieren. Die Schätzungen der wahren Abweichungen und Kovarianzen) unterliegen dem Stichprobenfehler. Das heißt, auch wenn wir dasselbe Modell verwenden, um eine Varianz abzuschätzen, unterscheiden sich unsere Schätzungen je nach den verwendeten Daten. Sowohl die Änderung der Abtastperiode als auch die Änderung der Häufigkeit der Beobachtungen beeinflussen die Kovarianzmatrixschätzung. In diesem Kapitel werden die gleitenden durchschnittlichen diskreten Zeitreihenmodelle für Varianz und Kovarianz behandelt, die sich auf die praktische Umsetzung des Ansatzes konzentrieren und eine Erklärung für ihre Vorteile und Grenzen bieten. Andere statistische Werkzeuge sind in Alexander 00, Kapitel beschrieben. BASISCHE EIGENSCHAFTEN UND KORRELATIONSMATRIKEN Die Kovarianzmatrix ist eine quadratische, symmetrische Matrix von Varianz und Kovarianzen eines Satzes von m Renditen auf Vermögenswerte oder auf Risikofaktoren, gegeben durch: Sigma Sigma Sigma m Sigma Sigma Sigma m V Sigma Sigma Sigma . Sigma m CC.) Sigma m Sigmam Da Sigma Sigma Sigma Sigma Sigma Sigma M Sigma Sigma Sigma. Sigma m sigma m sigmam sigma sigma sigma m sigma sigma m sigma sigma sigma m sigma sigma m 0 Sigma Sigma Sigma Sigma Sigma. M Sigma Sigma m m Sigma m Sigma Sigmam Eine Kovarianzmatrix kann auch als V DCD CC ausgedrückt werden.) Wobei D eine Diagonalmatrix mit Elementen gleich den Standardabweichungen der Renditen ist undc die Korrelationsmatrix der Renditen ist. Das ist: Sigma Sigma. Sigma m sigma sigma sigma Sigma m 0 sigma sigma m sigma m Sigmam 0. 0 sigma n. N sigma N 0 sigma n n 0. 0 Sigma n Daher ist die Kovarianzmatrix einfach eine mathematisch bequeme Möglichkeit, die Vermögensvolatilitäten und ihre Korrelationen auszudrücken. Um zu veranschaulichen, wie man eine jährliche Kovarianzmatrix und eine 0-tägige Kovarianzmatrix abschätzen kann, nehmen sie drei Vermögenswerte an, die folgende Volatilitäten und Korrelationen aufweisen: Vermögensvolatilität 0 Asset Asset-Korrelation 0. Asset-Volatilität 0 Asset Asset-Korrelation 0. Asset-Volatilität Asset Asset-Korrelation 0 Dann ist also die jährliche Kovarianzmatrix DCD: Um in diesem einfachen Fall eine 0-tägige Kovarianzmatrix zu finden, muss man davon ausgehen, dass die Rückkehr unabhängig und identisch verteilt ist, um die Quadratwurzel der Zeitregel zu verwenden: das heißt , Dass die h-Tag-Kovarianzmatrix h-mal der Tag-Kovarianzmatrix ist. Anders ausgedrückt, wird die 0-tägige Kovarianzmatrix aus der jährlichen Matrix gewonnen, indem man jedes Element teilt, indem man dort Handelstage pro Jahr annimmt. Alternativ können wir die 0-Tage-Matrix unter Verwendung der 0-Tage-Volatilität in D erhalten. Beachten Sie, dass unter der unabhängigen und identisch verteilten Rendite Annahme C nicht von der Haltedauer betroffen sein sollte. Das heißt, D C 3 JWPR0-Fabozzi c-cc November, 00. BITTE VERSORGUNGSPART TITEL, da jede Volatilität durch i. e. die Quadratwurzel von geteilt wird). Dann bekommen wir das gleiche Ergebnis wie oben, d. H., Dass V positiv semidefinite ist, wenn und nur wenn C positiv semidefinite ist. D ist immer positiv definitiv. Daher hängt die positive Semidefinität von V nur davon ab, wie wir die Korrelationsmatrix konstruieren. Es ist eine Herausforderung, aussagekräftige, positive semidefinite Korrelationsmatrizen zu generieren, die für Führungskräfte groß genug sind, um die Risiken in allen Positionen in einem Unternehmen vernetzen zu können. Vereinfachung von Annahmen sind notwendig. Zum Beispiel RiskMetrics) verwendet eine sehr einfache Methodik auf der Grundlage von gleitenden Durchschnitten, um extrem große positive definitive Matrizen abdecken, die Hunderte von Risikofaktoren für die globalen Finanzmärkte abdecken. Dies wird weiter unten erörtert.) GLEICH GEWICHTTE AVERAGEN Dieser Abschnitt beschreibt, wie Volatilität und Korrelation geschätzt und prognostiziert werden, indem gleiche Gewichte auf bestimmte historische Zeitreihendaten angewendet werden. Wir skizzieren eine Reihe von Fallstricken und Einschränkungen dieses Ansatzes und empfehlen daher, dass diese Modelle als Hinweis auf die mögliche Reichweite für langfristige Volatilität und Korrelation verwendet werden. Wie wir sehen werden, sind diese Modelle von zweifelhafter Gültigkeit für kurzfristige Volatilität und Korrelationsvorhersage. Im Folgenden gehen wir aus Gründen der Einfachheit davon aus, dass die mittlere Rendite Null ist und diese Renditen an der Tagesfrequenz gemessen werden, sofern nicht ausdrücklich anders angegeben. Eine Null-Mittel-Rendite ist eine Standardannahme für Risikobewertungen auf der Grundlage von Zeitreihen von Tagesdaten, aber wenn die Renditen über längere Intervalle gemessen werden, kann es nicht sehr realistisch sein. Dann ist die gleichgewichtete Schätzung der Varianz der Renditen der Mittelwert der quadratischen Renditen und die entsprechende Volatilitätsschätzung ist die Quadratwurzel, die als ein jährlicher Prozentsatz ausgedrückt wird. Die gleich gewichtete Schätzung der Kovarianz von zwei Renditen ist der Durchschnitt der Kreuzprodukte der Renditen und die gleich gewichtete Schätzung ihrer Korrelation ist das Verhältnis der Kovarianz zur Quadratwurzel des Produktes der beiden Varianzen. Die gleichberechtigte Gewichtung der historischen Daten war die erste weit verbreitete statistische Methode zur Prognose von Volatilität und Korrelation der finanziellen Vermögenswerte. Seit vielen Jahren war es der Marktstandard, die durchschnittliche Volatilität über die nächsten h Tage zu prognostizieren, indem er einen gleich gewichteten Durchschnitt der quadratischen Renditen über die letzten h Tage einnahm. Diese Methode wurde als historische Volatilitätsprognose bezeichnet. Heutzutage können viele verschiedene statistische Prognosetechniken auf historische Zeitreihendaten angewendet werden, so dass es verwirrend ist, diese gleichgewichtete Methode die historische Methode aufzurufen. Allerdings bleibt diese eher verwirrende Terminologie Standard. Wahrgenommene Veränderungen in der Volatilität und Korrelation haben wichtige Konsequenzen für alle Arten von Risikomanagemententscheidungen, sei es mit Kapitalisierung, Ressourcenallokation oder Absicherungsstrategien. In der Tat sind es diese Parameter der Renditenverteilungen, die die grundlegenden Bausteine ​​der Marktrisikobewertungsmodelle sind. Es ist daher wichtig zu verstehen, welche Art von Variabilität bei der Rückkehr das Modell gemessen hat. Das Modell geht davon aus, dass ein unabhängig und identisch verteilter Prozess Renditen erzeugt. Das heißt, sowohl die Flüchtigkeit als auch die Korrelation sind konstant und die Quadratwurzel der Zeitregel gilt. Diese Annahme hat wichtige Verzweigungen und wir werden darauf achten, diese sehr sorgfältig zu erklären. Statistische Methodik Die Methodik für den Aufbau einer Kovarianzmatrix auf der Grundlage gleich gewichteter Mittelwerte lässt sich ganz einfach beschreiben. Betrachten Sie eine Reihe von Zeitreihen i. M t. T. Hier bezeichnet der Index i den Asset - oder Risikofaktor, und t bezeichnet die Zeit, zu der jede Rückkehr gemessen wird. Wir nehmen an, daß jede Rückkehr eine Nullmittelzahl hat. Dann ist eine neutrale Schätzung der unbedingten Varianz der i-ten Rückkehr variabel zum Zeitpunkt t, basierend auf der T aktuellsten täglichen Renditen wie: Circsigma i, t T ri, tll T CC.) Der Begriff "unvoreingenommene Schätzer" bedeutet den erwarteten Wert des Schätzers Ist gleich dem wahren Wert. Beachten Sie, dass CC.) Gibt eine unvoreingenommene Schätzung der Varianz, aber dies ist nicht das gleiche wie das Quadrat einer unvoreingenommene Schätzung der Standardabweichung. Das ist, E Circsigma) Sigma aber E Circsigma) Sigma. So sollte wirklich der Hut um das ganze Sigma geschrieben werden. Aber es wird allgemein verstanden, dass die Notation Circsigma verwendet wird, um die Schätzung oder Prognose einer Varianz und nicht das Quadrat einer Schätzung der Standardabweichung zu bezeichnen. Also, in dem Fall, dass die mittlere Rendite Null ist, haben wir E Circsigma) Sigma. Wenn die mittlere Rendite nicht als Null angenommen wird, müssen wir diese aus der Stichprobe abschätzen, und dies stellt eine lineare) Einschränkung für die aus den Abtastdaten geschätzte Varianz dar. In diesem Fall sollten wir, um eine neutrale Schätzung zu erhalten, T) ri, t l r i l si, t CC verwenden.) T wobei r i die mittlere Rückkehr auf der i-ten Reihe ist, die die gesamte Stichprobe von T-Datenpunkten übernommen hat. Die oben genannte Mittelabweichungsform kann für die Schätzung der Varianz mit monatlichen oder sogar wöchentlichen Daten über einen Zeitraum nützlich sein, für den die durchschnittlichen Renditen signifikant von Null verschieden sind. Doch mit den täglichen Daten ist die durchschnittliche Rendite in der Regel sehr klein und da, wie wir unten sehen werden, die Fehler, die durch andere Annahmen verursacht werden, im Verhältnis zum fehlerbedingten Fehler riesig sind. JWPR0-Fabozzi c-cc November, 00. Moving Average Models für Volatilität und Korrelation und Kovarianz Matrizen durch die Annahme, dass der Mittelwert Null ist, verwenden wir normalerweise die Form CC.). Ähnlich ist eine unvoreingenommene Schätzung der unbedingten Kovarianz von zwei Null-Mittelwerten zum Zeitpunkt t, basierend auf den T jüngsten täglichen Renditen: Circsigma i, j, tnri, tlrj, tll T CC.) Wie oben erwähnt, würden wir normalerweise ignorieren Die mittlere Abweichungseinstellung mit täglichen Daten. Die gleich gewichtete unbedingte Kovarianzmatrixschätzung zum Zeitpunkt t für einen Satz von k returns ist also circi t circsigma i, j, t) für i, j. K. Lose gesprochen bezieht sich der Begriff bedingungslos auf die Tatsache, dass es sich um die Gesamt - oder Langzeit - oder Durchschnittsvarianz handelt, die wir schätzen, im Gegensatz zu einer bedingten Varianz, die sich von Tag zu Tag ändern kann und für die jüngsten Ereignisse empfindlich ist. Wie in der Einleitung erwähnt, verwenden wir den Begriff Volatilität, um auf die annualisierte Standardabweichung zu verweisen. Die gleich gewichteten Schätzungen der Volatilität und Korrelation werden in zwei Stufen erreicht. Zuerst erhält man eine unvoreingenommene Schätzung der bedingungslosen Kovarianzmatrix unter Verwendung gleichgewichteter Mittelwerte von quadrierten Renditen und Kreuzprodukten von Renditen und der gleichen Anzahl n von Datenpunkten jedes Mal. Dann werden diese durch die Anwendung der üblichen Formeln in Volatilitäts - und Korrelationsschätzungen umgewandelt. Zum Beispiel, wenn die Renditen an der Tageshäufigkeit gemessen werden und es gibt Handelstage pro Jahr: Gleichgewichteter Volatilitätskreislauf gleich gleichgewichteter Korrelationskreis ij, t Zirksigma ij, t Zirksigma i, t Zirksigma j, t CC.) Gleichermaßen Gewichtete Methodik die prognostizierte Kovarianzmatrix wird einfach genommen, um die aktuelle Schätzung zu sein, da es sonst nichts im Modell gibt, um eine Schätzung von einer Prognose zu unterscheiden. Der ursprüngliche Risikohorizont für die Kovarianzmatrix wird durch die Häufigkeit der Daten gegeben, die tägliche Renditen geben die Tageskovarianz-Matrix-Prognose, wöchentliche Renditen geben die - woche Kovarianz-Matrix-Prognose und so weiter. Dann, da das Modell davon ausgeht, dass die Rückkehr unabhängig und identisch verteilt ist, können wir die Quadratwurzel der Zeitregel verwenden, um eine Tagesvorhersage in eine h-Tag-Kovarianzmatrix-Prognose umzuwandeln, indem einfach jedes Element der Tag-Matrix mit h multipliziert wird. Ähnlich kann eine monatliche Prognose für die wöchentliche Prognose erhalten werden, indem man jedes Element multipliziert und so weiter. Nachdem wir eine Prognose der Varianz, der Volatilität, der Kovarianz und der Korrelation erhalten haben, sollten wir fragen: wie genau diese Prognose ist. Hierzu könnten wir entweder ein Konfidenzintervall, dh einen Bereich, in dem wir ziemlich sicher sind, dass der wahre Parameter liegen wird, oder Ein Standardfehler für unsere Parameterschätzung. Der Standardfehler gibt ein Maß für die Genauigkeit der Schätzung und kann verwendet werden, um zu testen, ob der wahre Parameter einen bestimmten Wert einnehmen oder in einem gegebenen Bereich liegen kann. Der nächste Abschnitt zeigt, wie solche Konfidenzintervalle und Standardfehler konstruiert werden können. Konfidenzintervalle für Varianz und Volatilität Ein Konfidenzintervall für das echte Varianz-Sigma, wenn es durch einen gleich gewichteten Durchschnitt geschätzt wird, kann mit einer einfachen Anwendung der Stichproben-Theorie abgeleitet werden. Unter der Annahme, dass die Varianzschätzung auf n normal verteilten Renditen mit einem angenommenen Mittelwert von null basiert, wird das T-Circsigma-Sigma eine chi-quadratische Verteilung mit T Freiheitsgraden haben, siehe Freund). A 00 alpha) zweiseitiges Konfidenzintervall für T-Circsigma-Sigma würde daher die Form chi alpha, t, chi alpha, t) und eine einfache Berechnung ergibt das zugehörige Konfidenzintervall für die Varianz Sigma als:) T Circsigma T Circsigma, CC .) Chi alpha, t chi alpha, t Zum Beispiel wird ein Konfidenzintervall für eine gleich gewichtete Varianzprognose basierend auf 0 Beobachtungen unter Verwendung der oberen und unteren chi-quadratischen kritischen Werte erhalten: chi 0., 0. Und chi 0.0,0. So ist das Konfidenzintervall 0. circsigma. Circsigma) und exakte Werte erhalten werden, indem man den Wert der Varianzschätzung einsetzt. Abbildung CC. Veranschaulicht die obere und untere Schranke für ein Konfidenzintervall für eine Varianzvorhersage, wenn die gleich gewichtete Varianzschätzung eins ist. Wir sehen, dass bei zunehmender Stichprobengröße T die Breite des Konfidenzintervalls deutlich abnimmt, so dass T von niedrigen Werten zunimmt. Wir können uns jetzt den Konfidenzintervallen zuwenden, die für eine Schätzung der Volatilität gelten würden. Erinnern Sie sich, dass die Volatilität, die Quadratwurzel der Varianz ist, einfach eine monoton abnehmende Transformation der Varianz ist. Perzentile sind unter einer streng monotonen zunehmenden Transformation invariant. Das heißt, wenn f eine monotonvergrößernde Funktion einer Zufallsvariablen X ist, dann gilt: P c l lt X lt c u) P f c l) lt f X) lt f c u)) Abbildung CC 00 CC.) 00 Konfidenzintervall für Abweichungsprognosen 5 JWPR0-Fabozzi c-cc November, 00. BITTE VERSORGUNGSPART TITLE Eigenschaft CC) stellt ein Konfidenzintervall für eine historische Volatilität auf der Grundlage des Konfidenzintervalls CC zur Verfügung.). Da x eine monoton zunehmende Funktion von x ist, nimmt man die Quadratwurzel der unteren und oberen Grenze für die gleich gewichtete Varianz ein. Zum Beispiel, wenn ein Konfidenzintervall für die Varianz ist, dann ist a für die zugehörige Volatilität,. Und da x auch monoton zunimmt für x gt 0 ist, gilt das umgekehrte auch. Wenn ein Konfidenzintervall für die Volatilität ist, dann ist a für die zugehörige Varianz. Standardfehler für gleich gewichtete durchschnittliche Schätzer Ein Schätzer eines beliebigen Parameters hat eine Verteilung und eine Punktschätzung der Volatilität ist nur die Erwartung der Verteilung des Volatilitätsschätzers. Die Verteilungsfunktion des gleich gewichteten durchschnittlichen Volatilitätsschätzers ist nicht nur die Quadratwurzel der Verteilungsfunktion der entsprechenden Varianzschätzung. Stattdessen kann es aus der Verteilung des Varianzschätzers über eine einfache Transformation abgeleitet werden. Da die Flüchtigkeit die Quadratwurzel der Varianz ist, ist die Dichtefunktion des Volatilitätsschätzers gcircsigma) circsigma hcircsigma) für circsigma gt0 CC.) Wobei h circsigma) die Dichtefunktion des Varianzschätzers ist. Dies folgt aus der Tatsache, dass wenn y eine monotone und differenzierbare Funktion von x ist, dann sind ihre Wahrscheinlichkeitsdichten g.) Und h.) Als gy) dxdy hx) seefreund verwandt. Beachten Sie, dass, wenn y x, dxdy y und so gy) y hx). Neben der Punktschätzung oder Erwartung könnte man auch die Standardabweichung der Verteilung des Schätzers einschätzen. Dies wird als Standardfehler der Schätzung bezeichnet. Der Standardfehler bestimmt die Breite eines Konfidenzintervalls für eine Prognose und zeigt an, wie zuverlässig eine Prognose gilt. Je breiter das Konfidenzintervall ist, desto mehr Unsicherheit gibt es in der Prognose. Standardfehler für gleich gewichtete durchschnittliche Abweichungsschätzungen basieren auf einer Normalitätsannahme für die Renditen. Durchgehende durchschnittliche Modelle gehen davon aus, dass die Renditen unabhängig und identisch verteilt sind. Nun nehmen wir auch Normalität an, so dass die Renditen normal und unabhängig verteilt sind, mit NID0, Sigma bezeichnet), wenden wir den Varianzoperator auf CC an.). Beachten Sie, dass, wenn X i unabhängige Zufallsvariablen sind. T), dann sind f X i) auch für jede monotonisch differenzierbare Funktion f unabhängig. Folglich sind die quadratischen Rückkehrunabhängig und wir haben: V-Zirkumme t) T i V rt i) T CC.0) Da VX) EX) EX) für jede beliebige Variable X, Vrt) Er t) Er t). Durch die null mittlere Annahme Ert) Sigma und Annahme der Normalität, Ert) Sigma. Hece für jedes t: V rt) Sigma Sigma Sigma und ersetzt diese in CC.0) ergibt V Circsigma t) Sigma CC.) T Daher der Standardfehler Einer gleich gewichteten durchschnittlichen Varianzschätzung auf der Basis von T-Null-Mittelquadrat-Renditen ist Sigma T oder einfach, wenn sie als Prozentsatz der Varianz ausgedrückt wird. Zum Beispiel ist der Standardfehler T der Varianzschätzung 0, wenn Beobachtungen in der Schätzung verwendet werden, und 0, wenn 00 Beobachtungen in der Schätzung verwendet werden. Was ist mit dem Standardfehler des Volatilitätsschätzers Um dies zu ermitteln, beweisen wir zunächst, dass für jede kontinuierlich differenzierbare Funktion f und Zufallsvariable X: V f X)) f EX))) VX CC.) Um dies zu zeigen, nehmen wir eine Sekunde Taylor-Erweiterung von f über den Mittelwert von X und dann Erwartungen nehmen. Siehe Alexander 00), Kapitel. Dies ergibt: E f X)) f EX)) f EX)) V EX)) F EX)) F EX)) F EX)) F EX)) VX) Wieder ignorieren. Das Ergebnis CC) folgt darauf, dass: V f X)) E f X)) E f X)) Wir können nun CC verwenden.) Und CC), um den Standardfehler einer historischen Volatilitätsschätzung abzuleiten. Von CC)) Wir haben V circsigma) circsigma) V circsigma) und so: V circsigma) V circsigma)) CC.) Circsigma Jetzt mit CC.) In CC) erhalten wir die Varianz des Volatilitätsschätzers als: V circsigma) ) Sigma) sigma CC.) Sigma TT so ist der Standardfehler des Volatilitätsschätzers als Prozentsatz der Volatilität T). Dieses Ergebnis sagt uns, dass der Standardfehler des Volatilitätsschätzers als Prozentsatz der Volatilität etwa die Hälfte der Größe des Standardfehlers der Varianz als Prozentsatz der Varianz beträgt). Somit ist der Standardfehler des historischen Volatilitätsschätzers als Prozentsatz der Volatilität etwa 0, wenn Beobachtungen in der Schätzung verwendet werden und wenn 00 Beobachtungen in der Schätzung verwendet werden. Die Standardfehler bei gleich gewichteten gleitenden durchschnittlichen Volatilitätsschätzungen werden sehr groß, wenn nur wenige Beobachtungen 6 JWPR0-Fabozzi c-cc November, 00. Moving Average Models für Volatilität und Korrelation und Kovarianzmatrizen verwendet werden. Dies ist ein Grund, warum es ratsam ist, eine lange Mittelungsperiode in historischen Volatilitätsschätzungen zu verwenden. Es ist schwieriger, den Standardfehler einer gleich gewichteten durchschnittlichen Korrelationsschätzung abzuleiten. Es kann jedoch gezeigt werden, dass V kreis ij) T CC ist) und so haben wir die folgende t-Verteilung für die Korrelationsschätzung geteilt durch seinen Standardfehler: Zirk ij T circ ij t T CC.) Insbesondere die Bedeutung von Eine Korrelationsschätzung hängt von der Anzahl der Beobachtungen ab, die in der Stichprobe verwendet werden. Um die Prüfung auf die Bedeutung der historischen Korrelation zu veranschaulichen, wird angenommen, daß eine historische Korrelationsschätzung von 0. unter Verwendung von Beobachtungen erhalten wird. Ist dies deutlich größer als Null Die Nullhypothese ist H 0. 0, die alternative Hypothese ist H. gt0 und die Teststatistik ist CC.). Berechnen des Wertes dieser Statistik, da unsere Daten gegeben sind. . Auch der 0 obere kritische Wert der t-Verteilung mit Freiheitsgraden ist größer als dieser Wert, den es tatsächlich ist.). Daher können wir die Nullhypothese nicht ablehnen: 0. ist nicht signifikant größer als Null, wenn sie aus Beobachtungen geschätzt wird. Wenn jedoch der gleiche Wert von 0. aus einer Stichprobe mit zB 00 Beobachtungen erhalten worden wäre, wäre unser t-Wert gewesen0, was bei der. Ebene, weil die oberen. Kritischer Wert der t-Verteilung mit Freiheitsgraden ist. Gleichgewichtete bewegliche durchschnittliche Kovarianzmatrizen Ein gleichgewichteter gleitender Durchschnitt wird auf einem festen Größen-Datenfenster berechnet, das durch die Zeit gerollt wird, wobei jeder Tag die neue Rückgabe addiert und die älteste Rückkehr abnimmt. Die Länge dieses Datenfensters, auch Rückblickzeit oder Mittelungsperiode genannt, ist das Zeitintervall, über das wir den Durchschnitt der quadrierten Renditen für die Varianz berechnen) oder die durchschnittlichen Kreuzprodukte der Renditen für die Kovarianz). In der Vergangenheit haben mehrere große Finanzinstitute viel Geld verloren, weil sie das gleich gewichtete gleitende Durchschnittsmodell unangemessen verwendet haben. Ich wäre nicht überrascht, wenn noch viel mehr Geld wegen des unerfahrenen Gebrauchs dieses Modells in der Zukunft verloren ging. Das Problem ist doch nicht das Modell selbst, es ist eine vollkommen respektable statistische Formel für eine unvoreingenommene Schätzer die Probleme entstehen aus seiner unangemessenen Anwendung innerhalb eines Zeitreihen-Kontextes. Ein falsches Argument lautet wie folgt: Langfristige Vorhersagen sollten von kurzfristigen Phänomenen wie dem Volatilitäts-Clustering nicht betroffen sein, so dass es angemessen ist, den Durchschnitt über eine sehr lange historische Periode zu nehmen. Aber kurzfristige Vorhersagen sollten den aktuellen Markt entsprechen Jan-00 Jul-00 Jan-0 Abbildung CC. Jul-0 SP0 MIB0 Jan-0 Jul-0 Jan-0 Jul-0 Jan-0 Jul-0 Jan-0 Jul-0 MIB 0 und SampP 00 Daily Close Jan ditions, was bedeutet, dass nur die unmittelbaren Vergangenheit zurückgegeben werden sollte . Manche Menschen verwenden eine historische Mittelungszeit von T Tagen, um Vorhersage vorwärts T Tage andere verwenden leichter längere historische Perioden als die Prognose Zeitraum. Zum Beispiel, für eine 0-Tage-Prognose, können einige Praktizierende zurückschauen 0 Tage oder mehr. Aber dieser scheinbar vernünftige Ansatz führt tatsächlich zu einem großen Problem. Wenn eine oder mehrere extreme Renditen in die Mittelungsperiode einbezogen werden, kann die Prognose der Volatilität oder Korrelation plötzlich an einem Tag, wo absolut nichts auf den Märkten passiert ist, plötzlich auf eine ganz andere Ebene zurückspringen. Und vor dem geheimnisvollen Springen, wird eine historische Prognose viel größer sein, als es sein sollte. Abbildung CC. Veranschaulicht die täglichen Schlusskurse des italienischen MIB 0 Aktienindex zwischen Anfang Januar 000 und Ende April 00 und vergleicht diese mit den SampP 00 Indexpreisen im gleichen Zeitraum. Die Preise wurden von Yahoo Finance heruntergeladen. Wir werden zeigen, wie wir die 0-Tage-, 0-Tage - und 0-Tage-historischen Volatilitäten dieser beiden Aktienindizes berechnen und grafisch vergleichen können. Wir konstruieren drei verschiedene gleichgewichtete gleitende durchschnittliche Volatilitätsschätzungen für den MIB 0 Index mit T 0 Tagen, 0 Tagen bzw. 0 Tagen. Das Ergebnis ist in Abbildung CC dargestellt. Lassen Sie uns zunächst auf den frühen Teil der Datenperiode und auf den Zeitraum nach dem September 00), insbesondere Terroranschlag, konzentrieren. Der italienische Index reagierte auf die Nachrichten weit mehr als die meisten anderen Indizes. Die Volatilitätsschätzung auf der Grundlage von 0 Tagen Daten stieg von fast an einem Tag, und dann weiter weiter steigen bis zu. Dann, plötzlich, genau 0 Tage nach der Veranstaltung, sprang die 0-Tage-Volatilität wieder auf 0. Aber auf den italienischen Märkten war an diesem Tag nichts Besonderes passiert. Der drastische Rückgang der Volatilität war nur ein Gespenst des Terroranschlags: Es war damals keine Reflexion über die wirklichen Marktbedingungen. Ähnliche Merkmale zeigen sich in der 0-Tage - und 0-Tage-Volatilitätsreihe. Each series jumps us immediately after the event, and then, either 0 or 0 days afterward, jump down again. On November, 00, the three different look-back periods gave volatility estimates of 0, , and , but they are all based on the same 7 JWPR0-Fabozzi c-cc November, 00. PLEASE SUPPLY PART TITLE 0 0 0 0 0 0-day Volatility 0-day Volatility 0-day Volatility May-00 Sep-00 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 Figure CC. Equally Weighted Moving Average Volatility Estimates of the MIB 0 Index underlying data and the same independent and identically distributed assumption for the returns Other such ghost features are evident later in the period, for instance, in March 00 and March 00. Later on in the period, the choice of look-back period does not make so much difference: The three volatility estimates are all around the 0 level. Case Study: Measuring the Volatility and Correlation of U. S Treasuries The interest rate covariance matrix is an important determinant of the value at risk VaR) of a cash flow. In this section, we show how to estimate the volatilities and correlations of different maturity U. S. zero-coupon interest rates using the equal weighted moving average method. Consider daily data on constant maturity U. S. Treasury rates between January, and March, 00. The rates are graphed in Figure CC. It is evident that rates followed marked trends over the period. From a high of about in, by the end of the 0 0 m m y y y y y0 00 00 00 0 0 0 000 000 000 000 000 Figure CC. U. S. Treasury Rates Source: data. htm. same the short-term rates were below . Also, periods where the term structure of interest rates is relatively flat are interspersed with periods when the term structure is upward sloping, sometimes with the long-term rates being several percent higher than the short-term rates. During the upward sloping yield curve regimes, especially the latter one from 000 to 00, the medium - to long-term interest rates are more volatile than the short-term rates, in absolute terms. However, it is not clear which rates are the most volatile in relative terms, as the short rates are much lower than the medium to long-term rates. There arethreedecisionsthatmustbemade: Decision. How long an historical data period should be used Decision. Which frequency of observations should be used Decision. Should the volatilities and correlations be measured directly on absolute changes in interest rates, or should they be measured on relative changes and then the result converted into absolute terms Decision. How Long a Historical Data Period Should Be Used The equally weighted historical method gives an average volatility, or correlation, over the sample period chosen. The longer the data period, the less relevant that average may be today i. e. at the end of the sample). Looking at Figure CC. it may be thought that data from 000 onward, and possibly also data during the first half of the 0s, are relevant today. However, we may not wish to include data from the latter half of the 0s, when the yield curve was flat. Decision. Which Frequency of Observations Should Be Used This is an important decision, which depends on the end use of the covariance matrix. We can always use the square root of time rule to convert the holding period of a covariance matrix. For instance, a 0-day covariance matrix can be converted into a - day matrix by dividing each element by 0 and it can be converted into an annual covariance matrix by multiplying each element by. However, this conversion is based on the assumption that variations in interest rates are independent and identically distributed. Moreover, the data becomes more noisy when we use high-frequency data. For instance, daily variations may not be relevant if we only ever want to measure covariances over a 0-day period. The extra variation in the daily data is not useful, and the crudeness of the square root of time rule will introduce an error. To avoid the use of crude assumptionsitisbesttouseadatafrequencythatcorresponds to the holding period of the covariance matrix. However, the two decisions above are linked. For instance, if data are quarterly, we need a data period of five or more years otherwise, the standard error of the estimates will be very large. But then our quarterly covariance matrix represents an average over many years that may not be thought of as relevant today. If data are daily, then 8 JWPR0-Fabozzi c-cc November, 00. Moving Average Models for Volatility and Correlation, and Covariance Matrices 0 0 Au: Can head be shortened just one year of data provides plenty of observations to measure the historical model volatilities and correlations accurately. Also, a history of one year is a better representation of today s markets than a history of five or more years. However, if it is a quarterly covariance matrix that we seek, we have to apply the square root of time rule to the daily matrix. Moreover, the daily variations that are captured by the matrix may not be relevant information at the quarterly frequency. In summary, there may be a trade-off between using data at the relevant frequency and using data that are relevant today. It should be noted that such a trade-off between Decisions and above applies to the measurement of risk in all asset classes and not only to interest rates. In interest rates, there is another decision to make before we can measure risk. Since the price value of a basis point PV0) sensitivity vector is usually measured in basis points, an interest rate covariance matrix is also usually expressed in basis points. Hence, we have Decision. Decision. Should the Volatilities and Correlations Be Measured Directly on Absolute Changes in Interest Rates, or Should They Be Measured on Relative Changes and Then the Result Converted into Absolute Terms If rates have been trending over the data period the two approaches are likely to give very different results. One has to make a decision about whether relative changes or absolute changes are the more stable. In these data, for example, an absolute change of basis points in was relatively small, but in 00 it would have represented a very large change. Hence, to estimate an average daily covariance matrix over the entire data sample, it may be more reasonable to suppose that the volatilities and correlations should be measured on relative changes and then converted to absolute terms. Note, however, that a daily matrix based on the entire sample would capture a very long-term average of volatilities and correlations between daily U. S. Treasury rates, indeed it is a - year average that includes several periods of different regimes in interest rates. Such a long-term average, which is useful for long-term forecasts may be better based on lower frequency data e. g. monthly). For a - day forecast horizon. we shall use only the data since January, 000. To make the choice for Decision, we take both the relative daily changes the difference in the log rates) and the absolute daily changes the differences in the rates, in basis-point terms). Then we obtain the standard deviation, correlation, and covariance in each case, and in the case of relative changes we translate the results into absolute terms. We now compare results based on relative changes with result based on absolute changes. The correlation matrix estimates based on the period January, 000, to March, 00, are shown in Table CC. The matrices are similar. Both matrices display the usual characteristics of an interest rate term structure: Correlations are higher at the long end than the short end, and they decrease as the difference between the two maturities increases. Table CC. Correlation of U. S. Treasuries a) Based on Relative Changes m m y y y y y0 m.00 m y y y y y b) Based on Absolute Changes m m y y y y y0 m.00 m y y y y y Table CC. compares the volatilities of the interest rates obtained using the two methods. The figures in the last row of each table represent an average absolute volatility for each rate over period January, 000 to March, 00. Basing this first on relative changes in interest rates, Table CC. a) gives the standard deviation of relative returns volatility in the first row. The long-term rates have the lowest standard deviations, and the medium-term rates have the highest standard deviations. These standard deviations are then annualized by multiplying by, Au: assuming each rate is independent and identically distributed) and multiplied by the level of the interest rate on March, 00. There was a very marked upward sloping yield curve on March, 00. Hence the long-term rates are more volatile than the short-term rates: for instance the - month rate has an absolute volatility of about basis points, but the absolute volatility of the 0-year rates is about basis points. Table CC. b) measures the standard deviation of absolute changes in interest rates over the period January, 000 to March, 00, and then converts this into volatility by multiplying by. We again find that the long - Au: term rates are more volatile than the short-term rates for instance, the six-month rate has an absolute volatility of about basis points, but the absolute volatility of the five-year rates is about 0 bps. It should be noted that it is quite unusual for long-term rates to be more volatile than short-term rates. But from 000 to 00 the U. S. Fed was exerting a lot of control on short-term rates, to bring down the general level of interest rates. However the market expected interest rates to rise, because the yield curve was upwards sloping during most of the period.) We find that correlations were similar, whether based on relative or absolute changes. But Table CC. shows there is a substantial difference between the volatilities obtained using the two methods. When volatilities are based directly on the absolute changes, they are slightly lower at the short end and substantially lower for the medium-term rates. symbol ok symbol ok 9 JWPR0-Fabozzi c-cc November, 00. PLEASE SUPPLY PART TITLE Table CC. Volatility of U. S. Treasuries a) Based on Relative Changes m m y y y y y0 Standard deviation Yield Curve on March, Absolute volatility in basis points) b) Based on Absolute Changes m m y y y y y0 Standard deviation Absolute volatility in basis points) Finally, we obtain the annual covariance matrix of absolute changes in basis point terms) by multiplying the correlation matrix by the appropriate absolute volatilities and to obtain the one-day covariance matrix we divide by. The results are shown in Table CC. Depending on whether we base estimates of volatility and correlation on relative or absolute changes in interest rates, the covariance matrix can be very different. In this case, it is short-term and medium-term volatility estimates that are the most affected by the choice. Given that we have used the equally weighted average methodology to construct the covariance matrix, the underlying assumption is that volatilities and correlations are constant. Hence, the choice between relative or absolute changes depends on which are the more stable. In countries with very high interest rates, or when interest rates have been trending during the sample period, relative changes tend to be more stable than absolute changes. In summary, there are four crucial decisions to be made when estimating a covariance matrix for interest rates. Which statistical model should we employ. Which historical data period should be used Table CC. One-Day Covariance Matrix of U. S. Treasuries, in Basis Points a) Based on Relative Changes m m y y y y y0 m.0 m. y. 0 y y. y y b) Based on Absolute Changes m m y y y y y0 m 0.0 m. y..0. y..0. y. y y Should the data frequency be daily, weekly, monthly or quarterly. Should we base the matrix on relative or absolute changes in interest rates The first three decisions must also be made when estimating covariance matrices in other asset classes such as equities, commodities, and foreign-exchange rates. There is a huge amount of model risk involved with the construction of covariance matrices very different results may be obtained depending on the choice made. Pitfalls of the Equally Weighted Moving Average Method The problems encountered when applying this model stem not from the small jumps that are often encountered in financial asset prices, but from the large jumps that are only rarely encountered. When a long averaging period is used, the importance of a single extreme event is averaged out within a large sample of returns. Hence, a moving average volatility estimate may not respond enough to a short, sharp shock in the market. This effect is clearly visible in 00, where only the 0-day volatility rose significantly over a matter of a few weeks. The longer-term volatilities did rise, but it took several months for them to respond to the market falls in the MIB during mid-00. At this point in time there was actually a cluster of volatility, which often happens in financial markets. The effect of the cluster was to make the longer-term volatilities rise, eventually, but then they took too long to return to normal levels. It was not until markets returned to normal in late 00 that the three volatility series in Figure CC. are in line with each other. When there is an extreme event in the market, even just one very large return will influence the T-day moving average estimate for exactly T days until that very large squared return falls out of the data window. Hence volatility will jump up, for exactly T days, and the fall dramatically on day T , even though nothing happened in the market on that day. This type of ghost feature is simply an artefact of the use of equal weighting. The problem is that extreme events are just as important to current estimates, whether they occurred yesterday or a very long time ago. A single large, squared return remains just as important T days ago as it was yesterday. It will affect the T-day volatility or correlation estimate for exactly 10 JWPR0-Fabozzi c-cc November, 00. 0 Moving Average Models for Volatility and Correlation, and Covariance Matrices 0 Au: symbol ok T days after that return was experienced, and to exactly the same extent. However, with other models we would find that volatility or correlation had long ago returned to normal levels. Exactly T days after the extreme event, the equally weighted moving average volatility estimate mysteriously drops back down to about the correct level that is, provided that we have not had another extreme return in the interim Note that the smaller is T, the number of data points used in the data window, the more variable the historical volatility series will be. When any estimates are based on a small sample size they will not be very precise. The larger the sample size the more accurate the estimate, because sampling errors are proportional to T. For this reason alone a short moving average will be more variable than a long moving average. Hence, a 0-day historic volatility or correlation) will always be more variable than a 0-day historic volatility or correlation) that is based on the same daily return data. Of course, if one really believes in the assumption of constant volatility that underlies this method, one should always use as long a history as possible, so that sampling errors are reduced. It is important to realize that whatever the length of the historical averaging period and whenever the estimate is made, the equally weighted method is always estimating the same parameter: the unconditional volatility or correlation) of the returns. But this is a constant it does not change over the process. Thus, the variation in T-day historic estimates can only be attributed to sampling error: there is nothing else in the model to explain this variation. It is not a time-varying volatility model, even though some users try to force it into that framework. The problem with the equally weighted moving average model is that it tries to make an estimate of a constant volatility into a forecast of a time-varying volatility. Similarly, it tries to make an estimate of a constant correlation into a forecast of a time-varying correlation. No wonder financial firms have lost of lot of money with this model It is really only suitable for long-term forecasts of average volatility, or correlation, for instance over a period of between six months to several years. In this case, the lookback period should be long enough to include a variety of price jumps, with a relative frequency that represents the modeler expectations of the probability of future price jumps of that magnitude during the forecast horizon. Using Equally Weighted Moving Averages To forecast a long-term average for volatility using the equally weighted model, it is standard to use a large sample size T in the variance estimate. The confidence intervals for historical volatility estimators given earlier in this chapter provide a useful indication of the accuracy of these long-term volatility forecasts and the approximate standard errors that we have derived earlier in this chapter give an indication of variability in long-term volatility. Here, we saw that the variability in estimates decreased as the sample size increased. Hence, long-term volatility that is forecast from this model may prove useful. When pricing options, it is the long-term volatility that is most difficult to forecast. Options trading often focuses on short-maturity options and long-term options are much less liquid. Hence, it is not easy to forecast a long-term implied volatility. Long-term volatility holds the greatest uncertainty, yet it is the most important determinant of long-term option prices. We conclude this section with an interesting conundrum, considering two hypothetical historical volatility modellers, whom we shall call Tom and Dick, both forecasting volatility over a - month risk horizon based on equally weighted average of squared returns over the past months of daily data. Imagine that is it January 00 and that on October, 00 the market crashed, returning in the space of a few days. So some very large jumps occurred during the current data window, albeit three months ago. Tom includes these extremely large returns in his data window, so his ex-post average of squared returns, which is also his volatility forecast in this model, will be very high. Because of this, Tom has an implicit belief that another jump of equal magnitude will occur during the forecast horizon. This implicit belief will continue until one year after the crash, when those large negative returns fall out of his moving data window. Consider Tom s position in October 00. Up to the middle of October he includes the crash period in his forecast but after that the crash period drops out of the data window and his forecast of volatility in the future suddenly decreases as if he suddenly decided that another crash was very unlikely. That is, he drastically changes his belief about the possibility of an extreme return. So, to be consistent with his previous beliefs, should Tom now bootstrap the extreme returns experienced during October 00 back into his data set And what about Dick, who in January 00 does not believe that another market crash could occur in his - month forecast horizon So, in January 00, he should somehow filter out those extreme returns from his data. Of course, it is dangerous to embrace the possibility of bootstrapping in and filtering out extreme returns in data in an ad hoc way, before it is used in the model. However, if one does not do this, the historical model can imply a very strange behavior of the beliefs of the modeler. In the Bayesian framework of uncertain volatility the equally weighted model has an important role to play. Equally weighted moving averages can be used to set the bounds for long-term volatility that is, we can use the model to find a range sigma min, sigma max for the long-term average volatility forecast. The lower bound sigma min can be estimated using a long period of historical data with all the very extreme returns removed and the upper bound sigma max can be estimated using the historical data where the very extreme returns are retained and even adding some A modeler s beliefs about long-term volatility can be formalized by a probability distribution over the range sigma min, sigma max . This distribution would then be carried through for the rest of the analysis. For instance, upper and lower price bounds might be obtained for long-term exposures with option like structures, such as warrants on a firm s equity or convertibles bonds. This type of Bayesian method, which provides a price distribution rather than a single price, will be increasingly used in market risk management in the future. 11 JWPR0-Fabozzi c-cc November, 00. PLEASE SUPPLY PART TITLE EXPONENTIALLY WEIGHTED MOVING AVERAGES An exponentially weighted moving average EWMA) avoids the pitfalls explained in the previous section because it puts more weight on the more recent observations. Thus as extreme returns move further into the past as the data window slides along, they become less important in the average. Statistical Methodology An exponentially weighted moving average can be defined on any time series of data. Say that on date t we have recorded data up to time t, so we have observations x t. x ). The exponentially weighted average of these observations is defined as: EWMAx t. x ) x t lambdax t lambda x t . lambda t x lambda lambda . lambda t where lambda is a constant, 0 ltlambdalt, called the smoothing or the decay constant. Since lambda T 0asT the exponentially weighted average places negligible weight on observations far in the past. And since lambda lambda . lambda) we have, for large t, EWMAx t. x ) x t lambdax t lambda x t lambda lambda . lambda) i lambda x t i This is the formula that is used to calculate exponentially weight moving average EWMA) estimates of variance with x being the squared return) and covariance with x being the cross product of the two returns). As with equally weighted moving averages, it is standard to use squared daily returns and cross products of daily returns, not in mean deviation form. That is: and circsigma t lambda) circsigma, t lambda) lambda i rt i i lambda i r, t i r, t i i CC.) CC.0) The above formulae may be rewritten in the form of recursions, more easily used in calculations: circsigma t lambda) rt lambda circsigma t CC.) and circsigma, t lambda) r, t r, t lambda circsigma, t CC.) An alternative notation used for the above is V lambda r t ), for circsigma t and COV lambda r, t, r, t ) for circsigma, t when we want to make explicit the dependence on the smoothing constant. One converts the variance to volatility by taking the annualized square root, the annualizing constant being determined by the data frequency as usual. Note that for the EWMA correlation the covariance is divided by the square root of the product of the two EWMA variance estimates, all with the same value of lambda. Similarly for the EWMA beta the covariance between the stock or portfolio) returns and the market returns is divided by the EWMA estimate for the market variance, both with the same value of lambda. That is: circ t, lambda COV lambdar, t, r, t ) CC.) Vlambda r, t )V lambda r, t ) and circbeta t, lambda COV lambdax t, Y t ) V lambda X t ) Interpretation of lambda CC.) There are two terms on the right hand side of CC.). The first term lambda) rt determines the intensity of reaction of volatility to market events: the smaller is lambda the more the volatility reacts to the market information in yesterday s return. The second term lambda circsigma t determines the persistence in volatility: Irrespective of what happens in the market, if volatility was high yesterday it will be still be high today. The closer that lambda is to, the more persistent is volatility following a market shock. Thus, a high lambda gives little reaction to actual market events but great persistence in volatility, and a low lambda gives highly reactive volatilities that quickly die away. An unfortunate restriction of exponentially weighted moving average models is that the reaction and persistence parameters are not independent: the strength of reaction to market events is determined by lambda, whilst the persistence of shocks is determinedby lambda. But this assumption is not empirically justified except perhaps in a few markets e. g. major U. S. dollar exchange rates). The effect of using a different value of lambda in EWMA volatility forecasts can be quite substantial. Figure CC. compares two EWMA volatility estimatesforecasts of the SampP 00 index, with lambda 0.0 and lambda 0. It is not 0 0 0 0 0 0 EWMA 0.0) Volatility EWMA 0.) Volatility May-00 Sep-00 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 Figure CC. Different lambdas EWMA Volatility Estimates for SP00 with 12 JWPR0-Fabozzi c-cc November, 00. Moving Average Models for Volatility and Correlation, and Covariance Matrices unusual for these two EWMA estimates to differ by as much as 0. So which is the best value to use for the smoothing constant How should we choose lambda This is not an easy question. By contrast, in generalized autoregressive conditional heteroskedascity GARCH) models there is no question of how we should estimate parameters, because maximum likelihood estimation is an optimal method that always gives consistent estimators.) Statistical methods may considered: For example, lambda could be chosen to minimize the root mean square error between the EWMA estimate of variance and the squared return. But, in practice, lambda is often chosen subjectively because the same value of lambda has to be used for all elements in a EWMA covariance matrix. As a rule of thumb, we might take values of lambda between about 0. volatility is highly reactive but has little persistence) and 0. volatility is very persistent but not highly reactive) 0 0 0 0 0 0 Properties of the Estimates A EWMA volatility estimate will react immediately following an unusually large return then the effect of this return on the EWMA volatility estimate gradually diminishes over time. The reaction of EWMA volatility estimates to market events therefore persists over time, and with a strength that is determined by the smoothing constant lambda. The larger the value of lambda, the more weight is placed on observations in the past and so the smoother the series becomes. Figure CC. compares the EWMA volatility of the MIB index with lambda 0. and the 0-day equally weighted volatility estimate. The difference between the two estimators is marked following an extreme market return. The EWMA estimate gives a higher volatility than the equally weighted estimate, but it returns to normal levels faster than the equally weighted estimated because it does not suffer from the ghost features discussed above. One of the disadvantages of using EWMA to estimate and forecast covariance matrices is that the same value of EWMA 0.) Volatility 0-day Volatility May-00 Sep-00 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 Figure CC. EWMA versus Equally Weighted Volatility lambda is used for all the variances and covariances in the matrix. For instance, in a large matrix covering several asset classes, the same lambda applies to all equity indices, foreign exchange rates, interest rates, andor commodities in the matrix. But why should all these risk factors have similar reaction and persistence to shocks This constraint is commonly applied merely because it guarantees that the matrix will be positive semidefinite. The EWMA Forecasting Model The exponentially weighted average variance estimate CC.), or in its equivalent form CC.) is just a methodology for calculating circsigma t. thatis, itgivesavarianceesti - mate at any point in time but there is no model as such, that explains the behaviour of the variance of returns, sigmat at each time t. In this sense, we have to distinguish EWMA from a GARCH model, which starts with a proper specification of the dynamics of sigmat and then proceeds to estimate the parameters of this model. Without a proper model, it is not clear how we should turn our current estimate of variance into a forecast of variance over some future horizon. One possibility is to augment CC.) by assuming it is the estimate associated with the model sigmat lambda) rt lambdasigma t r t I t N 0,sigmat ) CC.) An alternative is to assume a constant volatility, so the fact that our estimates are time varying is merely due to sampling error. In that case any EWMA variance forecast must be constant and equal to the current EWMA estimate. Similar remarks apply to the EWMA covariance, this time regarding EWMA as a simplistic version of bivariate normal GARCH. Similarly, the EWMA volatility or correlation) forecast for all risk horizons is simply set at the current EWMA estimate of volatility or correlation). The base horizon for the forecast is given by the frequency of the data daily returns will give the one-day covariance matrix forecast, weekly returns will give the one-week covariance matrix forecast, and so forth. Then, since the returns are independent and identically distributed, the square root of time rule applies. So we can convert a oneday forecast into an h-day covariance matrix forecast by multiplying each element of the one-day EWMA covariance matrix by h. Since the choice of lambda itself quite ad hoc, as discussed above, some users choose different values of lambda for forecasting over different horizons. For instance, as discussed later in this chapter, in the RiskMetrics TM methodolgy a relative low value of lambda is used for short-term forecasts and a higher value of lambda is used for long-term forecasts. However, this is purely an ad hoc rule. Standard Errors for EWMA Forecasts In the previous section, we justified the assumption that the underlying returns are normally and independently distributed with mean zero and variance sigma. That is, for 13 JWPR0-Fabozzi c-cc November, 00. PLEASE SUPPLY PART TITLE Now we can apply the variance operator to and calculate the variance of the EWMA variance estimator as: V circsigma t ) lambda) lambda ) V rt ) lambda lambda sigma CC.) For instance, as a percentage of the variance, the standard error of the EWMA variance estimator is about when lambda 0. 0. when lambda 0. and. when lambda 0. A single point forecast of volatility can be very misleading. A forecast is always a distribution. It represents our uncertainty over the quantity that is being forecast. The standard error of a volatility forecast is useful because it can be translated into a standard error for a VaR estimate, for instance, or an option price. In any VaR model one should be aware of the uncertainty that is introduced by possible errors in the forecast of the covariance matrix. Similarly, in any mark-to-model value of an option, one should be aware of the uncertainty that is introduced by possible errors in the volatility forecast. Au: Pls. 0 complete this sentence all t E r t ) 0 and V rt ) E r t ) sigma In this section, we use this assumption to obtain standard errors for EWMA forecasts. From the above, and further from the normality assumption, we have: V rt ) ) ) E r t E r t sigma sigma sigma The RiskMetrics TM Methodology Three very large covariance matrices, each based on a different moving average methodology, are available from These matrices cover all types of assets including government bonds, money markets, swaps, foreign exchange, and equity indices for currencies and commodities. Subscribers have access to all of these matrices updated on a daily basis and end-of-year matrices are also available to subscribers wishing to use them in scenario analysis. After a few days, the datasets are also made available free for educational use. The RiskMetrics TM group is the market leader in market and credit risk data and modeling for banks, corporates asset managers, and financial intermediaries. It is highly recommended that readers visit the web site where they will find a surprising large amount of information in the form of free publications and data. See the References at the end of this chapter for details. The three covariance matrices provided by the RiskMetrics group are each based on a history of daily returns in all the asset classes mentioned above. Sie sind. Regulatory matrix: This takes it name from the unfortunate) requirement that banks must use at least days of historical data for VaR estimation. Hence this metric is an equally weighted average matrix with n . The volatilities and correlations constructed from this matrix represent forecasts of average volatility or correlation) over the next days. 0 0 0 0 0 Jan - Jan - Daily EWMA Volatility Monthly EWMA Volatility Regulatory Volatility Jan - Jan - Jan-00 Jan-0 Jan-0 Jan-0 Jan-0 Jan-0 Jan-0 Figure CC. Comparison of the RiskMetrics Forecasts for FTSE00 Volatility. Daily matrix: This is an EWMA covariance matrix with lambda 0. for all elements. It is not dissimilar to an equally weighted average with n , except that it does not suffer from the ghost features caused by very extreme market events. The volatilities and correlations constructed from this matrix represent forecasts of average volatility or correlation) over the next day. Monthly matrix: This is an EWMA covariance matrix with lambda 0. for all elements and then multiplied by i. e. using the square root of time rule and assuming days per month). The volatilities and correlations constructed from this matrix represent forecasts of average volatility or correlation) over the next days. The main difference between the three different methods is evidenced following major market movements: The regulatory forecast will produce a ghost effect of this event, and does not react as much as the daily or monthly forecasts. The most reactive is the daily forecast, but it also has less persistence than the monthly forecast. Figure CC. compares the estimates for the FTSE 00 volatility based on each of the three RiskMetrics methodologies and using daily data from January. to June, 00. As mentioned earlier in this chapter, these estimates are assumed to be the forecasts over, respectively, one day, one month, and one year. In volatile times, the daily and monthly estimates lie well above the regulatoryforecastandtheconverseistrueinmoretranquil periods. For instance, during most of 00, the regulatory estimate of average volatility over the next year was about 0 higher than both of the shorter-term estimates. However, it was falling dramatically during this period, and indeed the regulatory forecast of more than 0 volatility on average between June 00 and June 00 was entirely wrong. However, at the end of the period, in June 00, the daily forecasts were above 0, and the monthly forecasts were only just below this. However, the regulatory forecast over the next year was only slightly more than 0. During periods when the markets have been tranquil for some time, for instance during the whole of 00, the 14 JWPR0-Fabozzi c-cc November, 00. Moving Average Models for Volatility and Correlation, and Covariance Matrices 0 three forecasts tend to agree more. But during and directly after a volatile period there are large differences between the regulatory forecasts and the two EWMA forecasts, and these differences are very difficult to justify. Neither the equally weighted average nor the EWMA methodology is based on a proper forecasting model. One simply assumes the current estimate is the volatility forecast. But the current estimate is a backward-looking measure based on recent historical data. So both of these moving average models make the assumption that the behavior of future volatility is the same as its past behavior and this is a very simplistic view SUMMARY The equally weighted moving average, or historical approach to estimatingforecasting volatilities and correlations, was the only statistical method used by practitioners until the mid-0s. The historical method may provide a useful indication of the possible range for a long-term average, such as the average volatility or correlation over the next several years. However, its application to shortterm forecasting is very limited, indeed the approach suffers from at least four drawbacks. First, the forecast of volatilitycorrelation over all future horizons is simply taken to be the current estimate of volatility, because the underlying assumption in the model is that returns are independent and identically distributed. Second, the only choice facing the user is on the data points to use in the data window. The forecasts produced depend crucially on this decision, yet there is no statistical procedure to choose the size of data window it is a purely subjective decision. Third, following an extreme market move the forecasts of volatility and correlation will exhibit a so-called ghost feature of that extreme move, which will severely bias the volatility and correlation forecasts upward. Finally, the extent of this bias depends very much on the size of the data window. The bias issue was addressed by J. P. Morgan bank, which launched the RiskMetrics TM data and software suite in the mid-0s. The bank s choice of methodology helped to popularize the use of exponentially weighted moving averages EWMA) by financial analysts. The EWMA approach provides useful forecasts for volatility and correlation over the very short term, such as over the new day or week. However, its use for longer-term 0 forecasting is limited, and this methodology also has two major problems. First, the forecast of volatilitycorrelation over all future horizons is simply taken to be the current estimate of volatility, because the underlying assumption in the model is that returns are independent and identically distributed. Second, the only choice facing the user is aboutthe value ofthe smoothing constant, lambda. The forecasts produced depend crucially on this decision, yet there is no statistical procedure to choose lambda. Often an ad hoc choice is made for example, the same lambda is taken for all series and a higher lambda is chosen for a longer-term forecast. Moving average models assume returns are independent and identically distributed, and the further assumption that they are normally distributed allows one to derive standard errors and confidence intervals for moving average forecasts. But empirical observations suggest that returns to financial assets are hardly ever independent and identically, let alone normally distributed. For these reasons more and more practitioners are basing their forecasts on generalized autoregressive conditional heteroskedasticity GARCH) models. There is no doubt that such models produce superior volatility forecasts. It is only in GARCH models that the term structure volatility forecasts converge to the long run average volatility the other models produce constant volatility term structures. Moreover, the value of the EWMA smoothing constant is chosen subjectively and the same smoothing constant must be used for all the returns, otherwise the covariance matrix need not be positive semi-definite. But GARCH parameters are estimated optimally and GARCH covariance matrices truly reflect the time-varying volatilities and correlations of the multivariate returns distributions. REFERENCES Alexander, C. 00). Market Risk Analysis. Chichester, UK: John Wiley amp Sons. Freund, J. E. ). Mathematical Statistics. Englewood Cliffs: Pearson U. S. Imports amp PHIPEs. RiskMetrics ). RiskMetrics Technical Document, RiskMetrics ). Risk Management A Practical Guide, RiskMetrics 00). Return to RiskMetrics: The Evolution of astandardriskmetricsrrovv. html. Volume 1 by Frank J. Fabozzi Moving Average Models for Volatility and Correlation, and Covariance Matrices CAROL ALEXANDER, PhD Professor of Finance, University of Sussex Abstract: The volatilities and correlations of the returns on a set of assets, risk factors, or interest rates are summarized in a covariance matrix. This matrix lies at the heart of risk and return analysis. It contains all the information necessary to estimate the volatility of a portfolio, to simulate correlated values for its risk factors, to diversify investments, and to obtain efficient portfolios that have the optimal trade-off between risk and return. Both risk managers and asset managers require covariance matrices that may include very many assets or risk factors. For instance, in a global risk management system of a large international bank all the major yield curves, equity indexes, foreign exchange rates, and commodity prices will be encompassed in one very large dimensional covariance matrix. Variances and covariances are parameters of the joint distribution of asset (or risk factor) returns. It is important to understand that they are unobservable. They can only be estimated or forecast within the context of a model. Continuous-time models, used for option pricing, are often based on stochastic processes for the variance and covariance. Discrete-time models, used for measuring portfolio risk, are based on time series models for variance and covariance. In each case, we can only ever estimate or forecast variance and covariance. With Safari, you learn the way you learn best. Get unlimited access to videos, live online training, learning paths, books, interactive tutorials, and more. No credit card required

No comments:

Post a Comment