Was ist verallgemeinerte AutoRegressive Bedingte Heteroskedastizität (GARCH)?
Die verallgemeinerte AutoRegressive Bedingte Heteroskedastizität (GARCH) ist ein statistisches Modell, das zur Analyse von Zeitreihendaten verwendet wird, bei denen angenommen wird, dass der Varianzfehler seriell autokorreliert. GARCH-Modelle gehen davon aus, dass die Varianz des Fehlerterms einem autoregressiven gleitenden Durchschnittsprozess folgt.
Die zentralen Thesen
- GARCH ist eine statistische Modellierungstechnik, mit der sich die Volatilität der Renditen finanzieller Vermögenswerte vorhersagen lässt. GARCH eignet sich für Zeitreihendaten, bei denen die Varianz des Fehlerausdrucks nach einem autoregressiven Prozess des gleitenden Durchschnitts automatisch korreliert. GARCH ist nützlich, um das Risiko und die erwarteten Renditen von Vermögenswerten zu bewerten, bei denen sich die Renditen in gruppierten Perioden volatiler gestalten.
Verallgemeinerte AutoRegressive Bedingte Heteroskedastizität (GARCH)
Obwohl GARCH-Modelle (Generalized AutoRegressive Conditional Heteroskedasticity) für die Analyse einer Reihe verschiedener Arten von Finanzdaten verwendet werden können, wie beispielsweise makroökonomische Daten, verwenden Finanzinstitute diese normalerweise, um die Volatilität der Renditen für Aktien, Anleihen und Marktindizes zu schätzen. Sie verwenden die sich daraus ergebenden Informationen, um die Preisgestaltung zu bestimmen und zu beurteilen, welche Vermögenswerte möglicherweise höhere Renditen erzielen werden, sowie um die Renditen aktueller Anlagen zu prognostizieren, um bei ihren Entscheidungen zur Asset-Allokation, Absicherung, zum Risikomanagement und zur Portfoliooptimierung zu helfen.
GARCH-Modelle werden verwendet, wenn die Varianz des Fehlerterms nicht konstant ist. Das heißt, der Fehlerterm ist heteroskedastisch. Die Heteroskedastizität beschreibt das unregelmäßige Variationsmuster eines Fehlerterms oder einer Variablen in einem statistischen Modell. Überall dort, wo Heteroskedastizität besteht, stimmen die Beobachtungen im Wesentlichen nicht mit einem linearen Muster überein. Stattdessen neigen sie zur Häufung. Wenn für diese Daten statistische Modelle verwendet werden, die eine konstante Varianz annehmen, sind die Schlussfolgerungen und Vorhersagewerte, die man aus dem Modell ziehen kann, nicht zuverlässig.
Es wird davon ausgegangen, dass die Varianz des Fehlerterms in GARCH-Modellen systematisch variiert, abhängig von der durchschnittlichen Größe der Fehlerterms in früheren Perioden. Mit anderen Worten, es weist eine bedingte Heteroskedastizität auf, und der Grund für die Heteroskedastizität besteht darin, dass der Fehlerterm einem autoregressiven gleitenden Durchschnittsmuster folgt. Dies bedeutet, dass es eine Funktion eines Durchschnitts seiner eigenen vergangenen Werte ist.
Geschichte der GARCH
GARCH wurde in den 1980er Jahren entwickelt, um das Problem der Prognose der Volatilität der Vermögenspreise anzugehen. Es basiert auf dem Durchbruch des Wirtschaftswissenschaftlers Robert Engle von 1982 bei der Einführung des Modells der autoregressiven bedingten Heteroskedastizität (ARCH). Sein Modell ging davon aus, dass die Variation der finanziellen Renditen über die Zeit nicht konstant ist, sondern automatisch korreliert oder von einander abhängig ist. Dies ist beispielsweise in Aktienrenditen zu sehen, in denen sich Volatilitätsperioden der Renditen häufen.
Seit der ursprünglichen Einführung sind viele Variationen von GARCH aufgetaucht. Dazu gehören Nichtlineare (NGARCH), die die Korrelation und beobachtete "Volatilitätsclusterung" von Renditen behandelt, und Integrierte GARCH (IGARCH), die den Volatilitätsparameter einschränkt. Bei allen GARCH-Modellvarianten wird versucht, die positive oder negative Richtung der Renditen zusätzlich zur Größenordnung (im ursprünglichen Modell angesprochen) einzubeziehen.
Jede Ableitung von GARCH kann verwendet werden, um die spezifischen Qualitäten der Bestands-, Branchen- oder Wirtschaftsdaten zu berücksichtigen. Bei der Risikobewertung beziehen Finanzinstitute GARCH-Modelle in ihren Value-at-Risk-Wert (VAR) ein, den maximal zu erwartenden Verlust (egal ob für eine einzelne Anlage- oder Handelsposition, ein Portfolio oder auf Divisions- oder Unternehmensebene) über einen bestimmten Zeitraum Projektionen. Es wird davon ausgegangen, dass GARCH-Modelle bessere Risikobewertungen liefern, als sie allein durch Verfolgung der Standardabweichung erzielt werden können.
Es wurden verschiedene Studien zur Zuverlässigkeit verschiedener GARCH-Modelle unter verschiedenen Marktbedingungen durchgeführt, auch in den Zeiträumen vor und nach der Finanzkrise 2007.