Refine
Year of publication
Document Type
- Monograph/Edited Volume (13)
- Working Paper (5)
- Doctoral Thesis (1)
Language
- German (19) (remove)
Keywords
- Banken (3)
- Immobilienpreise (3)
- Kointegration (3)
- Cointegration (2)
- Finanzkrise (2)
- Johansen-Verfahren (2)
- Staatsverschuldung (2)
- Vector Error Correction Model (2)
- Vektorautoregressive Modelle (2)
- Wohnimmobilien Deutschland (2)
Institute
- Wirtschaftswissenschaften (15)
- Extern (4)
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
Vektorfehlerkorrekturmodelle (VECM) erlauben es, Abhängigkeiten zwischen den Veränderungen mehrerer potenziell endogener Variablen simultan zu modellieren. Die Idee, ein langfristiges Gleichgewicht gleichzeitig mit kurzfristigen Veränderungen zu modellieren, lässt sich vom Eingleichungsansatz des Fehlerkorrekturmodells (ECM) zu einem Mehrgleichungsansatz für Variablenvektoren (VECM) verallgemeinern. Die Anzahl der kointegrierenden Beziehungen und die Koeffizientenmatrizen werden mit dem Johansen-Verfahren geschätzt. An einer einfachen Verallgemeinerung einer Konsumfunktion wird die Schätzung und Wirkungsweise eines VECM für Verbrauch, Einkommen und Aktienkurse in Deutschland gezeigt. Die Anwendung der Beveridge- Nelson-(BN)-Dekomposition auf vektorautoregressive Prozesse ermöglicht zudem, Abhängigkeiten zwischen den aus den kointegrierten Zeitreihen extrahierten zyklischen Komponenten zu schätzen.
Finanz- und Bankenkrisen können seit Jahrhunderten beobachtet werden und gründen auf ähnlichen Verhaltensweisen der Beteiligten. Wie die vergangenen zwei Jahre gezeigt haben, variieren hingegen die den Krisen zugrundeliegenden tieferen Ursachen und Mechanismen. Durch statistische Daten wird gezeigt, wie die Immobilienpreise in den USA zunächst stiegen. Wegen erwarteter weiterer Wertentwicklung wurden Kredite auch an Schuldner geringer (subprime) Bonität gegeben und Risiken als forderungsbesicherte Wertpapiere auf globalen Märkten veräußert. Als sich die Wachstumserwartungen nicht erfüllten, vermehrten sich Rückzahlungsausfälle lavinenartig. Vom amerikanischen Hypothekenmarkt breitete sich die Krise auf die internationalen Banken und im weiteren Verlauf auf die Weltwirtschaft aus.
Die Begrenzung systemischer Risiken ist essentieller Bestandteil der neuen internationalen Finanzmarktordnung. Dabei galt es nicht nur die Verflechtung der Banken untereinander, sondern auch die Verbindung zwischen den Staatsfinanzen und der Solvenz der nationalen Bankensysteme (dem sog. Risikoverbund zwischen Staat und Banken) zu durchbrechen. Der Beitrag beleuchtet die Entwicklung der Forderungen gegenüber Staaten in den Bankbilanzen der Euroländer und des Eurosystems im Zeitverlauf sowie den daraus erwachsenden Risiken für die Finanzstabilität. Hierzu werden die Determinanten des Risikoverbunds theoretisch wie empirisch analysiert. Die fiskalische Kapazität der Eurostaaten wird anhand verschiedener Faktoren wie der Verschuldungsquote, dem Leistungsbilanzsaldo und der Kredit-BIP Lücke aufgezeigt; anschließend werden die Strukturen der Bankensysteme im Euroraum untersucht. Im Einzelnen werden die private und staatliche Gesamtverschuldung, die konsolidierte Bankenbilanzsumme und die darin enthaltenen Verbindlichkeiten sowie der Anteil des Bankensektors an der Bruttowertschöpfung in Relation zur Wirtschaftsleistung betrachtet. Außerdem finden NPE-Bestände in den Bankbilanzen sowie die Renditen der emittierten Staatsanleihen und damit in Verbindung stehenden CDS-Spreads Betrachtung. Zusätzlich werden die Konzentration, der Verschuldungsgrad, Liquiditätsziffern sowie länderspezifische Unterschiede in Art und Fristigkeit der Refinanzierung der Bankensektoren abgebildet. Auf Basis der empirischen Befunde werden im Hinblick auf die wechselseitigen Ansteckungseffekte zwischen Banken und Staaten Implikationen für die Finanzmarktregulierung diskutiert.
Die Aussicht auf hohe Bonuszahlungen im Erfolgsfall war ein Grund neben mehreren, der Bankmanager im Vorfeld der Finanzkrise dazu verleitet hat, risikoreiche Unternehmensstrategien zu verfolgen und die langfristige Stabilität der Institute zu gefährden. Vor allem im Kreditwesen wurden falsche Anreize in der leistungs- und erfolgsabhängigen Vergütung gesetzt. Die Vergütungssysteme belohnten Manager und Mitarbeiter für die Erreichung kurzfristiger Gewinnziele – ungeachtet der eingegangenen Risiken. Boni wurden meist in bar ausgezahlt und orientierten sich primär an nicht risikoadjustierten Kennzahlen. Inzwischen hat sich in Anbetracht der Dramatik der Finanz- und Wirtschaftskrise eine deutliche Änderung in der Gestaltung der Bonussysteme angekündigt. Wie die Geschäftsberichte einzelner Institute des Jahres 2009 andeuten, werden mit der Erholung des Bankensektors mittelfristig auch die Bonuszahlungen wieder ansteigen.
Inhalt: Theoretische Grundlagen - Transmissionsprozess, Indikatoren, Ziele und Strategien der Geldpolitik 11 - Quantitätsgleichung und Quantitätstheorie 14 - Die Geldmenge als Element der geldpolitischen Strategien der Deutschen Bundesbank und der EZB - Der P-Stern-Ansatz - Ökonometrische Methodologie - Zusammenführung der ökonomischen Theorie des P-Stern-Ansatzes mit der ökonometrischen Methodik Statistische Datenbasis - Verwendete Variablen - Datenbeschreibung und Datentransformation Empirische Analyse und Modellierung - Langfristiger Zusammenhang zwischen Geldmengen und Preisen - Kurzfristiger Zusammenhang zwischen Geldmengen und Preisen Schlussfolgerungen und Schlusswort
Inhalt: 1 Einleitung 2 Überblick über den Stand der Forschung 3 Theoretische Grundlagen 3.1 Transmissionsmechanismus Vermögen, Vermögenspreise und Konsum 3.2 Vermögenseffekte im Konsum 4 Modellierung der Vermögenseffekte im Konsum 4.1 Intertemporale Budgetbeschränkung 4.2 Permanente Einkommenshypothese (PIH) 4.3 Lebenszyklushypothese (LCH) 4.4 Lebenszyklushypothese als multikointegrierte Konsumfunktion 4.5 Trägheitsannahme des Konsumwachstums 5 Ökonometrische Methodologie 5.1 EG2 von Engle und Granger 5.2 Dynamisches OLS nach Stock und Watson 5.3 Vektorfehlerkorrekturmodell (VECM) und Johansen-Verfahren 6 Statistische Datenbasis 7 Empirische Ergebnisse 7.1 Empirische Ergebnisse ausgewählter Studien 7.2 Empirische Ergebnisse für Deutschland 7.2.1 Test auf Integration 7.2.2 Ergebnisse EG2 7.2.3 Ergebnisse DOLS 7.2.4 Test auf Parameterstabilität 7.2.5 Ergebnisse VECM 7.2.6 Ergebnisse Impuls-Antwort-Analyse 7.3 Zusammenfassung der empirischen Ergebnisse 8 Geldpolitische Implikationen 9 Zusammenfassung
Gruppierung von Daten
(2022)
Dieser Beitrag beinhaltet einen Vergleich zwischen den Methoden der Topologischen Datenanalyse (TDA) und statistischen Clusterverfahren bei der Gruppierung von Daten. Es werden Gemeinsamkeiten und Unterschiede bei der Bildung der Cluster und Zuordnung der statistischen Einheiten identifiziert. Hierzu werden zwei empirische Datensätze aus der Biologie und Medizin herangezogen.
Zusammengefasst haben sich die Verfahren der TDA als ein praktikables Werkzeug bei der Gruppierung von Objekten erwiesen. Vor allem mit dem Mapper-Algorithmus konnten adäquate Cluster erkannt werden. Beim Iris Flower-Datensatz hat die TDA ähnliche Ergebnisse wie die Clusteranalyse erzielt. Der Heart Disease-Datensatz war schwieriger zu behandeln. Die genutzten clusteranalytischen Verfahren waren nicht geeignet, die beiden Gruppen von Patienten korrekt zu identifizieren. Im Vergleich zu den Standardverfahren der Clusteranalyse zeigte sich eine leichte Überlegenheit der topologischen Verfahren.