Refine
Year of publication
Document Type
- Monograph/Edited Volume (15)
- Working Paper (5)
- Doctoral Thesis (1)
Keywords
- Banken (3)
- Immobilienpreise (3)
- Kointegration (3)
- Vector Error Correction Model (3)
- Cointegration (2)
- Finanzkrise (2)
- Inflation (2)
- Johansen-Verfahren (2)
- Public Debt (2)
- Staatsverschuldung (2)
Institute
- Wirtschaftswissenschaften (17)
- Extern (4)
Inhalt: Immobilienindizes in Deutschland -Überblick -Immobilienindex der BulwienGesa AG Zeitliche Disaggregation von Indexreihen mit Hilfe kubischer Splines -Problemstellung -Ermittlung der Polynomialkoeffizienten und Interpolation der Zwischenwerte -Anwendung des Splines auf den Halifax House Price Index Erzeugung vierteljährlicher Indexreihen auf der Grundlage von Daten der BulwienGesa AG
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
In der vorliegenden Arbeit soll der Zusammenhang zwischen Staatsverschuldung und Inflation untersucht werden. Es werden theoretische Übertragungswege von der Staatsverschuldung über die Geldmenge und die langfristigen Zinsen hin zur Inflation gezeigt. Aufbauend auf diesen theoretischen Überlegungen werden die Variablen Staatsverschuldung, Verbraucherpreisindex, Geldmenge M3 und langfristige Zinsen im Rahmen eines Vektor-Fehlerkorrekturmodells untersucht. In der empirischen Analyse werden die Variablen für Deutschland in dem Zeitraum vom 1. Quartal 1991 bis zum 4. Quartal 2010 betrachtet. In ein Vektor-Fehlerkorrekturmodell fließen alle Variablen als potentiell endogen in das Modell ein. Die Ermittlung der Kointegrationsbeziehungen und die Schätzung des Vektor-Fehlerkorrekturmodells erfolgen mithilfe des Johansen-Verfahrens.
Inhalt: Theoretische Grundlagen - Transmissionsprozess, Indikatoren, Ziele und Strategien der Geldpolitik 11 - Quantitätsgleichung und Quantitätstheorie 14 - Die Geldmenge als Element der geldpolitischen Strategien der Deutschen Bundesbank und der EZB - Der P-Stern-Ansatz - Ökonometrische Methodologie - Zusammenführung der ökonomischen Theorie des P-Stern-Ansatzes mit der ökonometrischen Methodik Statistische Datenbasis - Verwendete Variablen - Datenbeschreibung und Datentransformation Empirische Analyse und Modellierung - Langfristiger Zusammenhang zwischen Geldmengen und Preisen - Kurzfristiger Zusammenhang zwischen Geldmengen und Preisen Schlussfolgerungen und Schlusswort
Inhalt: 1 Einleitung 2 Überblick über den Stand der Forschung 3 Theoretische Grundlagen 3.1 Transmissionsmechanismus Vermögen, Vermögenspreise und Konsum 3.2 Vermögenseffekte im Konsum 4 Modellierung der Vermögenseffekte im Konsum 4.1 Intertemporale Budgetbeschränkung 4.2 Permanente Einkommenshypothese (PIH) 4.3 Lebenszyklushypothese (LCH) 4.4 Lebenszyklushypothese als multikointegrierte Konsumfunktion 4.5 Trägheitsannahme des Konsumwachstums 5 Ökonometrische Methodologie 5.1 EG2 von Engle und Granger 5.2 Dynamisches OLS nach Stock und Watson 5.3 Vektorfehlerkorrekturmodell (VECM) und Johansen-Verfahren 6 Statistische Datenbasis 7 Empirische Ergebnisse 7.1 Empirische Ergebnisse ausgewählter Studien 7.2 Empirische Ergebnisse für Deutschland 7.2.1 Test auf Integration 7.2.2 Ergebnisse EG2 7.2.3 Ergebnisse DOLS 7.2.4 Test auf Parameterstabilität 7.2.5 Ergebnisse VECM 7.2.6 Ergebnisse Impuls-Antwort-Analyse 7.3 Zusammenfassung der empirischen Ergebnisse 8 Geldpolitische Implikationen 9 Zusammenfassung
Die Aussicht auf hohe Bonuszahlungen im Erfolgsfall war ein Grund neben mehreren, der Bankmanager im Vorfeld der Finanzkrise dazu verleitet hat, risikoreiche Unternehmensstrategien zu verfolgen und die langfristige Stabilität der Institute zu gefährden. Vor allem im Kreditwesen wurden falsche Anreize in der leistungs- und erfolgsabhängigen Vergütung gesetzt. Die Vergütungssysteme belohnten Manager und Mitarbeiter für die Erreichung kurzfristiger Gewinnziele – ungeachtet der eingegangenen Risiken. Boni wurden meist in bar ausgezahlt und orientierten sich primär an nicht risikoadjustierten Kennzahlen. Inzwischen hat sich in Anbetracht der Dramatik der Finanz- und Wirtschaftskrise eine deutliche Änderung in der Gestaltung der Bonussysteme angekündigt. Wie die Geschäftsberichte einzelner Institute des Jahres 2009 andeuten, werden mit der Erholung des Bankensektors mittelfristig auch die Bonuszahlungen wieder ansteigen.
Gruppierung von Daten
(2022)
Dieser Beitrag beinhaltet einen Vergleich zwischen den Methoden der Topologischen Datenanalyse (TDA) und statistischen Clusterverfahren bei der Gruppierung von Daten. Es werden Gemeinsamkeiten und Unterschiede bei der Bildung der Cluster und Zuordnung der statistischen Einheiten identifiziert. Hierzu werden zwei empirische Datensätze aus der Biologie und Medizin herangezogen.
Zusammengefasst haben sich die Verfahren der TDA als ein praktikables Werkzeug bei der Gruppierung von Objekten erwiesen. Vor allem mit dem Mapper-Algorithmus konnten adäquate Cluster erkannt werden. Beim Iris Flower-Datensatz hat die TDA ähnliche Ergebnisse wie die Clusteranalyse erzielt. Der Heart Disease-Datensatz war schwieriger zu behandeln. Die genutzten clusteranalytischen Verfahren waren nicht geeignet, die beiden Gruppen von Patienten korrekt zu identifizieren. Im Vergleich zu den Standardverfahren der Clusteranalyse zeigte sich eine leichte Überlegenheit der topologischen Verfahren.
Vektorfehlerkorrekturmodelle (VECM) erlauben es, Abhängigkeiten zwischen den Veränderungen mehrerer potenziell endogener Variablen simultan zu modellieren. Die Idee, ein langfristiges Gleichgewicht gleichzeitig mit kurzfristigen Veränderungen zu modellieren, lässt sich vom Eingleichungsansatz des Fehlerkorrekturmodells (ECM) zu einem Mehrgleichungsansatz für Variablenvektoren (VECM) verallgemeinern. Die Anzahl der kointegrierenden Beziehungen und die Koeffizientenmatrizen werden mit dem Johansen-Verfahren geschätzt. An einer einfachen Verallgemeinerung einer Konsumfunktion wird die Schätzung und Wirkungsweise eines VECM für Verbrauch, Einkommen und Aktienkurse in Deutschland gezeigt. Die Anwendung der Beveridge- Nelson-(BN)-Dekomposition auf vektorautoregressive Prozesse ermöglicht zudem, Abhängigkeiten zwischen den aus den kointegrierten Zeitreihen extrahierten zyklischen Komponenten zu schätzen.