TY - THES A1 - Sperfeld, Erik T1 - Effects of temperature and co-limiting nutritional components on life history traits of Daphnia magna and its biochemical composition Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Schulze, Andreas T1 - Demographics of supermassive black holes T1 - Demgraphie supermassereicher Schwarzer Löcher N2 - Supermassive black holes are a fundamental component of the universe in general and of galaxies in particular. Almost every massive galaxy harbours a supermassive black hole (SMBH) in its center. Furthermore, there is a close connection between the growth of the SMBH and the evolution of its host galaxy, manifested in the relationship between the mass of the black hole and various properties of the galaxy's spheroid component, like its stellar velocity dispersion, luminosity or mass. Understanding this relationship and the growth of SMBHs is essential for our picture of galaxy formation and evolution. In this thesis, I make several contributions to improve our knowledge on the census of SMBHs and on the coevolution of black holes and galaxies. The first route I follow on this road is to obtain a complete census of the black hole population and its properties. Here, I focus particularly on active black holes, observable as Active Galactic Nuclei (AGN) or quasars. These are found in large surveys of the sky. In this thesis, I use one of these surveys, the Hamburg/ESO survey (HES), to study the AGN population in the local volume (z~0). The demographics of AGN are traditionally represented by the AGN luminosity function, the distribution function of AGN at a given luminosity. I determined the local (z<0.3) optical luminosity function of so-called type 1 AGN, based on the broad band B_J magnitudes and AGN broad Halpha emission line luminosities, free of contamination from the host galaxy. I combined this result with fainter data from the Sloan Digital Sky Survey (SDSS) and constructed the best current optical AGN luminosity function at z~0. The comparison of the luminosity function with higher redshifts supports the current notion of 'AGN downsizing', i.e. the space density of the most luminous AGN peaks at higher redshifts and the space density of less luminous AGN peaks at lower redshifts. However, the AGN luminosity function does not reveal the full picture of active black hole demographics. This requires knowledge of the physical quantities, foremost the black hole mass and the accretion rate of the black hole, and the respective distribution functions, the active black hole mass function and the Eddington ratio distribution function. I developed a method for an unbiased estimate of these two distribution functions, employing a maximum likelihood technique and fully account for the selection function. I used this method to determine the active black hole mass function and the Eddington ratio distribution function for the local universe from the HES. I found a wide intrinsic distribution of black hole accretion rates and black hole masses. The comparison of the local active black hole mass function with the local total black hole mass function reveals evidence for 'AGN downsizing', in the sense that in the local universe the most massive black holes are in a less active stage then lower mass black holes. The second route I follow is a study of redshift evolution in the black hole-galaxy relations. While theoretical models can in general explain the existence of these relations, their redshift evolution puts strong constraints on these models. Observational studies on the black hole-galaxy relations naturally suffer from selection effects. These can potentially bias the conclusions inferred from the observations, if they are not taken into account. I investigated the issue of selection effects on type 1 AGN samples in detail and discuss various sources of bias, e.g. an AGN luminosity bias, an active fraction bias and an AGN evolution bias. If the selection function of the observational sample and the underlying distribution functions are known, it is possible to correct for this bias. I present a fitting method to obtain an unbiased estimate of the intrinsic black hole-galaxy relations from samples that are affected by selection effects. Third, I try to improve our census of dormant black holes and the determination of their masses. One of the most important techniques to determine the black hole mass in quiescent galaxies is via stellar dynamical modeling. This method employs photometric and kinematic observations of the galaxy and infers the gravitational potential from the stellar orbits. This method can reveal the presence of the black hole and give its mass, if the sphere of the black hole's gravitational influence is spatially resolved. However, usually the presence of a dark matter halo is ignored in the dynamical modeling, potentially causing a bias on the determined black hole mass. I ran dynamical models for a sample of 12 galaxies, including a dark matter halo. For galaxies for which the black hole's sphere of influence is not well resolved, I found that the black hole mass is systematically underestimated when the dark matter halo is ignored, while there is almost no effect for galaxies with well resolved sphere of influence. N2 - Supermassereiche Schwarze Löcher sind ein fundamentaler Bestandteil unseres Universims im Allgemeinen, und von Galaxien im Besonderen. Fast jede massereiche Galaxie beherbergt ein supermassereiches Schwarzes Loch in seinem Zentrum. Außerdem existiert eine enge Beziehung zwischen dem Wachstum des Schwarzen Loches und der Entwicklung seiner umgebenden Galaxie. Diese zeigt sich besonders in der engen Beziehung zwischen der Masse eines Schwarzen Loches und den Eigenschaften der sphäroidalen Komponente der Galaxie, beispielsweise seiner stellaren Geschwindigkeitsdispersion, seiner Leuchtkraft und seiner Masse. Diese Beziehung erklären zu können, sowie das Wachstum von Schwarzen Löchern zu verstehen, liefert einen wichtigen Beitrag zu unserem Bild der Entstehung und Entwicklung von Galaxien. In dieser Arbeit steuere ich verschiedene Beiträge dazu bei unser Verständnis des Vorkommens Schwarzer Löcher und der Beziehung zu ihren Galaxien zu verbessern. Zunächst versuche ich ein vollständiges Bild der Anzahl und Eigenschaften Schwarzer Löcher zu erhalten. Dazu beschränke ich mich auf aktive Schwarze Löcher, wie man sie im Universum als Aktive Galaxienkerne (AGN) in großen Himmelsdurchmusterungen finden kann. Ich benutze eine solche Durchmusterung, das Hamburg/ESO Survey (HES), um die AGN Population im lokalen Universum zu studieren. Dazu habe ich die optische Leuchtkraftfunktion von AGN bestimmt. Diese habe ich mit anderen Ergebnissen leuchtschwächerer AGN kombiniert um die bisher beste AGN Leuchtkraftfunktion im lokalen Universum zu erhalten. Der Vergleich mit Ergebnissen bei höherer kosmischer Rotverschiebung bestätigt unser Bild des sogenannten "AGN downsizing". Dies sagt aus, dass leuchtkräftige AGN bei hoher Rotverschiebung am häufigsten vorkommen, während leuchtschwache AGN bei niedriger Rotverschiebung am häufigsten sind. Allerdings verrät uns die AGN Leuchtkraftfunktion allein noch nicht das ganze Bild der Demographie Schwarzer Löcher. Vielmehr sind wir an den zugrunde liegenden Eigenschaften, vor allem der Masse und der Akkretionsrate der Schwarzen Löcher, sowie deren statistischen Verteilungsfunktionen, interessiert. Ich habe eine Methode entwickelt um diese beiden Verteilungsfunktionen zu bestimmen, basierend auf der Maximum-Likelihood-Methode. Ich habe diese Methode benutzt um die aktive Massenfunktion Schwarzer Löcher, sowie die Verteilungsfunktion ihrer Akkretionsraten für das lokale Universum aus dem HES zu bestimmen. Sowohl die Akkretionsraten, als auch die Massen der Schwarzen Löcher zeigen intrinsisch eine breite Verteilung, im Gegensatz zur schmaleren beobachtbaren Verteilung. Der Vergleich der aktiven Massenfunktion mit der gesamten Massenfunktion Schwarzer Löcher zeigt ebenfalls Hinweise auf "AGN downsizing". Als nächstes habe ich mich mit Untersuchungen zur zeitlichen Entwicklung in den Beziehungen zwischen Schwarzem Loch und Galaxie beschäftigt. Diese kann helfen unser theoretisches Veständnis der physikalischen Vorgänge zu verbessern. Beobachtungen sind immer auch Auswahleffekten unterworfen. Diese können die Schlussfolgerungen aus den Beobachtungen zur Entwicklung in den Beziehungen beeinflussen, wenn sie nicht entsprechend berücksichtigt werden. Ich habe den Einfluss von Auswahleffekten auf AGN Stichproben im Detail untersucht, und verschiedende möchgliche Einflussquellen identifiziert, die die Beziehung verfälschen können. Wenn die Auswahlkriterien der Stichprobe, sowie die zugrunde liegenden Verteilungen bekannt sind, so ist es möglich für die Auswahleffekte zu korrigieren. Ich habe eine Methode entwickelt, mit der man die intrinsische Beziehung zwischem Schwarzem Loch und Galaxie aus den Beobachtungen rekonstruieren kann. Schließlich habe ich mich auch inaktiven Schwarzen Löchern und der Bestimmung ihrer Massen gewidmet. Eine der wichtigsten Methoden die Masse Schwarzer Löcher in normalen Galaxien zu bestimmen ist stellardynamische Modellierung. Diese Methode benutzt photometrische und kinematische Beobachtungen, und rekonstruiert daraus das Gravitationspotenzial aus der Analyse stellarer Orbits. Bisher wurde in diesen Modellen allerdings der Einfluss des Halos aus Dunkler Materie vernachlässigt. Dieser kann aber die Bestimmung der Masse des Schwarzen Loches beeinflussen. Ich habe 12 Galaxien mit Hilfe stellardynamischer Modellierung untersucht und dabei auch den Einfluss des Halos aus Dunkler Materie berücksichtigt. Für Galaxien bei denen der Einflussbereich des Schwarzen Loches nicht sehr gut räumlich aufgelöst war, wird die Masse des Schwarzen Loches systematisch unterschätzt, wenn der Dunkle Materie Halo nicht berücksichtigt wird. Auf der anderen Seite ist der Einfluss gering, wenn die Beobachtungen diesen Einflussbereich gut auflösen können. KW - Astrophysik KW - Quasare KW - Schwarze Löcher KW - AGN KW - Statistik KW - astrophysics KW - quasars KW - black holes KW - AGN KW - statistics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54464 ER - TY - THES A1 - Avila, Gastón T1 - Asymptotic staticity and tensor decompositions with fast decay conditions T1 - Asymptotisch statische Anfangsdaten und Tensor-Zerlegungen mit starken Abfallbedingungen N2 - Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods. N2 - Corvino, Corvino und Schoen als auch Chruściel und Delay haben die Existenz einer grossen Klasse asymptotisch flacher Anfangsdaten für Einsteins Vakuumfeldgleichungen gezeigt, die in einer Umgebung des raumartig Unendlichen statisch oder stationär aber im Inneren der Anfangshyperfläche sehr allgemein sind. Der Beweis beruht zum Teil auf abstrakten, nicht konstruktiven Argumenten, die Schwierigkeiten bereiten, wenn derartige Daten numerisch berechnet werden sollen. In der Arbeit wird ein quasilineares elliptisches Gleichungssystem vorgestellt, von dem wir annehmen, dass es geeignet ist, asymptotisch flache Vakuumanfangsdaten zu berechnen, die zeitreflektionssymmetrisch sind und im raumartig Unendlichen in einer vorgeschriebenen Ordnung asymptotisch zu statischen Daten sind. Mit einem Störungsargument wird ein Existenzsatz bewiesen, der gilt, solange die Ordnung, in welcher die Lösungen asymptotisch statische Lösungen approximieren, in einem gewissen eingeschränkten Bereich liegt. Versucht man, den Gültigkeitsbereich des Satzes zu erweitern, treten Schwierigkeiten auf. Diese hängen damit zusammen, dass ein gewisser Operator nicht mehr surjektiv ist. In einigen Tensorzerlegungen auf asymptotisch flachen Räumen treten ähnliche Probleme auf, wie die oben erwähnten. Die Helmholtzzerlegung, die bei der Bereitstellung von Anfangsdaten für die Maxwellgleichungen eine Rolle spielt, wird als ein Modellfall diskutiert. Es wird eine Methode angegeben, die es erlaubt, die Schwierigkeiten zu umgehen, die auftreten, wenn ein schnelles Abfallverhalten des gesuchten Vektorfeldes im raumartig Unendlichen gefordert wird. Diese Methode gestattet es, solche Felder auch numerisch zu berechnen. Die Einsichten aus der Analyse der Helmholtzzerlegung werden dann auf die Yorkzerlegung angewandt, die in den Teil des quasilinearen Systems eingeht, der Anlass zu den genannten Schwierigkeiten gibt. Für diese Zerlegung ergeben sich analoge Resultate. Es treten allerdings Schwierigkeiten auf, wenn die zu Grunde liegende Metrik Symmetrien aufweist. Die Frage, ob die Ergebnisse, die soweit erhalten wurden, in einem Störungsargument verwendet werden können um die Existenz von Vakuumdaten zu zeigen, die im räumlich Unendlichen in jeder Ordnung statische Daten approximieren, bleibt daher offen. Die Antwort erfordert eine weitergehende Untersuchung und möglicherweise auch neue Methoden. KW - Einsteins Feldgleichungen KW - Zwangsgleichungen KW - Tensor-Zerlegungen KW - raumartige Unendliche KW - elliptisches Gleichungssystem KW - Einstein's field equations KW - constraint equations KW - tensor decompositions KW - space-like infinity KW - elliptic systems Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54046 ER - TY - THES A1 - Kluth, Stephan T1 - Quantitative modeling and analysis with FMC-QE T1 - Quantitative Modellierung und Analyse mit FMC-QE N2 - The modeling and evaluation calculus FMC-QE, the Fundamental Modeling Concepts for Quanti-tative Evaluation [1], extends the Fundamental Modeling Concepts (FMC) for performance modeling and prediction. In this new methodology, the hierarchical service requests are in the main focus, because they are the origin of every service provisioning process. Similar to physics, these service requests are a tuple of value and unit, which enables hierarchical service request transformations at the hierarchical borders and therefore the hierarchical modeling. Through reducing the model complexity of the models by decomposing the system in different hierarchical views, the distinction between operational and control states and the calculation of the performance values on the assumption of the steady state, FMC-QE has a scalable applica-bility on complex systems. According to FMC, the system is modeled in a 3-dimensional hierarchical representation space, where system performance parameters are described in three arbitrarily fine-grained hierarchi-cal bipartite diagrams. The hierarchical service request structures are modeled in Entity Relationship Diagrams. The static server structures, divided into logical and real servers, are de-scribed as Block Diagrams. The dynamic behavior and the control structures are specified as Petri Nets, more precisely Colored Time Augmented Petri Nets. From the structures and pa-rameters of the performance model, a hierarchical set of equations is derived. The calculation of the performance values is done on the assumption of stationary processes and is based on fundamental laws of the performance analysis: Little's Law and the Forced Traffic Flow Law. Little's Law is used within the different hierarchical levels (horizontal) and the Forced Traffic Flow Law is the key to the dependencies among the hierarchical levels (vertical). This calculation is suitable for complex models and allows a fast (re-)calculation of different performance scenarios in order to support development and configuration decisions. Within the Research Group Zorn at the Hasso Plattner Institute, the work is embedded in a broader research in the development of FMC-QE. While this work is concentrated on the theoretical background, description and definition of the methodology as well as the extension and validation of the applicability, other topics are in the development of an FMC-QE modeling and evaluation tool and the usage of FMC-QE in the design of an adaptive transport layer in order to fulfill Quality of Service and Service Level Agreements in volatile service based environments. This thesis contains a state-of-the-art, the description of FMC-QE as well as extensions of FMC-QE in representative general models and case studies. In the state-of-the-art part of the thesis in chapter 2, an overview on existing Queueing Theory and Time Augmented Petri Net models and other quantitative modeling and evaluation languages and methodologies is given. Also other hierarchical quantitative modeling frameworks will be considered. The description of FMC-QE in chapter 3 consists of a summary of the foundations of FMC-QE, basic definitions, the graphical notations, the FMC-QE Calculus and the modeling of open queueing networks as an introductory example. The extensions of FMC-QE in chapter 4 consist of the integration of the summation method in order to support the handling of closed networks and the modeling of multiclass and semaphore scenarios. Furthermore, FMC-QE is compared to other performance modeling and evaluation approaches. In the case study part in chapter 5, proof-of-concept examples, like the modeling of a service based search portal, a service based SAP NetWeaver application and the Axis2 Web service framework will be provided. Finally, conclusions are given by a summary of contributions and an outlook on future work in chapter 6. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Procee-dings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, pages 280 – 287, Las Vegas, NV, USA, June 2007. CSREA Press. ISBN 1-60132-029-9. N2 - FMC-QE (Fundamental Modeling Concepts for Quantitative Evaluation [1]) ist eine auf FMC, den Fundamental Modeling Concepts, basierende Methodik zur Modellierung des Leistungsverhaltens von Systemen mit einem dazugehörenden Kalkül zur Erstellung von Leistungsvorhersagen wie Antwortzeiten und Durchsatz. In dieser neuen Methodik steht die Modellierung der hierarchischen Bedienanforderungen im Mittelpunkt, da sie der Ursprung aller dienstbasierenden Systeme sind. Wie in der Physik sind in FMC-QE die Bedienanforderungen Tupel aus Wert und Einheit, um Auftragstransformationen an Hierarchiegrenzen zu ermöglichen. Da die Komplexität durch eine Dekomposition in mehreren Sichten und in verschiedene hierarchische Schichten, die Unterscheidung von Operations- und Kontrollzuständen, sowie dazugehörige Berechungen unter Annahme der Stationarität reduziert wird, skaliert die Anwendbarkeit von FMC-QE auf komplexe Systeme. Gemäß FMC wird das zu modellierende System in einem 3-dimensionalen hierarchischen Beschreibungsraum dargestellt. Die quantitativen Kenngrößen der Systeme werden in drei beliebig frei-granularen hierarchischen bi-partiten Graphen beschrieben. Die hierarchische Struktur der Bedienanforderungen wird in Entity Relationship Diagrammen beschrieben. Die statischen Bedienerstrukturen, unterteilt in logische und reale Bediener, sind in Aufbaudiagrammen erläutert. Außerdem werden Petri Netze, genauer Farbige Zeit-behaftete Petri Netze, dazu verwendet, die dynamischen Abläufe, sowie die Kontrollflüsse im System zu beschreiben. Anschließend wird eine Menge von hierarchischen Gleichungen von der Struktur und den Parametern des Modells abgeleitet. Diese Gleichungen, die auf dem stationären Zustand des Systems beruhen, basieren auf den beiden Fundamental Gesetzen der Leistungsanalyse, dem Gesetz von Little und dem Verkehrsflussgesetz. Das Gesetz von Little definiert hierbei Beziehungen innerhalb einer hierarchischen Schicht (horizontal) und das Verkehrsflussgesetz wiederum Beziehungen zwischen hierarchischen Schichten (vertikal). Die Berechungen erlauben Leistungsvorhersagen für komplexe Systeme durch eine effiziente Berechnung von Leistungsgrößen für eine große Auswahl von System- und Lastkonfigurationen. Innerhalb der Forschungsgruppe von Prof. Dr.-Ing Werner Zorn am Hasso Plattner Institut an der Universität Potsdam ist die vorliegende Arbeit in einen größeren Forschungskontext im Bereich FMC-QE eingebettet. Während hier ein Fokus auf dem theoretischen Hintergrund, der Beschreibung und der Definition der Methodik als auch der Anwendbarkeit und Erweiterung gelegt wurde, sind andere Arbeiten auf dem Gebiet der Entwicklung einer Anwendung zur Modellierung und Evaluierung von Systemen mit FMC-QE bzw. der Verwendung von FMC-QE zur Entwicklung einer adaptiven Transportschicht zur Einhaltung von Dienstgüten (Quality of Service) und Dienstvereinbarungen (Service Level Agreements) in volatilen dienstbasierten Systemen beheimatet. Diese Arbeit umfasst einen Einblick in den Stand der Technik, die Beschreibung von FMC-QE sowie die Weiterentwicklung von FMC-QE in repräsentativen allgemeinen Modellen und Fallstudien. Das Kapitel 2: Stand der Technik gibt einen Überblick über die Warteschlangentheorie, Zeit-behaftete Petri Netze, weitere Leistungsbeschreibungs- und Leistungsvorhersagungstechniken sowie die Verwendung von Hierarchien in Leistungsbeschreibungstechniken. Die Beschreibung von FMC-QE in Kapitel 3 enthält die Erläuterung der Grundlagen von FMC-QE, die Beschreibung einiger Grundannahmen, der graphischen Notation, dem mathematischen Modell und einem erläuternden Beispiel. In Kapitel 4: Erweiterungen von FMC-QE wird die Behandlung weiterer allgemeiner Modelle, wie die Modellklasse von geschlossenen Netzen, Synchronisierung und Mehrklassen-Modelle beschrieben. Außerdem wird FMC-QE mit dem Stand der Technik verglichen. In Kapitel 5 werden Machbarkeitsstudien beschrieben. Schließlich werden in Kapitel 6 eine Zusammenfassung und ein Ausblick gegeben. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Proceedings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, 280 – 287, Las Vegas, NV, USA, Juni 2007. CSREA Press. ISBN 1-60132-029-9. KW - FMC-QE KW - Quantitative Modellierung KW - Leistungsvorhersage KW - Warteschlangentheorie KW - Zeitbehaftete Petri Netze KW - FMC-QE KW - Quantitative Modeling KW - Performance Prediction KW - Queuing Theory KW - Time Augmented Petri Nets Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52987 ER - TY - THES A1 - Spreyer, Kathrin T1 - Does it have to be trees? : Data-driven dependency parsing with incomplete and noisy training data T1 - Müssen es denn Bäume sein? Daten-gesteuertes Dependenzparsing mit unvollständigen und verrauschten Trainingsdaten N2 - We present a novel approach to training data-driven dependency parsers on incomplete annotations. Our parsers are simple modifications of two well-known dependency parsers, the transition-based Malt parser and the graph-based MST parser. While previous work on parsing with incomplete data has typically couched the task in frameworks of unsupervised or semi-supervised machine learning, we essentially treat it as a supervised problem. In particular, we propose what we call agnostic parsers which hide all fragmentation in the training data from their supervised components. We present experimental results with training data that was obtained by means of annotation projection. Annotation projection is a resource-lean technique which allows us to transfer annotations from one language to another within a parallel corpus. However, the output tends to be noisy and incomplete due to cross-lingual non-parallelism and error-prone word alignments. This makes the projected annotations a suitable test bed for our fragment parsers. Our results show that (i) dependency parsers trained on large amounts of projected annotations achieve higher accuracy than the direct projections, and that (ii) our agnostic fragment parsers perform roughly on a par with the original parsers which are trained only on strictly filtered, complete trees. Finally, (iii) when our fragment parsers are trained on artificially fragmented but otherwise gold standard dependencies, the performance loss is moderate even with up to 50% of all edges removed. N2 - Wir präsentieren eine neuartige Herangehensweise an das Trainieren von daten-gesteuerten Dependenzparsern auf unvollständigen Annotationen. Unsere Parser sind einfache Varianten von zwei bekannten Dependenzparsern, nämlich des transitions-basierten Malt-Parsers sowie des graph-basierten MST-Parsers. Während frühere Arbeiten zum Parsing mit unvollständigen Daten die Aufgabe meist in Frameworks für unüberwachtes oder schwach überwachtes maschinelles Lernen gebettet haben, behandeln wir sie im Wesentlichen mit überwachten Lernverfahren. Insbesondere schlagen wir "agnostische" Parser vor, die jegliche Fragmentierung der Trainingsdaten vor ihren daten-gesteuerten Lernkomponenten verbergen. Wir stellen Versuchsergebnisse mit Trainingsdaten vor, die mithilfe von Annotationsprojektion gewonnen wurden. Annotationsprojektion ist ein Verfahren, das es uns erlaubt, innerhalb eines Parallelkorpus Annotationen von einer Sprache auf eine andere zu übertragen. Bedingt durch begrenzten crosslingualen Parallelismus und fehleranfällige Wortalinierung ist die Ausgabe des Projektionsschrittes jedoch üblicherweise verrauscht und unvollständig. Gerade dies macht projizierte Annotationen zu einer angemessenen Testumgebung für unsere fragment-fähigen Parser. Unsere Ergebnisse belegen, dass (i) Dependenzparser, die auf großen Mengen von projizierten Annotationen trainiert wurden, größere Genauigkeit erzielen als die zugrundeliegenden direkten Projektionen, und dass (ii) die Genauigkeit unserer agnostischen, fragment-fähigen Parser der Genauigkeit der Originalparser (trainiert auf streng gefilterten, komplett projizierten Bäumen) annähernd gleichgestellt ist. Schließlich zeigen wir mit künstlich fragmentierten Gold-Standard-Daten, dass (iii) der Verlust an Genauigkeit selbst dann bescheiden bleibt, wenn bis zu 50% aller Kanten in den Trainingsdaten fehlen. KW - Dependenzparsing KW - partielle Annotationen KW - schwach überwachte Lernverfahren KW - Annotationsprojektion KW - Parallelkorpora KW - dependency parsing KW - partial annotations KW - weakly supervised learning techniques KW - annotation projection KW - parallel corpora Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57498 ER - TY - THES A1 - Wulf, Hendrik T1 - Seasonal precipitation, river discharge, and sediment flux in the western Himalaya T1 - Saisonaler Niederschlag, Wasserabfluss und Sedimentationsfluss im westlichen Himalaya N2 - Rainfall, snow-, and glacial melt throughout the Himalaya control river discharge, which is vital for maintaining agriculture, drinking water and hydropower generation. However, the spatiotemporal contribution of these discharge components to Himalayan rivers is not well understood, mainly because of the scarcity of ground-based observations. Consequently, there is also little known about the triggers and sources of peak sediment flux events, which account for extensive hydropower reservoir filling and turbine abrasion. We therefore lack basic information on the distribution of water resources and controls of erosion processes. In this thesis, I employ various methods to assess and quantify general characteristics of and links between precipitation, river discharge, and sediment flux in the Sutlej Valley. First, I analyze daily precipitation data (1998-2007) from 80 weather stations in the western Himalaya, to decipher the distribution of rain- and snowfall. Rainfall magnitude frequency analyses indicate that 40% of the summer rainfall budget is attributed to monsoonal rainstorms, which show higher variability in the orogenic interior than in frontal regions. Combined analysis of rainstorms and sediment flux data of a major Sutlej River tributary indicate that monsoonal rainfall has a first order control on erosion processes in the orogenic interior, despite the dominance of snowfall in this region. Second, I examine the contribution of rainfall, snow and glacial melt to river discharge in the Sutlej Valley (s55,000 km2), based on a distributed hydrological model, which covers the period 2000-2008. To achieve high spatial and daily resolution despite limited ground-based observations the hydrological model is forced by daily remote sensing data, which I adjusted and calibrated with ground station data. The calibration shows that the Tropical Rainfall Measuring Mission (TRMM) 3B42 rainfall product systematically overestimates rainfall in semi-arid and arid regions, increasing with aridity. The model results indicate that snowmelt-derived discharge (74%) is most important during the pre-monsoon season (April to June) whereas rainfall (56%) and glacial melt (17%) dominate the monsoon season (July-September). Therefore, climate change most likely causes a reduction in river discharge during the pre-monsoon season, which especially affects the orogenic interior. Third, I investigate the controls on suspended sediment flux in different parts of the Sutlej catchments, based on daily gauging data from the past decade. In conjunction with meteorological data, earthquake records, and rock strength measurements I find that rainstorms are the most frequent trigger of high-discharge events with peaks in suspended sediment concentrations (SSC) that account for the bulk of the suspended sediment flux. The suspended sediment flux increases downstream, mainly due to increases in runoff. Pronounced erosion along the Himalayan Front occurs throughout the monsoon season, whereas efficient erosion of the orogenic interior is confined to single extreme events. The results of this thesis highlight the importance of snow and glacially derived melt waters in the western Himalaya, where extensive regions receive only limited amounts of monsoonal rainfall. These regions are therefore particularly susceptible to global warming with major implications on the hydrological cycle. However, the sediment discharge data show that infrequent monsoonal rainstorms that pass the orographic barrier of the Higher Himalaya are still the primary trigger of the highest-impact erosion events, despite being subordinate to snow and glacially–derived discharge. These findings may help to predict peak sediment flux events and could underpin the strategic development of preventative measures for hydropower infrastructures. N2 - Regen, Schnee- und Gletscherschmelze speisen die Flüsse des Himalajas, die eine große Bedeutung für die Landwirtschaft, Trinkwasserversorgung und Wasserkraftnutzung in Südasien aufweisen. Welchen Anteil die einzelnen Abflusskomponenten am Gesamtabfluss in Raum und Zeit besitzen, ist jedoch kaum quantifiziert, da es in der entlegenen Region an Bodenmessstationen mangelt. Aus diesem Grund ist auch wenig über die Auslöser und Herkunftsgebiete von hohen Sedimentaustragsereignissen bekannt, die im erheblichen Maße dazu beitragen, dass die Kapazität vonWasserkraftreservoiren abnimmt undWasserkraftturbinen abradieren. Daher fehlen bisher grundlegende Informationen zur räumlichen Verteilung von Wasserressourcen und zu den Ursachen von Erosionsprozessen. In dieser Arbeit benutze ich verschiedene Methoden um die Eigenschaften von und die Beziehungen zwischen Niederschlag, Abflussmenge und Sedimentaustrag im Sutlej-Tal zu untersuchen. In einer ersten Studie analysiere ich Tagesniederschläge (1998-2007) von 80 Wetterstationen aus dem westlichen Himalaja, um die räumliche Verteilung von Regen- und Schneeniederschlägen zu charakterisieren. Die weitere Analyse der Magnituden-Häufigkeitsverteilung von Regenfällen zeigt, dass 40% der sommerlichen Niederschläge auf monsunale Starkregenereignisse zurückgehen, die eine höhere Variabilität im Gebirgsinneren aufweisen als an der Gebirgsfront. Die Kombination von Niederschlagsdaten mit Sedimentaustragsdaten für einen der größten Zuflüsse des Sutlejs zeigt, dass monsunaler Niederschlag der primäre Auslöser von Erosionsprozessen im Gebirgsinneren ist, ungeachtet größerer Abflussmengen durch Schnee- und Gletscherschmelze. In einer zweiten Studie untersuche ich den Beitrag von Regen, Schnee- und Gletscherschmelze zur Abflussmenge im Sutlej-Tal (s55.000 km2) mit Hilfe eines hydrologischen Modells für den Jahreszeitraum 2000-2008. Um trotz der begrenzten Bodenmessungen eine hohe räumliche und zeitliche Auflösung zu erzielen, basiert das Modell auf täglichen Fernerkundungsdaten, die ich mit allen verfügbaren Bodenstationsdaten kalibriert und an diese angepasst habe. Die Kalibrierung zeigt, dass das Regenniederschlagsprodukt 3B42 der „Tropical Rainfall Measuring Mission“ (TRMM) den Bodenniederschlag in den semi-ariden bis ariden Gebirgsregionen mit zunehmender Trockenheit systematisch überschätzt. Die Modellierungsergebnisse verdeutlichen, dass die Schneeschmelze den bedeutendsten Beitrag zur Abflussmenge (74 %) zwischen April und Juni aufbringt, während Regen (56%) und Gletscherschmelze (17%) die Monsunsaison (Juli-September) prägen. Daher ist anzunehmen, dass der Klimawandel zu einer Verringerung der Abflussmenge zwischen April und Juni führen wird, was sich besonders auf das Gebirgsinnere auswirkt. In einer dritten Studie untersuche ich mit Hilfe von täglichen Messdaten der letzten Dekade die Ursachen und Eigenschaften des Sedimentaustrags in verschiedenen Bereichen des Sutlej-Einzugsgebietes. Auf der Grundlage von meteorologischen Daten, Erdbebenaufzeichnungen und Gesteinsfestigkeitsmessungen identifiziere ich Starkregenereignisse als häufigste Ursache für extreme Erosionsereignisse, die einen Großteil des gesamten Sedimentaustrags ausmachen. Großräumig betrachtet nimmt der Sedimentaustrag flussabwärts zu, was hauptsächlich auf den Anstieg der Abflussmenge zurückzuführen ist. Zur Monsunzeit treten Erosionsprozesse entlang der Himalajafront besonders häufig auf, während im Gebirgsinneren die Erosion auf einzelne Extremereignisse beschränkt ist. Die Ergebnisse dieser Arbeit untersteichen die Bedeutung von Schnee- und Gletscherschmelze im westlichen Himalaja, in dem große Gebiete nur vereinzelt von monsunalen Niederschlägen erreicht werden. Diese Gebiete sind daher besonders anfällig für den Klimawandel mit weitreichenden Konsequenzen für den Wasserhaushalt in der Region. Die Analyse von Sedimentaustragsdaten zeigt jedoch, dass vereinzelte monsunale Regenstürme, welche die topographische Barriere des Himalaja überqueren, die primäre Ursache von extremen Erosionsereignissen sind, trotz der größeren Abflussmengen von Schnee- und Gletscherschmelze im Gebirgsinneren. Diese Ergebnisse können dazu beitragen, große Erosionsereignisse vorherzusagen und vorbeugende Maßnahmen zum Schutz von Wasserkraftanlagen zu entwickeln. KW - Klimawandel KW - Erosion KW - Monsun KW - Regensturm KW - Suspendsionsfracht KW - climate change KW - erosion KW - monsoon KW - rainstorm KW - suspended sediment Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57905 ER - TY - THES A1 - Hartig, Juliane T1 - Learning and innovation a distance : an empirical investigation into the benefits and liabilities of different froms of distance on interactive learning and novelty creation in German biotechnology SMEs Y1 - 2011 SN - 978-3-8349-3178-8 U6 - https://doi.org/10.1007/978-3-8349-6904-0 PB - Gabler Verlag / Springer Fachmedien Wiesbaden GmbH Wiesbaden CY - Wiesbaden ER - TY - THES A1 - Wichura, Henry T1 - Topographic evolution of the East African Plateau : a combined study on lava-flow modeling and paleo-topography T1 - Die topographische Entwicklung des Ostafrikanischen Plateaus : eine kombinierte Studie über Lavastrommodellierung und Paläotopographie N2 - The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa. N2 - Das Ostafrikanische Plateau ist ein eindrucksvolles Beispiel für aktive, kontinentale Grabenbildung, aber auch für geodynamische Hochebenenbildung mit weitreichendem klimatischen Einfluss auf die gesamte Region. Als integraler Bestandteil des Ostafrikanischen Grabensystems beläuft sich die mittlere Höhe des Plateaus auf durchschnittlich 1000 m ü.NN. Seine Lage korreliert gut mit der Präsenz einer halbkreisförmigen negativen Bouguer-Schwereanomalie, die an den Aufstieg eines Manteldiapirs im Untergrund gekoppelt ist. Dieser prägte die känozoische Krustenentwicklung seit seinem Aufstieg im Eozän-Oligozän. Die Hebungsgeschichte und topographische Entwicklung des Hochlandes steht seither in enger Beziehung zum einsetzenden Vulkanismus, der Bildung erster Abschiebungssysteme und führte schließlich zur Entwicklung des heutigen Vollgrabensystems. Neueste Hypothesen lassen den Schluss zu, dass topographische Veränderungen als dominierende Einflussgrößen atmosphärischer Zirkulationsmuster sowie der regionalen Niederschlagsverbreitung anzusehen sind. Zusätzlich werden diese Prozesse durch die äquatoriale Lage des Ostafrikanischen Plateaus verstärkt und die Hebung dieser Region oft mit wichtigen Klima- und Umweltveränderungen in Ostafrika und angrenzende Gebiete in Verbindung gebracht. Während der weitreichende klimatische Einfluss des Hochlandes größtenteils akzeptiert ist, sind Zeitpunkt und Ausmaß seiner Heraushebung nicht eindeutig bestimmt und daher noch immer Grundlage bestehender Diskussionen. Diese Zwangslage hat ihre Ursache im Fehlen aussagekräftiger und datierbarer Referenzhorizonte. Um den Hebungsbetrag zu quantifizieren und Beweise signifikanten Reliefs vor der Entwicklung des Grabensystems entlang des Ostafrikanischen Hochlandes zu erbringen, analysierte und modellierte ich einen der längsten terrestrischen Lavaströme. Dieser vor 13,5 Ma abgelagerte Yatta-Lavastrom hat mit 300 km Länge seinen Ursprung in der Region der heutigen östlichen Grabenschulter des zentralen Kenia-Rifts. Die phonolitische Lava ergoss sich entlang eines Flussbettes, das einst die östliche Flanke des Hochlandes entwässerte. Aufgrund unterschiedlicher Erosionspotentiale bildet der Lavastrom gegenwärtig ein positives Relief und befindet sich oberhalb des Athi Flusses, der parallel zum Paläofluß, und somit versetzt zu seinen früheren Verlauf, strömt. Mein Ansatz der Lavastrom-Modellierung basiert auf einer Methode, die das Fließverhalten einer beliebigen Lava in Abhängigkeit von Temperatur und Magmenzusammensetzung in einem rechtwinkligen Kanal berechnet. Die wesentlichen Wachstumsmuster des Lavastroms sind durch ein eindimensionales Modell beschrieben, wobei Newtonsches Fließverhalten im Innern hinter der Lavastromfront von der zeitlichen Entwicklung der Viskosität und/oder der Fließgeschwindigkeit bestimmt wird. Vergleiche meiner Resultate mit verschiedenen Magmenzusammensetzungen zeigen, dass sich lange, kanalisierte Lavaströme mit hohen Ergussraten und schneller Platznahme bilden können. Dies geschieht unter annähernd isothermalen Bedingungen und erfordert laminares Fließen. Die Integration der Yatta- Lavastrom-Dimensionen und der bedeckten Paläotopographie (Neigungswinkel) in das Modell, erlaubte es mir die Topographie des Ostafrikanischen Hochlandes vor der Grabenbildung zu modellieren. Das Ergebnis der Modellierung ergibt einen Neigungswinkel von mindestens 0,2° und impliziert, dass der Lavastrom seinen Ursprung in einer Höhe von mindestens 1400 m ü.NN gehabt haben muss. Somit existierte bereits vor 13,5 Ma hohe Topographie in der heutigen Region des zentralen Kenia-Rifts. Diese abgeleitete regionale Hebungsgeschichte im mittleren Miozän korreliert mit der zweistufigen Ausbreitung der Graslandschaften, sowie dem Aufkommen neuer Arten im tropischen Afrika. Die Kombination aus Fließverhalten, Entstehungsort und morphologischer Eigenschaften macht den Yatta-Lavastrom zu einem “Paläoneigungsmesser” und wichtigen vulkanischen Untersuchungsobjekt für die topographische Entwicklung in Ostafrika. KW - Ostafrika KW - Plateau KW - Paläotopographie KW - Miozän KW - Yatta KW - East African Plateau KW - paleo-topography KW - Miocene KW - Yatta Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52363 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P