TY - THES A1 - Lopez Valencia, Diego Andres T1 - The Milnor-Moore and Poincaré-Birkhoff-Witt theorems in the locality set up and the polar structure of Shintani zeta functions T1 - Die Milnor-Moore und Poincaré-Birkhoff-Witt Theoreme in der Lokalität und die polare Struktur der Shintani-Zeta-Abbildungen N2 - This thesis bridges two areas of mathematics, algebra on the one hand with the Milnor-Moore theorem (also called Cartier-Quillen-Milnor-Moore theorem) as well as the Poincaré-Birkhoff-Witt theorem, and analysis on the other hand with Shintani zeta functions which generalise multiple zeta functions. The first part is devoted to an algebraic formulation of the locality principle in physics and generalisations of classification theorems such as Milnor-Moore and Poincaré-Birkhoff-Witt theorems to the locality framework. The locality principle roughly says that events that take place far apart in spacetime do not infuence each other. The algebraic formulation of this principle discussed here is useful when analysing singularities which arise from events located far apart in space, in order to renormalise them while keeping a memory of the fact that they do not influence each other. We start by endowing a vector space with a symmetric relation, named the locality relation, which keeps track of elements that are "locally independent". The pair of a vector space together with such relation is called a pre-locality vector space. This concept is extended to tensor products allowing only tensors made of locally independent elements. We extend this concept to the locality tensor algebra, and locality symmetric algebra of a pre-locality vector space and prove the universal properties of each of such structures. We also introduce the pre-locality Lie algebras, together with their associated locality universal enveloping algebras and prove their universal property. We later upgrade all such structures and results from the pre-locality to the locality context, requiring the locality relation to be compatible with the linear structure of the vector space. This allows us to define locality coalgebras, locality bialgebras, and locality Hopf algebras. Finally, all the previous results are used to prove the locality version of the Milnor-Moore and the Poincaré-Birkhoff-Witt theorems. It is worth noticing that the proofs presented, not only generalise the results in the usual (non-locality) setup, but also often use less tools than their counterparts in their non-locality counterparts. The second part is devoted to study the polar structure of the Shintani zeta functions. Such functions, which generalise the Riemman zeta function, multiple zeta functions, Mordell-Tornheim zeta functions, among others, are parametrised by matrices with real non-negative arguments. It is known that Shintani zeta functions extend to meromorphic functions with poles on afine hyperplanes. We refine this result in showing that the poles lie on hyperplanes parallel to the facets of certain convex polyhedra associated to the defining matrix for the Shintani zeta function. Explicitly, the latter are the Newton polytopes of the polynomials induced by the columns of the underlying matrix. We then prove that the coeficients of the equation which describes the hyperplanes in the canonical basis are either zero or one, similar to the poles arising when renormalising generic Feynman amplitudes. For that purpose, we introduce an algorithm to distribute weight over a graph such that the weight at each vertex satisfies a given lower bound. N2 - Diese Arbeit schlägt eine Brücke zwischen zwei Bereichen der Mathematik, einerseits der Algebra mit dem Milnor-Moore-Theorem (auch Cartier-Quillen-Milnor-Moore-Theorem genannt) sowie dem Poincaré-Birkhoff-Witt-Theorem und andererseits der Analysis mit den Shintani-Zetafunktionen, die eine Verallgemeinerung der Mehrfach-Zetafunktionen darstellen. Der erste Teil ist einer algebraischen Formulierung des Lokalitätsprinzips in der Physik und Verallgemeinerungen von Klassifikationstheoremen wie dem Milnor-Moore- und dem Poincaré-Birkhoff-Witt-Theorem auf den Lokalitätsrahmen gewidmet. Das Lokalitätsprinzip besagt grob, dass Ereignisse, die in der Raumzeit weit voneinander entfernt stattfinden, sich nicht gegenseitig beeinflussen. Die hier erörterte algebraische Formulierung dieses Prinzips ist nützlich bei der Analyse von Singularitäten, die aus weit voneinander entfernten Ereignissen im Raum entstehen, um sie zu renormalisieren und dabei die Tatsache im Gedächtnis zu behalten, dass sie sich nicht gegenseitig beeinflussen. Wir beginnen damit, dass wir einen Vektorraum mit einer symmetrischen Relation, der so genannten Lokalitätsrelation, ausstatten, die die "lokal unabhängigen" Elemente festhält. Das Paar aus einem Vektorraum und einer solchen Relation wird als Vorlokalitäts-Vektorraum bezeichnet. Dieses Konzept wird auf Tensorprodukte erweitert, die nur Tensoren aus lokal unabhängigen Elementen zulassen. Wir erweitern dieses Konzept auf die Lokalitäts-Tensor-Algebra und die symmetrische Lokalitäts-Algebra eines Vorlokalitäts-Vektorraums und beweisen die universellen Eigenschaften jeder dieser Strukturen. Wir führen auch die Vorlokalitäts-Lie-Algebren zusammen mit den zugehörigen universellen Hüllalgebren der Lokalität ein und beweisen ihre universelle Eigenschaft. Später übertragen wir alle diese Strukturen und Ergebnisse aus dem Kontext der Vorlokalität in den Kontext der Lokalität, wobei die Lokalitätsbeziehung mit der linearen Struktur des Vektorraums kompatibel sein muss. Auf diese Weise können wir Lokalitäts-Kohlengebren, Lokalitäts-Bialgebren und Lokalitäts-Hopf-Algebren definieren. Schließlich werden alle vorherigen Ergebnisse verwendet, um die Lokalitätsversionen des Milnor-Moore- und des Poincaré-Birkhoff-Witt-Theorems zu beweisen. Es ist erwähnenswert, dass die vorgestellten Beweise nicht nur die Ergebnisse im üblichen (Nichtlokalitäts-) Aufbau verallgemeinern, sondern auch oft weniger Hilfsmittel verwenden als ihre Gegenstücke in ihren Nichtlokalitäts-Gegenstücken. Der zweite Teil ist der Untersuchung der polaren Struktur der Shintani-Zeta-Funktionen gewidmet. Diese Funktionen, die u.a. die Riemman-Zetafunktion, die multiplen Zetafunktionen und die Mordell-Tornheim-Zetafunktionen verallgemeinern, werden durch Matrizen mit reellen, nicht-negativen Argumenten parametrisiert. Es ist bekannt, dass Shintani-Zetafunktionen sich zu meromorphen Funktionen mit Polen auf affinen Hyperebenen erweitern. Wir verfeinern dieses Ergebnis, indem wir zeigen, dass die Pole auf Hyperebenen liegen, die parallel zu den Facetten bestimmter konvexer Polyeder verlaufen, die mit der Definitionsmatrix für die Shintani-Zeta-Funktion assoziiert sind. Letztere sind explizit die Newton-Polytope der Polynome, die durch die Spalten der zugrunde liegenden Matrix induziert werden. Wir beweisen dann, dass die Koeffizienten der Gleichung, die die Hyperebenen in der kanonischen Basis beschreibt, entweder Null oder Eins sind, ähnlich wie die Pole, die bei der Renormierung generischer Feynman-Amplituden entstehen. Zu diesem Zweck führen wir einen Algorithmus ein, um die Gewichte über einen Graphen so zu verteilen, dass das Gewicht an jedem Knoten eine gegebene untere Schranke erfüllt. KW - locality principle KW - multizeta functions KW - meromorphic continuation KW - Milnor Moore theorem KW - Poincaré Birkhoff Witt theorem KW - Newton polytopes KW - Satz von Milnor Moore KW - Newton Polytope KW - Satz von Poincaré Birkhoff Witt KW - Lokalitätsprinzip KW - meromorphe Fortsetzung KW - Multizeta-Abbildungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-594213 ER - TY - THES A1 - Gehring, Penelope T1 - Non-local boundary conditions for the spin Dirac operator on spacetimes with timelike boundary T1 - Nicht-lokale Randbedingungen für den spinorialen Dirac-Operator auf Raumzeiten mit zeitartigen Rand N2 - Non-local boundary conditions – for example the Atiyah–Patodi–Singer (APS) conditions – for Dirac operators on Riemannian manifolds are rather well-understood, while not much is known for such operators on Lorentzian manifolds. Recently, Bär and Strohmaier [15] and Drago, Große, and Murro [27] introduced APS-like conditions for the spin Dirac operator on Lorentzian manifolds with spacelike and timelike boundary, respectively. While Bär and Strohmaier [15] showed the Fredholmness of the Dirac operator with these boundary conditions, Drago, Große, and Murro [27] proved the well-posedness of the corresponding initial boundary value problem under certain geometric assumptions. In this thesis, we will follow the footsteps of the latter authors and discuss whether the APS-like conditions for Dirac operators on Lorentzian manifolds with timelike boundary can be replaced by more general conditions such that the associated initial boundary value problems are still wellposed. We consider boundary conditions that are local in time and non-local in the spatial directions. More precisely, we use the spacetime foliation arising from the Cauchy temporal function and split the Dirac operator along this foliation. This gives rise to a family of elliptic operators each acting on spinors of the spin bundle over the corresponding timeslice. The theory of elliptic operators then ensures that we can find families of non-local boundary conditions with respect to this family of operators. Proceeding, we use such a family of boundary conditions to define a Lorentzian boundary condition on the whole timelike boundary. By analyzing the properties of the Lorentzian boundary conditions, we then find sufficient conditions on the family of non-local boundary conditions that lead to the well-posedness of the corresponding Cauchy problems. The well-posedness itself will then be proven by using classical tools including energy estimates and approximation by solutions of the regularized problems. Moreover, we use this theory to construct explicit boundary conditions for the Lorentzian Dirac operator. More precisely, we will discuss two examples of boundary conditions – the analogue of the Atiyah–Patodi–Singer and the chirality conditions, respectively, in our setting. For doing this, we will have a closer look at the theory of non-local boundary conditions for elliptic operators and analyze the requirements on the family of non-local boundary conditions for these specific examples. N2 - Über nicht-lokale Randbedingungen – zum Beispiel dieAtiyah–Patodi–Singer (APS)-Bedingungen – für Dirac Operatoren auf Riemannschen Mannigfaltigkeiten ist recht viel bekannt, während für die hyperbolischen Dirac Operatoren auf Lorentz-Mannigfaltigkeiten dies noch nicht der Fall ist. Kürzlich haben Bär und Strohmaier [15] und Drago, Große und Murro [27] APS-ähnliche Bedingungen für den Spin Dirac Operator auf Lorentz-Mannigfaltigkeiten mit raumartigen bzw. zeitartigen Rand eingeführt. Während Bär und Strohmaier [15] zeigten, dass der Dirac Operator mit diesen Randbedingungen Fredholm ist, bewiesen Drago, Große und Murro [27] die Wohlgestelltheit des entsprechenden Anfangsrandwertproblems unter bestimmten geometrischen Annahmen. In dieser Arbeit werden wir in die Fußstapfen der letztgenannten Autoren treten und diskutieren, ob die APS-ähnlichen Bedingungen für Dirac Operatoren auf Lorentz-Mannigfaltigkeiten mit zeitartigen Rand durch allgemeinere Bedingungen ersetzt werden können, sodass die zugehörigen Anfangsrandwertprobleme immer noch wohlgestellt sind. Wir betrachten Randbedingungen, die in der Zeit lokal und in den Raumrichtungen nicht-lokal sind. Genauer gesagt verwenden wir die Raumzeitblätterung, die sich aus der Cauchy Zeitfunktion ergibt, und spalten den Dirac Operator entlang dieser Foliation auf. Daraus ergibt sich eine Familie elliptischer Operatoren, die jeweils auf Spinoren des Spinbündels über den entsprechenden Zeitschnitt wirken. Die Theorie der elliptischen Operatoren stellt dann sicher, dass wir Familien von nichtlokalen Randbedingungen bezüglich dieser Familie von Operatoren finden können. Im weiteren Verlauf verwenden wir solche Familien von Randbedingungen, um eine Lorentzsche Randbedingung auf dem gesamten zeitartigen Rand zu definieren. Durch das Analysieren der Lorentzschen Randbedingungen finden wir dann hinreichende Bedingungen für die Familie der nicht-lokalen Randbedingungen, die zur Wohlgestelltheit der entsprechenden Cauchy-Probleme führen. Die Wohlgestelltheit selbst wird dann mit Hilfe klassischer Methoden bewiesen, einschließlich Energieabschätzungen und Annäherung durch Lösungen der regularisierten Probleme. Außerdem verwenden wir diese Theorie, um explizite Randbedingungen für den Lorentzschen Dirac Operator zu konstruieren. Genauer gesagt werden wir zwei Beispiele für Randbedingungen diskutieren - das Analogon der Atiyah-Patodi-Singer- bzw. Chiralitäts-Bedingungen für unseren Fall. Dazu werden wir uns die Theorie der nicht-lokalen Randbedingungen für elliptische Operatoren genauer ansehen und die Anforderungen an die Familie der nicht-lokalen Randbedingungen für diese Beispiele analysieren. KW - Dirac operator KW - Diracoperator KW - spacetimes with timelike boundary KW - Raumzeiten mit zeitartigen Rand KW - boundary conditions KW - Randbedingungen KW - initial boundary value problem KW - Anfangsrandwertproblem Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577755 ER - TY - GEN A1 - Evans, Myfanwy E. A1 - Hyde, Stephen T. T1 - Symmetric Tangling of Honeycomb Networks T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Symmetric, elegantly entangled structures are a curious mathematical construction that has found their way into the heart of the chemistry lab and the toolbox of constructive geometry. Of particular interest are those structures—knots, links and weavings—which are composed locally of simple twisted strands and are globally symmetric. This paper considers the symmetric tangling of multiple 2-periodic honeycomb networks. We do this using a constructive methodology borrowing elements of graph theory, low-dimensional topology and geometry. The result is a wide-ranging enumeration of symmetric tangled honeycomb networks, providing a foundation for their exploration in both the chemistry lab and the geometers toolbox. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1282 KW - tangles KW - knots KW - networks KW - periodic entanglement KW - molecular weaving KW - graphs Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570842 SN - 1866-8372 IS - 1282 ER - TY - THES A1 - Fabian, Melina T1 - Grundvorstellungen bei Zahlbereichserweiterungen T1 - Basic ideas ('Grundvorstellungen') for numerical extensions BT - von N nach Q+ oder von N nach Z? N2 - Die Erweiterung des natürlichen Zahlbereichs um die positiven Bruchzahlen und die negativen ganzen Zahlen geht für Schülerinnen und Schüler mit großen gedanklichen Hürden und einem Umbruch bis dahin aufgebauter Grundvorstellungen einher. Diese Masterarbeit trägt wesentliche Veränderungen auf der Vorstellungs- und Darstellungsebene für beide Zahlbereiche zusammen und setzt sich mit den kognitiven Herausforderungen für Lernende auseinander. Auf der Grundlage einer Diskussion traditioneller sowie alternativer Lehrgänge der Zahlbereichserweiterung wird eine Unterrichtskonzeption für den Mathematikunterricht entwickelt, die eine parallele Einführung der Bruchzahlen und der negativen Zahlen vorschlägt. Die Empfehlungen der Unterrichtkonzeption erstrecken sich über den Zeitraum von der ersten bis zur siebten Klassenstufe, was der behutsamen Weiterentwicklung und Modifikation des Zahlbegriffs viel Zeit einräumt, und enthalten auch didaktische Überlegungen sowie konkrete Hinweise zu möglichen Aufgabenformaten. N2 - The extension of the natural number range to include the positive fractions and the negative integers is accompanied by great mental hurdles for students and an upheaval of previously established basic concepts. This Master's thesis brings together essential changes at the level of imagination and representation for both number ranges and deals with the cognitive challenges for learners. Based on a discussion of traditional as well as alternative courses of number range extension, a teaching conception for mathematics lessons is developed that proposes a parallel introduction of fractions and negative numbers. The recommendations of the teaching conception cover the period from the first to the seventh grade, which allows a lot of time for the careful further development and modification of the number concept, and also contain didactic considerations as well as concrete hints on possible task formats. KW - Mathematikdidaktik KW - Zahlbereichserweiterung KW - Grundvorstellungen KW - negative Zahlen KW - Bruchzahlen KW - fractions KW - basic ideas ('Grundvorstellungen') KW - didactics of mathematics KW - numerical extension KW - negative numbers Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565930 ER - TY - THES A1 - Hain, Tobias Martin T1 - Structure formation and identification in geometrically driven soft matter systems T1 - Strukturbildung und Identifikation in geometrisch getriebenen weiche Materie-Systemen N2 - Subdividing space through interfaces leads to many space partitions that are relevant to soft matter self-assembly. Prominent examples include cellular media, e.g. soap froths, which are bubbles of air separated by interfaces of soap and water, but also more complex partitions such as bicontinuous minimal surfaces. Using computer simulations, this thesis analyses soft matter systems in terms of the relationship between the physical forces between the system's constituents and the structure of the resulting interfaces or partitions. The focus is on two systems, copolymeric self-assembly and the so-called Quantizer problem, where the driving force of structure formation, the minimisation of the free-energy, is an interplay of surface area minimisation and stretching contributions, favouring cells of uniform thickness. In the first part of the thesis we address copolymeric phase formation with sharp interfaces. We analyse a columnar copolymer system "forced" to assemble on a spherical surface, where the perfect solution, the hexagonal tiling, is topologically prohibited. For a system of three-armed copolymers, the resulting structure is described by solutions of the so-called Thomson problem, the search of minimal energy configurations of repelling charges on a sphere. We find three intertwined Thomson problem solutions on a single sphere, occurring at a probability depending on the radius of the substrate. We then investigate the formation of amorphous and crystalline structures in the Quantizer system, a particulate model with an energy functional without surface tension that favours spherical cells of equal size. We find that quasi-static equilibrium cooling allows the Quantizer system to crystallise into a BCC ground state, whereas quenching and non-equilibrium cooling, i.e. cooling at slower rates then quenching, leads to an approximately hyperuniform, amorphous state. The assumed universality of the latter, i.e. independence of energy minimisation method or initial configuration, is strengthened by our results. We expand the Quantizer system by introducing interface tension, creating a model that we find to mimic polymeric micelle systems: An order-disorder phase transition is observed with a stable Frank-Caspar phase. The second part considers bicontinuous partitions of space into two network-like domains, and introduces an open-source tool for the identification of structures in electron microscopy images. We expand a method of matching experimentally accessible projections with computed projections of potential structures, introduced by Deng and Mieczkowski (1998). The computed structures are modelled using nodal representations of constant-mean-curvature surfaces. A case study conducted on etioplast cell membranes in chloroplast precursors establishes the double Diamond surface structure to be dominant in these plant cells. We automate the matching process employing deep-learning methods, which manage to identify structures with excellent accuracy. N2 - Die Unterteilung eines Raums durch Grenzflächen führt zu Raumaufteilungen, die für die Selbstorganisation weicher Materie relevant sind. Bekannte Beispiele sind zelluläre Medien, wie z.B. Seifenschaum, der aus Luftblasen besteht, getrennt durch Wände aus Wasser und Seife, und komplexere Partitionen, wie sie z.B. durch bikontinuierliche Minimalflächen erzeugt werden. In dieser Arbeit werden mit Hilfe von Computersimulationen Systeme weicher Materie in Bezug auf den Zusammenhang zwischen dem im System vorherrschenden, physikalischen Kräften und der Struktur der resultierenden Grenzflächen oder Partitionen untersucht. Der Schwerpunkt liegt hierbei auf zwei Systemen, eine Copolymerschmelze und das sogenannte Quantizer Problem, bei denen der treibende Faktor der Strukturbildung, nämlich die Minimierung der freien Energie, aus einem Zusammenspiel der Minimierung der Oberfläche der Grenzflächen und der gleichzeitigen Minimierung der Elastizitätsenergie besteht. Unter diesen Gegebenheiten bevorzugen solche Systeme Zellen gleichmäßiger Größe. Im ersten Teil der Arbeit befassen wir uns mit der Bildung von scharfen Grenzflächen in Systemen von Copolymeren. Wir analysieren die zylindrische Phase eines Copolymersystems, das gezwungen wird, sich auf einer kugelförmigen Oberfläche zu organisieren. Die Topologie dieser Oberfläche erlaubt es der optimalen Konfiguration, dem Sechseckgitter, nicht, sich zu bilden. Für dreiarmige Copolymere wird die entstehende Struktur durch Lösungen des sogenannten Thomson Problems beschrieben. Letzteres sucht nach der Konfigurationen von abstoßenden Ladungen auf einer Kugeloberfläche mit minimaler Energie. Auf einem Substrat haben wir eine Kombination aus drei ineinandergreifende Lösungen des Thomson Problems gefunden, wobei der Typ der Lösungen statistisch von dem Radius des Substrates abhängt. Anschließend untersuchen wir die Bildung von amorphen und kristallinen Strukturen im Quantizersystem, einem teilchenbasierenden Modell, dessen Energiefunktional keine Oberflächenspannung enthält und möglichst kugelförmige Zellen gleicher Größe begünstigt. Wird das System quasistatisch im thermodynamischen Gleichgewicht abgekühlt, kristallisiert das Quantizersystem in den geordneten BCC Grundzustand. Wird das System allerdings zu schnell abgekühlt, sodass es sich nicht mehr im thermodynamischen Gleichgewicht befindet, bildet sich eine amorphe, annähernd hyperuniforme Struktur aus. Wir konnten zeigen, dass diese Struktur bemerkenswert unabhängig von den Ausganszuständen, sowie der Art der Energieminimierung zu sein scheint. Im Ausblick erweitern wir das Quantizersystem, indem wir Oberflächenspannung einführen. Unsere Ergebnisse deutet darauf hin, dass dieses so erweiterte Modell Mizellenphasen in Polymersystem modellieren kann. Wir beobachten einen Phasenübergang von einer ungeordneten, flüssigen Phase hin zu einer festen Frank-Caspar-Phase. Der zweite Teil der Arbeit behandelt bikontinuierliche Grenzflächen, die den Raum in zwei netzwerkartige Domänen aufteilen. Wir führen eine Open-Source Software ein, das die Identifizierung von Strukturen anhand derer Mikroskopaufnahmen ermöglicht. Hierzu erweitern und verbessern wir eine Methode, die durch den Abgleich experimentell zugänglicher Projektionen in Mikroskopaufnahmen mit berechneten Projektionen potenzieller Strukturen basiert. Dieses Verfahren wurde erstmal von Deng und Mieczkowski (1998) eingeführt. Die simulierten Strukturen basieren auf einer Nodalflächenmodellierung von dreifach-periodischen Flächen konstanter mittlerer Krümmung. Wir führen eine Fallstudie an Zellmembranen von Etioplasten, den Vorläufern von Chloroplasten, durch. Wir konnten die Struktur dieser Etioplasten als die Diamond-Struktur identifizieren. Als Ausblick automatisieren wir den Identifizierungsproyess mit Hilfe von Deep-Learning-Methoden. Erste Ergebnisse zeigen, dass mit diesem Ansatz die Identifizierung von Strukturen mit ausgezeichneter Genauigkeit gelingt. KW - soft matter KW - geometry KW - self-assembly KW - structure formation KW - quantizer KW - polymer KW - Geometrie KW - Polymere KW - Quantizer KW - Selbstassemblierung KW - weiche Materie KW - Strukturbildung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558808 N1 - Parts of this publication are reproduced with permission from the Royal Society of Chemistry and AIP Publishing. ER - TY - THES A1 - Schanner, Maximilian Arthus T1 - Correlation based modeling of the archeomagnetic field T1 - Korrelationsbasierte Modellierung des archäomagnetischen Feldes N2 - The geomagnetic main field is vital for live on Earth, as it shields our habitat against the solar wind and cosmic rays. It is generated by the geodynamo in the Earth’s outer core and has a rich dynamic on various timescales. Global models of the field are used to study the interaction of the field and incoming charged particles, but also to infer core dynamics and to feed numerical simulations of the geodynamo. Modern satellite missions, such as the SWARM or the CHAMP mission, support high resolution reconstructions of the global field. From the 19 th century on, a global network of magnetic observatories has been established. It is growing ever since and global models can be constructed from the data it provides. Geomagnetic field models that extend further back in time rely on indirect observations of the field, i.e. thermoremanent records such as burnt clay or volcanic rocks and sediment records from lakes and seas. These indirect records come with (partially very large) uncertainties, introduced by the complex measurement methods and the dating procedure. Focusing on thermoremanent records only, the aim of this thesis is the development of a new modeling strategy for the global geomagnetic field during the Holocene, which takes the uncertainties into account and produces realistic estimates of the reliability of the model. This aim is approached by first considering snapshot models, in order to address the irregular spatial distribution of the records and the non-linear relation of the indirect observations to the field itself. In a Bayesian setting, a modeling algorithm based on Gaussian process regression is developed and applied to binned data. The modeling algorithm is then extended to the temporal domain and expanded to incorporate dating uncertainties. Finally, the algorithm is sequentialized to deal with numerical challenges arising from the size of the Holocene dataset. The central result of this thesis, including all of the aspects mentioned, is a new global geomagnetic field model. It covers the whole Holocene, back until 12000 BCE, and we call it ArchKalmag14k. When considering the uncertainties that are produced together with the model, it is evident that before 6000 BCE the thermoremanent database is not sufficient to support global models. For times more recent, ArchKalmag14k can be used to analyze features of the field under consideration of posterior uncertainties. The algorithm for generating ArchKalmag14k can be applied to different datasets and is provided to the community as an open source python package. N2 - Das geomagnetische Hauptfeld ist essenziell für das Leben auf der Erde, da es unseren Lebensraum gegen den Sonnenwind und kosmische Strahlung abschirmt. Es wird vom Geodynamo im Erdkern erzeugt und zeigt eine komplexe Dynamik auf unterschiedlichen Zeitskalen. Globale Modelle des Magnetfelds werden zur Studie der Wechselwirkung von einströmenden geladenen Teilchen genutzt, aber auch um Kerndynamiken zu untersuchen und um sie in numerische Simulationen des Geodynamos einzuspeisen. Moderne Satellitenmissionen, wie SWARM und CHAMP, stützen hochauflösende Rekonstruktionen des globalen Felds. Seit dem 19. Jahrhundert wird ein globales Netzwerk von magnetischen Observatorien aufgebaut. Es wächst stetig und globale Modelle können aus den Daten, die es liefert, konstruiert werden. Geomagnetische Feldmodelle, die weiter in der Zeit zurückreichen, basieren auf indirekten Beobachtungen des Felds, d.h. auf thermoremanenten Daten, wie gebrannten Tonen oder vulkanischen Gesteinen, und auf Sedimentdaten aus Seen und Meeren. Diese indirekten Beobachtungen werden mit (teilweise sehr hohen) Unsicherheiten geliefert, die aus den komplexen Datierungs- und Messmethoden resultieren. Ziel dieser Arbeit ist die Entwicklung einer neuen Modellierungsmethode für das globale geomagnetische Feld während des Holozäns, welche die Unsicherheiten berücksichtigt und realistische Schätzungen für die Verlässlichkeit des Modells liefert. Dabei werden lediglich thermoremanente Daten betrachtet. Diesem Ziel wird sich zunächst genähert, indem ein Schnappschuss-Modell konstruiert wird, um die unregelmäßige räumliche Verteilung der Daten und die nichtlineare Beziehung zwischen Daten und Magnetfeld zu untersuchen. In einem Bayesianischen Rahmen wird ein auf Gaussprozessen basierender Algorithmus entwickelt und zunächst auf diskretisierte Daten angewendet. Dieser Algorithmus wird dann um eine zeitabhängige Komponente ergänzt und erweitert, um Datierungsfehler zu berücksichtigen. Zuletzt wird der Algorithmus sequenzialisiert, um mit numerischen Herausforderungen umzugehen, die aufgrund der Größe des Holozän-Datensatzes bestehen. Das zentrale Ergebnis dieser Arbeit, welches alle genannten Aspekte beinhaltet, ist ein neues globales geomagnetisches Feldmodell. Es deckt das gesamte Holozän ab, bis ins Jahr 12000 BCE, und wir nennen es ArchKalmag14k. Bei Betrachtung der Unsicherheiten, die gemeinsam mit dem Modell ermittelt werden, wird deutlich, dass die thermoremanente Datenbasis nicht ausreicht, um globale Modelle vor dem Jahr 6000 BCE zu stützen. Für jüngere Zeiträume kann ArchKalmag14k genutzt werden, um Merkmale des Erdmagnetfelds unter Berücksichtigung der a posteriori Unsicherheiten zu analysieren. Der Algorithmus, mit dem ArchKalmag14k erzeugt wurde, kann auf weitere Datensätze angewendet werden und wird als quelloffenes python-Paket zur Verfügung gestellt. KW - geomagnetism KW - applied mathematics KW - Gaussian processes KW - Kalman filter KW - Gauß-Prozesse KW - Kalman Filter KW - angewandte Mathematik KW - Geomagnetismus Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555875 ER - TY - THES A1 - Fischer, Jens Walter T1 - Random dynamics in collective behavior - consensus, clustering & extinction of populations T1 - Stochastische Dynamiken in kollektivem Verhalten: Konsens, Gruppenbildung, Aussterben von Populationen N2 - The echo chamber model describes the development of groups in heterogeneous social networks. By heterogeneous social network we mean a set of individuals, each of whom represents exactly one opinion. The existing relationships between individuals can then be represented by a graph. The echo chamber model is a time-discrete model which, like a board game, is played in rounds. In each round, an existing relationship is randomly and uniformly selected from the network and the two connected individuals interact. If the opinions of the individuals involved are sufficiently similar, they continue to move closer together in their opinions, whereas in the case of opinions that are too far apart, they break off their relationship and one of the individuals seeks a new relationship. In this paper we examine the building blocks of this model. We start from the observation that changes in the structure of relationships in the network can be described by a system of interacting particles in a more abstract space. These reflections lead to the definition of a new abstract graph that encompasses all possible relational configurations of the social network. This provides us with the geometric understanding necessary to analyse the dynamic components of the echo chamber model in Part III. As a first step, in Part 7, we leave aside the opinions of the inidividuals and assume that the position of the edges changes with each move as described above, in order to obtain a basic understanding of the underlying dynamics. Using Markov chain theory, we find upper bounds on the speed of convergence of an associated Markov chain to its unique stationary distribution and show that there are mutually identifiable networks that are not apparent in the dynamics under analysis, in the sense that the stationary distribution of the associated Markov chain gives equal weight to these networks. In the reversible cases, we focus in particular on the explicit form of the stationary distribution as well as on the lower bounds of the Cheeger constant to describe the convergence speed. The final result of Section 8, based on absorbing Markov chains, shows that in a reduced version of the echo chamber model, a hierarchical structure of the number of conflicting relations can be identified. We can use this structure to determine an upper bound on the expected absorption time, using a quasi-stationary distribution. This hierarchy of structure also provides a bridge to classical theories of pure death processes. We conclude by showing how future research can exploit this link and by discussing the importance of the results as building blocks for a full theoretical understanding of the echo chamber model. Finally, Part IV presents a published paper on the birth-death process with partial catastrophe. The paper is based on the explicit calculation of the first moment of a catastrophe. This first part is entirely based on an analytical approach to second degree recurrences with linear coefficients. The convergence to 0 of the resulting sequence as well as the speed of convergence are proved. On the other hand, the determination of the upper bounds of the expected value of the population size as well as its variance and the difference between the determined upper bound and the actual value of the expected value. For these results we use almost exclusively the theory of ordinary nonlinear differential equations. N2 - Beziehungen und damit Interaktion sowie Diskussion, aber auch Konflikt und Opposition bilden die Grundbausteine einer jeden Gesellschaft. Häufig wird Kommunikation als der übergreigende Begriff zur Beschreibung interner Strukturen einer Gesellschaft identifiziert. Dabei muss es sich aber nicht um eine Gesellschaft im Sinne von Nationen handeln, sondern kann auch schlicht eine Gruppe von Menschen umfassen, die miteinander strukturiert interagieren, beispielsweise, eine Gruppe von Angestellten, die an einem gemeinsamen Projekt arbeiten, oder die Mitglieder eines sozialen Netzwerks. In dieser Arbeit befassen wir uns mit der mathematischen Beschreibung solcher Prozesse innerhalb von Gruppen und Gesellschaften und legen dabei unseren Fokus auf die Bildung eines Konsens durch Interaktion aber auch die Konsequenzen von Konflikt und das potentielle Aussterben einer Population. Dabei werden zwei Modelle im Fokus des Interesses stehen: Das Echokammer Model sowie eine Erweiterung des Geburts-Todes Prozesses, die die Möglichkeit eines radikalen Abfalls der Populationsgr öße miteinschließt. Wir beginnen mit einer Einführung in Part I und teilen die verbleibende Arbeit in drei Teile auf, wobei sich die ersten beiden technischen Abschnitte, Part II und III, mit einer ausführlichen Analyse der Bausteine des Echokammer Models befassen und im dritten Abschnitt, in Part IV, der erweiterte Geburts- Todes Prozess untersucht wird. Dieser wird im Folgenden als Geburts-Todes Prozess mit teilweiser Katastrophe bezeichnet werden. Das Echokammer Model beschreibt die Entwicklung von Gruppen in zunächst heterogenen sozialen Netzwerken. Unter einem heterogenen sozialen Netzwerk verstehen wir dabei eine Menge von Individuen, von denen jedes exakt eine Meinungen vertritt. Meinungen werden vereinfacht durch Werte in [0, 1] modelliert. Bestehende Beziehungen unter den Individuen können dann durch einen Graphen dargestellt werden. Es handelt sich bei dem Echokammer Modell um ein zeit-diskretes Modell, das entsprechend, ähnlich einem Brettspiel, in Zügen abläuft. In jedem Zug wird zufällig gleichverteilt eine bestehende Beziehung aus dem Netzwerk ausgewählt und die beiden verbundenen Individuen interagieren. Dabei kann es zu zwei verschiedenen Interaktionen kommen. Sind die Meinungen der betroffenen Individuen hinreichend ähnlich, so nähern sie sich weiter in ihren Meinungen an, während sie im Fall von Meinungen, die zu weit von einander liegen, ihre Beziehung auflösen und sich eines der Individuen eine neue Beziehung sucht. 8 In dieser Arbeit untersuchen wir theoretisch die Bausteine dieses Modells. Dabei legen wir die Beobachtung zu Grunde, dass die Veränderungen der Beziehungsstruktur im Netzwerk durch einen System von interagierenden Partikeln auf einem abstrakteren Raum beschrieben werden kann. Dies erlaubt es insbesondere graphentheoretische überlegungen in die Analyse einfließen zu lassen. Diese überlegungen werden ausührlich in Part II diskutiert und führen zur Definition eines neuen, abstrahierten Graphens, der alle möglichen Beziehungskonfigurationen des sozialen Netzwerks umfasst. Dies erlaubt es uns einen ähnlichkeitsbegriff für Beziehungskonfigurationen auf Basis der benachbarten Knoten in besagtem Graphen zu definieren. Dies liefert uns das notwendige geometrische Verständnis um in Part III die dynamischen Komponenten des Echokammer models zu analysieren. Insbesondere fokusieren wir uns dabei auf die Dynamik der Kanten, für die bisher in der Literatur noch keine Ergebnisse existieren. Wir lassen zunächst in Abschnitt 7 die Meinungen der Individuen beiseite und nehmen an, dass die Position der Kanten sich in jedem Zug wie zuvor beschrieben ändert, um eine grundlegendes Verständnis der unterliegenden Dynamik zu erhalten. Unter der Verwendung der Theorie von Markovketten finden wir obere Schranken an die Konvergenzgeschwindigkeit einer assoziierten Markovkette gegen ihre eindeutige stationäre Verteilung und zeigen, dass es Netzwerke gibt, die miteinander identifizierbar und unter der analysierten Dynamik daheingehend ununterscheinbar sind, dass die stationäre Verteilung der assozierten Markovkette diesen Netzwerken dasselbe Gewicht zuordnet. Anschließend beweisen wir eine Reihe von quantitativen Resultaten, die sich insbesondere in Fällen, in denen die assozierte Markovkette reversibel ist, als berechenbar herausstellen. Insbesondere die explizite Form der stationären Verteilung sowie untere Schranken an die Cheeger Konstante zur Beschreibung der Konvergenzgeschwindigkeit stehen dabei im Fokus und werden ausführlich diskutiert. Nach dieser vertieften Analyse des reduzierten Modells, fügen wir die Meinungen unserer Betrachtung wieder hinzu. Das abschließende Result in Abschnitt 8, basierend auf absorbierenden Markovketten, liefert dann, dass in einer reduzierte Version des Echokammer Modells, in dem sich Individuen ähnlicher Meinung nicht annähern, eine hierarchische Struktur der Anzahl der konfliktreichen Beziehung identifiziert werden kann. Dies können wir ausnutzen, um eine obere Schranke an die erwartete Absorptionszeit, unter Zuhilfenahme einer quasi-stationären Verteilung, zu bestimmen. Diese hierarchische Struktur bildet außerdem eine Brücke zu klassischen Theorien von Geburts-Todes und, insbesondere, reinen Todes-Prozessen, für die eine reiche Literatur existiert. Wir zeigen abschließend auf, wie künftige Forschung diese Verbindung ausnutzen kann und diskutieren die Wichtigkeit der Ergbenisse als Bausteine eines vollständigen theoretischen Verständnisses des Echokammer Modells. Part IV stellt abschließend einen veröffentlichten Artikel vor, der sich dem Geburts- Todes Prozess mit teilweiser Katastrophe widmet. Besagter Artikel steht dabei auf zwei Säulen. Zum Einen der expliziten Berechnung des ersten Zeitpunkts einer Katastrophe, wenn die Population zu Beginn der Beobachtung von instabiler Größe ist. KW - Markov chains KW - graph theory KW - complex systems KW - interacting particle systems KW - Markovketten KW - komplexe Systeme KW - Graphentheorie KW - Systeme interagierender Partikel Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-553725 ER - TY - THES A1 - Hannes, Sebastian T1 - Boundary Value Problems for the Lorentzian Dirac Operator N2 - The index theorem for elliptic operators on a closed Riemannian manifold by Atiyah and Singer has many applications in analysis, geometry and topology, but it is not suitable for a generalization to a Lorentzian setting. In the case where a boundary is present Atiyah, Patodi and Singer provide an index theorem for compact Riemannian manifolds by introducing non-local boundary conditions obtained via the spectral decomposition of an induced boundary operator, so called APS boundary conditions. Bär and Strohmaier prove a Lorentzian version of this index theorem for the Dirac operator on a manifold with boundary by utilizing results from APS and the characterization of the spectral flow by Phillips. In their case the Lorentzian manifold is assumed to be globally hyperbolic and spatially compact, and the induced boundary operator is given by the Riemannian Dirac operator on a spacelike Cauchy hypersurface. Their results show that imposing APS boundary conditions for these boundary operator will yield a Fredholm operator with a smooth kernel and its index can be calculated by a formula similar to the Riemannian case. Back in the Riemannian setting, Bär and Ballmann provide an analysis of the most general kind of boundary conditions that can be imposed on a first order elliptic differential operator that will still yield regularity for solutions as well as Fredholm property for the resulting operator. These boundary conditions can be thought of as deformations to the graph of a suitable operator mapping APS boundary conditions to their orthogonal complement. This thesis aims at applying the boundary conditions found by Bär and Ballmann to a Lorentzian setting to understand more general types of boundary conditions for the Dirac operator, conserving Fredholm property as well as providing regularity results and relative index formulas for the resulting operators. As it turns out, there are some differences in applying these graph-type boundary conditions to the Lorentzian Dirac operator when compared to the Riemannian setting. It will be shown that in contrast to the Riemannian case, going from a Fredholm boundary condition to its orthogonal complement works out fine in the Lorentzian setting. On the other hand, in order to deduce Fredholm property and regularity of solutions for graph-type boundary conditions, additional assumptions for the deformation maps need to be made. The thesis is organized as follows. In chapter 1 basic facts about Lorentzian and Riemannian spin manifolds, their spinor bundles and the Dirac operator are listed. These will serve as a foundation to define the setting and prove the results of later chapters. Chapter 2 defines the general notion of boundary conditions for the Dirac operator used in this thesis and introduces the APS boundary conditions as well as their graph type deformations. Also the role of the wave evolution operator in finding Fredholm boundary conditions is analyzed and these boundary conditions are connected to notion of Fredholm pairs in a given Hilbert space. Chapter 3 focuses on the principal symbol calculation of the wave evolution operator and the results are used to proof Fredholm property as well as regularity of solutions for suitable graph-type boundary conditions. Also sufficient conditions are derived for (pseudo-)local boundary conditions imposed on the Dirac operator to yield a Fredholm operator with a smooth solution space. In the last chapter 4, a few examples of boundary conditions are calculated applying the results of previous chapters. Restricting to special geometries and/or boundary conditions, results can be obtained that are not covered by the more general statements, and it is shown that so-called transmission conditions behave very differently than in the Riemannian setting. N2 - Der Indexsatz für elliptische Operatoren auf geschlossenen Riemannschen Mannigfaltigkeiten von Atiyah und Singer hat zahlreiche Anwendungen in Analysis, Geometrie und Topologie, ist aber ungeeignet für eine Verallgemeinerung auf Lorentz-Mannigfaltigkeiten. Durch die Einführung nicht-lokaler Randbedingungen, gewonnen aus der Spektralzerlegung eines induzierten Randoperators, beweisen Atiyah, Patodi und Singer (APS) einen Indexsatz für den Fall kompakter Riemannscher Mannigfaltigkeiten mit Rand. Aufbauend auf diesem Resultat und mit Hilfe der Charakterisierung des Spektralflusses durch Philipps gelangen Bär und Strohmaier zu einem Indexsatz für den Dirac-Operator auf global hyperbolischen Lorentz-Mannigfaltigkeiten mit kompakten und raumartigen Cauchy-Hyperflächen. Ihr Ergebnis zeigt unter anderem, dass der Dirac Operator auf solchen Mannigfaltigkeiten und unter APS Randbedingungen ein Fredholm-Operator mit glattem Kern ist und das sein Index sich aus einer zum Riemannschen Fall analogen Formel berechnen lässt. Zurück im Riemannschen Setup zeigen Bär und Ballmann eine allgemeine Charakterisierung von Randbedingungen für elliptische Differentialoperatoren erster Ordnung die sowohl die Regularität von Lösungen, als auch Fredholm-Eigenschaft des resultierenden Operators garantieren. Die dort entwickelten Randbedingungen können als Deformation auf den Graphen einer geeigneten Abbildung der APS-Randbedingung auf ihr orthogonales Komplement verstanden werden. Die vorliegende Arbeit hat das Ziel die von Bär und Ballmann beschriebenen Randbedingungen auf den Dirac-Operator von global hyperbolischen Lorentz-Mannigfaltigkeiten zu übertragen um eine allgemeinere Klasse von Randbedingungen zu finden unter denen der resultierende Dirac-Operator Fredholm ist und einen glatten Lösungsraum hat. Weiterhin wird analysiert wie sich derartige Deformation von APS-Randbedingungen auf den Index solcher Operatoren auswirken und wie dieser aus den bekannten Resultaten für den APS-Index berechnet werden kann. Es wird unter anderem gezeigt, dass im Gegensatz zum Riemannschen Fall beim Übergang von Randbedingungen zu ihrem orthogonalen Komplement die Fredholm-Eigenschaft des Operators erhalten bleibt. Andererseits sind zusätzliche Annahme nötig um die Regularität von Lösungen, sowie die Fredholm-Eigenschaft für Graph-Deformationen im Fall von Lorentz-Mannigfaltigkeiten zu erhalten. Die Arbeit ist dabei wie folgt aufgebaut. In Kapitel 1 werden grundlegende Fakten zu Lorentzschen und Riemannschen Spin-Mannigfaltigkeiten, ihren Spinor-Bündeln und Dirac-Operatoren zusammengetragen. Diese Informationen dienen als Ausgangspunkt zur Definition und Analyse von Randbedingungen in späteren Kapiteln der Arbeit. Kapitel 2 definiert allgemein den Begriff der Randbedingung wie er in dieser Arbeit verwendet wird und führt zudem den sogenannten ''wave-evolution-Operator'' ein, der eine wichtige Rolle im Finden und Analysieren von Fredholm-Randbedingungen für den Dirac-Operator spielen wird. Zuletzt wird der Zusammenhang zwischen Fredholm-Paaren eines Hilbert-Raumes und Fredholm-Randbedingungen für den Dirac-Operator erklärt. Kapitel 3 beschäftigt sich mit der Berechnung des Hauptsymbols des wave-evolution-Operators und die dort erzielten Resultate werden verwendet um Fredholm-Eigenschaft, sowie Regularität von Lösungen für geeignete Deformationen von APS-Randbedingungen zu beweisen. Weiterhin werden hinreichende Bedingungen für (pseudo-)lokale Randbedingungen abgeleitet, die Fredholm-Eigenschaft und Regularität für den resultierenden Dirac-Operator garantieren. Kapitel 4 zeigt, aufbauend auf den Ergebnissen der Kapitel 1-3, einige Beispiele von lokalen und nicht-lokalen Randbedingungen für den Dirac-Operator. Unter gewissen Einschränkungen an die Geometrie der zugrunde liegenden Mannigfaltigkeit bzw. den gestellten Randbedingungen können Ergebnisse erzielt werden die in den allgemeineren Resultaten der vorangehenden Kapitel nicht enthalten sind. Zuletzt werden sogenannte Transmission-Bedingungen analysiert und die Unterschiede dieser Randbedingungen zum Riemannschen Fall aufgezeigt. T2 - Randwertprobleme für den Lorentschen Diracoperator KW - Dirac Operator KW - Boundary Value Problems KW - Lorentzian Geometry KW - Randwertprobleme KW - Diracoperator KW - Lorentzgeometrie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548391 ER - TY - THES A1 - Mauerberger, Stefan T1 - Correlation based Bayesian modeling T1 - Korrelationsbasierte Bayesianische Modellierung BT - with applications in travel time tomography, seismic source inversion and magnetic field modeling BT - mit Anwendungen in der Laufzeittomographie, Seismischer Quellinversion und Magnetfeldmodellierung N2 - The motivation for this work was the question of reliability and robustness of seismic tomography. The problem is that many earth models exist which can describe the underlying ground motion records equally well. Most algorithms for reconstructing earth models provide a solution, but rarely quantify their variability. If there is no way to verify the imaged structures, an interpretation is hardly reliable. The initial idea was to explore the space of equivalent earth models using Bayesian inference. However, it quickly became apparent that the rigorous quantification of tomographic uncertainties could not be accomplished within the scope of a dissertation. In order to maintain the fundamental concept of statistical inference, less complex problems from the geosciences are treated instead. This dissertation aims to anchor Bayesian inference more deeply in the geosciences and to transfer knowledge from applied mathematics. The underlying idea is to use well-known methods and techniques from statistics to quantify the uncertainties of inverse problems in the geosciences. This work is divided into three parts: Part I introduces the necessary mathematics and should be understood as a kind of toolbox. With a physical application in mind, this section provides a compact summary of all methods and techniques used. The introduction of Bayesian inference makes the beginning. Then, as a special case, the focus is on regression with Gaussian processes under linear transformations. The chapters on the derivation of covariance functions and the approximation of non-linearities are discussed in more detail. Part II presents two proof of concept studies in the field of seismology. The aim is to present the conceptual application of the introduced methods and techniques with moderate complexity. The example about traveltime tomography applies the approximation of non-linear relationships. The derivation of a covariance function using the wave equation is shown in the example of a damped vibrating string. With these two synthetic applications, a consistent concept for the quantification of modeling uncertainties has been developed. Part III presents the reconstruction of the Earth's archeomagnetic field. This application uses the whole toolbox presented in Part I and is correspondingly complex. The modeling of the past 1000 years is based on real data and reliably quantifies the spatial modeling uncertainties. The statistical model presented is widely used and is under active development. The three applications mentioned are intentionally kept flexible to allow transferability to similar problems. The entire work focuses on the non-uniqueness of inverse problems in the geosciences. It is intended to be of relevance to those interested in the concepts of Bayesian inference. N2 - Die Motivation für diese Arbeit war die Frage nach Verlässlichkeit und Belastbarkeit der seismischen Tomographie. Das Problem besteht darin, dass sehr viele Erdmodelle existieren welche die zugrundeliegenden seismischen Aufzeichnungen gleich gut beschreiben können. Die meisten Algorithmen zur Rekonstruktion von Erdmodellen liefern zwar eine Lösung, quantifizierten jedoch kaum deren Variabilität. Wenn es keine Möglichkeit gibt die abgebildeten Strukturen zu verifizieren, so ist eine Interpretation kaum verlässlich. Der ursprüngliche Gedanke war den Raum äquivalenter Erdmodelle mithilfe Bayesianische Inferenz zu erkunden. Es stellte sich jedoch schnell heraus, dass die vollständige Quantifizierung tomographischer Unsicherheiten im Rahmen einer Promotion nicht zu bewältigen ist. Um das wesentliche Konzept der statistischen Inferenz beizubehalten werden stattdessen weniger komplexe Problemstellungen aus den Geowissenschaften behandelt. Diese Dissertation hat das Ziel die Bayesianische Inferenz tiefer in den Geowissenschaften zu verankern und Wissen aus der angewandten Mathematik zu transferieren. Die zugrundeliegende Idee besteht darin auf bekannte Methoden und Techniken der Statistik zurückzugreifen um die Unsicherheiten inverser Probleme in den Geowissenschaften zu quantifizieren. Diese Arbeit gliedert sich in drei Teile: Teil I führt die notwendige Mathematik ein und soll als eine Art Werkzeugkasten verstanden werden. In Hinblick auf eine physikalische Anwendung bietet dieser Abschnitt eine kompakte Zusammenfassung aller eingesetzter Methoden und Techniken. Den Anfang macht die Einführung der Bayesianische Inferenz. Danach steht als Spezialfall die Regression mit Gauß-Prozessen unter linearen Transformationen im Vordergrund. Die Kapitel zur Herleitung von Kovarianzfunktionen und die Approximation von Nichtlinearitäten gehen etwas weiter in die Tiefe. Teil II präsentiert zwei Konzeptstudien aus dem Bereich der Seismologie. Ziel ist es bei moderater Komplexität die prinzipielle Anwendung der eingeführten Methoden und Techniken zu präsentieren. Das Beispiel zur Laufzeittomographie wendet die Näherungs\-methoden für nichtlineare Zusammenhänge an. Die Herleitung einer Kovarianzfunktion mithilfe der Wellengleichung ist am Beispiel der gedämpften Saitenschwingung gezeigt. Mit diesen beiden synthetischen Anwendungen wurde ein konsistentes Konzept zur Quantifizierung von Modellierungsunsicherheiten erarbeitet. Teil III präsentiert die Rekonstruktion des archeomagnetischen Feldes unserer Erde. Diese Anwendung nutzt den gesamten Werkzeugkasten aus Teil I und ist entsprechend umfangreich. Die Modellierung der vergangenen 1000 Jahre basiert auf echten Daten und quantifiziert zuverlässig die räumlichen Modellierungsunsicherheiten. Das präsentierte statistische Modell findet breite Anwendung und wird aktiv weiter entwickelt. Die drei genannten Anwendungen sind bewusst flexibel gehalten um die Übertragbarkeit auf ähnliche Problemstellungen zu ermöglichen. Die gesamte Arbeit legt den Fokus auf die nicht-Eindeutigkeit inverser Probleme in den Geowissenschaften. Sie will für all Jene von Relevanz sein, die sich für die Konzepte der Bayesianischen Inferenz interessieren. KW - statistical inference KW - Bayesian inversion KW - travel time tomography KW - seismic source inversion KW - magnetic field modeling KW - mit Anwendungen in der Laufzeittomographie, Seismischer Quellinversion und Magnetfeldmodellierung KW - Magnetfeldmodellierung KW - seismische Quellinversion KW - statistische Inferenz KW - Laufzeittomographie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-537827 ER - TY - GEN A1 - Wiljes, Jana de A1 - Tong, Xin T. T1 - Analysis of a localised nonlinear ensemble Kalman Bucy filter with complete and accurate observations T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Concurrent observation technologies have made high-precision real-time data available in large quantities. Data assimilation (DA) is concerned with how to combine this data with physical models to produce accurate predictions. For spatial-temporal models, the ensemble Kalman filter with proper localisation techniques is considered to be a state-of-the-art DA methodology. This article proposes and investigates a localised ensemble Kalman Bucy filter for nonlinear models with short-range interactions. We derive dimension-independent and component-wise error bounds and show the long time path-wise error only has logarithmic dependence on the time range. The theoretical results are verified through some simple numerical tests. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1221 KW - data assimilation KW - stability and accuracy KW - dimension independent bound KW - localisation KW - high dimensional KW - filter KW - nonlinear Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-540417 SN - 1866-8372 VL - 33 IS - 9 SP - 4752 EP - 4782 PB - IOP Publ. CY - Bristol ER - TY - THES A1 - Perera, Upeksha T1 - Solutions of direct and inverse Sturm–Liouville problems T1 - Lösungen von direkten und inversen Sturm-Liouville-Problemen N2 - Lie group method in combination with Magnus expansion is utilized to develop a universal method applicable to solving a Sturm–Liouville Problem (SLP) of any order with arbitrary boundary conditions. It is shown that the method has ability to solve direct regular and some singular SLPs of even orders (tested up to order eight), with a mix of boundary conditions (including non-separable and finite singular endpoints), accurately and efficiently. The present technique is successfully applied to overcome the difficulties in finding suitable sets of eigenvalues so that the inverse SLP problem can be effectively solved. Next, a concrete implementation to the inverse Sturm–Liouville problem algorithm proposed by Barcilon (1974) is provided. Furthermore, computational feasibility and applicability of this algorithm to solve inverse Sturm–Liouville problems of order n=2,4 is verified successfully. It is observed that the method is successful even in the presence of significant noise, provided that the assumptions of the algorithm are satisfied. In conclusion, this work provides methods that can be adapted successfully for solving a direct (regular/singular) or inverse SLP of an arbitrary order with arbitrary boundary conditions. N2 - Die Lie-Gruppen-Methode in Kombination mit der Magnus-Expansion wird verwendet, um eine universelle Methode zu entwickeln, die zur Lösung eines Sturm-Liouville-Problems (SLP) beliebiger Ordnung mit beliebigen Randbedingungen anwendbar ist. Es wird gezeigt, dass die Methode in der Lage ist, direkte reguläre und einige singuläre SLPs gerader Ordnung (getestet bis zur 8. Ordnung) mit einer Mischung von Randbedingungen (einschließlich nicht trennbarer und endlicher singulärer Endpunkte) genau und effizient zu lösen. Die vorliegende Technik wird erfolgreich angewendet, um die Schwierigkeiten beim Finden geeigneter Sätze von Eigenwerten zu überwinden, so dass das inverse SLP-Problem effektiv gelöst werden kann. Als nächstes wird eine konkrete Implementierung des von Barcilon (1974) vorgeschlagenen inversen Sturm-Liouville-Problemalgorithmus bereitgestellt. Weiterhin wird die rechnerische Durchführbarkeit und Anwendbarkeit dieses Algorithmus zur Lösung inverser Sturm-Liouville-Probleme der Ordnung n=2,4 erfolgreich verifiziert. Es wird beobachtet, dass das Verfahren selbst bei Vorhandensein von signifikantem Rauschen erfolgreich ist, vorausgesetzt, dass die Annahmen des Algorithmus erfüllt sind. Zusammenfassend stellt diese Arbeit Methoden zur Verfügung, die erfolgreich zur Lösung eines direkten (regulär/singulären) oder inversen SLP beliebiger Ordnung mit beliebigen Randbedingungen angepasst werden können. KW - Sturm-Liouville problem KW - Inverse Sturm-Liouville problem KW - Higher-order Sturm-Liouville problem KW - Sturm-Liouville-Problem höherer Ordnung KW - Inverses Sturm-Liouville-Problem KW - Sturm-Liouville-Problem Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-530064 ER - TY - THES A1 - Engelhardt, Max Angel Ronan T1 - Zwischen Simulation und Beweis - eine mathematische Analyse des Bienaymé-Galton-Watson-Prozesses und sein Einsatz innerhalb des Mathematikunterrichts T1 - Between simulation and proof - a mathematical analysis of the Bienaymé-Galton-Watson-process and its application in mathematics lessons N2 - Die Bienaymé-Galton-Watson Prozesse können für die Untersuchung von speziellen und sich entwickelnden Populationen verwendet werden. Die Populationen umfassen Individuen, welche sich identisch, zufällig, selbstständig und unabhängig voneinander fortpflanzen und die jeweils nur eine Generation existieren. Die n-te Generation ergibt sich als zufällige Summe der Individuen der (n-1)-ten Generation. Die Relevanz dieser Prozesse begründet sich innerhalb der Historie und der inner- und außermathematischen Bedeutung. Die Geschichte der Bienaymé-Galton-Watson-Prozesse wird anhand der Entwicklung des Konzeptes bis heute dargestellt. Dabei werden die Wissenschaftler:innen verschiedener Disziplinen angeführt, die Erkenntnisse zu dem Themengebiet beigetragen und das Konzept in ihren Fachbereichen angeführt haben. Somit ergibt sich die außermathematische Signifikanz. Des Weiteren erhält man die innermathematische Bedeutsamkeit mittels des Konzeptes der Verzweigungsprozesse, welches auf die Bienaymé-Galton-Watson Prozesse zurückzuführen ist. Die Verzweigungsprozesse stellen eines der aussagekräftigsten Modelle für die Beschreibung des Populationswachstums dar. Darüber hinaus besteht die derzeitige Wichtigkeit durch die Anwendungsmöglichkeit der Verzweigungsprozesse und der Bienaymé-Galton-Watson Prozesse innerhalb der Epidemiologie. Es werden die Ebola- und die Corona-Pandemie als Anwendungsfelder angeführt. Die Prozesse dienen als Entscheidungsstütze für die Politik und ermöglichen Aussagen über die Auswirkungen von Maßnahmen bezüglich der Pandemien. Neben den Prozessen werden ebenfalls der bedingte Erwartungswert bezüglich diskreter Zufallsvariablen, die wahrscheinlichkeitserzeugende Funktion und die zufällige Summe eingeführt. Die Konzepte vereinfachen die Beschreibung der Prozesse und bilden somit die Grundlage der Betrachtungen. Außerdem werden die benötigten und weiterführenden Eigenschaften der grundlegenden Themengebiete und der Prozesse aufgeführt und bewiesen. Das Kapitel erreicht seinen Höhepunkt bei dem Beweis des Kritikalitätstheorems, wodurch eine Aussage über das Aussterben des Prozesses in verschiedenen Fällen und somit über die Aussterbewahrscheinlichkeit getätigt werden kann. Die Fälle werden anhand der zu erwartenden Anzahl an Nachkommen eines Individuums unterschieden. Es zeigt sich, dass ein Prozess bei einer zu erwartenden Anzahl kleiner gleich Eins mit Sicherheit ausstirbt und bei einer Anzahl größer als Eins, die Population nicht in jedem Fall aussterben muss. Danach werden einzelne Beispiele, wie der linear fractional case, die Population von Fibroblasten (Bindegewebszellen) von Mäusen und die Entstehungsfragestellung der Prozesse, angeführt. Diese werden mithilfe der erlangten Ergebnisse untersucht und einige ausgewählte zufällige Dynamiken werden im nachfolgenden Kapitel simuliert. Die Simulationen erfolgen durch ein in Python erstelltes Programm und werden mithilfe der Inversionsmethode realisiert. Die Simulationen stellen beispielhaft die Entwicklungen in den verschiedenen Kritikalitätsfällen der Prozesse dar. Zudem werden die Häufigkeiten der einzelnen Populationsgrößen in Form von Histogrammen angebracht. Dabei lässt sich der Unterschied zwischen den einzelnen Fällen bestätigen und es wird die Anwendungsmöglichkeit der Bienaymé-Galton-Watson Prozesse bei komplexeren Problemen deutlich. Histogramme bekräftigen, dass die einzelnen Populationsgrößen nur endlich oft vorkommen. Diese Aussage wurde von Galton aufgeworfen und in der Extinktions-Explosions-Dichotomie verwendet. Die dargestellten Erkenntnisse über das Themengebiet und die Betrachtung des Konzeptes werden mit einer didaktischen Analyse abgeschlossen. Die Untersuchung beinhaltet die Berücksichtigung der Fundamentalen Ideen, der Fundamentalen Ideen der Stochastik und der Leitidee „Daten und Zufall“. Dabei ergibt sich, dass in Abhängigkeit der gewählten Perspektive die Anwendung der Bienaymé-Galton-Watson Prozesse innerhalb der Schule plausibel ist und von Vorteil für die Schüler:innen sein kann. Für die Behandlung wird exemplarisch der Rahmenlehrplan für Berlin und Brandenburg analysiert und mit dem Kernlehrplan Nordrhein-Westfalens verglichen. Die Konzeption des Lehrplans aus Berlin und Brandenburg lässt nicht den Schluss zu, dass die Bienaymé-Galton-Watson Prozesse angewendet werden sollten. Es lässt sich feststellen, dass die zugrunde liegende Leitidee nicht vollumfänglich mit manchen Fundamentalen Ideen der Stochastik vereinbar ist. Somit würde eine Modifikation hinsichtlich einer stärkeren Orientierung des Lehrplans an den Fundamentalen Ideen die Anwendung der Prozesse ermöglichen. Die Aussage wird durch die Betrachtung und Übertragung eines nordrhein-westfälischen Unterrichtsentwurfes für stochastische Prozesse auf die Bienaymé-Galton-Watson Prozesse unterstützt. Darüber hinaus werden eine Concept Map und ein Vernetzungspentagraph nach von der Bank konzipiert um diesen Aspekt hervorzuheben. N2 - The Bienaymé-Galton-Watson processes can be used to study special and developing populations. These populations include individuals that reproduce identically, randomly, separately, independently of each other, and which exist only for one generation. The n-th generation is the random sum of the individuals of the (n-1)-th generation. The relevance of these processes is based on their history and their significance in mathematical and extra-mathematical contexts. The history of the Bienaymé-Galton-Watson processes is illustrated by the development of the concept to the present day. Various scientists from different disciplines who have contributed to the topic in their respective fields are listed. This illustrates moreover the significance in extra-mathematical contexts. Furthermore, the inner- mathematical magnitude is obtained by means of the superordinate concept of branching processes, which can be traced back to the Bienaymé-Galton-Watson processes. These branching processes are one of the most significant models for describing population growth. In addition, the current importance arises from the applicability of branching processes and the Bienaymé-Galton-Watson processes within epidemiology. The Ebola and Corona pandemics are mentioned as fields of application. The processes serve as a basis for political decision-making and enable statements made on the impact of pandemic measures. In addition to the processes, the conditional expectation value for discrete random variables, the probability generating function and the random sum are also introduced. These concepts simplify the description of the processes and thus form the basis of the considerations. Also, the required and further properties of the basic topics and processes are listed and demonstrated. The chapter reaches its climax with the proof of the criticality theorem, whereby a statement can be made about the extinction of the process in different cases and thus about the extinction probability. These cases are distinguished based on the expected number of offspring from the individuals. It turns out that a process with an expected number of less than one certainly becomes extinct. On the contrary, a process with a number greater than one does not necessarily has to die out. Individual examples are then given, such as the linear fractional case, the population of fibroblasts (connective tissue cells) of mice and the question of origin. These are investigated using the results obtained and some selected random dynamics are simulated in the following chapter. The simulations are carried out by a Python self-written program and are realized using the inversion method. These simulations exemplify the developments in the different criticality cases of the processes. Besides, the frequencies of the individual population sizes are displayed in the form of histograms. The difference between the individual cases can be confirmed and the analysis of the fibroblasts reveals the applicability of the Bienaymé-Galton-Watson processes to more complex problems. Histograms confirm that the individual population sizes occur only finitely often. This statement was raised by Galton and is used in the extinction-explosion dichotomy. The presented findings about the topic and the consideration of the concept are concluded with an analysis of didactic-background. This involves the fundamental ideas, the fundamental ideas of stochastics and the guiding idea of data and chance. Depending on the chosen perspective, the use of the Bienaymé-Galton-Watson processes within the school is plausible and may be beneficial for the students. For the treatment, the Rahmenlehrplan for Berlin and Brandenburg is analysed and compared with the core curriculum of Nord Rhine-Westphalia as an example. The design of the curriculum of Berlin and Brandenburg does not allow the conclusion of applying the Bienaymé-Galton-Watson processes. It can be seen that the underlying guiding idea is not fully compatible with some fundamental ideas of stochastics. Thus, a modification to the curriculum more oriented towards these fundamental ideas would allow the application of the processes. This statement is supported by the observation and transfer of a North Rhine-Westphalian teaching design for stochastic processes to the Bienaymé-Galton-Watson processes by means of chain letters. In addition, a concept map and a Vernetzungspentagraph by von der Bank are designed to highlight this aspect. KW - Bienaymé-Galton-Watson Prozess KW - Kritikalitätstheorem KW - Verzweigungsprozess KW - Populationen KW - linear fractional case KW - bedingter Erwartungswert KW - zufällige Summe KW - Simulation KW - wahrscheinlichkeitserzeugende Funktion KW - Historie der Verzweigungsprozesse KW - Instabilität des Prozesses KW - Aussterbewahrscheinlichkeit KW - Geometrische Reproduktionsverteilung KW - Fibroblasten KW - Entstehungsfragestellung KW - Fundamentale Ideen KW - Leitidee „Daten und Zufall“ KW - Rahmenlehrplan KW - Markov-Ketten KW - Corona KW - Bienaymé-Galton-Watson process KW - criticality theorem KW - branching process KW - populations KW - linear fractional case KW - conditional expectation value KW - random sum KW - simulation KW - probability generating function KW - history of branching processes KW - instability of the process KW - extinction probability KW - geometric reproduction distribution KW - fibroblasts KW - question of origin KW - fundamental ideas KW - guiding idea “Daten und Zufall” KW - Rahmenlehrplan KW - Markov chains KW - Corona Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-524474 ER - TY - THES A1 - Dahl, Dorothee Sophie T1 - Let's have FUN! Gamification im Mathematikunterricht N2 - Spiele und spieltypische Elemente wie das Sammeln von Treuepunkten sind aus dem Alltag kaum wegzudenken. Zudem werden sie zunehmend in Unternehmen oder in Lernumgebungen eingesetzt. Allerdings ist die Methode Gamification bisher für den pädagogischen Kontext wenig klassifiziert und für Lehrende kaum zugänglich gemacht worden. Daher zielt diese Bachelorarbeit darauf ab, eine systematische Strukturierung und Aufarbeitung von Gamification sowie innovative Ansätze für die Verwendung spieltypischer Elemente im Unterricht, konkret dem Mathematikunterricht, zu präsentieren. Dies kann eine Grundlage für andere Fachgebiete, aber auch andere Lehrformen bieten und so die Umsetzbarkeit von Gamification in eigenen Lehrveranstaltungen aufzeigen. In der Arbeit wird begründet, weshalb und mithilfe welcher Elemente Gamification die Motivation und Leistungsbereitschaft der Lernenden langfristig erhöhen, die Sozial- und Personalkompetenzen fördern sowie die Lernenden zu mehr Aktivität anregen kann. Zudem wird Gamification explizit mit grundlegenden mathematikdidaktischen Prinzipien in Verbindung gesetzt und somit die Relevanz für den Mathematikunterricht hervorgehoben. Anschließend werden die einzelnen Elemente von Gamification wie Punkte, Level, Abzeichen, Charaktere und Rahmengeschichte entlang einer eigens für den pädagogischen Kontext entwickelten Klassifikation „FUN“ (Feedback – User specific elements – Neutral elements) schematisch beschrieben, ihre Funktionen und Wirkung dargestellt sowie Einsatzmöglichkeiten im Unterricht aufgezeigt. Dies beinhaltet Ideen zu lernförderlichem Feedback, Differenzierungsmöglichkeiten und Unterrichtsrahmengestaltung, die in Lehrveranstaltungen aller Art umsetzbar sein können. Die Bachelorarbeit umfasst zudem ein spezifisches Beispiel, einen Unterrichtsentwurf einer gamifizierten Mathematikstunde inklusive des zugehörigen Arbeitsmaterials, anhand dessen die Verwendung von Gamification deutlich wird. Gamification offeriert oftmals Vorteile gegenüber dem traditionellen Unterricht, muss jedoch wie jede Methode an den Inhalt und die Zielgruppe angepasst werden. Weiterführende Forschung könnte sich mit konkreten motivationalen Strukturen, personenspezifischen Unterschieden sowie mit mathematischen Inhalten wie dem Problemlösen oder dem Wechsel zwischen verschiedenen Darstellungen hinsichtlich gamifizierter Lehrformen beschäftigen. N2 - Games and game-typical elements such as collecting points are an indispensable part of everyday life. In addition, they are used increasingly in companies or in learning environments. However, the method of gamification has been little classified for the pedagogical context and it has hardly been made accessible to teachers so far. Therefore, this bachelor’s thesis aims to present a systematic structure and reconditioning of gamification as well as innovative approaches for the implementation of game-typical elements in educational contexts, specifically in teaching mathematics. This thesis can provide a basis for other subject areas, but also for other forms of teaching and thus demonstrate the feasibility of gamification in own courses. The paper explains why and with which elements gamification can increase learners' motivation and willingness to perform in the long term, promote social and personal competences and encourage learners to become more active. Moreover, gamification is explicitly linked to basic mathematics didactic principles and thus emphasizes its relevance for mathematics teaching. Afterwards the individual elements of gamification such as points, levels, badges, characters and frame story are described schematically according to the classification “FUN” (Feedback – User specific elements – Neutral elements), developed especially for the educational context in the thesis. This includes ideas for learn-enhancing feedback, opportunities for differentiation and the design of teaching frameworks that can be implemented in courses of all kinds. The bachelor’s thesis also includes a specific example, a lesson plan for a gamified mathematics lesson including the associated working material, which illustrates the use of gamification. Gamification often offers advantages over traditional teaching, but like any method, it must be adapted to the content and the target group. Further research could focus on specific motivational structures, individual differences of students, and mathematical contents such as problem solving or changing representations regarding gamified teaching. KW - Gamification KW - Spiel KW - Motivation KW - Methode KW - Unterrichtsmethode KW - Feedback KW - Innovation KW - Lernen KW - Mathematikdidaktik KW - Mathematikunterricht KW - gamification KW - game KW - game-based KW - motivation KW - learning KW - feedback KW - method KW - teaching KW - teaching methods KW - didactics of mathematics Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-515937 ER - TY - THES A1 - Maier, Corinna T1 - Bayesian data assimilation and reinforcement learning for model-informed precision dosing in oncology T1 - Bayes’sche Datenassimilation und Reinforcement Learning für die modellinformierte Präzisionsdosierung in der Onkologie N2 - While patients are known to respond differently to drug therapies, current clinical practice often still follows a standardized dosage regimen for all patients. For drugs with a narrow range of both effective and safe concentrations, this approach may lead to a high incidence of adverse events or subtherapeutic dosing in the presence of high patient variability. Model-informedprecision dosing (MIPD) is a quantitative approach towards dose individualization based on mathematical modeling of dose-response relationships integrating therapeutic drug/biomarker monitoring (TDM) data. MIPD may considerably improve the efficacy and safety of many drug therapies. Current MIPD approaches, however, rely either on pre-calculated dosing tables or on simple point predictions of the therapy outcome. These approaches lack a quantification of uncertainties and the ability to account for effects that are delayed. In addition, the underlying models are not improved while applied to patient data. Therefore, current approaches are not well suited for informed clinical decision-making based on a differentiated understanding of the individually predicted therapy outcome. The objective of this thesis is to develop mathematical approaches for MIPD, which (i) provide efficient fully Bayesian forecasting of the individual therapy outcome including associated uncertainties, (ii) integrate Markov decision processes via reinforcement learning (RL) for a comprehensive decision framework for dose individualization, (iii) allow for continuous learning across patients and hospitals. Cytotoxic anticancer chemotherapy with its major dose-limiting toxicity, neutropenia, serves as a therapeutically relevant application example. For more comprehensive therapy forecasting, we apply Bayesian data assimilation (DA) approaches, integrating patient-specific TDM data into mathematical models of chemotherapy-induced neutropenia that build on prior population analyses. The value of uncertainty quantification is demonstrated as it allows reliable computation of the patient-specific probabilities of relevant clinical quantities, e.g., the neutropenia grade. In view of novel home monitoring devices that increase the amount of TDM data available, the data processing of sequential DA methods proves to be more efficient and facilitates handling of the variability between dosing events. By transferring concepts from DA and RL we develop novel approaches for MIPD. While DA-guided dosing integrates individualized uncertainties into dose selection, RL-guided dosing provides a framework to consider delayed effects of dose selections. The combined DA-RL approach takes into account both aspects simultaneously and thus represents a holistic approach towards MIPD. Additionally, we show that RL can be used to gain insights into important patient characteristics for dose selection. The novel dosing strategies substantially reduce the occurrence of both subtherapeutic and life-threatening neutropenia grades in a simulation study based on a recent clinical study (CEPAC-TDM trial) compared to currently used MIPD approaches. If MIPD is to be implemented in routine clinical practice, a certain model bias with respect to the underlying model is inevitable, as the models are typically based on data from comparably small clinical trials that reflect only to a limited extent the diversity in real-world patient populations. We propose a sequential hierarchical Bayesian inference framework that enables continuous cross-patient learning to learn the underlying model parameters of the target patient population. It is important to note that the approach only requires summary information of the individual patient data to update the model. This separation of the individual inference from population inference enables implementation across different centers of care. The proposed approaches substantially improve current MIPD approaches, taking into account new trends in health care and aspects of practical applicability. They enable progress towards more informed clinical decision-making, ultimately increasing patient benefits beyond the current practice. N2 - Obwohl Patienten sehr unterschiedlich auf medikamentöse Therapien ansprechen, werden in der klinischen Praxis häufig noch standardisierte Dosierungsschemata angewendet. Bei Arzneimitteln mit engen therapeutischen Fenstern zwischen minimal wirksamen und toxischen Konzentrationen kann dieser Ansatz bei hoher interindividueller Variabilität zu häufigem Auftreten von Toxizitäten oder subtherapeutischen Konzentrationen führen. Die modellinformierte Präzisionsdosierung (MIPD) ist ein quantitativer Ansatz zur Dosisindividualisierung, der auf der mathematischen Modellierung von Dosis-Wirkungs-Beziehungen beruht und Daten aus dem therapeutischen Drug/Biomarker-Monitoring (TDM) einbezieht. Die derzeitigen MIPD-Ansätze verwenden entweder Dosierungstabellen oder einfache Punkt-Vorhersagen des Therapieverlaufs. Diesen Ansätzen fehlt eine Quantifizierung der Unsicherheiten, verzögerte Effekte werden nicht berücksichtigt und die zugrunde liegenden Modelle werden im Laufe der Anwendung nicht verbessert. Daher sind die derzeitigen Ansätze nicht ideal für eine fundierte klinische Entscheidungsfindung auf Grundlage eines differenzierten Verständnisses des individuell vorhergesagten Therapieverlaufs. Das Ziel dieser Arbeit ist es, mathematische Ansätze für das MIPD zu entwickeln, die (i) eine effiziente, vollständig Bayes’sche Vorhersage des individuellen Therapieverlaufs einschließlich der damit verbundenen Unsicherheiten ermöglichen, (ii) Markov-Entscheidungsprozesse mittels Reinforcement Learning (RL) in einen umfassenden Entscheidungsrahmen zur Dosisindividualisierung integrieren, und (iii) ein kontinuierliches Lernen zwischen Patienten erlauben. Die antineoplastische Chemotherapie mit ihrer wichtigen dosislimitierenden Toxizität, der Neutropenie, dient als therapeutisch relevantes Anwendungsbeispiel. Für eine umfassendere Therapievorhersage wenden wir Bayes’sche Datenassimilationsansätze (DA) an, um TDM-Daten in mathematische Modelle der Chemotherapie-induzierten Neutropenie zu integrieren. Wir zeigen, dass die Quantifizierung von Unsicherheiten einen großen Mehrwert bietet, da sie eine zuverlässige Berechnung der Wahrscheinlichkeiten relevanter klinischer Größen, z.B. des Neutropeniegrades, ermöglicht. Im Hinblick auf neue Home-Monitoring-Geräte, die die Anzahl der verfügbaren TDM-Daten erhöhen, erweisen sich sequenzielle DA-Methoden als effizienter und erleichtern den Umgang mit der Unsicherheit zwischen Dosierungsereignissen. Basierend auf Konzepten aus DA und RL, entwickeln wir neue Ansätze für MIPD. Während die DA-geleitete Dosierung individualisierte Unsicherheiten in die Dosisauswahl integriert, berücksichtigt die RL-geleitete Dosierung verzögerte Effekte der Dosisauswahl. Der kombinierte DA-RL-Ansatz vereint beide Aspekte und stellt somit einen ganzheitlichen Ansatz für MIPD dar. Zusätzlich zeigen wir, dass RL Informationen über die für die Dosisauswahl relevanten Patientencharakteristika liefert. Der Vergleich zu derzeit verwendeten MIPD Ansätzen in einer auf einer klinischen Studie (CEPAC-TDM-Studie) basierenden Simulationsstudie zeigt, dass die entwickelten Dosierungsstrategien das Auftreten subtherapeutischer Konzentrationen sowie lebensbedrohlicher Neutropenien drastisch reduzieren. Wird MIPD in der klinischen Routine eingesetzt, ist eine gewisse Modellverzerrung unvermeidlich. Die Modelle basieren in der Regel auf Daten aus vergleichsweise kleinen klinischen Studien, die die Heterogenität realer Patientenpopulationen nur begrenzt widerspiegeln. Wir schlagen einen sequenziellen hierarchischen Bayes’schen Inferenzrahmen vor, der ein kontinuierliches patientenübergreifendes Lernen ermöglicht, um die zugrunde liegenden Modellparameter der Ziel-Patientenpopulation zu erlernen. Zur Aktualisierung des Modells erfordert dieser Ansatz lediglich zusammenfassende Informationen der individuellen Patientendaten, was eine Umsetzung über verschiedene Versorgungszentren hinweg erlaubt. Die vorgeschlagenen Ansätze verbessern die derzeitigen MIPD-Ansätze erheblich, wobei neue Trends in der Gesundheitsversorgung und Aspekte der praktischen Anwendbarkeit berücksichtigt werden. Damit stellen sie einen Fortschritt in Richtung einer fundierteren klinischen Entscheidungsfindung dar. KW - data assimilation KW - Datenassimilation KW - reinforcement learning KW - model-informed precision dosing KW - pharmacometrics KW - oncology KW - modellinformierte Präzisionsdosierung KW - Onkologie KW - Pharmakometrie KW - Reinforcement Learning Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-515870 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Hübner, Andrea T1 - Ein multityper Verzweigungsprozess als Modell zur Untersuchung der Ausbreitung von Covid-19 T1 - Modeling the spread of Covid-19 using a multitype branching process N2 - Im Zuge der Covid-19 Pandemie werden zwei Werte täglich diskutiert: Die zuletzt gemeldete Zahl der neu Infizierten und die sogenannte Reproduktionsrate. Sie gibt wieder, wie viele weitere Menschen ein an Corona erkranktes Individuum im Durchschnitt ansteckt. Für die Schätzung dieses Wertes gibt es viele Möglichkeiten - auch das Robert Koch-Institut gibt in seinem täglichen Situationsbericht stets zwei R-Werte an: Einen 4-Tage-R-Wert und einen weniger schwankenden 7-Tage-R-Wert. Diese Arbeit soll eine weitere Möglichkeit vorstellen, einige Aspekte der Pandemie zu modellieren und die Reproduktionsrate zu schätzen. In der ersten Hälfte der Arbeit werden die mathematischen Grundlagen vorgestellt, die man für die Modellierung benötigt. Hierbei wird davon ausgegangen, dass der Leser bereits ein Basisverständnis von stochastischen Prozessen hat. Im Abschnitt Grundlagen werden Verzweigungsprozesse mit einigen Beispielen eingeführt und die Ergebnisse aus diesem Themengebiet, die für diese Arbeit wichtig sind, präsentiert. Dabei gehen wir zuerst auf einfache Verzweigungsprozesse ein und erweitern diese dann auf Verzweigungsprozesse mit mehreren Typen. Um die Notation zu erleichtern, beschränken wir uns auf zwei Typen. Das Prinzip lässt sich aber auf eine beliebige Anzahl von Typen erweitern. Vor allem soll die Wichtigkeit des Parameters λ herausgestellt werden. Dieser Wert kann als durchschnittliche Zahl von Nachfahren eines Individuums interpretiert werden und bestimmt die Dynamik des Prozesses über einen längeren Zeitraum. In der Anwendung auf die Pandemie hat der Parameter λ die gleiche Rolle wie die Reproduktionsrate R. In der zweiten Hälfte dieser Arbeit stellen wir eine Anwendung der Theorie über Multitype Verzweigungsprozesse vor. Professor Yanev und seine Mitarbeiter modellieren in ihrer Veröffentlichung Branching stochastic processes as models of Covid-19 epidemic development die Ausbreitung des Corona Virus' über einen Verzweigungsprozess mit zwei Typen. Wir werden dieses Modell diskutieren und Schätzer daraus ableiten: Ziel ist es, die Reproduktionsrate zu ermitteln. Außerdem analysieren wir die Möglichkeiten, die Dunkelziffer (die Zahl nicht gemeldeter Krankheitsfälle) zu schätzen. Wir wenden die Schätzer auf die Zahlen von Deutschland an und werten diese schließlich aus. N2 - During the Covid-19 pandemic, the discussion about the situation has been dominated by two numbers: the number of daily new infected individuals and the reproduction rate. The latter is the average number of people, one infected individual will infect with the disease. Because the number of registered infected individuals is generally not equal to the actual number of people who carry the Corona virus, many facts about the pandemic have to be estimated and can not be known for certain. Since the reproduction rate is an important parameter to signify the course of the Pandemic, many ways to estimate it have been developed. The Institute of Robert Koch in Germany uses two reproduction rates R in their daily reports: The 4-days-R-value and the less fluctuating 7-days-Rvalue. This master thesis will develop another model to estimate the R-value and other interesting aspects of the pandemic. The first part of this thesis is dedicated to the mathematical foundations needed to understand the model. The reader is expected to already have basic understanding of stochastic processes. In the section Grundlagen we will discuss branching processes and present the results of their theory that are important for our work. We start by introducing simple branching processes and expand the results to multitype branching processes. In service of a simpler notation we will only consider twotype branching processes, but the results can be used for any number of types. The importance of the parameter λ shall be stressed. It can be seen as the average number of descendants of one individual and dictates the dynamic of the process over a long period of time. Applied to the modeling of the pandemic, λ plays the same role as the reproduction rate R. In the second part of this thesis will present an application of the previously developed theory about multitype branching processes. Prof. Yanev and his colleagues modeled in their publication Branching stochastic processes as models of Covid-19 epidemic development the spreading of the Corona virus by using a branching process with two types. We will discuss this model and deduce estimators from it. We want to estimate the reproduction rate and find a way to determine the number of not registered infected individuals. The estimators will be applied to the data from Germany and we will discuss the results. KW - Covid-19 KW - Corona KW - Reproduktionsrate KW - Verzweigungsprozess KW - Modellierung KW - Covid-19 KW - corona virus KW - reproduction rate KW - branching process KW - modeling Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-509225 ER - TY - THES A1 - Etzold, Heiko T1 - Neue Zugänge zum Winkelbegriff T1 - New Ways to the Angle Concept BT - Fachdidaktische Entwicklungsforschung zur Ausbildung des Winkelfeldbegriffs bei Schülerinnen und Schülern der vierten Klassenstufe N2 - Die Vielfältigkeit des Winkelbegriffs ist gleichermaßen spannend wie herausfordernd in Hinblick auf seine Zugänge im Mathematikunterricht der Schule. Ausgehend von verschiedenen Vorstellungen zum Winkelbegriff wird in dieser Arbeit ein Lehrgang zur Vermittlung des Winkelbegriffs entwickelt und letztlich in konkrete Umsetzungen für den Schulunterricht überführt. Dabei erfolgt zunächst eine stoffdidaktische Auseinandersetzung mit dem Winkelbegriff, die von einer informationstheoretischen Winkeldefinition begleitet wird. In dieser wird eine Definition für den Winkelbegriff unter der Fragestellung entwickelt, welche Informationen man über einen Winkel benötigt, um ihn beschreiben zu können. So können die in der fachdidaktischen Literatur auftretenden Winkelvorstellungen aus fachmathematischer Perspektive erneut abgeleitet und validiert werden. Parallel dazu wird ein Verfahren beschrieben, wie Winkel – auch unter dynamischen Aspekten – informationstechnisch verarbeitet werden können, so dass Schlussfolgerungen aus der informationstheoretischen Winkeldefinition beispielsweise in dynamischen Geometriesystemen zur Verfügung stehen. Unter dem Gesichtspunkt, wie eine Abstraktion des Winkelbegriffs im Mathematikunterricht vonstatten gehen kann, werden die Grundvorstellungsidee sowie die Lehrstrategie des Aufsteigens vom Abstrakten zum Konkreten miteinander in Beziehung gesetzt. Aus der Verknüpfung der beiden Theorien wird ein grundsätzlicher Weg abgeleitet, wie im Rahmen der Lehrstrategie eine Ausgangsabstraktion zu einzelnen Winkelaspekten aufgebaut werden kann, was die Generierung von Grundvorstellungen zu den Bestandteilen des jeweiligen Winkelaspekts und zum Operieren mit diesen Begriffsbestandteilen ermöglichen soll. Hierfür wird die Lehrstrategie angepasst, um insbesondere den Übergang von Winkelsituationen zu Winkelkontexten zu realisieren. Explizit für den Aspekt des Winkelfeldes werden, anhand der Untersuchung der Sichtfelder von Tieren, Lernhandlungen und Forderungen an ein Lernmodell beschrieben, die Schülerinnen und Schüler bei der Begriffsaneignung unterstützen. Die Tätigkeitstheorie, der die genannte Lehrstrategie zuzuordnen ist, zieht sich als roter Faden durch die weitere Arbeit, wenn nun theoriebasiert Designprinzipien generiert werden, die in die Entwicklung einer interaktiven Lernumgebung münden. Hierzu wird u. a. das Modell der Artifact-Centric Activity Theory genutzt, das das Beziehungsgefüge aus Schülerinnen und Schülern, dem mathematischen Gegenstand und einer zu entwickelnden App als vermittelndes Medium beschreibt, wobei der Einsatz der App im Unterrichtskontext sowie deren regelgeleitete Entwicklung Bestandteil des Modells sind. Gemäß dem Ansatz der Fachdidaktischen Entwicklungsforschung wird die Lernumgebung anschließend in mehreren Zyklen erprobt, evaluiert und überarbeitet. Dabei wird ein qualitatives Setting angewandt, das sich der Semiotischen Vermittlung bedient und untersucht, inwiefern sich die Qualität der von den Schülerinnen und Schülern gezeigten Lernhandlungen durch die Designprinzipien und deren Umsetzung erklären lässt. Am Ende der Arbeit stehen eine finale Version der Designprinzipien und eine sich daraus ergebende Lernumgebung zur Einführung des Winkelfeldbegriffs in der vierten Klassenstufe. N2 - The diversity of the concept »angle« can be both exciting and challenging when looking at how to access it in mathematics education in schools. In this thesis, based on different ideas of the angle concept, a training course for conveying the concept will be developed and translated into concrete implementations for school teaching. First, there will be a didactical subject matter discussion of the angle concept, which will be accompanied by an angle definition from information theory. Through the didactical subject matter discussion, a definition for the angle concept will be developed which is guided by the question of what kind of information about an angle is needed in order to describe it. This way, the diverse ideas of the angle concept discussed in mathematics didactics literature can be once again derived and validated from a mathematical point of view. In parallel, a method will be described of how an angle - even one with dynamic aspects - can be handled in terms of information technology, so that conclusions can be drawn from a definition from information theory for dynamic geometry environments for instance. Considering how abstraction of the angle concept can take place in mathematics education, the Idea of Grundvorstellungen will then be connected to the structural principle of the Ascent From the Abstract to the Concrete. Based on the connection of these two theories, a training course will be developed that aims to construct an initial abstract of certain aspects of the angle concept which, in turn, aims at enabling the generating of Grundvorstellungen towards components of the angle concept and at operating with it. For this, the structural principle will be adapted – specifically to realize the transition from angle situations to angle contexts. For one aspect, the angular field, there will be a description of learning actions and demands on a learning model that supports students’ concept acquisition. The angular field, in this step, will be represented by vision fields of animals. Activity theory, on which the structural principle is based, depicts the recurring theme throughout this thesis when generating design principles that lead towards the development of an interactive learning environment. For this, the Artifact-Centric Activity Theory model will be used in order to describe connections between students, the mathematical topic and the to-be-created app. The use of the app in classroom situations, as well as its rule-governed development, are components of the model. Following a Design-Based Research approach, this learning environment will then go through several cycles of test, evaluation and revision. For this purpose, a qualitative setting will be applied using Semiotic Mediation. It will be used to investigate how far design principles, as well as their implementation, impacts on the quality of student’s learning actions. As an outcome of this thesis, a final version of the design principles and an ensuing learning environment that introduces the concept of »angular field« in grade four teaching will be created. KW - Winkel KW - Tätigkeitstheorie KW - Digitale Werkzeuge KW - Digital Tools KW - Activity Theory KW - Angle Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-504187 ER - TY - THES A1 - Oancea, Marius-Adrian T1 - Spin Hall effects in general relativity T1 - Spin Hall Effekte in der Allgemeinen Relativitätstheorie N2 - The propagation of test fields, such as electromagnetic, Dirac or linearized gravity, on a fixed spacetime manifold is often studied by using the geometrical optics approximation. In the limit of infinitely high frequencies, the geometrical optics approximation provides a conceptual transition between the test field and an effective point-particle description. The corresponding point-particles, or wave rays, coincide with the geodesics of the underlying spacetime. For most astrophysical applications of interest, such as the observation of celestial bodies, gravitational lensing, or the observation of cosmic rays, the geometrical optics approximation and the effective point-particle description represent a satisfactory theoretical model. However, the geometrical optics approximation gradually breaks down as test fields of finite frequency are considered. In this thesis, we consider the propagation of test fields on spacetime, beyond the leading-order geometrical optics approximation. By performing a covariant Wentzel-Kramers-Brillouin analysis for test fields, we show how higher-order corrections to the geometrical optics approximation can be considered. The higher-order corrections are related to the dynamics of the spin internal degree of freedom of the considered test field. We obtain an effective point-particle description, which contains spin-dependent corrections to the geodesic motion obtained using geometrical optics. This represents a covariant generalization of the well-known spin Hall effect, usually encountered in condensed matter physics and in optics. Our analysis is applied to electromagnetic and massive Dirac test fields, but it can easily be extended to other fields, such as linearized gravity. In the electromagnetic case, we present several examples where the gravitational spin Hall effect of light plays an important role. These include the propagation of polarized light rays on black hole spacetimes and cosmological spacetimes, as well as polarization-dependent effects on the shape of black hole shadows. Furthermore, we show that our effective point-particle equations for polarized light rays reproduce well-known results, such as the spin Hall effect of light in an inhomogeneous medium, and the relativistic Hall effect of polarized electromagnetic wave packets encountered in Minkowski spacetime. N2 - Unser grundlegendes Verständnis des Universums basiert auf Einsteins allgemeiner Relativitätstheorie, die eine Beschreibung in Form einer vierdimensional gekrümmten Raumzeit liefert, in der die Anziehungskraft der Gravitation in der Krümmung der Raumzeit kodiert ist. Die überwiegende Mehrheit der experimentellen Tests, die Einsteins allgemeine Relativitätstheorie bestätigt haben, basiert auf der Beobachtung elektromagnetischer Strahlung, die von entfernten astrophysikalischen Quellen wie Sternen oder Galaxien stammt. Daher ist ein tiefgreifendes Verständnis der Dynamik der sich in der Raumzeit ausbreitenden elektromagnetischen Strahlung von entscheidender Bedeutung. Elektromagnetische Phänomene werden durch Maxwell-Gleichungen beschrieben. Die Ausbreitung elektromagnetischer Strahlung in der Raumzeit ist jedoch sehr komplexe, und es ist im Allgemeinen nützlich, Näherungen zu betrachten, welche eine vereinfachte Beschreibung liefern. Auf diese Weise können die Haupteigenschaften des Systems in einem reduzierten Gleichungssystem codiert und die Gültigkeit der Näherung quantitativ kontrolliert werden. Beispielsweise kann die Ausbreitung elektromagnetischer Strahlung in der Raumzeit durch Anwendung der geometrischen Optik auf die Maxwell-Gleichungen beschrieben werden. Diese liefert ein Modell für die Ausbreitung elektromagnetischer Strahlung in Form von Lichtstrahlen, die sich auf dem kürzesten Weg zwischen zwei Punkten ausbreiten. Im Kontext von Einsteins allgemeiner Relativitätstheorie entsprechen dise Lichtstrahlen den Nullgeodäten der zugrunde liegenden gekrümmten Raumzeit. Für die meisten astrophysikalischen Anwendungen von Interesse, wie die Beobachtung von Himmelskörpern oder Gravitationslinsen, stellen die Näherungen der geometrischen Optik und damit die Beschreibung der Ausbreitung elektromagnetischer Strahlung durch Lichtstrahlen ein zufriedenstellendes theoretisches Modell dar. In dieser Arbeit untersuchen wir mögliche Korrekturen der Ausbreitung elektromagnetischer Strahlung in der Raumzeit, welche durch die Näherung der geometrischen Optik nicht erfasst werden. Solche Korrekturen sind aus der Optik bekannt, wo beobachtet wurde, dass die Ausbreitung von Lichtstrahlen in bestimmten Materialien durch die Polarisation des Lichts beeinflusst werden kann. Diese Korrekturen sind als Spin-Hall-Effekt von Licht bekannt. In dieser Arbeit wird gezeigt, dass ein ähnlicher Effekt für elektromagnetische Strahlung auftreten kann, welche sich in gekrümmter Raumzeit in der Nähe massiver astrophysikalischer Objekte wie Schwarzer Löcher oder Sterne ausbreitet. Darüber hinaus präsentieren wir, basierend auf der Dirac-Gleichung, eine ähnliche Analyse für die Bewegung von Elektronen in gekrümmten Raumzeiten. KW - spin Hall effect KW - gravitation KW - black hole KW - Schwarzes Loch KW - Gravitation KW - Spin Hall effekte Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-502293 ER - TY - THES A1 - Möhring, Jan T1 - Stochastic inversion for core field modeling using satellite data N2 - Magnetfeldmodellierung mit Kugelflächenfunktionen basiert auf der Inversion nach hunderten bis tausenden von Parametern. Dieses hochdimensionale Problem kann grundsätzlich als ein Optimierungsproblem formuliert werden, bei dem ein globales Minimum einer gewissen Zielfunktion berechnet werden soll. Um dieses Problem zu lösen, gibt es eine Reihe bekannter Ansätze, dazu zählen etwa gradientenbasierte Verfahren oder die Methode der kleinsten Quadrate und deren Varianten. Jede dieser Methoden hat verschiedene Vor- und Nachteile, beispielsweise bezüglich der Anwendbarkeit auf nicht-differenzierbare Funktionen oder der Laufzeit zugehöriger Algorithmen. In dieser Arbeit verfolgen wir das Ziel, einen Algorithmus zu finden, der schneller als die etablierten Verfahren ist und sich auch für nichtlineare Probleme anwenden lässt. Solche nichtlinearen Probleme treten beispielsweise bei der Abschätzung von Euler-Winkeln oder bei der Verwendung der robusteren L_1-Norm auf. Dazu untersuchen wir die Anwendbarkeit stochastischer Optimierungsverfahren aus der CMAES-Familie auf die Modellierung des geomagnetischen Feldes des Erdkerns. Es werden sowohl die Grundlagen der Kernfeldmodellierung und deren Parametrisierung anhand einiger Beispiele aus der Literatur besprochen, als auch die theoretischen Hintergründe der stochastischen Verfahren gegeben. Ein CMAES-Algorithmus wurde erfolgreich angewendet, um Daten der Swarm-Satellitenmission zu invertieren und daraus das Magnetfeldmodell EvoMag abzuleiten. EvoMag zeigt gute Übereinstimmung mit etablierten Modellen, sowie mit Observatoriumsdaten aus Niemegk. Wir thematisieren einige beobachtete Schwierigkeiten und präsentieren und diskutieren die Ergebnisse unserer Modellierung. N2 - Geomagnetic field modeling using spherical harmonics requires the inversion for hundreds to thousands of parameters. This large-scale problem can always be formulated as an optimization problem, where a global minimum of a certain cost function has to be calculated. A variety of approaches is known in order to solve this inverse problem, e.g. derivative-based methods or least-squares methods and their variants. Each of these methods has its own advantages and disadvantages, which affect for example the applicability to non-differentiable functions or the runtime of the corresponding algorithm. In this work, we pursue the goal to find an algorithm which is faster than the established methods and which is applicable to non-linear problems. Such non-linear problems occur for example when estimating Euler angles or when the more robust L_1 norm is applied. Therefore, we will investigate the usability of stochastic optimization methods from the CMAES family for modeling the geomagnetic field of Earth's core. On one hand, basics of core field modeling and their parameterization are discussed using some examples from the literature. On the other hand, the theoretical background of the stochastic methods are provided. A specific CMAES algorithm was successfully applied in order to invert data of the Swarm satellite mission and to derive the core field model EvoMag. The EvoMag model agrees well with established models and observatory data from Niemegk. Finally, we present some observed difficulties and discuss the results of our model. T2 - Stochastische Inversion für Kernfeldmodellierung mit Satellitendaten KW - Geomagnetismus KW - Kernfeldmodellierung KW - Optimierung KW - Evolutionsstrategien KW - Inverse Probleme KW - Geomagnetism KW - Core Field Modeling KW - Optimization KW - Evolution Strategies KW - Inverse Problems Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-498072 ER - TY - JOUR A1 - Buttig, Steve T1 - Europa Universalis IV BT - „Wir alle treffen Entscheidungen im Leben, aber letztendlich treffen unsere Entscheidungen uns.“ : didaktische Potenziale digitaler Spielwelten Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-485695 SN - 978-3-86956-489-0 SP - 159 EP - 174 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Tschisgale, Paul T1 - Introduction to the Glauber dynamics for the Curie-Weiss Potts model N2 - This thesis aims at presenting in an organized fashion the required basics to understand the Glauber dynamics as a way of simulating configurations according to the Gibbs distribution of the Curie-Weiss Potts model. Therefore, essential aspects of discrete-time Markov chains on a finite state space are examined, especially their convergence behavior and related mixing times. Furthermore, special emphasis is placed on a consistent and comprehensive presentation of the Curie-Weiss Potts model and its analysis. Finally, the Glauber dynamics is studied in general and applied afterwards in an exemplary way to the Curie-Weiss model as well as the Curie-Weiss Potts model. The associated considerations are supplemented with two computer simulations aiming to show the cutoff phenomenon and the temperature dependence of the convergence behavior. N2 - Die vorliegende Arbeit verfolgt das Ziel, die erforderlichen Grundlagen für das Verständnis der Glauber Dynamik auf organisierte Art und Weise darzustellen. Die Glauber Dynamik stellt eine Möglichkeit der Simulation von Konfigurationen der Gibbs Verteilung des Curie-Weiss Potts Modells dar. Es werden zunächst die zum Verständnis notwendigen Grundlagen von endlichen Markov-Ketten in diskreter Zeit beleuchtet, insbesondere ihr Konvergenzverhalten und die damit verbundene Mischzeit. Darüber hinaus legt diese Arbeit einen Schwerpunkt auf eine konsistente sowie verständliche Darbietung und Analyse des Curie-Weiss Potts Modells. Schließlich wird explizit die Glauber Dynamik betrachtet und anschließend exemplarisch auf das Curie-Weiss Modell und auf das Curie-Weiss Potts Modell angewandt. Die dazugehörigen Betrachtungen werden durch zwei Computersimulationen ergänzt, welche darauf abzielen, das Cutoff-Phänomen sowie die Temperaturabhängigkeit des Konvergenzverhaltens darzustellen bzw. zu verdeutlichen. T2 - Einführung in die Glauber Dynamik des Curie-Weiss Potts Modells KW - Glauber Dynamics KW - Curie-Weiss Potts Model KW - Mixing Times KW - MCMC KW - Glauber Dynamik KW - Curie-Weiss Potts Modell KW - Mischzeiten KW - MCMC-Verfahren Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-486769 ER - TY - THES A1 - Rothe, Viktoria T1 - Das Yamabe-Problem auf global-hyperbolischen Lorentz-Mannigfaltigkeiten N2 - Im Jahre 1960 behauptete Yamabe folgende Aussage bewiesen zu haben: Auf jeder kompakten Riemannschen Mannigfaltigkeit (M,g) der Dimension n ≥ 3 existiert eine zu g konform äquivalente Metrik mit konstanter Skalarkrümmung. Diese Aussage ist äquivalent zur Existenz einer Lösung einer bestimmten semilinearen elliptischen Differentialgleichung, der Yamabe-Gleichung. 1968 fand Trudinger einen Fehler in seinem Beweis und infolgedessen beschäftigten sich viele Mathematiker mit diesem nach Yamabe benannten Yamabe-Problem. In den 80er Jahren konnte durch die Arbeiten von Trudinger, Aubin und Schoen gezeigt werden, dass diese Aussage tatsächlich zutrifft. Dadurch ergeben sich viele Vorteile, z.B. kann beim Analysieren von konform invarianten partiellen Differentialgleichungen auf kompakten Riemannschen Mannigfaltigkeiten die Skalarkrümmung als konstant vorausgesetzt werden. Es stellt sich nun die Frage, ob die entsprechende Aussage auch auf Lorentz-Mannigfaltigkeiten gilt. Das Lorentz'sche Yamabe Problem lautet somit: Existiert zu einer gegebenen räumlich kompakten global-hyperbolischen Lorentz-Mannigfaltigkeit (M,g) eine zu g konform äquivalente Metrik mit konstanter Skalarkrümmung? Das Ziel dieser Arbeit ist es, dieses Problem zu untersuchen. Bei der sich aus dieser Fragestellung ergebenden Yamabe-Gleichung handelt es sich um eine semilineare Wellengleichung, deren Lösung eine positive glatte Funktion ist und aus der sich der konforme Faktor ergibt. Um die für die Behandlung des Yamabe-Problems benötigten Grundlagen so allgemein wie möglich zu halten, wird im ersten Teil dieser Arbeit die lokale Existenztheorie für beliebige semilineare Wellengleichungen für Schnitte auf Vektorbündeln im Rahmen eines Cauchy-Problems entwickelt. Hierzu wird der Umkehrsatz für Banachräume angewendet, um mithilfe von bereits existierenden Existenzergebnissen zu linearen Wellengleichungen, Existenzaussagen zu semilinearen Wellengleichungen machen zu können. Es wird bewiesen, dass, falls die Nichtlinearität bestimmte Bedingungen erfüllt, eine fast zeitglobale Lösung des Cauchy-Problems für kleine Anfangsdaten sowie eine zeitlokale Lösung für beliebige Anfangsdaten existiert. Der zweite Teil der Arbeit befasst sich mit der Yamabe-Gleichung auf global-hyperbolischen Lorentz-Mannigfaltigkeiten. Zuerst wird gezeigt, dass die Nichtlinearität der Yamabe-Gleichung die geforderten Bedingungen aus dem ersten Teil erfüllt, so dass, falls die Skalarkrümmung der gegebenen Metrik nahe an einer Konstanten liegt, kleine Anfangsdaten existieren, so dass die Yamabe-Gleichung eine fast zeitglobale Lösung besitzt. Mithilfe von Energieabschätzungen wird anschließend für 4-dimensionale global-hyperbolische Lorentz-Mannigfaltigkeiten gezeigt, dass unter der Annahme, dass die konstante Skalarkrümmung der konform äquivalenten Metrik nichtpositiv ist, eine zeitglobale Lösung der Yamabe-Gleichung existiert, die allerdings nicht notwendigerweise positiv ist. Außerdem wird gezeigt, dass, falls die H2-Norm der Skalarkrümmung bezüglich der gegebenen Metrik auf einem kompakten Zeitintervall auf eine bestimmte Weise beschränkt ist, die Lösung positiv auf diesem Zeitintervall ist. Hierbei wird ebenfalls angenommen, dass die konstante Skalarkrümmung der konform äquivalenten Metrik nichtpositiv ist. Falls zusätzlich hierzu gilt, dass die Skalarkrümmung bezüglich der gegebenen Metrik negativ ist und die Metrik gewisse Bedingungen erfüllt, dann ist die Lösung für alle Zeiten in einem kompakten Zeitintervall positiv, auf dem der Gradient der Skalarkrümmung auf eine bestimmte Weise beschränkt ist. In beiden Fällen folgt unter den angeführten Bedingungen die Existenz einer zeitglobalen positiven Lösung, falls M = I x Σ für ein beschränktes offenes Intervall I ist. Zum Schluss wird für M = R x Σ ein Beispiel für die Nichtexistenz einer globalen positiven Lösung angeführt. N2 - Yamabe claimed in 1960 that he had proven the following theorem: Any Riemannian metric g on a compact smooth manifold M of dimension n ≥ 3 is conformal to a metric with constant scalar curvature. An equivalent formulation of this theorem is the existence of a solution to a certain semilinear elliptic differential equation, the so-called Yamabe equation. In 1968 Trudinger found a mistake in Yamabe's paper and consequently many mathematicians dealt with this so-called Yamabe problem. In the 80s Trudinger, Aubin and Shoen were able to fix the mistake and prove that Yamabe's theorem was indeed true. This has many advantages, for example when analyzing a conformally invariant partial differential equation on compact Riemannian manifolds one can assume that the scalar curvature is constant. The question now arises whether the analogous statement on Lorentzian manifolds also applies. The Lorentzian Yamabe Problem can be stated as follows: Given a spatially compact globally hyperbolic Lorentzian manifold (M, g), does there exist a metric conformal to g with constant scalar curvature? The goal of this dissertation is to examine this problem. The Yamabe equation which arises from this question is a semilinear wave equation which must have a positive smooth solution. In the first part of this dissertation the local theory of existence of general semilinear wave equations for sections on vector bundles was developed. For this the inverse function theorem and already existing statements about the existence of solutions to linear wave equation on Lorentzian manifolds were used. It will be proven that there exists an almost global solution to the corresponding Cauchy problem for small initial data as well as a time local solution for arbitrary initial data if the nonlinearity fulfills certain conditions. The second part of the dissertation deals with the Yamabe equation on globally hyperbolic Lorentzian manifolds. First by using the results of the first part it will be proven that there exist initial data such that the Yamabe equation has an almost time global solution if the scalar curvature of the given metric is sufficiently close to a constant. Afterwards by using energy estimates it will be shown in the case of 4-dimensional Lorentzian manifolds that under the assumption that the constant scalar curvature of the conformal metric is non-positive there exists a global smooth solution to the Yamabe equation which is not necessarily positive. But it will be proven that the solution is positive on a compact time interval if the H2-Norm of the scalar curvature of the given metric is bounded on this time interval in a certain way or if the scalar curvature is negative and the gradient of the scalar curvature is bounded in a specific way. In both cases the existence of a global positive smooth solution follows, if the Lorentzian manifold has the form M = I x Σ where I is an open bounded time interval and Σ is a Riemannian manifold. At the end an example for the nonexistence of a global positive solution in the case of M= R x Σ will be presented. T2 - The Yamabe problem on globally hyperbolic Lorentzian manifolds KW - Yamabe-Problem KW - Yamabe problem KW - wave equation KW - globally hyperbolic KW - global-hyperbolisch KW - Wellengleichung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-486012 ER - TY - GEN A1 - Pornsawad, Pornsarp A1 - Sungcharoen, Parada A1 - Böckmann, Christine T1 - Convergence rate of the modified Landweber method for solving inverse potential problems T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - In this paper, we present the convergence rate analysis of the modified Landweber method under logarithmic source condition for nonlinear ill-posed problems. The regularization parameter is chosen according to the discrepancy principle. The reconstructions of the shape of an unknown domain for an inverse potential problem by using the modified Landweber method are exhibited. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1034 KW - nonlinear operator KW - regularization KW - modified Landweber method KW - discrepancy principle KW - logarithmic source condition Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471942 SN - 1866-8372 IS - 1034 ER - TY - THES A1 - Friedrich, Alexander T1 - Minimizers of generalized Willmore energies and applications in general relativity N2 - Das Willmore Funktional ist eine Funktion die jeder Fläche in einer Riemannschen Mannigfaltigkeit, ihre totale mittlere Krümmung zuweist. Ein klassisches Problem der Differentialgeometrie ist es geschlossene (kompakt und ohne Rand) Flächen zu finden die das Willmore funktional minimieren, beziehungsweise die kritische Punkte des Willmore Funktionals sind. In dieser Doktorarbeit entwickeln wir ein Konzept von verallgemeinerten Willmore Funktionalen für Flächen in Riemannschen Mannigfaltigkeiten, wobei wir uns von physikalischen Modellen leiten lassen. Insbesondere ist hier die Hawking Energie der allgemeinen Relativitätstheorie und die Biegungsenergie von dünnen Membranen zu nennen. Für dieses verallgemeinerten Willmore Funktionale beweisen wir die Existenz von Minimieren mit vorgeschriebenen Flächeninhalt, in einer geeigneten Klasse von verallgemeinerten Flächen. Insbesondere konstruieren wir Minimierer der oben erwähnten Biegungsenergie mit vorgeschrieben Flächeninhalt und vorgeschriebenen, eingeschlossenem Volumen. Außerdem beweisen wir, dass kritische Punkte von verallgemeinerten Willmore Funktionalen mit vorgeschriebenen Flächeninhalt abseits endlich vieler Punkte glatt sind. Dabei stützen wir uns, wie auch im folgenden, auf die bestehende Theorie für das Willmore Funktional. An diese allgemeinen Resultate schließen wir eine detailliertere Analyse der Hawking Energie an. Im Kontext der allgemeinen Relativitätstheorie beschreibt die Umgebungsmannigfaltigkeit den Raum zu einem Zeitpunkt. Daher sind wir an dem Wechselspiel zwischen der Hawking Energie und der umgebenden Mannigfaltigkeit interessiert. Wir charakterisieren Punkte in der umgebenden Mannigfaltigkeit für die es in jeder Umgebung eine kritische Fläche mit vorgeschriebenem, kleinem Flächeninhalt gibt. Diese Punnkte werden als Konzentrationspunkte der Hawking Energie interpretiert. Außerdem berechnen wir eine Entwicklung der Hawking Energie auf kleinen, runden Sphären. Dadurch können wir eine Art Energiedichte der Hawking Energie identifizieren. Hierbei ist anzumerken, dass unsere Resultate im Kontrast zu Ergebnissen in der Literatur stehen. Dort wurde berechnet, dass die Entwicklung der Hawking Energie auf Sphären im Lichtkegel eines Punktes der umgebenden Mannigfaltigkeit in führender Ordnung proportional zur der klassischen Energiedichte der allgemeinen Relativitätstheorie ist. Zu diesem Zeitpunkt ist nicht klar wie diese Diskrepanz zu begründen ist. Ferner betrachten wir asymptotisch Schwarzschild Mannigfaltigkeiten. Sie sind ein Spezialfall von asymptotisch flachen Mannigfaltigkeiten, welche in der allgemeinen Relativitätstheorie als Modelle für isolierte Systeme dienen. Die Schwarzschild Raumzeit selbst ist eine rotationssymmetrische Raumzeit die schwarzen Loch beschreibt. In diesen asymptotisch Schwarzschild Mannigfaltigkeiten konstruieren wir eine Blätterung des äußeren Bereiches durch kritische Flächen der Hawking Energie mit vorgeschriebenen Flächeninhalt. Diese Blätterung kann in einem verallgemeinertem Sinne als Schwerpunkt des isolierten Systems betrachtet werden. Außerdem zeigen wir, dass die Hawking Energie entlang der Blätterung wächst je größer die Flächen werden. N2 - The Willmore functional is a function that maps an immersed Riemannian manifold to its total mean curvature. Finding closed surfaces that minimizes the Willmore energy, or more generally finding critical surfaces, is a classic problem of differential geometry. In this thesis we will develop the concept of generalized Willmore functionals for surfaces in Riemannian manifolds. We are guided by models in mathematical physics, such as the Hawking energy of general relativity and the bending energies for thin membranes. We prove the existence of minimizers under area constraint for these generalized Willmore functionals in a suitable class of generalized surfaces. In particular, we construct minimizers of the bending energy mentioned above for prescribed area and enclosed volume. Furthermore, we prove that critical surfaces of generalized Willmore functionals with prescribed area are smooth, away from finitely many points. These results and the following are based on the existing theory for the Willmore functional. This general discussion is succeeded by a detailed analysis of the Hawking energy. In the context of general relativity the surrounding manifold describes the space at a given time, hence we strive to understand the interplay between the Hawking energy and the ambient space. We characterize points in the surrounding manifold for which there are small critical spheres with prescribed area in any neighborhood. These points are interpreted as concentration points of the Hawking energy. Additionally, we calculate an expansion of the Hawking energy on small, round spheres. This allows us to identify a kind of energy density of the Hawking energy. It needs to be mentioned that our results stand in contrast to previous expansions of the Hawking energy. However, these expansions are obtained on spheres along the light cone at a given point. At this point it is not clear how to explain the discrepancy. Finally, we consider asymptotically Schwarzschild manifolds. They are a special case of asymptotically flat manifolds, which serf as models for isolated systems. The Schwarzschild spacetime itself is a classical solution to the Einstein equations and yields a simple description of a black hole. In these asymptotically Schwarzschild manifolds we construct a foliation of the exterior region by critical spheres of the Hawking energy with prescribed large area. This foliation can be seen as a generalized notion of the center of mass of the isolated system. Additionally, the Hawking energy of grows along the foliation as the area of the surfaces grows. T2 - Minimierer von Verallgemeinerten Willmore Energien und Anwendungen in der Allgemeinen Relativitätstheorie KW - Partial Differential Equations KW - Calculus of Variation KW - Differential Geometry KW - Geometric Analysis KW - Mathematical Physics KW - Partielle Differential Gleichungen KW - Variationsrechung KW - Differential Geometrie KW - Geometrische Analysis KW - Mathematische Physik Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-481423 ER - TY - THES A1 - Reinhardt, Maria T1 - Hybrid filters and multi-scale models N2 - This thesis is concerned with Data Assimilation, the process of combining model predictions with observations. So called filters are of special interest. One is inter- ested in computing the probability distribution of the state of a physical process in the future, given (possibly) imperfect measurements. This is done using Bayes’ rule. The first part focuses on hybrid filters, that bridge between the two main groups of filters: ensemble Kalman filters (EnKF) and particle filters. The first are a group of very stable and computationally cheap algorithms, but they request certain strong assumptions. Particle filters on the other hand are more generally applicable, but computationally expensive and as such not always suitable for high dimensional systems. Therefore it exists a need to combine both groups to benefit from the advantages of each. This can be achieved by splitting the likelihood function, when assimilating a new observation and treating one part of it with an EnKF and the other part with a particle filter. The second part of this thesis deals with the application of Data Assimilation to multi-scale models and the problems that arise from that. One of the main areas of application for Data Assimilation techniques is predicting the development of oceans and the atmosphere. These processes involve several scales and often balance rela- tions between the state variables. The use of Data Assimilation procedures most often violates relations of that kind, which leads to unrealistic and non-physical pre- dictions of the future development of the process eventually. This work discusses the inclusion of a post-processing step after each assimilation step, in which a minimi- sation problem is solved, which penalises the imbalance. This method is tested on four different models, two Hamiltonian systems and two spatially extended models, which adds even more difficulties. N2 - Diese Dissertation beschäftigt sich mit Daten Assimilation - die Kombination von Modellvorhersagen mit Beobachtungen. Sogenannte Filter sind dabei von beson- derem Interesse. Diese Algorithmen berechnen die Wahrscheinlichkeitsverteilung des Zustandes eines physikalischen Prozesses in der Zukunft unter der Bedingung, dass wir (meist) fehlerbehaftete Messungen vorliegen haben. Der erste Teil bezieht sich auf Hybridfilter, welche eine Brücke zwischen den beiden Hauptgruppen von Filtern schlagen: Ensemble-Kalman-Filter (EnKF) und Teilchenfilter. Die erst- genannten sind sehr stabil und rechnerisch unaufwändig, aber basieren auf recht starken Voraussetzungen. Teilchenfilter hingegen sind allgemeiner aber recheninten- siv und daher nicht immer geeignet für höherdimensionale Systeme. Daher besteht die Notwen- digkeit beide Gruppen zu kombinieren um von den Vorteilen beider Filter zu prof- itieren. Dies kann erreicht werden, indem man, wenn eine Beobachtung assimiliert werden soll, die Likelihood-Funktion in zwei Teile spaltet und auf den einen Teil einen EnKF und auf den anderen einen Teilchenfilter anwendet. Der zweite Teil dieser Arbeit befasst sich mit der Anwendung von Daten Assimilation auf mehrskalige Modelle und die Probleme die daraus entstehen. Eines der Haup- tanwendungsgebiete für Daten Assimilation ist die Vorhersage der Entwicklung von Ozeanen und der Atmosphäre. Diese Prozesse finden auf mehreren Skalen statt und häufig bestehen Balancerelationen zwischen den Zustandsvariablen. Die Nutzung von Daten Assimilationstechniken zerstört diese Beziehungen häufig, was schließlich zu unrealistischen und unphysikalischen Vorhersagen führt. In dieser Dissertation wird vorgeschlagen, nach jedem Assimilationsschritt ein Minimierungsproblem zu lösen, welches die Imbalance als Strafterm beinhaltet. Diese Methode wird an vier verschiedenen Modellen getestet, zwei Hamiltonische Systeme und zwei Modelle mit räumlicher Ausdehnung, was zusätzliche Schwierigkeiten schafft. T2 - Hybridfilter und Multiskalen-Modelle KW - Data Assimilation KW - Daten Assimilation KW - Bayesian Inference KW - bayessche Inferenz KW - Uncertainty Quantification KW - Quantifizierung von Unsicherheit KW - Data-Driven Methods KW - Datengetriebene Methoden Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-474356 ER - TY - JOUR A1 - Boldrighini, Carlo A1 - Frigio, Sandro A1 - Maponi, Pierluigi A1 - Pellegrinotti, Alessandro A1 - Sinai, Yakov G. T1 - 3-D incompressible Navier-Stokes equations: Complex blow-up and related real flows JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472201 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 185 EP - 194 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Figari, Rodolfo A1 - Teta, Alessandro T1 - Zero-range hamiltonians for three quantum particles JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472189 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 175 EP - 184 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Houdebert, Pierre T1 - Numerical study for the phase transition of the area-interaction model JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472177 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 165 EP - 174 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Hryniv, Ostap A1 - Wallace, Clare T1 - Phase separation and sharp large deviations JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472168 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 155 EP - 164 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Jansen, Sabine A1 - Kolesnikov, Leonid T1 - Activity expansions for Gibbs correlation functions JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472121 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 145 EP - 154 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Jansen, Sabine A1 - Kuna, Tobias A1 - Tsagkarogiannis, Dimitrios T1 - Virial inversion for inhomogeneous systems JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472111 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 135 EP - 144 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Jansen, Sabine A1 - Tsagkarogiannis, Dimitrios T1 - Mayer expansion for the Asakura-Oosawa model of colloid theory JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472109 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 127 EP - 134 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Jursenas, Rytis T1 - The peak model for finite rank supersingular perturbations JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472090 IS - 6 SP - 117 EP - 126 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Khachatryan, Linda A1 - Nahapetian, Boris T1 - On direct and inverse problems in the description of lattice random fields JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472083 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 107 EP - 116 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Lykov, Alexander A1 - Malyshev, Vadim T1 - When bounded chaos becomes unbounded JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472060 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 97 EP - 106 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Mazzonetto, Sara T1 - On an approximation of 2-D stochastic Navier-Stokes equations JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472053 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 87 EP - 96 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Pechersky, Eugeny A1 - Pirogov, Sergei A1 - Yambartsev, Anatoly T1 - Large emissions BT - Hawking-Penrose black hole model JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472049 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 77 EP - 86 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Piatnitski, Andrey A1 - Zhizhina, Elena T1 - Non-local convolution type parabolic equations with fractional and regular time derivative JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472024 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 65 EP - 67 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Poghosyan, Suren A1 - Zessin, Hans T1 - Construction of limiting Gibbs processes and the uniqueness of Gibbs processes JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472015 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 55 EP - 64 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Rafler, Mathias T1 - Pinned Gibbs processes JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472007 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 45 EP - 53 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Sukiasyan, Hayk A1 - Melkonyan, Tatev T1 - Semi-recursive algorithm of piecewise linear approximation of two-dimensional function by the method of worst segment dividing JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471982 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 35 EP - 44 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Zagrebnov, Valentin T1 - Trotter product formula on Hilbert and Banach spaces for operator-norm convergence JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471971 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X SP - 23 EP - 34 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Zass, Alexander T1 - A Gibbs point process of diffusions: Existence and uniqueness JF - Lectures in pure and applied mathematics KW - random point processes KW - statistical mechanics KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471951 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 SP - 13 EP - 22 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Zass, Alexander A1 - Zagrebnov, Valentin A1 - Sukiasyan, Hayk A1 - Melkonyan, Tatev A1 - Rafler, Mathias A1 - Poghosyan, Suren A1 - Zessin, Hans A1 - Piatnitski, Andrey A1 - Zhizhina, Elena A1 - Pechersky, Eugeny A1 - Pirogov, Sergei A1 - Yambartsev, Anatoly A1 - Mazzonetto, Sara A1 - Lykov, Alexander A1 - Malyshev, Vadim A1 - Khachatryan, Linda A1 - Nahapetian, Boris A1 - Jursenas, Rytis A1 - Jansen, Sabine A1 - Tsagkarogiannis, Dimitrios A1 - Kuna, Tobias A1 - Kolesnikov, Leonid A1 - Hryniv, Ostap A1 - Wallace, Clare A1 - Houdebert, Pierre A1 - Figari, Rodolfo A1 - Teta, Alessandro A1 - Boldrighini, Carlo A1 - Frigio, Sandro A1 - Maponi, Pierluigi A1 - Pellegrinotti, Alessandro A1 - Sinai, Yakov G. ED - Roelly, Sylvie ED - Rafler, Mathias ED - Poghosyan, Suren T1 - Proceedings of the XI international conference stochastic and analytic methods in mathematical physics N2 - The XI international conference Stochastic and Analytic Methods in Mathematical Physics was held in Yerevan 2 – 7 September 2019 and was dedicated to the memory of the great mathematician Robert Adol’fovich Minlos, who passed away in January 2018. The present volume collects a large majority of the contributions presented at the conference on the following domains of contemporary interest: classical and quantum statistical physics, mathematical methods in quantum mechanics, stochastic analysis, applications of point processes in statistical mechanics. The authors are specialists from Armenia, Czech Republic, Denmark, France, Germany, Italy, Japan, Lithuania, Russia, UK and Uzbekistan. A particular aim of this volume is to offer young scientists basic material in order to inspire their future research in the wide fields presented here. T3 - Lectures in pure and applied mathematics - 6 KW - statistical mechanics KW - random point processes KW - stochastic analysis Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459192 SN - 978-3-86956-485-2 SN - 2199-4951 SN - 2199-496X IS - 6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Knöchel, Jane T1 - Model reduction of mechanism-based pharmacodynamic models and its link to classical drug effect models T1 - Modellreduktion von mechanistischen pharmacodynamischen Modellen und deren Verbindung zu klassischen Wirkstoff-Effekt-Modellen N2 - Continuous insight into biological processes has led to the development of large-scale, mechanistic systems biology models of pharmacologically relevant networks. While these models are typically designed to study the impact of diverse stimuli or perturbations on multiple system variables, the focus in pharmacological research is often on a specific input, e.g., the dose of a drug, and a specific output related to the drug effect or response in terms of some surrogate marker. To study a chosen input-output pair, the complexity of the interactions as well as the size of the models hinders easy access and understanding of the details of the input-output relationship. The objective of this thesis is the development of a mathematical approach, in specific a model reduction technique, that allows (i) to quantify the importance of the different state variables for a given input-output relationship, and (ii) to reduce the dynamics to its essential features -- allowing for a physiological interpretation of state variables as well as parameter estimation in the statistical analysis of clinical data. We develop a model reduction technique using a control theoretic setting by first defining a novel type of time-limited controllability and observability gramians for nonlinear systems. We then show the superiority of the time-limited generalised gramians for nonlinear systems in the context of balanced truncation for a benchmark system from control theory. The concept of time-limited controllability and observability gramians is subsequently used to introduce a state and time-dependent quantity called the input-response (ir) index that quantifies the importance of state variables for a given input-response relationship at a particular time. We subsequently link our approach to sensitivity analysis, thus, enabling for the first time the use of sensitivity coefficients for state space reduction. The sensitivity based ir-indices are given as a product of two sensitivity coefficients. This allows not only for a computational more efficient calculation but also for a clear distinction of the extent to which the input impacts a state variable and the extent to which a state variable impacts the output. The ir-indices give insight into the coordinated action of specific state variables for a chosen input-response relationship. Our developed model reduction technique results in reduced models that still allow for a mechanistic interpretation in terms of the quantities/state variables of the original system, which is a key requirement in the field of systems pharmacology and systems biology and distinguished the reduced models from so-called empirical drug effect models. The ir-indices are explicitly defined with respect to a reference trajectory and thereby dependent on the initial state (this is an important feature of the measure). This is demonstrated for an example from the field of systems pharmacology, showing that the reduced models are very informative in their ability to detect (genetic) deficiencies in certain physiological entities. Comparing our novel model reduction technique to the already existing techniques shows its superiority. The novel input-response index as a measure of the importance of state variables provides a powerful tool for understanding the complex dynamics of large-scale systems in the context of a specific drug-response relationship. Furthermore, the indices provide a means for a very efficient model order reduction and, thus, an important step towards translating insight from biological processes incorporated in detailed systems pharmacology models into the population analysis of clinical data. N2 - Die kontinuierliche Erforschung von biologischen Prozessen hat zur Entwicklung umfangreicher, mechanistischer systembiologischer Modelle von pharmakologisch relevanten Netzwerken beigetragen. Während diese Modelle in der Regel darauf ausgelegt sind, die Auswirkung von Stimuli oder Störungen auf die Systemdynamik zu untersuchen, liegt der Fokus in der pharmakologis- chen Forschung häufig auf einer bestimmten Kontrolle, z.B. der Dosis eines Wirkstoffes, und einer bestimmten Ausgangsgröße, welche in Bezug steht zu dem Wirkstoff-Effekt oder das Ansprechen auf einen Wirkstoff über einen Surrogatmarker. Die Untersuchung und ein einfaches Verständnis einer spezifischen Eingabe-Ausgabe-Beziehung wird durch die Komplexität der Interaktionen sowie der Größe des Modells erschwert. Das Ziel dieser vorliegenden Arbeit ist die Entwicklung eines mathematischen Ansatzes, insbesondere eines Modellreduktionsverfahrens, der es ermöglicht, (i) die Bedeutung der verschiedenen Zustandsvariablen für eine gegebene Eingabe-Ausgabe-Beziehung zu quantifizieren, und (ii) die Dynamik des Systems auf seine wesentlichen Merkmale zu reduzieren, während gleichzeitig die physiologische Interpretierbarkeit von Zustandsvariablen sowie eine Parameterschätzung im Rahmen von einer statistischen Analyse klinischer Daten ermöglicht wird. Unter Verwendung eines kontrolltheoretischen Settings entwickeln wir eine Modellreduktionstechnik, indem wir vorerst einen neuartigen Typ von zeitlich begrenzten Kontrolllierbarkeits- und Beobachtbarkeitsgramian für nichtlineare Systeme definieren. Anschließend zeigen wir die Überlegenkeit der zeitlich begrenzten verallgemeinerten Gramian für nichtlineare Systeme im Kontext von Balanced Truncation am Beispiel eines Benchmark-Systems aus der Kontrolltheorie. Wir nutzten das Konzept der zeitlich begrenzten Kontrolllierbarkeits- und Beobachtbarkeitsgramian, um eine neue Zustands- und zeitabhängige Größe, die als Input-Response (IR-) Index bezeichnet wird, einzuführen. Dieser Index quantifiziert die Bedeutung von Zustandsvariablen zu einem bestimmten Zeitpunkt für eine bestimmte Eingabe-Ausgabe-Beziehung. Schließlich verknüpfen wir unseren Ansatz mit der Sensitivitätsanalyse und ermöglichen so erstmals die Verwendung von Sensitivitätskoeffizienten im Rahmen der Reduktion des Zustandsraumes. Wir erhalten die sensitivitätsbasierten IR-Indizes als Produkt zweier Sensitivitätskoeffizienten. Dies ermöglicht nicht nur eine effizientere Berechnung, sondern auch eine klare Unterscheidung, inwieweit die Eingabe eine Zustandsvariable beeinflusst und inwieweit eine Zustandsvariable die Ausgabe beeinflusst. Mit Hilfe der IR-Indizes erhalten wir einen Einblick in den koordinierten Ablauf der Aktivierung von spezifischen Zustandsvariablen für eine ausgewählte Eingabe-Ausgabe-Beziehung. Unser entwickeltes Modellreduktionsverfahren resultiert in reduzierten Modelle, welche eine mechanistische Interpretation hinsichtlich der Originalgrößen und Zustandsvariablen des Ursprungssystems zulassen. Dies war eine wichtige Anforderung an das Verfahren von Seiten der Systempharmakologie und -biologie. Die reduzierten Modelle unterscheiden sich damit wesentlich von den so genannten empirischen Wirkstoff-Effekt-Modellen. Die IR-Indizes sind explizit in Bezug auf eine Referenzlösung definiert und damit vom Anfangszustand abhängig (dies ist ein wichtiges Merkmal der Indizes). Wir zeigen anhand eines Beispiels aus dem Bereich der Systempharmakologie, dass die reduzierten Modelle sehr aussagekräftig sind, um (genetische) Mängel in bestimmten physiologischen Einheiten festzustellen. Der Vergleich unseres neuartigen Modellreduktionsverfahrens mit den bereits vorhandenen Verfahren zeigt dessen Überlegenheit. Der neuartige IR-Index als Maß für die Wichtigkeit von Zustandsvariablen bietet ein leistungsfähiges mathematisches Werkzeug zum Verständnis und der Analyse der komplexen Dynamik von großen Systemen im Kontext einer bestimmten Wirkstoff-Effekt-Beziehung. Darüber hinaus sind die Indizes eine wichtige Grundlage für das eingeführte und sehr effiziente Modellreduktionsverfahren. Insgesamt stellt dies einen wichtigen Schritt zur Nutzung von Erkenntnissen über biologische Prozesse in Form von detaillierten systempharmakologischen Modellen in der Populationsanalyse klinischer Daten dar. KW - model order reduction KW - control theory KW - large-scale mechanistic systems KW - systems pharmacology KW - Modellreduktion KW - Kontrolltheorie KW - komplexe mechanistische Systeme KW - Systempharmakologie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440598 ER - TY - THES A1 - Lewandowski, Max T1 - Hadamard states for bosonic quantum field theory on globally hyperbolic spacetimes T1 - Hadamard-Zustände für bosonische Quantenfeldtheorie auf global hyperbolischen Raumzeiten N2 - Quantenfeldtheorie auf gekrümmten Raumzeiten ist eine semiklassische Näherung einer Quantentheorie der Gravitation, im Rahmen derer ein Quantenfeld unter dem Einfluss eines klassisch modellierten Gravitationsfeldes, also einer gekrümmten Raumzeit, beschrieben wird. Eine der bemerkenswertesten Vorhersagen dieses Ansatzes ist die Erzeugung von Teilchen durch die gekrümmte Raumzeit selbst, wie zum Beispiel durch Hawkings Verdampfen schwarzer Löcher und den Unruh Effekt. Andererseits deuten diese Aspekte bereits an, dass fundamentale Grundpfeiler der Theorie auf dem Minkowskiraum, insbesondere ein ausgezeichneter Vakuumzustand und damit verbunden der Teilchenbegriff, für allgemeine gekrümmte Raumzeiten keine sinnvolle Entsprechung besitzen. Gleichermaßen benötigen wir eine alternative Implementierung von Kovarianz in die Theorie, da gekrümmte Raumzeiten im Allgemeinen keine nicht-triviale globale Symmetrie aufweisen. Letztere Problematik konnte im Rahmen lokal-kovarianter Quantenfeldtheorie gelöst werden, wohingegen die Abwesenheit entsprechender Konzepte für Vakuum und Teilchen in diesem allgemeinen Fall inzwischen sogar in Form von no-go-Aussagen manifestiert wurde. Beim algebraischen Ansatz für eine Quantenfeldtheorie werden zunächst Observablen eingeführt und erst anschließend Zustände via Zuordnung von Erwartungswerten. Obwohl die Observablen unter physikalischen Gesichtspunkten konstruiert werden, existiert dennoch eine große Anzahl von möglichen Zuständen, von denen viele, aus physikalischen Blickwinkeln betrachtet, nicht sinnvoll sind. Dieses Konzept von Zuständen ist daher noch zu allgemein und bedarf weiterer physikalisch motivierter Einschränkungen. Beispielsweise ist es natürlich, sich im Falle freier Quantenfeldtheorien mit linearen Feldgleichungen auf quasifreie Zustände zu konzentrieren. Darüber hinaus ist die Renormierung von Erwartungswerten für Produkte von Feldern von zentraler Bedeutung. Dies betrifft insbesondere den Energie-Impuls-Tensor, dessen Erwartungswert durch distributionelle Bilösungen der Feldgleichungen gegeben ist. Tatsächlich liefert J. Hadamard Theorie hyperbolischer Differentialgleichungen Bilösungen mit festem singulären Anteil, so dass ein geeignetes Renormierungsverfahren definiert werden kann. Die sogenannte Hadamard-Bedingung an Bidistributionen steht für die Forderung einer solchen Singularitätenstruktur und sie hat sich etabliert als natürliche Verallgemeinerung der für flache Raumzeiten formulierten Spektralbedingung. Seit Radzikowskis wegweisenden Resultaten lässt sie sich außerdem lokal ausdrücken, nämlich als eine Bedingung an die Wellenfrontenmenge der Bilösung. Diese Formulierung schlägt eine Brücke zu der von Duistermaat und Hörmander entwickelten mikrolokalen Analysis, die seitdem bei der Überprüfung der Hadamard-Bedingung sowie der Konstruktion von Hadamard Zuständen vielfach Verwendung findet und rasante Fortschritte auf diesem Gebiet ausgelöst hat. Obwohl unverzichtbar für die Analyse der Charakteristiken von Operatoren und ihrer Parametrizen sind die Methoden und Aussagen der mikrolokalen Analysis ungeeignet für die Analyse von nicht-singulären Strukturen und zentrale Aussagen sind typischerweise bis auf glatte Anteile formuliert. Beispielsweise lassen sich aus Radzikowskis Resultaten nahezu direkt Existenzaussagen und sogar ein konkretes Konstruktionsschema für Hadamard Zustände ableiten, die übrigen Eigenschaften (Bilösung, Kausalität, Positivität) können jedoch auf diesem Wege nur modulo glatte Funktionen gezeigt werden. Es ist das Ziel dieser Dissertation, diesen Ansatz für lineare Wellenoperatoren auf Schnitten in Vektorbündeln über global-hyperbolischen Lorentz-Mannigfaltigkeiten zu vollenden und, ausgehend von einer lokalen Hadamard Reihe, Hadamard Zustände zu konstruieren. Beruhend auf Wightmans Lösung für die d'Alembert-Gleichung auf dem Minkowski-Raum und der Herleitung der avancierten und retardierten Fundamentallösung konstruieren wir lokal Parametrizen in Form von Hadamard-Reihen und fügen sie zu globalen Bilösungen zusammen. Diese besitzen dann die Hadamard-Eigenschaft und wir zeigen anschließend, dass glatte Bischnitte existieren, die addiert werden können, so dass die verbleibenden Bedingungen erfüllt sind. N2 - Quantum field theory on curved spacetimes is understood as a semiclassical approximation of some quantum theory of gravitation, which models a quantum field under the influence of a classical gravitational field, that is, a curved spacetime. The most remarkable effect predicted by this approach is the creation of particles by the spacetime itself, represented, for instance, by Hawking's evaporation of black holes or the Unruh effect. On the other hand, these aspects already suggest that certain cornerstones of Minkowski quantum field theory, more precisely a preferred vacuum state and, consequently, the concept of particles, do not have sensible counterparts within a theory on general curved spacetimes. Likewise, the implementation of covariance in the model has to be reconsidered, as curved spacetimes usually lack any non-trivial global symmetry. Whereas this latter issue has been resolved by introducing the paradigm of locally covariant quantum field theory (LCQFT), the absence of a reasonable concept for distinct vacuum and particle states on general curved spacetimes has become manifest even in the form of no-go-theorems. Within the framework of algebraic quantum field theory, one first introduces observables, while states enter the game only afterwards by assigning expectation values to them. Even though the construction of observables is based on physically motivated concepts, there is still a vast number of possible states, and many of them are not reasonable from a physical point of view. We infer that this notion is still too general, that is, further physical constraints are required. For instance, when dealing with a free quantum field theory driven by a linear field equation, it is natural to focus on so-called quasifree states. Furthermore, a suitable renormalization procedure for products of field operators is vitally important. This particularly concerns the expectation values of the energy momentum tensor, which correspond to distributional bisolutions of the field equation on the curved spacetime. J. Hadamard's theory of hyperbolic equations provides a certain class of bisolutions with fixed singular part, which therefore allow for an appropriate renormalization scheme. By now, this specification of the singularity structure is known as the Hadamard condition and widely accepted as the natural generalization of the spectral condition of flat quantum field theory. Moreover, due to Radzikowski's celebrated results, it is equivalent to a local condition, namely on the wave front set of the bisolution. This formulation made the powerful tools of microlocal analysis, developed by Duistermaat and Hörmander, available for the verification of the Hadamard property as well as the construction of corresponding Hadamard states, which initiated much progress in this field. However, although indispensable for the investigation in the characteristics of operators and their parametrices, microlocal analyis is not practicable for the study of their non-singular features and central results are typically stated only up to smooth objects. Consequently, Radzikowski's work almost directly led to existence results and, moreover, a concrete pattern for the construction of Hadamard bidistributions via a Hadamard series. Nevertheless, the remaining properties (bisolution, causality, positivity) are ensured only modulo smooth functions. It is the subject of this thesis to complete this construction for linear and formally self-adjoint wave operators acting on sections in a vector bundle over a globally hyperbolic Lorentzian manifold. Based on Wightman's solution of d'Alembert's equation on Minkowski space and the construction for the advanced and retarded fundamental solution, we set up a Hadamard series for local parametrices and derive global bisolutions from them. These are of Hadamard form and we show existence of smooth bisections such that the sum also satisfies the remaining properties exactly. KW - mathematische Physik KW - Quantenfeldtheorie KW - Differentialgeometrie KW - mathematical physics KW - quantum field theory KW - differential geometry Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439381 ER - TY - THES A1 - Angwenyi, David T1 - Time-continuous state and parameter estimation with application to hyperbolic SPDEs T1 - Zeitkontinuierliche Zustands- und Parameterschätzung bei Anwendung auf hyperbolische SPDEs N2 - Data assimilation has been an active area of research in recent years, owing to its wide utility. At the core of data assimilation are filtering, prediction, and smoothing procedures. Filtering entails incorporation of measurements' information into the model to gain more insight into a given state governed by a noisy state space model. Most natural laws are governed by time-continuous nonlinear models. For the most part, the knowledge available about a model is incomplete; and hence uncertainties are approximated by means of probabilities. Time-continuous filtering, therefore, holds promise for wider usefulness, for it offers a means of combining noisy measurements with imperfect model to provide more insight on a given state. The solution to time-continuous nonlinear Gaussian filtering problem is provided for by the Kushner-Stratonovich equation. Unfortunately, the Kushner-Stratonovich equation lacks a closed-form solution. Moreover, the numerical approximations based on Taylor expansion above third order are fraught with computational complications. For this reason, numerical methods based on Monte Carlo methods have been resorted to. Chief among these methods are sequential Monte-Carlo methods (or particle filters), for they allow for online assimilation of data. Particle filters are not without challenges: they suffer from particle degeneracy, sample impoverishment, and computational costs arising from resampling. The goal of this thesis is to:— i) Review the derivation of Kushner-Stratonovich equation from first principles and its extant numerical approximation methods, ii) Study the feedback particle filters as a way of avoiding resampling in particle filters, iii) Study joint state and parameter estimation in time-continuous settings, iv) Apply the notions studied to linear hyperbolic stochastic differential equations. The interconnection between Itô integrals and stochastic partial differential equations and those of Stratonovich is introduced in anticipation of feedback particle filters. With these ideas and motivated by the variants of ensemble Kalman-Bucy filters founded on the structure of the innovation process, a feedback particle filter with randomly perturbed innovation is proposed. Moreover, feedback particle filters based on coupling of prediction and analysis measures are proposed. They register a better performance than the bootstrap particle filter at lower ensemble sizes. We study joint state and parameter estimation, both by means of extended state spaces and by use of dual filters. Feedback particle filters seem to perform well in both cases. Finally, we apply joint state and parameter estimation in the advection and wave equation, whose velocity is spatially varying. Two methods are employed: Metropolis Hastings with filter likelihood and a dual filter comprising of Kalman-Bucy filter and ensemble Kalman-Bucy filter. The former performs better than the latter. N2 - Die Datenassimilation war in den letzten Jahren aufgrund ihres breiten Nutzens ein aktives Forschungsgebiet. Im Zentrum der Datenassimilation stehen Filter-, Vorhersage- und Glättungsverfahren. Die Filterung beinhaltet die Einbeziehung von Messinformationen in das Modell, um einen besseren Einblick in einen gegebenen Zustand zu erhalten, der durch ein verrauschtes Zustandsraummodell gesteuert wird. Die meisten Naturgesetze werden von zeitkontinuierlichen nichtlinearen Modellen bestimmt. Das verfügbare Wissen über ein Modell ist größtenteils unvollständig; und daher werden Unsicherheiten mittels Wahrscheinlichkeiten angenähert. Die zeitkontinuierliche Filterung verspricht daher eine größere Nützlichkeit, denn sie bietet die Möglichkeit, verrauschte Messungen mit einem unvollkommenen Modell zu kombinieren, um mehr Einblick in einen bestimmten Zustand zu erhalten. Das Problem der zeitkontinuierlichen nichtlinearen Gaußschen Filterung wird durch die Kushner-Stratonovich-Gleichung gelöst. Leider fehlt der Kushner-Stratonovich-Gleichung eine geschlossene Lösung. Darüber hinaus sind die numerischen Näherungen, die auf der Taylor-Erweiterung über der dritten Ordnung basieren, mit rechnerischen Komplikationen behaftet. Aus diesem Grund wurde auf numerische Methoden zurückgegriffen, die auf Monte-Carlo-Methoden basieren. Die wichtigsten dieser Methoden sind sequentielle Monte-Carlo-Methoden (oder Partikelfilter), da sie die Online-Assimilation von Daten ermöglichen. Partikelfilter sind nicht unproblematisch: Sie leiden unter Partikelentartung, Probenverarmung und Rechenkosten, die sich aus der Neuabtastung ergeben. Das Ziel dieser Arbeit ist es, i) die Ableitung der Kushner-Stratonovich-Gleichung aus den ersten Prinzipien und ihre vorhandenen numerischen Approximationsmethoden zu überprüfen, ii) die Rückkopplungs-Partikelfilter zu untersuchen, um eine Neuabtastung in Partikelfiltern zu vermeiden, iii) Studieren Sie die Zustands- und Parameterschätzung in zeitkontinuierlichen Einstellungen, iv) Wenden Sie die untersuchten Begriffe auf lineare hyperbolische stochastische Differentialgleichungen an. Die Verbindung zwischen Itô Integralen und stochastischen partiellen Differentialgleichungen und denen von Stratonovich wird in Erwartung von Rückkopplungs-Partikelfiltern eingeführt. Mit diesen Ideen und motiviert durch die Varianten von Kalman-Bucy-Filtern, die auf der Struktur des Innovationsprozesses gegründet, wird ein Feedback-Partikelfilter mit zufällig gestörter Innovation vorgeschlagen. Darüber hinaus werden Rückkopplungspartikelfilter basierend auf der Kopplung von Vorhersage- und Analysemaßnahmen vorgeschlagen. Diese Feedback-Partikelfiltern haben eine bessere Leistung als der Bootstrap-Partikelfilter bei niedrigeren Ensemble-Größen. Wir untersuchen gemeinsame Zustands- und Parameterschätzungen, sowohl durch erweiterte Zustandsräume als auch durch Verwendung von Doppelfiltern. Rückkopplungs-Partikelfilter scheinen in beiden Fällen gut zu funktionieren. Schließlich wenden wir eine gemeinsame Zustands- und Parameterschätzung in der Advektions-und Wellengleichung an, deren Geschwindigkeit räumlich variiert. Es werden zwei Verfahren verwendet: Metropolis-Hastings mit Filterwahrscheinlichkeit und ein Doppelfilter bestehend aus Kalman-Bucy-Filter und Ensemble-Kalman-Bucy-Filter. Ersteres schneidet besser ab als letzteres. KW - state estimation KW - filtering KW - parameter estimation KW - Zustandsschätzung KW - Filterung KW - Parameter Schätzung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436542 ER - TY - THES A1 - Jakobs, Friedrich T1 - Dubrovin–rings and their connection to Hughes–free skew fields of fractions T1 - Dubrovinringe und ihre Verbindung zu Hughes-freien Quotientenschiefkörpern N2 - One method of embedding groups into skew fields was introduced by A. I. Mal'tsev and B. H. Neumann (cf. [18, 19]). If G is an ordered group and F is a skew field, the set F((G)) of formal power series over F in G with well-ordered support forms a skew field into which the group ring F[G] can be embedded. Unfortunately it is not suficient that G is left-ordered since F((G)) is only an F-vector space in this case as there is no natural way to define a multiplication on F((G)). One way to extend the original idea onto left-ordered groups is to examine the endomorphism ring of F((G)) as explored by N. I. Dubrovin (cf. [5, 6]). It is possible to embed any crossed product ring F[G; η, σ] into the endomorphism ring of F((G)) such that each non-zero element of F[G; η, σ] defines an automorphism of F((G)) (cf. [5, 10]). Thus, the rational closure of F[G; η, σ] in the endomorphism ring of F((G)), which we will call the Dubrovin-ring of F[G; η, σ], is a potential candidate for a skew field of fractions of F[G; η, σ]. The methods of N. I. Dubrovin allowed to show that specific classes of groups can be embedded into a skew field. For example, N. I. Dubrovin contrived some special criteria, which are applicable on the universal covering group of SL(2, R). These methods have also been explored by J. Gräter and R. P. Sperner (cf. [10]) as well as N.H. Halimi and T. Ito (cf. [11]). Furthermore, it is of interest to know if skew fields of fractions are unique. For example, left and right Ore domains have unique skew fields of fractions (cf. [2]). This is not the general case as for example the free group with 2 generators can be embedded into non-isomorphic skew fields of fractions (cf. [12]). It seems likely that Ore domains are the most general case for which unique skew fields of fractions exist. One approach to gain uniqueness is to restrict the search to skew fields of fractions with additional properties. I. Hughes has defined skew fields of fractions of crossed product rings F[G; η, σ] with locally indicable G which fulfill a special condition. These are called Hughes-free skew fields of fractions and I. Hughes has proven that they are unique if they exist [13, 14]. This thesis will connect the ideas of N. I. Dubrovin and I. Hughes. The first chapter contains the basic terminology and concepts used in this thesis. We present methods provided by N. I. Dubrovin such as the complexity of elements in rational closures and special properties of endomorphisms of the vector space of formal power series F((G)). To combine the ideas of N.I. Dubrovin and I. Hughes we introduce Conradian left-ordered groups of maximal rank and examine their connection to locally indicable groups. Furthermore we provide notations for crossed product rings, skew fields of fractions as well as Dubrovin-rings and prove some technical statements which are used in later parts. The second chapter focuses on Hughes-free skew fields of fractions and their connection to Dubrovin-rings. For that purpose we introduce series representations to interpret elements of Hughes-free skew fields of fractions as skew formal Laurent series. This 1 Introduction allows us to prove that for Conradian left-ordered groups G of maximal rank the statement "F[G; η, σ] has a Hughes-free skew field of fractions" implies "The Dubrovin ring of F [G; η, σ] is a skew field". We will also prove the reverse and apply the results to give a new prove of Theorem 1 in [13]. Furthermore we will show how to extend injective ring homomorphisms of some crossed product rings onto their Hughes-free skew fields of fractions. At last we will be able to answer the open question whether Hughes--free skew fields are strongly Hughes-free (cf. [17, page 53]). N2 - In dieser Arbeit beschäftigen wir uns mit Quotientenschiefkörpern von verschränkten Produkten F [G; η, σ], wobei G eine Gruppe und F ein Schiefkörper ist. Eine Methode Gruppen in Schiefkörper einzubetten stammt von A. I. Mal’tsev und B. H. Neumann. Ist G eine beidseitig geordnete Gruppe, so lässt sich die Menge der formalen Potenzreihen F ((G)) über F in G mit wohlgeordnetem Träger als Schiefkörper interpretieren. In diesen lässt sich jedes verschränkte Produkt F [G; η, σ] einbetten. Möchte man die Klasse der einzubettenden Gruppen erweitern, so bieten sich links–geordnete Gruppen an. In diesem Fall hat F ((G)) keine natürliche Ringstruktur, aber man kann nutzen, dass F ((G)) ein rechter F–Vektorraum ist und seinen Endomorphismenring untersuchen. Jedes Verschränkte Produkt F [G; η, σ] lässt sich derart in den Endomorphismenring einbetten, dass die zugehörigen von Null verschiedenen Endomorphismen Automorphismen sind. Der rationale Abschluss von F [G; η, σ] in End(F ((G))), den wir Dubrovinring von F [G; η, σ] nennen, ist somit ein potentieller Quotientenschiefkörper von F [G; η, σ]. Neben der Existenz von Quotientenschiefkörpern ist deren Eindeutigkeit (bis auf Isomorphie) von Interesse. Im Gegensatz zum kommutativen Fall sind Quotientenschiefkörper im Allgemeinen nicht eindeutig. So lässt sich beispielsweise die freie Gruppe mit zwei Erzeugenden in nicht–isomorphe Quotientenschiefkörper einbetten. Eine große Klasse an Ringen, die eindeutige Quotientenschiefkörper besitzen, sind Ore–Bereiche. Vermutlich lässt sich diese Klasse nicht erweitern, ohne zusätzliche Eigenschaften der Quotientenschiefkörper zu verlangen. Eine solche Eigenschaft, im Folgenden Hughes–frei genannt, wurde von I. Hughes vorgeschlagen. Er konnte beweisen, dass Hughes–freie Quotientenschiefkörper eindeutig sind, wenn sie existieren. In dieser Arbeit verbinden wir die Ideen von I. Hughes und N. I. Dubrovin. Wir zeigen, dass die Elemente von Hughes–freien Quotientenschiefkörpern als formale schiefe Laurent–Reihen dargestellt werden können und dass diese Darstellungen in gewisser Weise eindeutig sind. Dieses Ergebnis nutzen wir um zu beweisen, dass die Aussagen “F [G; η, σ] besitzt einen Hughes–freien Quotientenschiefkörper” und “Der Dubrovinring von F [G; η, σ] ist ein Schiefkörper” äquivalent sind, wenn G eine links–geordnete Gruppe von Conrad–Typ mit maximalem Rang ist. Wir stellen den nötigen Begriffsapparat zur Verfügung. Dieser basiert vorwiegend auf den Arbeiten von N. I. Dubrovin und umfasst spezielle Eigenschaften der Endomorphismen von F ((G)) sowie die Komplexität von Elementen in rationalen Abschlüssen. Des Weiteren gehen wir auf links–geordnete Gruppen von Conrad–Typ ein und untersuchen ihren Zusammenhang mit lokal indizierbaren Gruppen, die eine grundlegende Rolle für Hughes–freie Quotientenschiefkörper spielen. Wir werden zeigen können, dass Dubrovinringe, die Schiefkörper sind, stark Hughes–freie Quotientenschiefkörper sind, was die offene Frage beantwortet, ob Hughes–freie Quotientenschiefkörper stark Hughes–frei sind. Außerdem werden wir einen alternativen Beweis der Eindeutigkeit von Hughes–freien Quotientenschiefkörpern präsentieren und die Fortsetzbarkeit von Automorphismen eines verschränkten Produkts auf Hughes–freie Quotientenschiefkörper untersuchen. KW - Hughes-free KW - Dubrovinring KW - left ordered groups KW - Conradian ordered groups KW - skew field of fraction KW - locally indicable KW - series representation KW - strongly Hughes-free KW - Hughes-frei KW - Dubrovinring KW - linksgeordnete Gruppen KW - geordnete Gruppen von Conrad-Typ KW - Quotientenschiefkörper KW - lokal indizierbar KW - Reihendarstellungen KW - stark Hughes-frei Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435561 ER - TY - THES A1 - Khalil, Sara T1 - Boundary Value Problems on Manifolds with Singularities T1 - Randwertprobleme auf Mannigfaltigkeiten mit Singularitäten N2 - In the thesis there are constructed new quantizations for pseudo-differential boundary value problems (BVPs) on manifolds with edge. The shape of operators comes from Boutet de Monvel’s calculus which exists on smooth manifolds with boundary. The singular case, here with edge and boundary, is much more complicated. The present approach simplifies the operator-valued symbolic structures by using suitable Mellin quantizations on infinite stretched model cones of wedges with boundary. The Mellin symbols themselves are, modulo smoothing ones, with asymptotics, holomorphic in the complex Mellin covariable. One of the main results is the construction of parametrices of elliptic elements in the corresponding operator algebra, including elliptic edge conditions. N2 - In der Dissertation wurden neue Quantisierungen konstruiert für pseudo-differentielle Randwertprobleme auf Mannigfaltigkeiten mit Kanten-Singularitäten. Die Gestalt der hier behandelten Operatoren ist motiviert durch Boutet de Monvels Kalkül, der auf glatten Mannigfaltigkeiten mit Rand bekannt ist. Der singuläre Fall, hier mit Kanten und Rand, ist weitaus komplizierter. Der gegenwärtige Zugang vereinfacht die operatarwertigen Symbolstrukturen unter Verwendung geeigneter Mellin-Quantisierungen auf unendlichen gestreckten Modell- Kegeln, die entsprechenden Keilen mit Rand zugeordnet sind. Die Mellin-Symbole selbst sind holomorph in der komplexen Mellin Kovariablen bis auf glättende Restglieder mit Asymptotiken. Zu den Hauptresultaten gehört die Konstruktion von Parametrices elliptischer Elemente in der erzeugten Operator-Algebra, einschließlich elliptischer Kanten-Bedingungen. KW - manifolds with singularities KW - boundary value problems KW - pseudo-differential equation KW - manifolds with edge KW - Boutet de Monvel's calculus KW - edge boundary value problems KW - Mannigfaltigkeiten mit Singularitäten KW - Randwertprobleme KW - pseudo-differentielle Gleichungen KW - Mannigfaltigkeiten mit Kante KW - Boutet de Monvels Kalkül KW - Kanten-Randwertprobleme Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419018 ER - TY - JOUR A1 - Greven, Christoph A1 - Schroeder, Ulrik T1 - Wissenschaftliches Arbeiten lernen BT - Eine Problemanalyse JF - Commentarii informaticae didacticae N2 - Die Lehre von wissenschaftlichem Arbeiten stellt einen zentralen Aspekt in forschungsorientierten Studiengängen wie der Informatik dar. Trotz diverser Angebote werden mittel- und langfristig Mängel in der Arbeitsqualität von Studierenden sichtbar. Dieses Paper analysiert daher das Profil der Studierenden, deren Anwendung des wissenschaftlichen Arbeitens, und das Angebot von Proseminaren zum Thema „Einführung in das wissenschaftliche Arbeiten“ einer deutschen Universität. Die Ergebnisse mehrerer Erhebungen zeigen dabei diverse Probleme bei Studierenden auf, u. a. bei dem Prozessverständnis, dem Zeitmanagement und der Kommunikation. KW - Wissenschaftliches Arbeiten KW - Hochschullehre KW - Informatik KW - Forschung KW - Informationskompetenz KW - forschungsorientiertes Lernen KW - Analyse Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416380 IS - 10 SP - 151 EP - 161 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Frede, Christiane A1 - Knobelsdorf, Maria T1 - Explorative Datenanalyse der Studierendenperformance in der Theoretischen Informatik JF - Commentarii informaticae didacticae N2 - In diesem Artikel werden die Ergebnisse einer explorativen Datenanalyse über die Studierendenperformance in Klausur- und Hausaufgaben eines Einführungskurses der Theoretischen Informatik vorgestellt. Da bisher empirisch wenig untersucht ist, welche Probleme Studierenden in den Einführungskursen haben und die Durchfallquoten in diesen Kursen sehr hoch sind, soll auf diesem Weg ein Überblick gegeben werden. Die Ergebnisse zeigen, dass alle Studierenden unabhängig von ihrer Klausurnote die niedrigste Performance in den Klausur- und Hausaufgaben aufweisen, in denen formale Beweise gefordert sind. Dieses Ergebnis stärkt die Vermutung, dass didaktische Ansätze und Maßnahmen sich insbesondere auf das Erlernen formaler Beweismethoden fokussieren sollten, um Informatik-Studierende nachhaltiger dabei zu unterstützen, in Theoretischer Informatik erfolgreich zu sein. KW - Theoretische Informatik KW - Explorative Datenanalyse KW - Formale Sprachen und Automaten KW - Studierendenperformance KW - Beweisaufgaben Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416378 IS - 10 SP - 135 EP - 149 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Grillenberger, Andreas A1 - Romeike, Ralf T1 - Was ist Data Science? BT - Ermittlung der informatischen Inhalte durch Analyse von Studienangeboten JF - Commentarii informaticae didacticae N2 - In Zusammenhang mit den Entwicklungen der vergangenen Jahre, insbesondere in den Bereichen Big Data, Datenmanagement und Maschinenlernen, hat sich der Umgang mit Daten und deren Analyse wesentlich weiterentwickelt. Mittlerweile wird die Datenwissenschaft als eigene Disziplin angesehen, die auch immer stärker durch entsprechende Studiengänge an Hochschulen repräsentiert wird. Trotz dieser zunehmenden Bedeutung ist jedoch oft unklar, welche konkreten Inhalte mit ihr in Verbindung stehen, da sie in verschiedensten Ausprägungen auftritt. In diesem Beitrag werden daher die hinter der Data Science stehenden informatischen Inhalte durch eine qualitative Analyse der Modulhandbücher etablierter Studiengänge aus diesem Bereich ermittelt und so ein Beitrag zur Charakterisierung dieser Disziplin geleistet. Am Beispiel der Entwicklung eines Data-Literacy-Kompetenzmodells, die als Ausblick skizziert wird, wird die Bedeutung dieser Charakterisierung für die weitere Forschung expliziert. KW - Data Science KW - Big Data KW - Inhalte KW - Studiengänge KW - Data Literacy KW - Kompetenzen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416369 IS - 10 SP - 119 EP - 134 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Striewe, Michael A1 - Kramer, Matthias T1 - Empirische Untersuchungen von Lückentext-Items zur Beherrschung der Syntax einer Programmiersprache JF - Commentarii informaticae didacticae N2 - Lückentext-Items auf der Basis von Programmcode können eingesetzt werden, um Kenntnisse in der Syntax einer Programmiersprache zu prüfen, ohne dazu komplexe Programmieraufgaben zu stellen, deren Bearbeitung weitere Kompetenzen erfordert. Der vorliegende Beitrag dokumentiert den Einsatz von insgesamt zehn derartigen Items in einer universitären Erstsemestervorlesung zur Programmierung mit Java. Es werden sowohl Erfahrungen mit der Konstruktion der Items als auch empirische Daten aus dem Einsatz diskutiert. Der Beitrag zeigt dadurch insbesondere die Herausforderungen bei der Konstruktion valider Instrumente zur Kompetenzmessung in der Programmierausbildung auf. Die begrenzten und teilweise vorläufigen Ergebnisse zur Qualität der erzeugten Items legen trotzdem nahe, dass Erstellung und Einsatz entsprechender Items möglich ist und einen Beitrag zur Kompetenzmessung leisten kann. KW - Programmierausbildung KW - Codeverständnis KW - C-Test KW - Lückentext KW - Kompetenzmessung KW - Empirische Untersuchung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416353 IS - 12 SP - 101 EP - 115 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Keverpütz, Claudia A1 - Küppers, Bastian T1 - Konsistente Lehr-Lern-Prozesse in der dualen IT-Ausbildung JF - Commentarii informaticae didacticae N2 - In der dualen IT-Ausbildung als Verbindung von beruflicher und akademischer Qualifikation werden die berufstypischen Werkzeuge, wie z. B. Laptops, ebenso in den Lehr-Lern-Prozessen der akademischen Unterrichtseinheiten eingesetzt. Im Prüfungswesen wird oft auf klassische Papierklausuren zurückgegriffen. Unterrichtseinheiten mit hohem Blended-Learning-Anteil ohne E-Prüfung werden dabei als „nicht konsistent“ wahrgenommen. In diesem Artikel wird eine empirische Studie dargelegt, die untersucht, welche Einflüsse aus der persönlichen Lernbiografie bei den Lehrenden in einer dualen IT-Ausbildung dazu führen können, die Möglichkeiten eines E-Assessments als summative Modulprüfung anzunehmen oder abzulehnen. Beispielhaft wurden in der dargelegten Studie Interviews mit Dozenten geführt und diese hinsichtlich der Verbindung zwischen Lernbiografie, Gestaltung der Didaktik der Lehr-Lern-Prozesse, Zufriedenheit und Veränderungsbereitschaft untersucht. KW - e-Learning KW - e-Assessment KW - Blended Learning KW - duale IT-Ausbildung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416341 IS - 12 SP - 91 EP - 100 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Röpke, René A1 - Larisch, Kathrin A1 - Schroeder, Ulrik T1 - Förderung überfachlicher Kompetenzen in praktischen Software- Engineering-Veranstaltungen der RWTH Aachen JF - Commentarii informaticae didacticae N2 - Im Rahmen eines Informatikstudiums wird neben theoretischen Grundlagen und Programmierfähigkeiten auch gezielt vermittelt, wie moderne Software in der Praxis entwickelt wird. Dabei wird oftmals eine Form der Projektarbeit gewählt, um Studierenden möglichst realitätsnahe Erfahrungen zu ermöglichen. Die Studierenden entwickeln einzeln oder in kleineren Teams Softwareprodukte für ausgewählte Problemstellungen. Neben fachlichen Inhalte stehen durch gruppendynamische Prozesse auch überfachliche Kompetenzen im Fokus. Dieser Beitrag präsentiert eine Interviewstudie mit Dozierenden von Softwareprojektpraktika an der RWTH Aachen und konzentriert sich auf die Ausgestaltung der Veranstaltungen sowie Förderung von überfachlichen Kompetenzen nach einem Kompetenzprofil für Softwareingenieure. KW - Kompetenzen KW - Fertigkeiten KW - Software Engineering KW - Teamarbeit KW - Kollaboration Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416334 IS - 12 SP - 79 EP - 89 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Schmitz, Dennis A1 - Moldt, Daniel T1 - Ein Lehr- und Lernkonzept für die Softwareentwicklung im Team JF - Commentarii informaticae didacticae N2 - Um beim Berufseinstieg erfolgreich als Informatiker wirken zu können, reicht es oft nicht aus nur separierte Kenntnisse über technische und theoretische Grundlagen, Programmiersprachen, Werkzeuge und Selbst- und Zeitmanagement zu besitzen. Vielmehr sollten Absolventen diese Kenntnisse praktisch miteinander verzahnt einsetzen können. An der Universität wird Studierenden leider selten die Möglichkeit geboten, diese verschiedenen Bereiche der Informatik miteinander integriert auszuüben. Dafür entwickeln wir seit über zwei Dekaden ein Lehr- und Lernkonzept zur Unterstützung praktischer Softwareentwicklungsveranstaltungen und setzen dieses um. Dadurch bieten wir angehenden SoftwareentwicklerInnen und ProjektmanagerInnen eine Umgebung, in der sie neues, praktisch relevantes Wissen erwerben können, sich selbst praktisch erproben und ihr Wissen konkret einsetzen können. Hier legen wir einen Schwerpunkt auf das Arbeiten im Team. Das hier vorgestellte Konzept kann auf ähnliche Lehrveranstaltungen übertragen und aufgrund seiner Modularisierung verändert und erweitert werden. KW - Softwareentwicklung KW - Projekte KW - Teamarbeit KW - Lehre Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416324 IS - 12 SP - 63 EP - 78 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Weicker, Karsten T1 - Vorlesungs-Pflege BT - Maßnahmen zur Runderneuerung degenerierender Informatikvorlesungen JF - Commentarii informaticae didacticae N2 - Ähnlich zu Alterungsprozessen bei Software degenerieren auch Vorlesungen, wenn sie nicht hinreichend gepflegt werden. Die Gründe hierfür werden ebenso beleuchtet wie mögliche Indikatoren und Maßnahmen – der Blick ist dabei immer der eines Informatikers. An drei Vorlesungen wird erläutert, wie der Degeneration von Lehrveranstaltungen gegengewirkt werden kann. Mangels hinreichend großer empirischer Daten liefert das Paper keine unumstößlichen Wahrheiten. Ein Ziel ist es vielmehr Kollegen, die ähnliche Phänomene beobachten, einen ersten Anker für einen inneren Diskurs zu bieten. Ein langfristiges Ziel ist die Sammlung eines Katalogs an Maßnahmen zur Pflege von Informatikvorlesungen. KW - Wartung von Lehrveranstaltungen KW - Re-Engineering KW - Strukturverbesserung KW - Lehrevaluation KW - Degenerationsprozesse Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416315 IS - 12 SP - 47 EP - 59 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Tillmann, Alexander A1 - Krömker, Detlef A1 - Horn, Florian A1 - Gattinger, Thorsten T1 - Analysing & Predicting Students Performance in an Introductory Computer Science Course JF - Commentarii informaticae didacticae N2 - Students of computer science studies enter university education with very different competencies, experience and knowledge. 145 datasets collected of freshmen computer science students by learning management systems in relation to exam outcomes and learning dispositions data (e. g. student dispositions, previous experiences and attitudes measured through self-reported surveys) has been exploited to identify indicators as predictors of academic success and hence make effective interventions to deal with an extremely heterogeneous group of students. KW - Blended learning KW - heterogeneity KW - Learning analytics KW - Learning dispositions KW - Dispositional learning analytics KW - Formative assessment Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416307 IS - 12 SP - 29 EP - 45 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Seegerer, Stefan A1 - Romeike, Ralf T1 - Was jeder über Informatik lernen sollte BT - Eine Analyse von Hochschulkursen für Studierende anderer Fachrichtungen JF - Commentarii informaticae didacticae N2 - Um für ein Leben in der digitalen Gesellschaft vorbereitet zu sein, braucht jeder heute in verschiedenen Situationen umfangreiche informatische Grundlagen. Die Bedeutung von Informatik nimmt nicht nur in immer mehr Bereichen unseres täglichen Lebens zu, sondern auch in immer mehr Ausbildungsrichtungen. Um junge Menschen auf ihr zukünftiges Leben und/oder ihre zukünftige berufliche Tätigkeit vorzubereiten, bieten verschiedene Hochschulen Informatikmodule für Studierende anderer Fachrichtungen an. Die Materialien jener Kurse bilden einen umfangreichen Datenpool, um die für Studierende anderer Fächer bedeutenden Aspekte der Informatik mithilfe eines empirischen Ansatzes zu identifizieren. Im Folgenden werden 70 Module zu informatischer Bildung für Studierende anderer Fachrichtungen analysiert. Die Materialien – Publikationen, Syllabi und Stundentafeln – werden zunächst mit einer qualitativen Inhaltsanalyse nach Mayring untersucht und anschließend quantitativ ausgewertet. Basierend auf der Analyse werden Ziele, zentrale Themen und Typen eingesetzter Werkzeuge identifiziert. KW - Informatik für alle KW - Hochschulkurse KW - Andere Fachrichtungen KW - Inhaltsanalyse Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416298 IS - 12 SP - 13 EP - 28 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Zhuchok, Anatolii V. T1 - Relatively free doppelsemigroups N2 - A doppelalgebra is an algebra defined on a vector space with two binary linear associative operations. Doppelalgebras play a prominent role in algebraic K-theory. We consider doppelsemigroups, that is, sets with two binary associative operations satisfying the axioms of a doppelalgebra. Doppelsemigroups are a generalization of semigroups and they have relationships with such algebraic structures as interassociative semigroups, restrictive bisemigroups, dimonoids, and trioids. In the lecture notes numerous examples of doppelsemigroups and of strong doppelsemigroups are given. The independence of axioms of a strong doppelsemigroup is established. A free product in the variety of doppelsemigroups is presented. We also construct a free (strong) doppelsemigroup, a free commutative (strong) doppelsemigroup, a free n-nilpotent (strong) doppelsemigroup, a free n-dinilpotent (strong) doppelsemigroup, and a free left n-dinilpotent doppelsemigroup. Moreover, the least commutative congruence, the least n-nilpotent congruence, the least n-dinilpotent congruence on a free (strong) doppelsemigroup and the least left n-dinilpotent congruence on a free doppelsemigroup are characterized. The book addresses graduate students, post-graduate students, researchers in algebra and interested readers. N2 - Eine Doppelalgebra ist eine auf einem Vektorraum definierte Algebra mit zwei binären linearen assoziativen Operationen. Doppelalgebren spielen eine herausragende Rolle in der algebraischen K-Theorie. Wir betrachten Doppelhalbgruppen, d.h Mengen mit zwei binären assoziativen Operationen, welche die Axiome der Doppelhalbgruppe erfüllen. Doppelhalbgruppen sind Veralgemeinerungen von Halbgruppen und sie stehen in Beziehung zu solchen algebraischen Strukturen wie interassoziative Halbgruppen, restriktive Bihalbgruppen, Dimonoiden und Trioden. In dieser Lecture Notes werden eine Vielzahl von Beispielen für Doppelhalbgruppen und strong Doppelhalbgruppen gegeben. Die Unabhängigkeit der Axiome für Doppelhalbgruppen wird nachgewiesen. Ein freies Produkt in der Varietät der Doppelhalbgruppen wird vorgestellt. Wir konstruieren auch eine freie (kommutative) strong Doppelhalbgruppe, eine freie n-dinilpotent (strong) Doppelhalbgruppe und eine freie Links n-dinilpotent Doppelhalbgruppe. Darüber hinaus werden die kleinste n-nilpotente Kogruenz, die kleinste n-dinilpotente Kongruenz auf der freien (strong) Doppelhalbgruppe und die kleinste n-dinilpotente Kongruenz auf einer freien Doppelhalbgruppe charakterisiert. Das Buch richtet sich an Graduierte, Doktoranden, Forscher in Algebra und interessierte Leser. T3 - Lectures in pure and applied mathematics - 5 KW - doppelsemigroup KW - interassociativity KW - free algebra KW - semigroup KW - congruence Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407719 SN - 978-3-86956-427-2 SN - 2199-4951 SN - 2199-496X IS - 5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Lindblad Petersen, Oliver T1 - The Cauchy problem for the linearised Einstein equation and the Goursat problem for wave equations T1 - Das Cauchyproblem für die linearisierte Einsteingleichung und das Goursatproblem für Wellengleichungen N2 - In this thesis, we study two initial value problems arising in general relativity. The first is the Cauchy problem for the linearised Einstein equation on general globally hyperbolic spacetimes, with smooth and distributional initial data. We extend well-known results by showing that given a solution to the linearised constraint equations of arbitrary real Sobolev regularity, there is a globally defined solution, which is unique up to addition of gauge solutions. Two solutions are considered equivalent if they differ by a gauge solution. Our main result is that the equivalence class of solutions depends continuously on the corre- sponding equivalence class of initial data. We also solve the linearised constraint equations in certain cases and show that there exist arbitrarily irregular (non-gauge) solutions to the linearised Einstein equation on Minkowski spacetime and Kasner spacetime. In the second part, we study the Goursat problem (the characteristic Cauchy problem) for wave equations. We specify initial data on a smooth compact Cauchy horizon, which is a lightlike hypersurface. This problem has not been studied much, since it is an initial value problem on a non-globally hyperbolic spacetime. Our main result is that given a smooth function on a non-empty, smooth, compact, totally geodesic and non-degenerate Cauchy horizon and a so called admissible linear wave equation, there exists a unique solution that is defined on the globally hyperbolic region and restricts to the given function on the Cauchy horizon. Moreover, the solution depends continuously on the initial data. A linear wave equation is called admissible if the first order part satisfies a certain condition on the Cauchy horizon, for example if it vanishes. Interestingly, both existence of solution and uniqueness are false for general wave equations, as examples show. If we drop the non-degeneracy assumption, examples show that existence of solution fails even for the simplest wave equation. The proof requires precise energy estimates for the wave equation close to the Cauchy horizon. In case the Ricci curvature vanishes on the Cauchy horizon, we show that the energy estimates are strong enough to prove local existence and uniqueness for a class of non-linear wave equations. Our results apply in particular to the Taub-NUT spacetime and the Misner spacetime. It has recently been shown that compact Cauchy horizons in spacetimes satisfying the null energy condition are necessarily smooth and totally geodesic. Our results therefore apply if the spacetime satisfies the null energy condition and the Cauchy horizon is compact and non-degenerate. N2 - In der vorliegenden Arbeit werden zwei Anfangswertsprobleme aus der Allgemeinen Relativitätstheorie betrachtet. Das erste ist das Cauchyproblem für die linearisierte Einsteingleichung auf allgemeinen global hyperbolischen Raumzeiten mit glatten und distributionellen Anfangsdaten. Wir verallgemeinern bekannte Ergebnisse, indem wir zeigen, dass für jede gegebene Lösung der linearisierten Constraintgleichungen mit reeller Sobolevregularität eine global definierte Lösung existiert, die eindeutig ist bis auf Addition von Eichlösungen. Zwei Lösungen sind äquivalent falls sie sich durch eine Eichlösung unterscheiden. Unser Hauptergebnis ist, dass die äquivalenzklasse der Lösungen stetig von der zugehörigen Äquivalenzklasse der Anfangsdaten abhängt. Wir lösen auch die linearisierten Constraintgleichungen in Spezialfällen und zeigen, dass beliebig irreguläre (nicht Eich-) Lösungen der linearisierten Einsteingleichungen auf der Minkowski-Raumzeit und der Kasner-Raumzeit existieren. Im zweiten Teil betrachten wir das Goursatproblem (das charakteristische Cauchyproblem) für Wellengleichungen. Wir geben Anfangsdaten auf einem Cauchyhorizont vor, der eine lichtartige Hyperfläche ist. Dieses Problem wurde bisher noch nicht viel betrachtet, weil es ein Anfangswertproblem auf einer nicht global hyperbolischen Raumzeit ist. Unser Hauptergebnis ist: Gegeben eine glatte Funktion auf einem nicht-leeren glatten, kompakten, totalgeodätischen und nicht-degenerierten Cauchyhorizont und eine so genannte zulässige Wellengleichung, dann existiert eine eindeutige Lösung, die auf dem global hyperbolischen Gebiet definiert ist und deren Einschränkung auf dem Cauchyhorizont die gegebene Funktion ist. Die Lösung hängt stetig von den Anfangsdaten ab. Eine Wellengleichung heißt zulässig, falls der Teil erster Ordnung eine gewisse Bedingung am Cauchyhorizont erfüllt, zum Beispiel falls er gleich Null ist. Interessant ist, dass Existenz der Lösung und Eindeutigkeit falsch sind für allgemeine Wellengleichungen, wie Beispiele zeigen. Falls wir die Bedingung der Nichtdegeneriertheit weglassen, ist Existenz von Lösungen falsch sogar für die einfachste Wellengleichung. Der Beweis benötigt genaue Energieabschätzungen für die Wellengleichung nahe am Cauchyhorizont. Im Fall, dass die Ricci-Krümmung am Cauchyhorizont verschwindet, zeigen wir, dass die Energieabschätzungen stark genug sind, um lokale Existenz und Eindeutigkeit für eine Klasse von nicht-linearen Wellengleichungen zu zeigen. Unser Ergebnis ist zum Beispiel auf der Taub-NUT-Raumzeit oder der Misner-Raumzeit gültig. Es wurde vor kurzem gezeigt, dass kompakte Cauchyhorizonte in Raumzeiten, die die Nullenergiebedingung erfüllen, notwendigerweise glatt und totalgeodätisch sind. Unsere Ergebnisse sind deshalb auf Raumzeiten gültig, die die Nullenergiebedingung erfüllen, wenn der Cauchyhorizont kompakt und nicht-degeneriert ist. KW - Cauchy horizon KW - the Goursat problem KW - the characteristic Cauchy problem KW - wave equation KW - the Cauchy problem KW - gravitational wave KW - the linearised Einstein equation KW - Cauchyhorizont KW - das Goursatproblem KW - das charakteristische Cauchyproblem KW - Wellengleichung KW - das Cauchyproblem KW - Gravitationswelle KW - die linearisierte Einsteingleichung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410216 ER - TY - THES A1 - Santilli, Mario T1 - Higher order rectifiability in Euclidean space T1 - Rektifizierbarkeit höherer Ordnung in Euklidischen Räumen N2 - The first main goal of this thesis is to develop a concept of approximate differentiability of higher order for subsets of the Euclidean space that allows to characterize higher order rectifiable sets, extending somehow well known facts for functions. We emphasize that for every subset A of the Euclidean space and for every integer k ≥ 2 we introduce the approximate differential of order k of A and we prove it is a Borel map whose domain is a (possibly empty) Borel set. This concept could be helpful to deal with higher order rectifiable sets in applications. The other goal is to extend to general closed sets a well known theorem of Alberti on the second order rectifiability properties of the boundary of convex bodies. The Alberti theorem provides a stratification of second order rectifiable subsets of the boundary of a convex body based on the dimension of the (convex) normal cone. Considering a suitable generalization of this normal cone for general closed subsets of the Euclidean space and employing some results from the first part we can prove that the same stratification exists for every closed set. N2 - Das erste Ziel dieser Arbeit ist die Entwicklung eines Konzepts zur Beschreibung von Differenzierbarkeit höherer Ordnung für Teilmengen des euklidischen Raumes, welche es erlaubt von höherer Ordnung rektifizierbare Mengen zu charakterisieren. Wir betonen, dass wir für jede Teilmenge A des euklidischen Raumes und jede ganze Zahl k ≥ 2 ein approximatives Differenzial der Ordnung k einführen und beweisen, dass es sich dabei um eine Borelfunktion handelt deren Definitionsbereich eine (möglicherweise leere) Borelmenge ist. Unser Konzept könnte hilfreich für die Behandlung von höherer Ordnung rektifizierbarer Mengen in Anwendungen sein. Das andere Ziel ist die Verallgemeinerung auf beliebige abgeschlossene Mengen eines bekannten Satzes von Alberti über Rektifizierbarkeit zweiter Ordnung des Randes konvexer Körper. Für den Rand eines solchen konvexen Körper liefert Albertis Resultat eine Stratifikation durch von zweiter Ordnung rektifizierbare Teilmengen des Randes basierend auf der Dimension des (konvexen) Normalenkegels. Für eine geeignete Verallgemeinerung dieses Normalenkegels auf allgemeine abgeschlossene Teilmengen des euklidischen Raumes und unter Verwendung einiger Resultate aus dem ersten Teil können wir zeigen dass eine solche Stratifiaktion für alle abgeschlossenen Mengen existiert. KW - higher order rectifiability KW - approximate differentiability KW - Borel functions KW - normal bundle KW - coarea formula KW - Rektifizierbarkeit höherer Ordnung KW - approximative Differenzierbarkeit KW - Borel Funktionen KW - Coarea Formel KW - Normalenbündel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403632 ER - TY - CHAP A1 - Audin, Michèle A1 - Ducourtioux, Catherine A1 - Ouédraogo, Françoise A1 - Schulz, René A1 - Delgado, Julio A1 - Ruzhansky, Michael A1 - Lebeau, Gilles ED - Paycha, Sylvie T1 - Integral Fourier operators T1 - Fourier Integraloperatoren BT - proceedings of a summer school, Ouagadougou 14–25 September 2015 BT - Akten einer Sommerschule, Ouagadougou, Burkina Faso, 14-26. September 2015 N2 - This volume of contributions based on lectures delivered at a school on Fourier Integral Operators held in Ouagadougou, Burkina Faso, 14–26 September 2015, provides an introduction to Fourier Integral Operators (FIO) for a readership of Master and PhD students as well as any interested layperson. Considering the wide spectrum of their applications and the richness of the mathematical tools they involve, FIOs lie the cross-road of many a field. This volume offers the necessary background, whether analytic or geometric, to get acquainted with FIOs, complemented by more advanced material presenting various aspects of active research in that area. N2 - Dieser Band basiert auf Vorlesungen, die in einer Schule über Fourier Integraloperatoren in Ouagadougou, Burkina Faso, 14. - 26. September 2015 gehalten wurden. Es bietet eine Einführung in die Fourier Integraloperatoren (FIO) und richtet sich sowohl an Masterstudierende und Promovenden als auch an interessierte Laien. Aufgrund der Breite des Spektrums ihrer Anwendungen und der Vielfalt der mathematischen Werkzeuge, die sie ins Spiel bringen, liegen FIO an der Grenze zwischen mehreren Gebieten. Dieses Band bietet sowohl die analytisch und geometrisch nötigen Kenntnisse, um sich mit dem Begriff der FIO vertraut zu machen als auch fortgeschrittenes Material für einen Einblick in verschiedene Aspekte der gegenwärtigen Forschung dieses Gebietes an. T3 - Lectures in pure and applied mathematics - 3 KW - pseudodifferentiale Operatoren KW - Fourier Integraloperatoren KW - Lagrange Distributionen KW - microlokale Analysis KW - pseudodifferential operators KW - integral Fourier operators KW - Lagrangian submanifolds KW - microlocal analysis Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-402657 SN - 978-3-86956-413-5 SN - 2199-4951 SN - 2199-496X PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - CHAP A1 - Valleriani, Angelo A1 - Roelly, Sylvie A1 - Kulik, Alexei Michajlovič ED - Roelly, Sylvie ED - Högele, Michael ED - Rafler, Mathias T1 - Stochastic processes with applications in the natural sciences BT - international workshop at Universidad de los Andes, Bogotá, Colombia T2 - Lectures in pure and applied mathematics N2 - The interdisciplinary workshop STOCHASTIC PROCESSES WITH APPLICATIONS IN THE NATURAL SCIENCES was held in Bogotá, at Universidad de los Andes from December 5 to December 9, 2016. It brought together researchers from Colombia, Germany, France, Italy, Ukraine, who communicated recent progress in the mathematical research related to stochastic processes with application in biophysics. The present volume collects three of the four courses held at this meeting by Angelo Valleriani, Sylvie Rœlly and Alexei Kulik. A particular aim of this collection is to inspire young scientists in setting up research goals within the wide scope of fields represented in this volume. Angelo Valleriani, PhD in high energy physics, is group leader of the team "Stochastic processes in complex and biological systems" from the Max-Planck-Institute of Colloids and Interfaces, Potsdam. Sylvie Rœlly, Docteur en Mathématiques, is the head of the chair of Probability at the University of Potsdam. Alexei Kulik, Doctor of Sciences, is a Leading researcher at the Institute of Mathematics of Ukrainian National Academy of Sciences. T3 - Lectures in pure and applied mathematics - 4 KW - macromolecular decay KW - Markov processes KW - branching processes KW - long-time behaviour KW - makromolekularer Zerfall KW - Markovprozesse KW - Verzweigungsprozesse KW - Langzeitverhalten Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401802 SN - 978-3-86956-414-2 SN - 2199-4951 SN - 2199-496X IS - 4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Pédèches, Laure T1 - Stochastic models for collective motions of populations T1 - Modèles stochastiques pour des mouvements collectifs de populations T1 - Stochastisches Modell für kollektive Bewegung von Populationen N2 - Stochastisches Modell für kollektive Bewegung von Populationen In dieser Doktorarbeit befassen wir uns mit stochastischen Systemen, die eines der mysteriösesten biologischen Phänomene als Modell darstellen: die kollektive Bewegung von Gemeinschaften. Diese werden bei Vögel- und Fischschwärmen, aber auch bei manchen Bakterien, Viehherden oder gar bei Menschen beobachtet. Dieser Verhaltenstyp spielt ebenfalls in anderen Bereichen wie Finanzwesen, Linguistik oder auch Robotik eine Rolle. Wir nehmen uns der Dynamik einer Gruppe von N Individuen, insbesondere zweier asymptotischen Verhaltenstypen an. Einerseits befassen wir uns mit den Eigenschaften der Ergodizität in Langzeit: Existenz einer invarianten Wahrscheinlichkeitsverteilung durch Ljapunow-Funktionen, und Konvergenzrate der Übergangshalbgruppe gegen diese Wahrscheinlichkeit. Eine ebenfalls zentrale Thematik unserer Forschung ist der Begriff Flocking: es wird damit definiert, dass eine Gruppe von Individuen einen dynamischen Konsens ohne hierarchische Struktur erreichen kann; mathematisch gesehen entspricht dies der Aneinanderreihung der Geschwindigkeiten und dem Zusammenkommen des Schwarmes. Andererseits gehen wir das Phänomen der "Propagation of Chaos" an, wenn die Anzahl N der Teilchen ins Unendliche tendiert: die Bewegungen der jeweiligen Individuen werden asymptotisch unabhängig. Unser Ausgangspunkt ist das Cucker-Smale-Modell, ein deterministisches kinetisches Molekular-Modell für eine Gruppe ohne hierarchische Struktur. Die Wechselwirkung zwischen zwei Teilchen variiert gemäß deren "Kommunikationsrate", die wiederum von deren relativen Entfernung abhängt und polynomisch abnimmt. Im ersten Kapitel adressieren wir das asymptotische Verhalten eines Cucker-Smale-Modells mit Rauschstörung und dessen Varianten. Kapitel 2 stellt mehrere Definitionen des Flockings in einem Zufallsrahmen dar: diverse stochastische Systeme, die verschiedenen Rauschformen entsprechen (die eine gestörte Umgebung, den "freien Willen" des jeweiligen Individuums oder eine unterbrochene Übertragung suggerieren) werden im Zusammenhang mit diesen Begriffen unter die Lupe genommen. Das dritte Kapitel basiert auf der "Cluster Expansion"-Methode aus der statistischen Mechanik. Wir beweisen die exponentielle Ergodizität von gewissen nicht-Markow-Prozessen mit nicht-glattem Drift und wenden diese Ergebnisse auf Störungen des Ornstein-Uhlenbeck-Prozesses an. Im letzten Teil, nehmen wir uns der zweidimensionalen parabolisch-elliptischen Gleichung von Keller-Segel an. Wir beweisen die Existenz einer Lösung, welche in gewisser Hinsicht einzig ist, indem wir, mittels Vergleich mit Bessel-Prozessen und der Dirichlet Formtheorie, mögliche Stoßtypen zwischen den Teilchen ermitteln. N2 - In this thesis, stochastic dynamics modelling collective motions of populations, one of the most mysterious type of biological phenomena, are considered. For a system of N particle-like individuals, two kinds of asymptotic behaviours are studied : ergodicity and flocking properties, in long time, and propagation of chaos, when the number N of agents goes to infinity. Cucker and Smale, deterministic, mean-field kinetic model for a population without a hierarchical structure is the starting point of our journey : the first two chapters are dedicated to the understanding of various stochastic dynamics it inspires, with random noise added in different ways. The third chapter, an attempt to improve those results, is built upon the cluster expansion method, a technique from statistical mechanics. Exponential ergodicity is obtained for a class of non-Markovian process with non-regular drift. In the final part, the focus shifts onto a stochastic system of interacting particles derived from Keller and Segel 2-D parabolicelliptic model for chemotaxis. Existence and weak uniqueness are proven. N2 - Dans cette thése, on s’intéresse á des systémes stochastiques modélisant un des phénoménes biologiques les plus mystérieux, les mouvements collectifs de populations. Pour un groupe de N individus, vus comme des particules sans poids ni volume, on étudie deux types de comportements asymptotiques : d’un côté, en temps long, les propriétés d’ergodicité et de flocking, de l’autre, quand le nombre de particules N tend vers l’infini, les phénoménes de propagation du chaos. Le modéle, déterministe, de Cucker-Smale, un modéle cinétique de champ moyen pour une population sans structure hiérarchique, est notre point de départ : les deux premiers chapitres sont consacrés á la compréhension de diverses dynamiques stochastiques qui s’en inspirent, du bruit étant rajouté sous différentes formes. Le troisiéme chapitre, originellement une tentative d’amélioration de ces résultats, est basé sur la méthode du développement en amas, un outil de physique statistique. On prouve l’ergodicité exponentielle de certains processus non-markoviens á drift non-régulier. Dans la derniére partie, on démontre l’existence d’une solution, unique dans un certain sens, pour un systéme stochastique de particules associé au mod`ele chimiotactique de Keller et Segel. KW - stochastic interacting particles KW - flocking KW - stochastisches interagierendes System KW - Flocking Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405491 ER - TY - THES A1 - Mücke, Nicole T1 - Direct and inverse problems in machine learning T1 - Direkte und inverse Probleme im maschinellen Lernen BT - kernel methods and spectral regularization BT - Kern Methoden und spektrale Regularisierung N2 - We analyze an inverse noisy regression model under random design with the aim of estimating the unknown target function based on a given set of data, drawn according to some unknown probability distribution. Our estimators are all constructed by kernel methods, which depend on a Reproducing Kernel Hilbert Space structure using spectral regularization methods. A first main result establishes upper and lower bounds for the rate of convergence under a given source condition assumption, restricting the class of admissible distributions. But since kernel methods scale poorly when massive datasets are involved, we study one example for saving computation time and memory requirements in more detail. We show that Parallelizing spectral algorithms also leads to minimax optimal rates of convergence provided the number of machines is chosen appropriately. We emphasize that so far all estimators depend on the assumed a-priori smoothness of the target function and on the eigenvalue decay of the kernel covariance operator, which are in general unknown. To obtain good purely data driven estimators constitutes the problem of adaptivity which we handle for the single machine problem via a version of the Lepskii principle. N2 - In dieser Arbeit analysieren wir ein zufälliges und verrauschtes inverses Regressionsmodell im random design. Wir konstruiueren aus gegebenen Daten eine Schätzung der unbekannten Funktion, von der wir annehmen, dass sie in einem Hilbertraum mit reproduzierendem Kern liegt. Ein erstes Hauptergebnis dieser Arbeit betrifft obere Schranken an die Konvergenzraten. Wir legen sog. source conditions fest, definiert über geeignete Kugeln im Wertebereich von (reellen) Potenzen des normierten Kern-Kovarianzoperators. Das führt zu einer Einschränkung der Klasse der Verteilungen in einem statistischen Modell, in dem die spektrale Asymptotik des von der Randverteilung abhängigen Kovarianzoperators eingeschränkt wird. In diesem Kontext zeigen wir obere und entsprechende untere Schranken für die Konvergenzraten für eine sehr allgemeine Klasse spektraler Regularisierungsmethoden und etablieren damit die sog. Minimax-Optimalität dieser Raten. Da selbst bei optimalen Konvergenzraten Kernmethoden, angewandt auf große Datenmengen, noch unbefriedigend viel Zeit verschlingen und hohen Speicherbedarf aufweisen, untersuchen wir einen Zugang zur Zeitersparnis und zur Reduktion des Speicherbedarfs detaillierter. Wir studieren das sog. distributed learning und beweisen für unsere Klasse allgemeiner spektraler Regularisierungen ein neues Resultat, allerdings immer noch unter der Annahme einer bekannten a priori Regularität der Zielfunktion, ausgedrückt durch die Fixierung einer source condition. Das große Problem bei der Behandlung realer Daten ist das der Adaptivität, d.h. die Angabe eines Verfahrens, das ohne eine solche a priori Voraussetzung einen in einem gewissen Sinn optimalen Schätzer aus den Daten konstruiert. Das behandeln wir vermöge einer Variante des Balancing principle. KW - inverse problems KW - kernel methods KW - minimax optimality KW - inverse Probleme KW - Kern Methoden KW - Minimax Optimalität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403479 ER - TY - THES A1 - Mera, Azal Jaafar Musa T1 - The Navier-Stokes equations for elliptic quasicomplexes T1 - Die Navier–Stokes–Gleichungen für elliptische Quasikomplexe N2 - The classical Navier-Stokes equations of hydrodynamics are usually written in terms of vector analysis. More promising is the formulation of these equations in the language of differential forms of degree one. In this way the study of Navier-Stokes equations includes the analysis of the de Rham complex. In particular, the Hodge theory for the de Rham complex enables one to eliminate the pressure from the equations. The Navier-Stokes equations constitute a parabolic system with a nonlinear term which makes sense only for one-forms. A simpler model of dynamics of incompressible viscous fluid is given by Burgers' equation. This work is aimed at the study of invariant structure of the Navier-Stokes equations which is closely related to the algebraic structure of the de Rham complex at step 1. To this end we introduce Navier-Stokes equations related to any elliptic quasicomplex of first order differential operators. These equations are quite similar to the classical Navier-Stokes equations including generalised velocity and pressure vectors. Elimination of the pressure from the generalised Navier-Stokes equations gives a good motivation for the study of the Neumann problem after Spencer for elliptic quasicomplexes. Such a study is also included in the work.We start this work by discussion of Lamé equations within the context of elliptic quasicomplexes on compact manifolds with boundary. The non-stationary Lamé equations form a hyperbolic system. However, the study of the first mixed problem for them gives a good experience to attack the linearised Navier-Stokes equations. On this base we describe a class of non-linear perturbations of the Navier-Stokes equations, for which the solvability results still hold. N2 - Die klassischen Navier–Stokes–Differentialgleichungen der Hydrodynamik werden in der Regel im Rahmen der Vektoranalysis formuliert. Mehr versprechend ist die Formulierung dieser Gleichungen in Termen von Differentialformen vom Grad 1. Auf diesem Weg beinhaltet die Untersuchung der Navier–Stokes–Gleichungen die Analyse des de Rhamschen Komplexes. Insbesondere ermöglicht die Hodge–Theorie für den de Rham–Komplex den Druck aus den Gleichungen zu eliminieren. Die Navier–Stokes–Gleichungen bilden ein parabolisches System mit einem nichtlinearen Term, welcher Sinn nur für die Pfaffschen Formen (d.h Formen vom Grad 1) hat. Ein einfacheres Modell für Dynamik der inkompressiblen viskosen Flüssigkeit wird von der Burgers–Gleichungen gegeben. Diese Arbeit richtet sich an das Studium der invarianten Struktur der Navier–Stokes–Gleichungen, die eng mit der algebraischen Struktur des de Rham–Komplexes im schritt 1 zusammen steht. Zu diesem Zweck stellen wir vor die Navier–Stokes–Gleichungen im Zusammenhang mit jedem elliptischen Quasikomplex von Differentialoperatoren der ersten Ordnung. So ähneln die Gleichungen den klassischen Navier–Stokes–Gleichungen, einschließlich allgemeiner Geschwindigkeit– und Druckvektoren. Elimination des Drucks aus den verallgemeinerten Navier–Stokes–Gleichungen gibt eine gute Motivation für die Untersuchung des Neumann–Problems nach Spencer für elliptische Quasikomplexe. Eine solche Untersuchung ist auch in der Arbeit mit der Erörterung der Lamé-Gleichungen im Kontext der elliptischen Quasikomplexe auf kompakten Mannigfaltigkeiten mit Rand. Die nichtstationären Lamé-Gleichungen bilden ein hyperbolisches System. Allerdings gibt die Studie des ersten gemischten Problems für sie eine gute Erfahrung, um die linearisierten Navier–Stokes–Gleichungen anzugreifen. Auf dieser Basis beschreiben wir eine Klasse von nichtlinearen Störungen der Navier–Stokes–Gleichungen, für welche die Lösungsresultate noch gelten. KW - Navier-Stokes-Gleichungen KW - elliptische Quasi-Komplexe KW - Navier-Stoks equations KW - elliptic quasicomplexes Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398495 ER - TY - THES A1 - Solms, Alexander Maximilian T1 - Integrating nonlinear mixed effects and physiologically–based modeling approaches for the analysis of repeated measurement studies T1 - Integration nicht-linearer gemischter Modelle und physiologie-basierte Modellierung Ansätze in die Auswertung longitudinaler Studien BT - with applications in quantitative pharmacology and quantitative psycholinguistics N2 - During the drug discovery & development process, several phases encompassing a number of preclinical and clinical studies have to be successfully passed to demonstrate safety and efficacy of a new drug candidate. As part of these studies, the characterization of the drug's pharmacokinetics (PK) is an important aspect, since the PK is assumed to strongly impact safety and efficacy. To this end, drug concentrations are measured repeatedly over time in a study population. The objectives of such studies are to describe the typical PK time-course and the associated variability between subjects. Furthermore, underlying sources significantly contributing to this variability, e.g. the use of comedication, should be identified. The most commonly used statistical framework to analyse repeated measurement data is the nonlinear mixed effect (NLME) approach. At the same time, ample knowledge about the drug's properties already exists and has been accumulating during the discovery & development process: Before any drug is tested in humans, detailed knowledge about the PK in different animal species has to be collected. This drug-specific knowledge and general knowledge about the species' physiology is exploited in mechanistic physiological based PK (PBPK) modeling approaches -it is, however, ignored in the classical NLME modeling approach. Mechanistic physiological based models aim to incorporate relevant and known physiological processes which contribute to the overlying process of interest. In comparison to data--driven models they are usually more complex from a mathematical perspective. For example, in many situations, the number of model parameters outrange the number of measurements and thus reliable parameter estimation becomes more complex and partly impossible. As a consequence, the integration of powerful mathematical estimation approaches like the NLME modeling approach -which is widely used in data-driven modeling -and the mechanistic modeling approach is not well established; the observed data is rather used as a confirming instead of a model informing and building input. Another aggravating circumstance of an integrated approach is the inaccessibility to the details of the NLME methodology so that these approaches can be adapted to the specifics and needs of mechanistic modeling. Despite the fact that the NLME modeling approach exists for several decades, details of the mathematical methodology is scattered around a wide range of literature and a comprehensive, rigorous derivation is lacking. Available literature usually only covers selected parts of the mathematical methodology. Sometimes, important steps are not described or are only heuristically motivated, e.g. the iterative algorithm to finally determine the parameter estimates. Thus, in the present thesis the mathematical methodology of NLME modeling is systemically described and complemented to a comprehensive description, comprising the common theme from ideas and motivation to the final parameter estimation. Therein, new insights for the interpretation of different approximation methods used in the context of the NLME modeling approach are given and illustrated; furthermore, similarities and differences between them are outlined. Based on these findings, an expectation-maximization (EM) algorithm to determine estimates of a NLME model is described. Using the EM algorithm and the lumping methodology by Pilari2010, a new approach on how PBPK and NLME modeling can be combined is presented and exemplified for the antibiotic levofloxacin. Therein, the lumping identifies which processes are informed by the available data and the respective model reduction improves the robustness in parameter estimation. Furthermore, it is shown how apriori known factors influencing the variability and apriori known unexplained variability is incorporated to further mechanistically drive the model development. Concludingly, correlation between parameters and between covariates is automatically accounted for due to the mechanistic derivation of the lumping and the covariate relationships. A useful feature of PBPK models compared to classical data-driven PK models is in the possibility to predict drug concentration within all organs and tissue in the body. Thus, the resulting PBPK model for levofloxacin is used to predict drug concentrations and their variability within soft tissues which are the site of action for levofloxacin. These predictions are compared with data of muscle and adipose tissue obtained by microdialysis, which is an invasive technique to measure a proportion of drug in the tissue, allowing to approximate the concentrations in the interstitial fluid of tissues. Because, so far, comparing human in vivo tissue PK and PBPK predictions are not established, a new conceptual framework is derived. The comparison of PBPK model predictions and microdialysis measurements shows an adequate agreement and reveals further strengths of the presented new approach. We demonstrated how mechanistic PBPK models, which are usually developed in the early stage of drug development, can be used as basis for model building in the analysis of later stages, i.e. in clinical studies. As a consequence, the extensively collected and accumulated knowledge about species and drug are utilized and updated with specific volunteer or patient data. The NLME approach combined with mechanistic modeling reveals new insights for the mechanistic model, for example identification and quantification of variability in mechanistic processes. This represents a further contribution to the learn & confirm paradigm across different stages of drug development. Finally, the applicability of mechanism--driven model development is demonstrated on an example from the field of Quantitative Psycholinguistics to analyse repeated eye movement data. Our approach gives new insight into the interpretation of these experiments and the processes behind. N2 - Für die Erforschung und Entwicklung eines neuen Arzneistoffes wird die sichere und wirksame Anwendung in präklinischen und klinischen Studien systematisch untersucht. Ein wichtiger Bestandteil dieser Studien ist die Bestimmung der Pharmakokinetik (PK), da über diese das Wirkungs- und Nebenwirkungsprofil maßgeblich mitbestimmt wird. Um die PK zu bestimmen wird in der Studienpopulation die Wirkstoffkonzentration im Blut wiederholt über die Zeit gemessen. Damit kann sowohl der Konzentrations-Zeit-Verlauf als auch die dazugehörige Variabilität in der Studienpopulation bestimmt werden. Darüber hinaus ist ein weiteres Ziel, die Ursachen dieser Variabilität zu identifizieren. Fär die Auswertung der Daten werden nichtlineare, gemischte Effektmodelle (NLME) eingesetzt. Im Vorfeld der klinischen Studien sind bereits viele Eigenschaften des Wirkstoffes bekannt, da der Wirkstoff-Testung am Menschen die Bestimmung der PK an verschiedenen Tierspezies voraus geht. Auf Basis dieser wirkstoffspezifischen Daten und des Wissens um die spezifische humane Physiologie können mittels mechanistisch physiologiebasierter Modelle Vorhersagen für die humane PK getroffen werden. Bei der Analyse von PK Daten mittels NLME Modellen wird dieses vorhandene Wissen jedoch nicht verwertet. In physiologiebasierten Modellen werden physiologische Prozesse, die die PK bestimmen und beeinflussen können, ber+cksichtigt. Aus mathematischer Sicht sind solche mechanistischen Modelle im Allgemeinen deutlich komplexer als empirisch motivierte Modelle. In der Anwendung kommt es deswegen häufig zu Situationen, in denen die Anzahl der Modellparameter die Anzahl der zugrunde liegenden Beobachtungen übertrifft. Daraus folgt unter anderem, dass die Parameterschätzung, wie sie in empirisch motivierten Modellen genutzt wird, in der Regel unzuverlässig bzw. nicht möglich ist. In Folge dessen werden klinische Daten in der mechanistischen Modellierung meist nur zur Modellqualifizierung genutzt und nicht in die Modell(weiter)entwicklung integriert. Ein weiterer erschwerender Umstand, NLME und PBPK Modelle in der Anwendung zu kombinieren, beruht auch auf der Komplexität des NLME Ansatzes. Obwohl diese Methode seit Jahrzehnten existiert, sind in der Literatur nur ausgewählte Teilstücke der zugrunde liegenden Mathematik beschrieben und hergeleitet; eine lückenlose Beschreibung fehlt. Aus diesem Grund werden in der vorliegenden Arbeit systematisch die Methodik und mathematischen Zusammenhänge des NLME Ansatzes, von der ursprüngliche Idee und Motivation bis zur Parameterschätzung beschrieben. In diesem Kontext werden neue Interpretationen der unterschiedlichen Methoden, die im Rahmen der NLME Modellierung verwendet werden, vorgestellt; zudem werden Gemeinsamkeiten und Unterschiede zwischen diesen herausgearbeitet. Mittels dieser Erkenntnisse wird ein Expectation-Maximization (EM) Algorithmus zur Parameterschätzung in einer NLME Analyse beschrieben. Mittels des neuen EM Algorithmus, kombiniert mit dem Lumping-Ansatz von Pilari und Huisinga (S. Pilari, W. Huisinga, JPKPD Vol. 37(4), 2010.) wird anhand des Antibiotikums Levofloxacin ein neuer konzeptioneller Ansatz entwickelt, der PBPK- und NLME-Modellierung zur Datenanalyse integriert. Die Lumping-Methode definiert hierbei, welche Prozesse von den verfügbaren Daten informiert werden, sie verbessert somit die Robustheit der Parameterschätzung. Weiterhin wird gezeigt, wie a-priori Wissen über Variabilität und Faktoren, die diese beeinflussen, sowie unerklärte Variabilität in das Modell integriert werden können. Ein elementarer Vorteil von PBPK Modellen gegenüber empirisch motivieren PK Modellen besteht in der Möglichkeit, Wirkstoffkonzentrationen innerhalb von Organen und Gewebe im Körper vorherzusagen. So kann das PBPK-Modell für Levofloxacin genutzt werden, um Wirkstoffkonzentrationen innerhalb der Gewebe vorherzusagen, in denen typischerweise Infektionen auftreten. Für Muskel- und Fettgewebe werden die PBPK-Vorhersagen mit Mikrodialyse Gewebemessungen verglichen. Die gute übereinstimmung von PBPK-Modell und Mikrodialyse stellt eine noch nicht vorhanden Validierung des PBPK-Gewebemodells im Menschen dar. In dieser Dissertation wird gezeigt, wie mechanistische PBPK Modelle, die in der Regel in der frühen Phase der Arzneimittelentwicklung entwickelt werden, erfolgreich zur Analyse von klinischen Studien eingesetzt werden können. Das bestehende Wissen über den neuen Wirkstoff wird somit gezielt genutzt und mit klinischen Daten von Probanden oder Patienten aktualisiert. Im Fall von Levofloxacin konnte Variabilität in mechanistischen Prozessen identifiziert und quantifiziert werden. Dieses Vorgehen liefert einen weiteren Beitrag zum learn & confirm Paradigma im Forschungs- und Entwicklungsprozess eines neuen Wirkstoffes. Abschließend wird anhand eines weiteren real world-Beispieles aus dem Bereich der quantitativen Psycholinguistik die Anwendbarkeit und der Nutzen des vorgestellten integrierten Ansatz aus mechanistischer und NLME Modellierung in der Analyse von Blickbewegungsdaten gezeigt. Mittels eines mechanistisch motivierten Modells wird die Komplexität des Experimentes und der Daten abgebildet, wodurch sich neue Interpretationsmöglichkeiten ergeben. KW - NLME KW - PBPK KW - EM KW - lumping KW - popPBPK KW - mechanistic modeling KW - population analysis KW - popPK KW - microdialysis KW - nicht-lineare gemischte Modelle (NLME) KW - physiologie-basierte Pharmacokinetic (PBPK) KW - EM KW - Lumping KW - popPBPK KW - popPK KW - mechanistische Modellierung KW - Populations Analyse KW - Microdialyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397070 ER - TY - INPR A1 - Polkovnikov, Alexander A1 - Tarkhanov, Nikolai Nikolaevich T1 - A Riemann-Hilbert problem for the Moisil-Teodorescu system N2 - In a bounded domain with smooth boundary in R^3 we consider the stationary Maxwell equations for a function u with values in R^3 subject to a nonhomogeneous condition (u,v)_x = u_0 on the boundary, where v is a given vector field and u_0 a function on the boundary. We specify this problem within the framework of the Riemann-Hilbert boundary value problems for the Moisil-Teodorescu system. This latter is proved to satisfy the Shapiro-Lopaniskij condition if an only if the vector v is at no point tangent to the boundary. The Riemann-Hilbert problem for the Moisil-Teodorescu system fails to possess an adjoint boundary value problem with respect to the Green formula, which satisfies the Shapiro-Lopatinskij condition. We develop the construction of Green formula to get a proper concept of adjoint boundary value problem. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 6 (2017) 3 KW - Dirac operator KW - Riemann-Hilbert problem KW - Fredholm operators Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397036 VL - 6 IS - 3 ER - TY - THES A1 - Samaras, Stefanos T1 - Microphysical retrieval of non-spherical aerosol particles using regularized inversion of multi-wavelength lidar data T1 - Retrieval der Mikrophysik von nichtkugelförmigen Aerosolpartikeln durch regularisierte Inversion von Mehrwellenlängen-Lidardaten N2 - Numerous reports of relatively rapid climate changes over the past century make a clear case of the impact of aerosols and clouds, identified as sources of largest uncertainty in climate projections. Earth’s radiation balance is altered by aerosols depending on their size, morphology and chemical composition. Competing effects in the atmosphere can be further studied by investigating the evolution of aerosol microphysical properties, which are the focus of the present work. The aerosol size distribution, the refractive index, and the single scattering albedo are commonly used such properties linked to aerosol type, and radiative forcing. Highly advanced lidars (light detection and ranging) have reduced aerosol monitoring and optical profiling into a routine process. Lidar data have been widely used to retrieve the size distribution through the inversion of the so-called Lorenz-Mie model (LMM). This model offers a reasonable treatment for spherically approximated particles, it no longer provides, though, a viable description for other naturally occurring arbitrarily shaped particles, such as dust particles. On the other hand, non-spherical geometries as simple as spheroids reproduce certain optical properties with enhanced accuracy. Motivated by this, we adapt the LMM to accommodate the spheroid-particle approximation introducing the notion of a two-dimensional (2D) shape-size distribution. Inverting only a few optical data points to retrieve the shape-size distribution is classified as a non-linear ill-posed problem. A brief mathematical analysis is presented which reveals the inherent tendency towards highly oscillatory solutions, explores the available options for a generalized solution through regularization methods and quantifies the ill-posedness. The latter will improve our understanding on the main cause fomenting instability in the produced solution spaces. The new approach facilitates the exploitation of additional lidar data points from depolarization measurements, associated with particle non-sphericity. However, the generalization of LMM vastly increases the complexity of the problem. The underlying theory for the calculation of the involved optical cross sections (T-matrix theory) is computationally so costly, that would limit a retrieval analysis to an unpractical point. Moreover the discretization of the model equation by a 2D collocation method, proposed in this work, involves double integrations which are further time consuming. We overcome these difficulties by using precalculated databases and a sophisticated retrieval software (SphInX: Spheroidal Inversion eXperiments) especially developed for our purposes, capable of performing multiple-dataset inversions and producing a wide range of microphysical retrieval outputs. Hybrid regularization in conjunction with minimization processes is used as a basis for our algorithms. Synthetic data retrievals are performed simulating various atmospheric scenarios in order to test the efficiency of different regularization methods. The gap in contemporary literature in providing full sets of uncertainties in a wide variety of numerical instances is of major concern here. For this, the most appropriate methods are identified through a thorough analysis on an overall-behavior basis regarding accuracy and stability. The general trend of the initial size distributions is captured in our numerical experiments and the reconstruction quality depends on data error level. Moreover, the need for more or less depolarization points is explored for the first time from the point of view of the microphysical retrieval. Finally, our approach is tested in various measurement cases giving further insight for future algorithm improvements. N2 - Zahlreiche Berichte von relativ schnellen Klimaveränderungen im vergangenen Jahrhundert liefern überzeugende Argumente über die Auswirkungen von Aerosolen und Wolken auf Wetter und Klima. Aerosole und Wolken wurden als Quellen größter Unsicherheit in Klimaprognosen identifiziert. Die Strahlungsbilanz der Erde wird verändert durch die Partikelgröße, ihre Morphologie und ihre chemische Zusammensetzung. Konkurrierende Effekte in der Atmosphäre können durch die Bestimmung von mikrophysikalischen Partikeleigenschaften weiter untersucht werden, was der Fokus der vorliegenden Arbeit ist. Die Aerosolgrößenverteilung, der Brechungsindex der Partikeln und die Einzel-Streu-Albedo sind solche häufig verwendeten Parameter, die mit dem Aerosoltyp und dem Strahlungsantrieb verbunden sind. Hoch entwickelte Lidare (Light Detection and Ranging) haben die Aerosolüberwachung und die optische Profilierung zu einem Routineprozess gemacht. Lidar-Daten wurden verwendet um die Größenverteilung zu bestimmen, was durch die Inversion des sogenannten Lorenz-Mie-Modells (LMM) gelingt. Dieses Modell bietet eine angemessene Behandlung für sphärisch angenäherte Partikeln, es stellt aber keine brauchbare Beschreibung für andere natürlich auftretende beliebig geformte Partikeln -wie z.B. Staubpartikeln- bereit. Andererseits stellt die Einbeziehung einer nicht kugelförmigen Geometrie –wie z.B. einfache Sphäroide- bestimmte optische Eigenschaften mit verbesserter Genauigkeit dar. Angesichts dieser Tatsache erweitern wir das LMM durch die Approximation von Sphäroid-Partikeln. Dazu ist es notwendig den Begriff einer zweidimensionalen Größenverteilung einzuführen. Die Inversion einer sehr geringen Anzahl optischer Datenpunkte zur Bestimmung der Form der Größenverteilung ist als ein nichtlineares schlecht gestelltes Problem bekannt. Eine kurze mathematische Analyse wird vorgestellt, die die inhärente Tendenz zu stark oszillierenden Lösungen zeigt. Weiterhin werden Optionen für eine verallgemeinerte Lösung durch Regularisierungsmethoden untersucht und der Grad der Schlechtgestelltheit quantifiziert. Letzteres wird unser Verständnis für die Hauptursache der Instabilität bei den berechneten Lösungsräumen verbessern. Der neue Ansatz ermöglicht es uns, zusätzliche Lidar-Datenpunkte aus Depolarisationsmessungen zu nutzen, die sich aus der Nicht-sphärizität der Partikeln assoziieren. Die Verallgemeinerung des LMMs erhöht erheblich die Komplexität des Problems. Die zugrundeliegende Theorie für die Berechnung der beteiligten optischen Querschnitte (T-Matrix-Ansatz) ist rechnerisch so aufwendig, dass eine Neuberechnung dieser nicht sinnvoll erscheint. Darüber hinaus wird ein zweidimensionales Kollokationsverfahren für die Diskretisierung der Modellgleichung vorgeschlagen. Dieses Verfahren beinhaltet Doppelintegrationen, die wiederum zeitaufwendig sind. Wir überwinden diese Schwierigkeiten durch Verwendung vorgerechneter Datenbanken sowie einer hochentwickelten Retrieval-Software (SphInX: Spheroidal Inversion eXperiments). Diese Software wurde speziell für unseren Zweck entwickelt und ist in der Lage mehrere Datensatzinversionen gleichzeitig durchzuführen und eine große Auswahl von mikrophysikalischen Retrieval-Ausgaben bereitzustellen. Eine hybride Regularisierung in Verbindung mit einem Minimierungsverfahren wird als Grundlage für unsere Algorithmen verwendet. Synthetische Daten-Inversionen werden mit verschiedenen atmosphärischen Szenarien durchgeführt, um die Effizienz verschiedener Regularisierungsmethoden zu untersuchen. Die Lücke in der gegenwärtigen wissenschaftlichen Literatur gewisse Unsicherheiten durch breitgefächerte numerische Fälle bereitzustellen, ist ein Hauptanliegen dieser Arbeit. Motiviert davon werden die am besten geeigneten Verfahren einer gründlichen Analyse in Bezug auf ihr Gesamtverhalten, d.h. Genauigkeit und Stabilität, unterzogen. Der allgemeine Trend der Anfangsgrößenverteilung wird in unseren numerischen Experimenten erfasst. Zusätzlich hängt die Rekonstruktionsqualität vom Datenfehler ab. Darüber hinaus wird die Anzahl der notwendigen Depolarisationspunkte zum ersten Mal aus der Sicht des mikrophysikalischen Parameter-Retrievals erforscht. Abschließend verwenden wir unsere Software für verschiedene Messfälle, was weitere Einblicke für künftige Verbesserungen des Algorithmus gibt. KW - microphysics KW - retrieval KW - lidar KW - aerosols KW - regularization KW - ill-posed KW - inversion KW - Mikrophysik KW - Retrieval KW - Lidar KW - Aerosole KW - Regularisierung KW - schlecht gestellt KW - Inversion Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396528 ER - TY - THES A1 - Lyu, Xiaojing T1 - Operators on singular manifolds T1 - Operatoren auf singuläre Mannigfaltigkeiten N2 - We study the interplay between analysis on manifolds with singularities and complex analysis and develop new structures of operators based on the Mellin transform and tools for iterating the calculus for higher singularities. We refer to the idea of interpreting boundary value problems (BVPs) in terms of pseudo-differential operators with a principal symbolic hierarchy, taking into account that BVPs are a source of cone and edge operator algebras. The respective cone and edge pseudo-differential algebras in turn are the starting point of higher corner theories. In addition there are deep relationships between corner operators and complex analysis. This will be illustrated by the Mellin symbolic calculus. N2 - Wir studieren den Zusammenhang zwischen Analysis auf Mannigfaltigkeiten mit Singularitäten und komplexer Analysis und entwickeln neue Strukturen von Operatoren basierend auf der Mellin-Transformation und Hilfsmitteln für die Iteration des Kalküls für höhere Singularitäten. Wir beziehen uns auf die Idee von der Interpretation von Randwert-Problemen (BVPs) durch Pseudo-Differential-operatoren und Hauptsymbol-Hierarchien, unter Berüksichtigung der Tatsache, dass BVPs eine Quelle von Konus- und Kanten-Operator- algebren sind. Die betreffenden Konus- und Kanten-Pseudo-differentiellen Algebren sind wiederum der Startpunkt von höheren Eckentheorien. Zusätzlich bestehen tiefe Beziehungen zwischen Ecken-Operatoren und komplexer Analysis. Dies wird illustiert durch den Mellin-Symbol Kalkül. KW - order filtration KW - Mellin-Symbols KW - singular manifolds KW - Ordnungs-Filtrierung KW - Mellin-Symbole KW - singuläre Mannigfaltigkeiten Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103643 ER - TY - THES A1 - Mazzonetto, Sara T1 - On the exact simulation of (skew) Brownian diffusions with discontinuous drift T1 - Über die exakte Simulation (skew) Brownsche Diffusionen mit unstetiger Drift T1 - Simulation exacte de diffusions browniennes (biaisées) avec dérive discontinue N2 - This thesis is focused on the study and the exact simulation of two classes of real-valued Brownian diffusions: multi-skew Brownian motions with constant drift and Brownian diffusions whose drift admits a finite number of jumps. The skew Brownian motion was introduced in the sixties by Itô and McKean, who constructed it from the reflected Brownian motion, flipping its excursions from the origin with a given probability. Such a process behaves as the original one except at the point 0, which plays the role of a semipermeable barrier. More generally, a skew diffusion with several semipermeable barriers, called multi-skew diffusion, is a diffusion everywhere except when it reaches one of the barriers, where it is partially reflected with a probability depending on that particular barrier. Clearly, a multi-skew diffusion can be characterized either as solution of a stochastic differential equation involving weighted local times (these terms providing the semi-permeability) or by its infinitesimal generator as Markov process. In this thesis we first obtain a contour integral representation for the transition semigroup of the multiskew Brownian motion with constant drift, based on a fine analysis of its complex properties. Thanks to this representation we write explicitly the transition densities of the two-skew Brownian motion with constant drift as an infinite series involving, in particular, Gaussian functions and their tails. Then we propose a new useful application of a generalization of the known rejection sampling method. Recall that this basic algorithm allows to sample from a density as soon as one finds an - easy to sample - instrumental density verifying that the ratio between the goal and the instrumental densities is a bounded function. The generalized rejection sampling method allows to sample exactly from densities for which indeed only an approximation is known. The originality of the algorithm lies in the fact that one finally samples directly from the law without any approximation, except the machine's. As an application, we sample from the transition density of the two-skew Brownian motion with or without constant drift. The instrumental density is the transition density of the Brownian motion with constant drift, and we provide an useful uniform bound for the ratio of the densities. We also present numerical simulations to study the efficiency of the algorithm. The second aim of this thesis is to develop an exact simulation algorithm for a Brownian diffusion whose drift admits several jumps. In the literature, so far only the case of a continuous drift (resp. of a drift with one finite jump) was treated. The theoretical method we give allows to deal with any finite number of discontinuities. Then we focus on the case of two jumps, using the transition densities of the two-skew Brownian motion obtained before. Various examples are presented and the efficiency of our approach is discussed. N2 - In dieser Dissertation wird die exakte Simulation zweier Klassen reeller Brownscher Diffusionen untersucht: die multi-skew Brownsche Bewegung mit konstanter Drift sowie die Brownsche Diffusionen mit einer Drift mit endlich vielen Sprüngen. Die skew Brownsche Bewegung wurde in den sechzigern Jahren von Itô and McKean als eine Brownsche Bewegung eingeführt, für die die Richtung ihrer Exkursionen am Ursprung zufällig mit einer gegebenen Wahrscheinlichkeit ausgewürfelt wird. Solche asymmetrischen Prozesse verhalten sich im Wesentlichen wie der Originalprozess außer bei 0, das sich wie eine semipermeable Barriere verhält. Allgemeiner sind skew Diffusionsprozesse mit mehreren semipermeablen Barrieren, auch multi-skew Diffusionen genannt, Diffusionsprozesse mit Ausnahme an den Barrieren, wo sie jeweils teilweise reflektiert wird. Natürlich ist eine multi-skew Diffusion durch eine stochastische Differentialgleichung mit Lokalzeiten (diese bewirken die Semipermeabilität) oder durch ihren infinitesimalen Generator als Markov Prozess charakterisiert. In dieser Arbeit leiten wir zunächst eine Konturintegraldarstellung der Übergangshalbgruppe der multi-skew Brownschen Bewegung mit konstanter Drift durch eine feine Analyse ihrer komplexen Eigenschaften her. Dank dieser Darstellung wird eine explizite Darstellung der Übergangswahrscheinlichkeiten der zweifach-skew Brownschen Bewegung mit konstanter Drift als eine unendliche Reihe Gaußscher Dichten erhalten. Anschlieẞend wird eine nützliche Verallgemeinerung der bekannten Verwerfungsmethode vorgestellt. Dieses grundlegende Verfahren ermöglicht Realisierungen von Zufallsvariablen, sobald man eine leicht zu simulierende Zufallsvariable derart findet, dass der Quotient der Dichten beider Zufallsvariablen beschränkt ist. Die verallgmeinerte Verwerfungsmethode erlaubt eine exakte Simulation für Dichten, die nur approximiert werden können. Die Originalität unseres Verfahrens liegt nun darin, dass wir, abgesehen von der rechnerbedingten Approximation, exakt von der Verteilung ohne Approximation simulieren. In einer Anwendung simulieren wir die zweifach-skew Brownsche Bewegung mit oder ohne konstanter Drift. Die Ausgangsdichte ist dabei die der Brownschen Bewegung mit konstanter Drift, und wir geben gleichmäẞige Schranken des Quotienten der Dichten an. Dazu werden numerische Simulationen gezeigt, um die Leistungsfähigkeit des Verfahrens zu demonstrieren. Das zweite Ziel dieser Arbeit ist die Entwicklung eines exakten Simulationsverfahrens für Brownsche Diffusionen, deren Drift mehrere Sprünge hat. In der Literatur wurden bisher nur Diffusionen mit stetiger Drift bzw. mit einer Drift mit höchstens einem Sprung behandelt. Unser Verfahren erlaubt den Umgang mit jeder endlichen Anzahl von Sprüngen. Insbesondere wird der Fall zweier Sprünge behandelt, da unser Simulationsverfahren mit den bereits erhaltenen Übergangswahrscheinlichkeiten der zweifach-skew Brownschen Bewegung verwandt ist. An mehreren Beispielen demonstrieren wir die Effizienz unseres Ansatzes. KW - exact simulation KW - exakte Simulation KW - skew diffusions KW - Skew Diffusionen KW - local time KW - discontinuous drift KW - diskontinuierliche Drift Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102399 ER - TY - INPR A1 - Fedchenko, Dmitry A1 - Tarkhanov, Nikolai Nikolaevich T1 - A Radó Theorem for the Porous Medium Equation T2 - Preprints des Instituts für Mathematik der Universität Potsdam N2 - We prove that each locally Lipschitz continuous function satisfying the porous medium equation away from the set of its zeroes is actually a weak solution of this equation in the whole domain. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 6 (2017) 1 KW - quasilinear equation KW - removable set KW - porous medium equation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102735 VL - 6 IS - 1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Shlapunov, Alexander A1 - Tarkhanov, Nikolai Nikolaevich T1 - Golusin-Krylov Formulas in Complex Analysis T2 - Preprints des Instituts für Mathematik der Universität Potsdam N2 - This is a brief survey of a constructive technique of analytic continuation related to an explicit integral formula of Golusin and Krylov (1933). It goes far beyond complex analysis and applies to the Cauchy problem for elliptic partial differential equations as well. As started in the classical papers, the technique is elaborated in generalised Hardy spaces also called Hardy-Smirnov spaces. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 6 (2017) 2 KW - analytic continuation KW - integral formulas KW - Cauchy problem Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102774 VL - 6 IS - 2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Flad, Heinz-Jürgen A1 - Harutyunyan, Gohar A1 - Schulze, Bert-Wolfgang T1 - Singular analysis and coupled cluster theory N2 - The primary motivation for systematic bases in first principles electronic structure simulations is to derive physical and chemical properties of molecules and solids with predetermined accuracy. This requires a detailed understanding of the asymptotic behaviour of many-particle Coulomb systems near coalescence points of particles. Singular analysis provides a convenient framework to study the asymptotic behaviour of wavefunctions near these singularities. In the present work, we want to introduce the mathematical framework of singular analysis and discuss a novel asymptotic parametrix construction for Hamiltonians of many-particle Coulomb systems. This corresponds to the construction of an approximate inverse of a Hamiltonian operator with remainder given by a so-called Green operator. The Green operator encodes essential asymptotic information and we present as our main result an explicit asymptotic formula for this operator. First applications to many-particle models in quantum chemistry are presented in order to demonstrate the feasibility of our approach. The focus is on the asymptotic behaviour of ladder diagrams, which provide the dominant contribution to shortrange correlation in coupled cluster theory. Furthermore, we discuss possible consequences of our asymptotic analysis with respect to adaptive wavelet approximation. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 302 Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102306 SP - 31530 EP - 31541 ER - TY - THES A1 - Gopalakrishnan, Sathej T1 - Mathematical modelling of host-disease-drug interactions in HIV disease T1 - Mathematische Modellierung von Pathogen-Wirkstoff-Wirt-Interaktionen im Kontext der HIV Erkrankung N2 - The human immunodeficiency virus (HIV) has resisted nearly three decades of efforts targeting a cure. Sustained suppression of the virus has remained a challenge, mainly due to the remarkable evolutionary adaptation that the virus exhibits by the accumulation of drug-resistant mutations in its genome. Current therapeutic strategies aim at achieving and maintaining a low viral burden and typically involve multiple drugs. The choice of optimal combinations of these drugs is crucial, particularly in the background of treatment failure having occurred previously with certain other drugs. An understanding of the dynamics of viral mutant genotypes aids in the assessment of treatment failure with a certain drug combination, and exploring potential salvage treatment regimens. Mathematical models of viral dynamics have proved invaluable in understanding the viral life cycle and the impact of antiretroviral drugs. However, such models typically use simplified and coarse-grained mutation schemes, that curbs the extent of their application to drug-specific clinical mutation data, in order to assess potential next-line therapies. Statistical models of mutation accumulation have served well in dissecting mechanisms of resistance evolution by reconstructing mutation pathways under different drug-environments. While these models perform well in predicting treatment outcomes by statistical learning, they do not incorporate drug effect mechanistically. Additionally, due to an inherent lack of temporal features in such models, they are less informative on aspects such as predicting mutational abundance at treatment failure. This limits their application in analyzing the pharmacology of antiretroviral drugs, in particular, time-dependent characteristics of HIV therapy such as pharmacokinetics and pharmacodynamics, and also in understanding the impact of drug efficacy on mutation dynamics. In this thesis, we develop an integrated model of in vivo viral dynamics incorporating drug-specific mutation schemes learned from clinical data. Our combined modelling approach enables us to study the dynamics of different mutant genotypes and assess mutational abundance at virological failure. As an application of our model, we estimate in vivo fitness characteristics of viral mutants under different drug environments. Our approach also extends naturally to multiple-drug therapies. Further, we demonstrate the versatility of our model by showing how it can be modified to incorporate recently elucidated mechanisms of drug action including molecules that target host factors. Additionally, we address another important aspect in the clinical management of HIV disease, namely drug pharmacokinetics. It is clear that time-dependent changes in in vivo drug concentration could have an impact on the antiviral effect, and also influence decisions on dosing intervals. We present a framework that provides an integrated understanding of key characteristics of multiple-dosing regimens including drug accumulation ratios and half-lifes, and then explore the impact of drug pharmacokinetics on viral suppression. Finally, parameter identifiability in such nonlinear models of viral dynamics is always a concern, and we investigate techniques that alleviate this issue in our setting. N2 - Das Humane Immundefiecienz-Virus (HIV) widerstanden hat fast drei Jahrzehnten eff Orts targeting eine Heilung. Eine anhaltende Unterdrückung des Virus hat noch eine Herausforderung, vor allem aufgrund der bemerkenswerten evolutionären Anpassung, dass das Virus Exponate durch die Ansammlung von Medikamenten-resistenten Mutationen in seinem Genom. Aktuelle therapeutische Strategien zielen auf das Erreichen und die Erhaltung einer niedrigen virale Belastung und umfassen in der Regel mehrere Medikamente. Die Wahl der optimalen Kombinationen dieser Medikamente ist von entscheidender Bedeutung, besonders im Hintergrund der Behandlung Fehler eingetreten, die zuvor mit bestimmten anderen Medikamenten. Ein Verständnis für die Dynamik der viralen mutierten Genotypen Aids in die Bewertung der Behandlung Fehler mit einer bestimmten Kombination und der Erkundung potenzieller Bergung Behandlungsschemata. Mathematische Modelle für virale Dynamik haben sich als unschätzbar erwiesen hat im Verständnis der viralen Lebenszyklus und die Auswirkungen von antiretroviralen Medikamenten. Allerdings sind solche Modelle verwenden in der Regel simplified und grobkörnigen Mutation Regelungen, dass Aufkantungen den Umfang ihrer Anwendung auf Arzneimittel-ganz speziellec Mutation klinische Daten, um zu beurteilen, mögliche nächste-line Therapien. Statistische Modelle der Mutation Anhäufung gedient haben gut in präparieren Mechanismen der Resistenz Evolution durch Mutation Rekonstruktion Pathways unter verschiedenen Medikamenten-Umgebungen. Während diese Modelle führen gut in der Vorhersage der Ergebnisse der Behandlung durch statistische lernen, sie enthalten keine Droge E ffect mechanistisch. Darüber hinaus aufgrund einer innewohnenden Mangel an zeitlichen Funktionen in solchen Modellen, sie sind weniger informativ auf Aspekte wie die Vorhersage mutational Fülle an Versagen der Behandlung. Dies schränkt die Anwendung in der Analyse der Pharmakologie von antiretroviralen Medikamenten, insbesondere, Zeit-abhängige Merkmale der HIV-Therapie wie Pharmakokinetik und Pharmakodynamik, und auch in dem Verständnis der Auswirkungen von Drogen e fficacy auf Mutation Dynamik. In dieser Arbeit, die wir bei der Entwicklung eines integrierten Modells von In-vivo-virale Dynamik Einbeziehung drug-ganz speziellec Mutation Systeme gelernt aus den klinischen Daten. Unsere kombinierten Modellansatz ermöglicht uns die Untersuchung der Dynamik von diff schiedene mutierten Genotypen und bewerten mutational Fülle an virologischem Versagen. Als Anwendung unseres Modells schätzen wir In-vivo-fitness Merkmale der viralen Mutanten unter di fferent drug Umgebungen. Unser Ansatz erstreckt sich auch natürlich auf mehrere-Therapien. Weitere zeigen wir die Vielseitigkeit unseres Modells zeigen, wie es können Modified zu integrieren kürzlich aufgeklärt Mechanismen der Drug Action einschließlich Molekülen, dass target host Faktoren. Zusätzlich haben wir Adresse ein weiterer wichtiger Aspekt in der klinischen Management der HIV-Erkrankung, das heißt Drogen Pharmakokinetik. Es ist klar, dass die Zeit-abhängige Änderungen in In-vivo-Wirkstoffkonzentration könnten die Auswirkungen auf die antivirale E ffect und haben auch Einfluss auf die Entscheidungen über Dosierungsintervalle. Wir präsentieren ein Framework, bietet ein integriertes Verständnis der wichtigsten Merkmale von mehreren Dosierungsschemata einschließlich Kumulation Übersetzungen und Halbwertszeiten, und untersuchen Sie die Auswirkungen von Drogen auf die Pharmakokinetik Virussuppression. Schließlich, Parameter identifiFähigkeit in solchen nichtlineare Modelle der virale Dynamik ist immer ein Anliegen, und wir untersuchen Methoden, um dieses Problem in unserer Einstellung. KW - HIV KW - mathematical modelling KW - viral fitness KW - pharmacokinetics KW - parameter estimation KW - HIV Erkrankung KW - Pharmakokinetik KW - Fitness KW - mathematische Modellierung KW - Kombinationstherapie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100100 ER - TY - INPR A1 - Vasiliev, Serguei A1 - Tarkhanov, Nikolai Nikolaevich T1 - Construction of series of perfect lattices by layer superposition N2 - We construct a new series of perfect lattices in n dimensions by the layer superposition method of Delaunay-Barnes. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016)11 KW - lattice packing and covering KW - polyhedra and polytopes KW - regular figures KW - division of spaces Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100591 SN - 2193-6943 VL - 5 IS - 11 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Berner, Nadine T1 - Deciphering multiple changes in complex climate time series using Bayesian inference T1 - Bayes'sche Inferenz als diagnostischer Ansatz zur Untersuchung multipler Übergänge in komplexen Klimazeitreihen N2 - Change points in time series are perceived as heterogeneities in the statistical or dynamical characteristics of the observations. Unraveling such transitions yields essential information for the understanding of the observed system’s intrinsic evolution and potential external influences. A precise detection of multiple changes is therefore of great importance for various research disciplines, such as environmental sciences, bioinformatics and economics. The primary purpose of the detection approach introduced in this thesis is the investigation of transitions underlying direct or indirect climate observations. In order to develop a diagnostic approach capable to capture such a variety of natural processes, the generic statistical features in terms of central tendency and dispersion are employed in the light of Bayesian inversion. In contrast to established Bayesian approaches to multiple changes, the generic approach proposed in this thesis is not formulated in the framework of specialized partition models of high dimensionality requiring prior specification, but as a robust kernel-based approach of low dimensionality employing least informative prior distributions. First of all, a local Bayesian inversion approach is developed to robustly infer on the location and the generic patterns of a single transition. The analysis of synthetic time series comprising changes of different observational evidence, data loss and outliers validates the performance, consistency and sensitivity of the inference algorithm. To systematically investigate time series for multiple changes, the Bayesian inversion is extended to a kernel-based inference approach. By introducing basic kernel measures, the weighted kernel inference results are composed into a proxy probability to a posterior distribution of multiple transitions. The detection approach is applied to environmental time series from the Nile river in Aswan and the weather station Tuscaloosa, Alabama comprising documented changes. The method’s performance confirms the approach as a powerful diagnostic tool to decipher multiple changes underlying direct climate observations. Finally, the kernel-based Bayesian inference approach is used to investigate a set of complex terrigenous dust records interpreted as climate indicators of the African region of the Plio-Pleistocene period. A detailed inference unravels multiple transitions underlying the indirect climate observations, that are interpreted as conjoint changes. The identified conjoint changes coincide with established global climate events. In particular, the two-step transition associated to the establishment of the modern Walker-Circulation contributes to the current discussion about the influence of paleoclimate changes on the environmental conditions in tropical and subtropical Africa at around two million years ago. N2 - Im Allgemeinen stellen punktuelle Veränderungen in Zeitreihen (change points) eine Heterogenität in den statistischen oder dynamischen Charakteristika der Observablen dar. Das Auffinden und die Beschreibung solcher Übergänge bietet grundlegende Informationen über das beobachtete System hinsichtlich seiner intrinsischen Entwicklung sowie potentieller externer Einflüsse. Eine präzise Detektion von Veränderungen ist daher für die verschiedensten Forschungsgebiete, wie den Umweltwissenschaften, der Bioinformatik und den Wirtschaftswissenschaften von großem Interesse. Die primäre Zielsetzung der in der vorliegenden Doktorarbeit vorgestellten Detektionsmethode ist die Untersuchung von direkten als auch indirekten Klimaobservablen auf Veränderungen. Um die damit verbundene Vielzahl an möglichen natürlichen Prozessen zu beschreiben, werden im Rahmen einer Bayes’schen Inversion die generischen statistischen Merkmale Zentraltendenz und Dispersion verwendet. Im Gegensatz zu etablierten Bayes’schen Methoden zur Analyse von multiplen Übergängen, die im Rahmen von Partitionsmodellen hoher Dimensionalität formuliert sind und die Spezifikation von Priorverteilungen erfordern, wird in dieser Doktorarbeit ein generischer, Kernel-basierter Ansatz niedriger Dimensionalität mit minimal informativen Priorverteilungen vorgestellt. Zunächst wird ein lokaler Bayes’scher Inversionsansatz entwickelt, der robuste Rückschlüsse auf die Position und die generischen Charakteristika einer einzelnen Veränderung erlaubt. Durch die Analyse von synthetischen Zeitreihen die dem Einfluss von Veränderungen unterschiedlicher Signifikanz, Datenverlust und Ausreißern unterliegen wird die Leistungsfähigkeit, Konsistenz und Sensitivität der Inversionmethode begründet. Um Zeitreihen auch auf multiple Veränderungen systematisch untersuchen zu können, wird die Methode der Bayes’schen Inversion zu einem Kernel-basierten Ansatz erweitert. Durch die Einführung grundlegender Kernel-Maße können die Kernel-Resultate zu einer gewichteten Wahrscheinlichkeit kombiniert werden die als Proxy einer Posterior-Verteilung multipler Veränderungen dient. Der Detektionsalgorithmus wird auf reale Umweltmessreihen vom Nil-Fluss in Aswan und von der Wetterstation Tuscaloosa, Alabama, angewendet, die jeweils dokumentierte Veränderungen enthalten. Das Ergebnis dieser Analyse bestätigt den entwickelten Ansatz als eine leistungsstarke diagnostische Methode zur Detektion multipler Übergänge in Zeitreihen. Abschließend wird der generische Kernel-basierte Bayes’sche Ansatz verwendet, um eine Reihe von komplexen terrigenen Staubdaten zu untersuchen, die als Klimaindikatoren der afrikanischen Region des Plio-Pleistozän interpretiert werden. Eine detaillierte Untersuchung deutet auf multiple Veränderungen in den indirekten Klimaobservablen hin, von denen einige als gemeinsame Übergänge interpretiert werden. Diese gemeinsam auftretenden Ereignisse stimmen mit etablierten globalen Klimaereignissen überein. Insbesondere der gefundene Zwei-Stufen-Übergang, der mit der Ausbildung der modernen Walker-Zirkulation assoziiert wird, liefert einen wichtigen Beitrag zur aktuellen Diskussion über den Einfluss von paläoklimatischen Veränderungen auf die Umweltbedingungen im tropischen und subtropischen Afrika vor circa zwei Millionen Jahren. KW - kernel-based Bayesian inference KW - multi-change point detection KW - direct and indirect climate observations KW - Plio-Pleistocene KW - (sub-) tropical Africa KW - terrigenous dust KW - kernel-basierte Bayes'sche Inferenz KW - Detektion multipler Übergänge KW - direkte und indirekte Klimaobservablen KW - Plio-Pleistozän KW - (sub-) tropisches Afrika KW - terrigener Staub Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100065 ER - TY - INPR A1 - Shlapunov, Alexander A1 - Tarkhanov, Nikolai Nikolaevich T1 - An open mapping theorem for the Navier-Stokes equations N2 - We consider the Navier-Stokes equations in the layer R^n x [0,T] over R^n with finite T > 0. Using the standard fundamental solutions of the Laplace operator and the heat operator, we reduce the Navier-Stokes equations to a nonlinear Fredholm equation of the form (I+K) u = f, where K is a compact continuous operator in anisotropic normed Hölder spaces weighted at the point at infinity with respect to the space variables. Actually, the weight function is included to provide a finite energy estimate for solutions to the Navier-Stokes equations for all t in [0,T]. On using the particular properties of the de Rham complex we conclude that the Fréchet derivative (I+K)' is continuously invertible at each point of the Banach space under consideration and the map I+K is open and injective in the space. In this way the Navier-Stokes equations prove to induce an open one-to-one mapping in the scale of Hölder spaces. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016)10 KW - Navier-Stokes equations KW - weighted Hölder spaces KW - integral representation method Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98687 SN - 2193-6943 VL - 5 IS - 10 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Scharrer, Christian T1 - Relating diameter and mean curvature for varifolds T1 - Relativer Diameter und mittlere Krümmung für Varifaltigkeiten N2 - The main results of this thesis are formulated in a class of surfaces (varifolds) generalizing closed and connected smooth submanifolds of Euclidean space which allows singularities. Given an indecomposable varifold with dimension at least two in some Euclidean space such that the first variation is locally bounded, the total variation is absolutely continuous with respect to the weight measure, the density of the weight measure is at least one outside a set of weight measure zero and the generalized mean curvature is locally summable to a natural power (dimension of the varifold minus one) with respect to the weight measure. The thesis presents an improved estimate of the set where the lower density is small in terms of the one dimensional Hausdorff measure. Moreover, if the support of the weight measure is compact, then the intrinsic diameter with respect to the support of the weight measure is estimated in terms of the generalized mean curvature. This estimate is in analogy to the diameter control for closed connected manifolds smoothly immersed in some Euclidean space of Peter Topping. Previously, it was not known whether the hypothesis in this thesis implies that two points in the support of the weight measure have finite geodesic distance. N2 - Die wichtigsten Ergebnisse dieser Arbeit sind formuliert für eine Klasse von Oberflächen (Varifaltigkeiten), welche geschlossene glatte Untermannigfaltigkeiten des euklidischen Raums verallgemeinern und Singularitäten erlauben. Gegeben sei eine mindestens zwei-dimensionale unzerlegbare Varifaltigkeit im euklidischen Raum, sodass die erste Variation lokal beschränkt ist, die totale Variation absolut stetig bezüglich dem Gewichtsmaß ist, die Dichte des Gewichtsmaßes außerhalb einer Nullmenge mindesten eins ist, und die verallgemeinerte mittlere Krümmung bezüglich dem Gewichtsmaß lokal summierbar zu einer natürlichen Potenz (Dimension der Varifaltigkeit minus eins) ist. Es wird die Menge, wo die untere Dichte klein ist, durch das ein-dimensionale Hausdorff-Maß abgeschätzt. Das Ergebnis ist eine neue, stark verbesserte untere Dichte-Schranke. Ist der Träger des Gewichtsmaßes kompakt, so wird der intrinsische Diameter des Trägers des Gewichtsmaßes abgeschätzt durch ein Integral der verallgemeinerten mittleren Krümmung. Diese Ungleichung ist analog zu der Ungleichung von Peter Topping für geschlossene zusammenhängende Mannigfaltigkeit, welche durch eine glatte Immersion in den euklidischen Raum eingebettet sind. Bisher war nicht bekannt, dass die oben genannten Annahmen an die Varifaltigkeit implizieren, dass der geodätische Abstand zweier Punkte aus dem Träger des Gewichtsmaßes endlich ist. KW - varifold KW - rectifiable varifold KW - indecomposable varifold KW - first variation KW - mean curvature KW - isoperimetric inequality KW - density of a measure KW - geodesic distance KW - intrinsic diameter KW - Varifaltigkeit KW - rektifizierbare Varifaltigkeit KW - unzerlegbare Varifaltigkeit KW - erste Variation KW - mittlere Krümmung KW - isoperimetrische Ungleichung KW - Dichte eines Maßes KW - geodätischer Abstand KW - intrinsischer Diameter Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97013 ER - TY - INPR A1 - Roelly, Sylvie A1 - Vallois, Pierre T1 - Convoluted Brownian motion BT - a semimartingale approach N2 - In this paper we analyse semimartingale properties of a class of Gaussian periodic processes, called convoluted Brownian motions, obtained by convolution between a deterministic function and a Brownian motion. A classical example in this class is the periodic Ornstein-Uhlenbeck process. We compute their characteristics and show that in general, they are neither Markovian nor satisfy a time-Markov field property. Nevertheless, by enlargement of filtration and/or addition of a one-dimensional component, one can in some case recover the Markovianity. We treat exhaustively the case of the bidimensional trigonometric convoluted Brownian motion and the higher-dimensional monomial convoluted Brownian motion. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 9 KW - periodic Gaussian process KW - periodic Ornstein-Uhlenbeck process KW - Markov-field property KW - enlargement of filtration Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96339 SN - 2193-6943 VL - 5 IS - 9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Ludewig, Matthias T1 - Path integrals on manifolds with boundary and their asymptotic expansions T1 - Pfadintegrale auf Mannigfaltigkeiten mit Rand und ihre asymptotischen Entwicklungen N2 - It is "scientific folklore" coming from physical heuristics that solutions to the heat equation on a Riemannian manifold can be represented by a path integral. However, the problem with such path integrals is that they are notoriously ill-defined. One way to make them rigorous (which is often applied in physics) is finite-dimensional approximation, or time-slicing approximation: Given a fine partition of the time interval into small subintervals, one restricts the integration domain to paths that are geodesic on each subinterval of the partition. These finite-dimensional integrals are well-defined, and the (infinite-dimensional) path integral then is defined as the limit of these (suitably normalized) integrals, as the mesh of the partition tends to zero. In this thesis, we show that indeed, solutions to the heat equation on a general compact Riemannian manifold with boundary are given by such time-slicing path integrals. Here we consider the heat equation for general Laplace type operators, acting on sections of a vector bundle. We also obtain similar results for the heat kernel, although in this case, one has to restrict to metrics satisfying a certain smoothness condition at the boundary. One of the most important manipulations one would like to do with path integrals is taking their asymptotic expansions; in the case of the heat kernel, this is the short time asymptotic expansion. In order to use time-slicing approximation here, one needs the approximation to be uniform in the time parameter. We show that this is possible by giving strong error estimates. Finally, we apply these results to obtain short time asymptotic expansions of the heat kernel also in degenerate cases (i.e. at the cut locus). Furthermore, our results allow to relate the asymptotic expansion of the heat kernel to a formal asymptotic expansion of the infinite-dimensional path integral, which gives relations between geometric quantities on the manifold and on the loop space. In particular, we show that the lowest order term in the asymptotic expansion of the heat kernel is essentially given by the Fredholm determinant of the Hessian of the energy functional. We also investigate how this relates to the zeta-regularized determinant of the Jacobi operator along minimizing geodesics. N2 - Es ist "wissenschaftliche Folklore", abgeleitet von der physikalischen Anschauung, dass Lösungen der Wärmeleitungsgleichung auf einer riemannschen Mannigfaltigkeit als Pfadintegrale dargestellt werden können. Das Problem mit Pfadintegralen ist allerdings, dass schon deren Definition Mathematiker vor gewisse Probleme stellt. Eine Möglichkeit, Pfadintegrale rigoros zu definieren ist endlich-dimensionale Approximation, oder time-slicing-Approximation: Für eine gegebene Unterteilung des Zeitintervals in kleine Teilintervalle schränkt man den Integrationsbereich auf diejenigen Pfade ein, die auf jedem Teilintervall geodätisch sind. Diese endlichdimensionalen Integrale sind wohldefiniert, und man definiert das (unendlichdimensionale) Pfadintegral als den Limes dieser (passend normierten) Integrale, wenn die Feinheit der Unterteilung gegen Null geht. In dieser Arbeit wird gezeigt, dass Lösungen der Wärmeleitungsgleichung auf einer allgemeinen riemannschen Mannigfaltigkeit tatsächlich durch eine solche endlichdimensionale Approximation gegeben sind. Hierbei betrachten wir die Wärmeleitungsgleichung für allgemeine Operatoren von Laplace-Typ, die auf Schnitten in Vektorbündeln wirken. Wir zeigen auch ähnliche Resultate für den Wärmekern, wobei wir uns allerdings auf Metriken einschränken müssen, die eine gewisse Glattheitsbedingung am Rand erfüllen. Eine der wichtigsten Manipulationen, die man an Pfadintegralen vornehmen möchte, ist das Bilden ihrer asymptotischen Entwicklungen; in Falle des Wärmekerns ist dies die Kurzzeitasymptotik. Um die endlich-dimensionale Approximation hier nutzen zu können, ist es nötig, dass die Approximation uniform im Zeitparameter ist. Dies kann in der Tat erreicht werden; zu diesem Zweck geben wir starke Fehlerabschätzungen an. Schließlich wenden wir diese Resultate an, um die Kurzzeitasymptotik des Wärmekerns (auch im degenerierten Fall, d.h. am Schittort) herzuleiten. Unsere Resultate machen es außerdem möglich, die asymptotische Entwicklung des Wärmekerns mit einer formalen asymptotischen Entwicklung der unendlichdimensionalen Pfadintegrale in Verbindung zu bringen. Auf diese Weise erhält man Beziehungen zwischen geometrischen Größen der zugrundeliegenden Mannigfaltigkeit und solchen des Pfadraumes. Insbesondere zeigen wir, dass der Term niedrigster Ordnung in der asymptotischen Entwicklung des Wärmekerns im Wesentlichen durch die Fredholm-Determinante der Hesseschen des Energie-Funktionals gegeben ist. Weiterhin untersuchen wir die Verbindung zur zeta-regularisierten Determinante des Jakobi-Operators entlang von minimierenden Geodätischen. KW - heat equation KW - heat kernel KW - path integral KW - determinant KW - asymptotic expansion KW - Laplace expansion KW - heat asymptotics KW - Wiener measure KW - Wärmeleitungsgleichung KW - Wärmekern KW - Pfadintegrale KW - asymptotische Entwicklung KW - Determinante Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94387 ER - TY - INPR A1 - Blanchard, Gilles A1 - Krämer, Nicole T1 - Convergence rates of kernel conjugate gradient for random design regression N2 - We prove statistical rates of convergence for kernel-based least squares regression from i.i.d. data using a conjugate gradient algorithm, where regularization against overfitting is obtained by early stopping. This method is related to Kernel Partial Least Squares, a regression method that combines supervised dimensionality reduction with least squares projection. Following the setting introduced in earlier related literature, we study so-called "fast convergence rates" depending on the regularity of the target regression function (measured by a source condition in terms of the kernel integral operator) and on the effective dimensionality of the data mapped into the kernel space. We obtain upper bounds, essentially matching known minimax lower bounds, for the L^2 (prediction) norm as well as for the stronger Hilbert norm, if the true regression function belongs to the reproducing kernel Hilbert space. If the latter assumption is not fulfilled, we obtain similar convergence rates for appropriate norms, provided additional unlabeled data are available. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 8 KW - nonparametric regression KW - reproducing kernel Hilbert space KW - conjugate gradient KW - partial least squares KW - minimax convergence rates Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94195 SN - 2193-6943 VL - 5 IS - 8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Dereudre, David A1 - Mazzonetto, Sara A1 - Roelly, Sylvie T1 - Exact simulation of Brownian diffusions with drift admitting jumps N2 - Using an algorithm based on a retrospective rejection sampling scheme, we propose an exact simulation of a Brownian diffusion whose drift admits several jumps. We treat explicitly and extensively the case of two jumps, providing numerical simulations. Our main contribution is to manage the technical difficulty due to the presence of two jumps thanks to a new explicit expression of the transition density of the skew Brownian motion with two semipermeable barriers and a constant drift. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 7 KW - exact simulation method KW - skew Brownian motion KW - skew diffusion KW - Brownian motion with discontinuous drift Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91049 SN - 2193-6943 VL - 5 IS - 7 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Mera, Azal A1 - Tarkhanov, Nikolai Nikolaevich T1 - The Neumann problem after Spencer N2 - When trying to extend the Hodge theory for elliptic complexes on compact closed manifolds to the case of compact manifolds with boundary one is led to a boundary value problem for the Laplacian of the complex which is usually referred to as Neumann problem. We study the Neumann problem for a larger class of sequences of differential operators on a compact manifold with boundary. These are sequences of small curvature, i.e., bearing the property that the composition of any two neighbouring operators has order less than two. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 6 KW - elliptic complex KW - manifold with boundary KW - Hodge theory KW - Neumann problem Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90631 SN - 2193-6943 VL - 5 IS - 6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wichitsa-nguan, Korakot T1 - Modifications and extensions of the logistic regression and Cox model T1 - Modifikationen und Erweiterungen des logistischen Regressionsmodells und des Cox-Modells N2 - In many statistical applications, the aim is to model the relationship between covariates and some outcomes. A choice of the appropriate model depends on the outcome and the research objectives, such as linear models for continuous outcomes, logistic models for binary outcomes and the Cox model for time-to-event data. In epidemiological, medical, biological, societal and economic studies, the logistic regression is widely used to describe the relationship between a response variable as binary outcome and explanatory variables as a set of covariates. However, epidemiologic cohort studies are quite expensive regarding data management since following up a large number of individuals takes long time. Therefore, the case-cohort design is applied to reduce cost and time for data collection. The case-cohort sampling collects a small random sample from the entire cohort, which is called subcohort. The advantage of this design is that the covariate and follow-up data are recorded only on the subcohort and all cases (all members of the cohort who develop the event of interest during the follow-up process). In this thesis, we investigate the estimation in the logistic model for case-cohort design. First, a model with a binary response and a binary covariate is considered. The maximum likelihood estimator (MLE) is described and its asymptotic properties are established. An estimator for the asymptotic variance of the estimator based on the maximum likelihood approach is proposed; this estimator differs slightly from the estimator introduced by Prentice (1986). Simulation results for several proportions of the subcohort show that the proposed estimator gives lower empirical bias and empirical variance than Prentice's estimator. Then the MLE in the logistic regression with discrete covariate under case-cohort design is studied. Here the approach of the binary covariate model is extended. Proving asymptotic normality of estimators, standard errors for the estimators can be derived. The simulation study demonstrates the estimation procedure of the logistic regression model with a one-dimensional discrete covariate. Simulation results for several proportions of the subcohort and different choices of the underlying parameters indicate that the estimator developed here performs reasonably well. Moreover, the comparison between theoretical values and simulation results of the asymptotic variance of estimator is presented. Clearly, the logistic regression is sufficient for the binary outcome refers to be available for all subjects and for a fixed time interval. Nevertheless, in practice, the observations in clinical trials are frequently collected for different time periods and subjects may drop out or relapse from other causes during follow-up. Hence, the logistic regression is not appropriate for incomplete follow-up data; for example, an individual drops out of the study before the end of data collection or an individual has not occurred the event of interest for the duration of the study. These observations are called censored observations. The survival analysis is necessary to solve these problems. Moreover, the time to the occurence of the event of interest is taken into account. The Cox model has been widely used in survival analysis, which can effectively handle the censored data. Cox (1972) proposed the model which is focused on the hazard function. The Cox model is assumed to be λ(t|x) = λ0(t) exp(β^Tx) where λ0(t) is an unspecified baseline hazard at time t and X is the vector of covariates, β is a p-dimensional vector of coefficient. In this thesis, the Cox model is considered under the view point of experimental design. The estimability of the parameter β0 in the Cox model, where β0 denotes the true value of β, and the choice of optimal covariates are investigated. We give new representations of the observed information matrix In(β) and extend results for the Cox model of Andersen and Gill (1982). In this way conditions for the estimability of β0 are formulated. Under some regularity conditions, ∑ is the inverse of the asymptotic variance matrix of the MPLE of β0 in the Cox model and then some properties of the asymptotic variance matrix of the MPLE are highlighted. Based on the results of asymptotic estimability, the calculation of local optimal covariates is considered and shown in examples. In a sensitivity analysis, the efficiency of given covariates is calculated. For neighborhoods of the exponential models, the efficiencies have then been found. It is appeared that for fixed parameters β0, the efficiencies do not change very much for different baseline hazard functions. Some proposals for applicable optimal covariates and a calculation procedure for finding optimal covariates are discussed. Furthermore, the extension of the Cox model where time-dependent coefficient are allowed, is investigated. In this situation, the maximum local partial likelihood estimator for estimating the coefficient function β(·) is described. Based on this estimator, we formulate a new test procedure for testing, whether a one-dimensional coefficient function β(·) has a prespecified parametric form, say β(·; ϑ). The score function derived from the local constant partial likelihood function at d distinct grid points is considered. It is shown that the distribution of the properly standardized quadratic form of this d-dimensional vector under the null hypothesis tends to a Chi-squared distribution. Moreover, the limit statement remains true when replacing the unknown ϑ0 by the MPLE in the hypothetical model and an asymptotic α-test is given by the quantiles or p-values of the limiting Chi-squared distribution. Finally, we propose a bootstrap version of this test. The bootstrap test is only defined for the special case of testing whether the coefficient function is constant. A simulation study illustrates the behavior of the bootstrap test under the null hypothesis and a special alternative. It gives quite good results for the chosen underlying model. References P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large samplestudy. Ann. Statist., 10(4):1100{1120, 1982. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187{220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1{11, 1986. N2 - In vielen statistischen Anwendungen besteht die Aufgabe darin, die Beziehung zwischen Einflussgrößen und einer Zielgröße zu modellieren. Die Wahl eines geeigneten Modells hängt vom Typ der Zielgröße und vom Ziel der Untersuchung ab - während lineare Modelle für die Beschreibung des Zusammenhanges stetiger Outputs und Einflussgrößen genutzt werden, dienen logistische Regressionsmodelle zur Modellierung binärer Zielgrößen und das Cox-Modell zur Modellierung von Lebendauer-Daten. In epidemiologischen, medizinischen, biologischen, sozialen und ökonomischen Studien wird oftmals die logistische Regression angewendet, um den Zusammenhang zwischen einer binären Zielgröße und den erklärenden Variablen, den Kovariaten, zu modellieren. In epidemiologischen Studien muss häufig eine große Anzahl von Individuen für eine lange Zeit beobachtet werden. Um hierbei Kosten zu reduzieren, wird ein "Case-Cohort-Design" angewendet. Hierbei werden die Einflussgrößen nur für die Individuen erfasst, für die das interessierende Ereignis eintritt, und für eine zufällig gewählte kleine Teilmenge von Individuen, die Subkohorte. In der vorliegenden Arbeit wird das Schätzen im logistischen Regressionsmodell unter Case-Cohort-Design betrachtet. Für den Fall, dass auch die Kovariate binär ist, wurde bereits von Prentice (1986) die asymptotische Normalität des Maximum-Likelihood-Schätzers für den Logarithmus des "odds ratio", einen Parameter, der den Effekt der Kovariate charakterisiert, angegeben. In dieser Arbeit wird über einen Maximum-Likelihood-Zugang ein Schätzer für die Varianz der Grenzverteilung hergeleitet, für den durch empirische Untersuchungen gezeigt wird, dass er dem von Prentice überlegen ist. Ausgehend von dem binärem Kovariate-Modell werden Maximum-Likelihood-Schätzer für logistische Regressionsmodelle mit diskreten Kovariaten unter Case-Cohort-Design hergeleitet. Die asymptotische Normalität wird gezeigt; darauf aufbauend können Formeln für die Standardfehler angegeben werden. Simulationsstudien ergänzen diesen Abschnitt. Sie zeigen den Einfluss des Umfanges der Subkohorte auf die Varianz der Schätzer. Logistische Regression ist geeignet, wenn man das interessierende Ereignis für alle Individuen beobachten kann und wenn man ein festes Zeitintervall betrachtet. Will man die Zeit bis zum Eintreten eines Ereignisses bei der Untersuchung der Wirkung der Kovariate berücksichtigen, so sind Lebensdauermodelle angemessen. Hierbei können auch zensierte Daten behandelt werden. Ein sehr häufig angewendetes Regressionsmodell ist das von Cox (1972) vorgeschlagene, bei dem die Hazardrate durch λ(t|x) = λ0(t) exp(β^Tx) definiert ist. Hierbei ist λ0(t) eine unspezifizierte Baseline-Hazardrate und X ist ein Kovariat-Vektor, β ist ein p-dimensionaler Koeffizientenvektor. Nachdem ein Überblick über das Schätzen und Testen im Cox-Modell und seinen Erweiterungen gegeben wird, werden Aussagen zur Schätzbarkeit des Parameters β durch die "partiallikelihood"- Methode hergeleitet. Grundlage hierzu sind neue Darstellungen der beobachteten Fisher-Information, die die Ergebnisse von Andersen and Gill (1982) erweitern. Unter Regularitätsbedingungen ist der Schätzer asymptotisch normal; die Inverse der Grenzmatrix der Fisher-Information ist die Varianzmatrix der Grenzverteilung. Bedingungen für die Nichtsingularität dieser Grenzmatrix führen zum Begriff der asymptotischen Schätzbarkeit, der in der vorliegenden Arbeit ausführlich untersucht wird. Darüber hinaus ist diese Matrix Grundlage für die Herleitung lokal optimaler Kovariate. In einer Sensitivitätsanalyse wird die Effizienz gewählter Kovariate berechnet. Die Berechnungen zeigen, dass die Baseline-Verteilung nur wenig Einfluss auf die Effizienz hat. Entscheidend ist die Wahl der Kovariate. Es werden einige Vorschläge für anwendbare optimale Kovariate und Berechnungsverfahren für das Auffinden optimaler Kovariate diskutiert. Eine Erweiterung des Cox-Modells besteht darin, zeitabhängige Koeffizienten zuzulassen. Da diese Koeffizientenfunktionen nicht näher spezifiziert sind, werden sie nichtparametrisch geschätzt. Eine mögliche Methode ist die "local-linear-partial-likelihood"-Methode, deren Eigenschaften beispielsweise in der Arbeit von Cai and Sun (2003) untersucht wurden. In der vorliegenden Arbeit werden Simulationen zu dieser Methode durchgeführt. Hauptaspekt ist das Testen der Koeffizientenfunktion. Getestet wird, ob diese Funktion eine bestimmte parametrische Form besitzt. Betrachtet wird der Score-Vektor, der von der "localconstant-partial-likelihood"-Funktion abgeleitet wird. Ausgehend von der asymptotischen Normalität dieses Vektors an verschiedenen Gitterpunkten kann gezeigt werden, dass die Verteilung der geeignet standardisierten quadratischen Form unter der Nullhypothese gegen eine Chi-Quadrat-Verteilung konvergiert. Die Eigenschaften des auf dieser Grenzverteilungsaussage aufbauenden Tests hängen nicht nur vom Stichprobenumfang, sondern auch vom verwendeten Glättungsparameter ab. Deshalb ist es sinnvoll, auch einen Bootstrap-Test zu betrachten. In der vorliegenden Arbeit wird ein Bootstrap-Test zum Testen der Hypothese, dass die Koeffizienten-Funktion konstant ist, d.h. dass das klassische Cox-Modell vorliegt, vorgeschlagen. Der Algorithmus wird angegeben. Simulationen zum Verhalten dieses Tests unter der Nullhypothese und einer speziellen Alternative werden durchgeführt. Literatur P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large sample study. Ann. Statist., 10(4):1100{1120, 1982. Z. Cai and Y. Sun. Local linear estimation for time-dependent coefficients in Cox's regression models. Scand. J. Statist., 30(1):93-111, 2003. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187-220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1-11, 1986. KW - survival analysis KW - Cox model KW - logistic regression analysis KW - logistische Regression KW - Case-Cohort-Design KW - Cox-Modell Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90033 ER - TY - INPR A1 - Blanchard, Gilles A1 - Mücke, Nicole T1 - Optimal rates for regularization of statistical inverse learning problems N2 - We consider a statistical inverse learning problem, where we observe the image of a function f through a linear operator A at i.i.d. random design points X_i, superposed with an additional noise. The distribution of the design points is unknown and can be very general. We analyze simultaneously the direct (estimation of Af) and the inverse (estimation of f) learning problems. In this general framework, we obtain strong and weak minimax optimal rates of convergence (as the number of observations n grows large) for a large class of spectral regularization methods over regularity classes defined through appropriate source conditions. This improves on or completes previous results obtained in related settings. The optimality of the obtained rates is shown not only in the exponent in n but also in the explicit dependence of the constant factor in the variance of the noise and the radius of the source condition set. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 5 KW - statistical inverse problem KW - minimax rate KW - kernel method Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89782 SN - 2193-6943 VL - 5 IS - 5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Alsaedy, Ammar T1 - Variational primitive of a differential form N2 - In this paper we specify the Dirichlet to Neumann operator related to the Cauchy problem for the gradient operator with data on a part of the boundary. To this end, we consider a nonlinear relaxation of this problem which is a mixed boundary problem of Zaremba type for the p-Laplace equation. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 4 KW - Dirichlet-to-Neumann operator KW - Cauchy problem KW - p-Laplace operator KW - calculus of variations Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89223 SN - 2193-6943 VL - 5 IS - 4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wallenta, Daniel T1 - Sequences of compact curvature T1 - Sequenzen mit kompakter Krümmung N2 - By perturbing the differential of a (cochain-)complex by "small" operators, one obtains what is referred to as quasicomplexes, i.e. a sequence whose curvature is not equal to zero in general. In this situation the cohomology is no longer defined. Note that it depends on the structure of the underlying spaces whether or not an operator is "small." This leads to a magical mix of perturbation and regularisation theory. In the general setting of Hilbert spaces compact operators are "small." In order to develop this theory, many elements of diverse mathematical disciplines, such as functional analysis, differential geometry, partial differential equation, homological algebra and topology have to be combined. All essential basics are summarised in the first chapter of this thesis. This contains classical elements of index theory, such as Fredholm operators, elliptic pseudodifferential operators and characteristic classes. Moreover we study the de Rham complex and introduce Sobolev spaces of arbitrary order as well as the concept of operator ideals. In the second chapter, the abstract theory of (Fredholm) quasicomplexes of Hilbert spaces will be developed. From the very beginning we will consider quasicomplexes with curvature in an ideal class. We introduce the Euler characteristic, the cone of a quasiendomorphism and the Lefschetz number. In particular, we generalise Euler's identity, which will allow us to develop the Lefschetz theory on nonseparable Hilbert spaces. Finally, in the third chapter the abstract theory will be applied to elliptic quasicomplexes with pseudodifferential operators of arbitrary order. We will show that the Atiyah-Singer index formula holds true for those objects and, as an example, we will compute the Euler characteristic of the connection quasicomplex. In addition to this we introduce geometric quasiendomorphisms and prove a generalisation of the Lefschetz fixed point theorem of Atiyah and Bott. N2 - Die Theorie der Sequenzen mit kompakter Krümmung, sogenannter Quasikomplexe, ist eine Verallgemeinerung der Theorie der Fredholm Komplexe. Um ein Verständnis für (Quasi-)Komplexe zu gewinnen, müssen Inhalte aus verschiedenen Teilgebieten der Mathematik kombiniert werden. Alle hierfür wesentlichen Grundlagen sind im ersten Kapitel dieser Dissertation zusammengefasst. Dies betrifft unter anderem gewisse Elemente der Funktionalanalysis und der Differentialgeometrie, sowie die Theorie der klassischen Pseudodifferentialoperatoren. Im zweiten Kapitel wird anschließend die abstrakte Theorie der Quasikomplexe und zugehöriger Quasimorphismen im Kontext der Funktionalanalysis entwickelt. Dabei werden verschiedene Typen von Quasikomplexen und Quasimorphismen klassifiziert, deren Eigenschaften analysiert und Beispiele betrachtet. Ein zentraler Punkt hierbei ist die Lösung des Problems, für welche dieser Objekte sich eine besondere charakteristische Zahl, die sogenannte Lefschetz-Zahl, definieren lässt. Die dargestellten Resultate zeigen, dass die in dieser Arbeit gegebene Definition eine natürliche Erweiterung der klassischen Lefschetz-Zahl darstellt. Abschließend wird die entwickelte Theorie im dritten Kapitel auf elliptische Quasikomplexe von Pseudodifferentialoperatoren angewendet. Dabei werden insbesondere Verallgemeinerungen der berühmten Atiyah-Singer-Index-Formel und des Lefschetz-Fixpunkt-Theorems von Atiyah and Bott bewiesen. KW - Index Theorie KW - Fredholm Komplexe KW - Elliptische Komplexe KW - Index theory KW - Elliptic complexes KW - Fredholm complexes Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87489 ER - TY - INPR A1 - Fedchenko, Dmitry A1 - Tarkhanov, Nikolai Nikolaevich T1 - Boundary value problems for elliptic complexes N2 - The aim of this paper is to bring together two areas which are of great importance for the study of overdetermined boundary value problems. The first area is homological algebra which is the main tool in constructing the formal theory of overdetermined problems. And the second area is the global calculus of pseudodifferential operators which allows one to develop explicit analysis. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 3 KW - elliptic complexes KW - Fredholm property KW - index Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86705 SN - 2193-6943 VL - 5 IS - 3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Gairing, Jan A1 - Högele, Michael A1 - Kosenkova, Tetiana T1 - Transportation distances and noise sensitivity of multiplicative Lévy SDE with applications N2 - This article assesses the distance between the laws of stochastic differential equations with multiplicative Lévy noise on path space in terms of their characteristics. The notion of transportation distance on the set of Lévy kernels introduced by Kosenkova and Kulik yields a natural and statistically tractable upper bound on the noise sensitivity. This extends recent results for the additive case in terms of coupling distances to the multiplicative case. The strength of this notion is shown in a statistical implementation for simulations and the example of a benchmark time series in paleoclimate. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 2 KW - stochastic differential equations KW - multiplicative Lévy noise KW - Lévy type processes KW - heavy-tailed distributions KW - model selection KW - Wasserstein distance KW - time series Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86693 SN - 2193-6943 VL - 5 IS - 2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Alsaedy, Ammar A1 - Tarkhanov, Nikolai Nikolaevich T1 - A Hilbert boundary value problem for generalised Cauchy-Riemann equations N2 - We elaborate a boundary Fourier method for studying an analogue of the Hilbert problem for analytic functions within the framework of generalised Cauchy-Riemann equations. The boundary value problem need not satisfy the Shapiro-Lopatinskij condition and so it fails to be Fredholm in Sobolev spaces. We show a solvability condition of the Hilbert problem, which looks like those for ill-posed problems, and construct an explicit formula for approximate solutions. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 5 (2016) 1 KW - Dirac operator KW - Clifford algebra KW - Riemann-Hilbert problem KW - Fredholm operator Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86109 SN - 2193-6943 VL - 5 IS - 1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Mera, Azal A1 - Shlapunov, Alexander A1 - Tarkhanov, Nikolai Nikolaevich T1 - Navier-Stokes equations for elliptic complexes N2 - We continue our study of invariant forms of the classical equations of mathematical physics, such as the Maxwell equations or the Lamé system, on manifold with boundary. To this end we interpret them in terms of the de Rham complex at a certain step. On using the structure of the complex we get an insight to predict a degeneracy deeply encoded in the equations. In the present paper we develop an invariant approach to the classical Navier-Stokes equations. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 4 (2015)12 KW - Navier-Stokes equations KW - classical solution Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85592 SN - 2193-6943 VL - 4 IS - 12 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bettenbühl, Mario T1 - Microsaccades T1 - Mikrosakkaden BT - Symbols in fixational eye movements BT - Symbole in den Fixationsbewegungen der Augen N2 - The first thing we do upon waking is open our eyes. Rotating them in our eye sockets, we scan our surroundings and collect the information into a picture in our head. Eye movements can be split into saccades and fixational eye movements, which occur when we attempt to fixate our gaze. The latter consists of microsaccades, drift and tremor. Before we even lift our eye lids, eye movements – such as saccades and microsaccades that let the eyes jump from one to another position – have partially been prepared in the brain stem. Saccades and microsaccades are often assumed to be generated by the same mechanisms. But how saccades and microsaccades can be classified according to shape has not yet been reported in a statistical manner. Research has put more effort into the investigations of microsaccades’ properties and generation only since the last decade. Consequently, we are only beginning to understand the dynamic processes governing microsaccadic eye movements. Within this thesis, the dynamics governing the generation of microsaccades is assessed and the development of a model for the underlying processes. Eye movement trajectories from different experiments are used, recorded with a video-based eye tracking technique, and a novel method is proposed for the scale-invariant detection of saccades (events of large amplitude) and microsaccades (events of small amplitude). Using a time-frequency approach, the method is examined with different experiments and validated against simulated data. A shape model is suggested that allows for a simple estimation of saccade- and microsaccade related properties. For sequences of microsaccades, in this thesis a time-dynamic Markov model is proposed, with a memory horizon that changes over time and which can best describe sequences of microsaccades. N2 - Beim Aufwachen jeden Morgen, ist es das erste, was wir tun: wir öffnen unsere Augen. Wir lassen die Augen rotieren und suchen unsere Umgebung ab. Gleichzeitig wird die gesammelte Information in unserem Gehirn zu einem Bild vereint. Augenbewegungen können getrennt werden in Sakkaden, welche sprunghafte Augenbewegungen darstellen, und Fixationsbewegungen der Augen, letztere bestehend aus Mikrosakkaden, Tremor und Drift. Bevor wir unsere Augen aufschlagen, wurden die Bewegungen bereits teilweise im Hirnstamm vorprogrammiert. So ist dieser Teil unseres Gehirns verantwortlich für die Auslösung einer Sakkade oder Mikrosakkade, worin man versuchen kann auch gleichzeitig einen Zusammenhang für die Generierung dieser Bewegung herzustellen. Es wird vermutet, dass Mikrosakkaden auch als kleinskaligere Sakkade verstanden werden können, welche auftreten, wenn wir versuchen unsere Augen still auf einen Punkt zu fixieren. Bisher gibt es keine statistische Untersuchung bezüglich einer Klassifizierung von Sakkaden und Mikrosakkaden aufgrund ihrer Form, d.h. ihrer räumlichen Entwicklung über die Zeit. Seit Beginn des neuen Milleniums verstärkte sich die Forschung wieder auf die Eigenschaften und Entstehung von Mikrosakkaden. Demnach stehen wir immer noch am Anfang diese Phänomene mit dynamischen Prozessen beschreiben zu können. Der Fokus dieser Arbeit konzentriert sich auf das Verstehen der generierenden Dynamik von Mikrosakkaden. Es wird ein Model für den unterliegenden Prozess entwickelt und getestet. Es wurden Aufzeichnungen von Augenbewegungen aus verschiedenen Experimenten genutzt, jeweils aufgenommen mit einem videobasiertem System. Es wird eine neue Methode zur amplitudenunabhängigen Detektion von Sakkaden eingeführt, um die Zeitpunkte des Auftretens von Mikrosakkaden und Sakkaden zu bestimmen. Dabei werden für Daten verschiedener Experimente Methoden der Zeit-Frequenz-Analyse genutzt und anschließend die Methode validiert mit simulierten Daten. Außerdem wird ein Modell vorgestellt für die formabhängigen Ausprägungen von Sakkaden und Mikrosakkaden, um die Schätzung ihrer beiden physikalisch relevanten Eigenschaften zu erleichtern. Zum Ende der Arbeit wird ein zeitdynamisches Modell für Sequenzen von Mikrosakkadensymbolen aufgezeigt. Mithilfe der Beschreibung der in Symbolsequenzen übersetzten Mikrosakkadensequenzen als Markovketten, wird diese Form der Augenbewegung durch einen stochastischen Prozess beschrieben. Hierbei bestehen zeitliche und räumliche Abhängigkeiten zwischen den aufeinanderfolgenden zeitdiskreten Symbolen und erlauben somit, ein Referenzmodell für einen Teil der Fixationsbewegungen der Augen zu haben. T3 - Potsdam Cognitive Science Series - 5 KW - Mikrosakkaden KW - Fixationsbewegungen der Augen KW - Sakkadendetektion KW - Mikrosakkadensequenzen KW - Waveletanalyse KW - microsaccades KW - fixational eye movements KW - saccade detection KW - sequences of microsaccades KW - wavelet analysis Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72622 SN - 978-3-86956-122-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Makhmudov, K. O. A1 - Makhmudov, O. I. A1 - Tarkhanov, Nikolai Nikolaevich T1 - A nonstandard Cauchy problem for the heat equation N2 - We consider a Cauchy problem for the heat equation in a cylinder X x (0,T) over a domain X in the n-dimensional space with data on a strip lying on the lateral surface. The strip is of the form S x (0,T), where S is an open subset of the boundary of X. The problem is ill-posed. Under natural restrictions on the configuration of S we derive an explicit formula for solutions of this problem. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 4 (2015)11 KW - heat equation KW - Cauchy problem KW - Carleman formulas Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-83830 SN - 2193-6943 VL - 4 IS - 11 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Conforti, Giovanni T1 - Reciprocal classes of continuous time Markov Chains T1 - Reziproke Klassen zeitkontinuierlicher Markov-Ketten N2 - In this thesis we study reciprocal classes of Markov chains. Given a continuous time Markov chain on a countable state space, acting as reference dynamics, the associated reciprocal class is the set of all probability measures on path space that can be written as a mixture of its bridges. These processes possess a conditional independence property that generalizes the Markov property, and evolved from an idea of Schrödinger, who wanted to obtain a probabilistic interpretation of quantum mechanics. Associated to a reciprocal class is a set of reciprocal characteristics, which are space-time functions that determine the reciprocal class. We compute explicitly these characteristics, and divide them into two main families: arc characteristics and cycle characteristics. As a byproduct, we obtain an explicit criterion to check when two different Markov chains share their bridges. Starting from the characteristics we offer two different descriptions of the reciprocal class, including its non-Markov probabilities. The first one is based on a pathwise approach and the second one on short time asymptotic. With the first approach one produces a family of functional equations whose only solutions are precisely the elements of the reciprocal class. These equations are integration by parts on path space associated with derivative operators which perturb the paths by mean of the addition of random loops. Several geometrical tools are employed to construct such formulas. The problem of obtaining sharp characterizations is also considered, showing some interesting connections with discrete geometry. Examples of such formulas are given in the framework of counting processes and random walks on Abelian groups, where the set of loops has a group structure. In addition to this global description, we propose a second approach by looking at the short time behavior of a reciprocal process. In the same way as the Markov property and short time expansions of transition probabilities characterize Markov chains, we show that a reciprocal class is characterized by imposing the reciprocal property and two families of short time expansions for the bridges. Such local approach is suitable to study reciprocal processes on general countable graphs. As application of our characterization, we considered several interesting graphs, such as lattices, planar graphs, the complete graph, and the hypercube. Finally, we obtain some first results about concentration of measure implied by lower bounds on the reciprocal characteristics. N2 - Diese Dissertation behandelt die reziproke zufällige Prozesse mit Sprüngen. Gegeben eine zeitkontinuierliche Markovkette als Referenzdynamik, ist die assoziierte reziproke Klasse die Menge aller Wahrscheinlichkeiten auf dem Pfadraum, die als eine Mischung ihrer Brücken geschrieben werden kann. Reziproke Prozesse zeichnen sich durch eine Form der bedingten Unabhängigkeit aus, die die Markoveigenschaft verallgemeinert. Ursprünglich ist diese Idee auf Schrödinger zurückzuführen, der nach einer probabilistischen Interpretation für die Quantenmechanik suchte. Einer reziproken Klasse wird eine Familie reziproker Charakteristiken assoziiert. Dies sind Raum-Zeit Abbildungen, die die reziproke Klasse eindeutig definieren. Wir berechnen diese Charakteristiken explizit und unterteilen sie in zwei Typen: Bogen-Charakteristiken und Kreis-Charakteristiken. Zusätzlich erhalten wir ein klares Kriterium zur Prüfung wann die Brücken von zwei verschiedenen Markovketten übereinstimmen. Wir beschreiben auf zwei verschiedene Arten reziproken Klasse und berücksichtigen auch ihre nicht-Markov Elemente. Die erste Charakterisierung basiert auf einem pfadweisen Ansatz, während die zweite kurzzeit Asymptotik benutzt. Der erste Ansatz liefert eine Familie funktionaler Gleichungen deren einzige Lösungen die Elemente der reziproken Klasse sind. Die Gleichungen können als partielle Integration auf dem Pfadraum mit einem Ableitungsoperator, der eine St¨orung der Pfade durch zusätzliche zufällige Kreise hervorruft, interpretiert werden. Die Konstruktion dieser Gleichungen benötigt eine geometrische Analyse des Problems. Wir behandeln außerdem die Fragestellung einer scharfen Charakterisierung und zeigen interessante Verbindungen zur diskreten Geometrie. Beispiele, für die wir eine solche Formel finden konnten, sind für Zählprozesse und für Irrfahrte auf abelschen Gruppen, in denen die Menge der Kreise eine Gruppenstruktur erweist. Zusätzlich zu diesem globalen Zugang, erforschen wir eine lokale Beschreibung durch die Analyse des kurzfristigen Verhaltens eines reziproken Prozesses. Analog zur Markoveigenschaft und kurzzeit Entwicklung ihrer Übergangswahrscheinlichkeit Markovketten charakterisieren, zeigen wir, dass eine reziproke Klasse charakterisiert werden kann indem wir ihre reziproke Eigenschaft und zwei Familien von Kurzzeit Entwicklungen der Brücken voraussetzen. Solche lokalen Ansatz ist geeignet, um Sprungprozesse auf allgemeine zählbaren Graphen zu studieren. Als Beispiele unserer Charakterisierung, betrachten wir Gitter, planare Graphen, komplette Graphen und die Hyperwürfel. Zusätzlich präsentieren wir erste Ergebnisse über Maßenkonzentration eines reziproken Prozesses, als Konsequenz unterer Schranken seiner Charakteristiken. N2 - In questa tesi si studiano le classi reciproche delle catene di Markov. Data una catena di Markov a tempo continuo su uno spazio numerabile, che svolge il ruolo di dinamica di riferimento, la sua classe reciproca é costituita da tutte le leggi sullo spazio dei cammini che si possono scrivere come un miscuglio dei ponti della legge di riferimento. Questi processi stocastici godono di una propriet`a di independenza condizionale che generalizza la proprietá di Markov ed é ispirata ad un’idea avuta da Schrödinger nel tentativo di derivare un’interpretazione stocastica della meccanica quantistica. A ciascuna classe reciproca é associato un insieme di caratteristiche reciproche. Una caratteristica reciproca é una proprietá della dinamica di riferimento che viene trasmessa a tutti gli elementi della classe, e viene espressa matematicamente da un opportuna combinazione di funzionali del generatore della catena di riferimento. Nella tesi, le caratteristiche vengono calcolate esplicitamente e suddivise in due famiglie principali: le caratteristiche di arco e le caratteristice di ciclo. Come sottoprodotto, otteniamo un criterio esplicito per decidere quando due catene di Markov hanno gli stessi ponti. A partire dalle caratteristiche reciproche, vengono proposte due caratterizzazioni della classe reciproca, compresi i suoi elementi non Markoviani. La prima é basata su un approccio traiettoriale, mentre la seconda si basa sul comportamento asintotico locale dei processi reciproci. Utilizzando il primo approccio, si ottiene una famiglia di equazioni funzionali che ammette come soluzioni tutti e soli gli elementi della classe reciproca. Queste equazioni sono integrazioni per parti sullo spazio dei cammini associate ad operatori differenziali che perturbano le traiettorie del processo canonico con l’aggiunta di loops casuali. Nella costruzione di queste equazioni si impiegano tecniche di geometria discreta, stabilendo un interessante collegamento con risultati recenti in questo campo. Le caratterizzazioni ottenute sono ottimali, in quanto impiegano un numero minimo di equazioni per descrivere la classe. Con questo metodo vengono studiate le classi reciproche di processi di conteggio, di camminate aleatorie su gruppi Abeliani, dove l’insieme dei cicli gode anch’esso di una struttura di gruppo. Il secondo approccio, di natura locale, si basa su stime asintotiche in tempo corto. É ben noto come una catena di Markov sia caratterizzata dal fatto di possedere la propriet`a di Markov e dal comportamento in tempo corto delle probabilitá di transizione. In questa tesi mostriamo che una classe reciproca é caratterizzata dalla propriet`a reciproca, e da due famiglie di stime asintotiche per i ponti del processo. Questo approccio locale permette di analizzare le classi reciproche di passeggiate aleatorie su grafi generali. Come applicazione dei risultati teorici, consideriamo i lattici, i grafi planari, il grafo completo, e l’ipercubo discreto. Infine, otteniamo delle stime di concentrazione della misura e sul comportamento globale dei ponti, sotto l’ipotesi di un limite inferiore per le caratteristiche reciproche. KW - reciprocal characteristics KW - random walks on graphs KW - reziproke Invarianten KW - reziproke Klassen KW - Schrödinger Problem KW - partielle Integration auf dem Pfadraum KW - Irrfahrten auf Graphen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82255 ER - TY - INPR A1 - Gibali, Aviv A1 - Shoikhet, David A1 - Tarkhanov, Nikolai Nikolaevich T1 - On the convergence of continuous Newton method N2 - In this paper we study the convergence of continuous Newton method for solving nonlinear equations with holomorphic mappings in complex Banach spaces. Our contribution is based on a recent progress in the geometric theory of spirallike functions. We prove convergence theorems and illustrate them by numerical simulations. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 4 (2015)10 KW - Newton method KW - spirallike function Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81537 SN - 2193-6943 VL - 4 IS - 10 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Kaganova, Ekaterina T1 - Das Lehrpotential von Schulbuchlehrtexten im Fach Mathematik N2 - Das Schulbuch ist ein etablierter und bedeutender Bestandteil des Mathematikunterrichts. Lehrer nutzen es, um ihren Unterricht vorzubereiten und/oder zu gestalten; Schüler, um in selbigem zu lernen und zu bestehen, vielleicht sogar aus eigenem Interesse; Eltern, um sich darüber zu informieren, was ihr Kind eigentlich können soll und wie sie ihm gegebenenfalls helfen können. Darüber hinaus ist das Schulbuch ein markantes gesellschaftliches Produkt, dessen Zweck es ist, das Unterrichtsgeschehen zu steuern und zu beeinflussen. Damit ist es auch ein Anzeiger dafür, was und wie im Mathematikunterricht gelehrt werden sollte und wird. Die Lehrtexte als zentrale Bestandteile von Schulbüchern verweisen in diesem Zusammenhang insbesondere auf die Phasen der Einführung neuen Lernstoffs. Daraus legitimiert sich übergreifend die Fragestellung, was und wie (gut) Mathematikschulbuchlehrtexte lehren bzw. was und wie (gut) adressierte Schüler aus ihnen (selbstständig) lernen, d.h. Wissen erwerben können. Angesichts der komplexen und vielfältigen Bedeutung von Schulbuchlehrtexten verwundert es, dass die mathematikdidaktische Forschung bislang wenig Interesse an ihnen zeigt: Es fehlen sowohl eine theoretische Konzeption der Größe ‚Lehrpotential eines schulmathematischen Lehrtextes‘ als auch ein analytisches Verfahren, um das anhand eines Mathematikschulbuchlehrtextes Verstehbare und Lernbare zu ermitteln. Mit der vorliegenden Arbeit wird sowohl in theoretisch-methodologischer als auch in empirischer Hinsicht der Versuch unternommen, diesen Defiziten zu begegnen. Dabei wird das ‚Lehrpotential eines Mathematikschulbuchlehrtextes‘ auf der Grundlage der kognitionspsychologischen Schematheorie und unter Einbeziehung textlinguistischer Ansätze als eine textimmanente und analytisch zugängliche Größe konzipiert. Anschließend wird das Lehrpotential von fünf Lehrtexten ausgewählter aktueller Schulbücher der Jahrgangsstufen 6 und 7 zu den Inhaltsbereichen ‚Brüche‘ und ‚lineare Funktionen‘ analysiert. Es zeigt sich, dass die untersuchten Lehrtexte aus deutschen Schulbüchern für Schüler sehr schwer verständlich sind, d.h. es ist kompliziert, einigen Teiltexten im Rahmen des Gesamttextes einen Sinn abzugewinnen. Die Lehrtexte sind insbesondere dann kaum sinnhaft lesbar, wenn ein Schüler versucht, die mitgeteilten Sachverhalte zu verstehen, d.h. Antworten auf die Fragen zu erhalten, warum ein mathematischer Sachverhalt gerade so und nicht anders ist, wozu ein neuer Sachverhalt/Begriff gebraucht wird, wie das Neue mit bereits Bekanntem zusammenhängt usw. Deutlich zugänglicher und sinnhafter erscheinen die Mathematikschulbuchlehrtexte hingegen unter der Annahme, dass ihre zentrale Botschaft in der Mitteilung besteht, welche Aufgabenstellungen in der jeweiligen Lehreinheit vorkommen und wie man sie bearbeitet. Demnach können Schüler anhand dieser Lehrtexte im Wesentlichen lernen, wie sie mit mathematischen Zeichen, die für sie kaum etwas bezeichnen, umgehen sollen. Die hier vorgelegten Analyseergebnisse gewinnen in einem soziologischen Kontext an Tragweite und Brisanz. So lässt sich aus ihnen u.a. die These ableiten, dass die analysierten Lehrtexte keine ‚unglücklichen‘ Einzelfälle sind, sondern dass die ‚Aufgabenorientierung in einem mathematischen Gewand‘ ein Charakteristikum typischer (deutscher) Mathematikschulbuchlehrtexte und – noch grundsätzlicher – einen Wesenszug typischer schulmathematischer Kommunikation darstellt. N2 - The research question of this study is what and how (well) explanatory texts in mathematics schoolbooks teach. Therefore, I develop the construct of the 'teaching potential of an explanatory text in a mathematics schoolbook' as a parameter which is immanent to the text and analytically accessible, incorporating approaches from text linguistics and the schema concept from cognitive psychology. Afterwards, I analyse the teaching potential of five explanatory texts from selected schoolbooks of the grades 6 and 7, focussing on the topics of 'fractions' and 'linear functions'. Eventually, I interpret the results of the study from a sociological perspective. T2 - Teaching potential of an explanatory text in a mathematics schoolbook KW - Schulbuch KW - Lehrtext KW - Lehrpotential KW - Mathematics textbooks KW - Textbook research KW - Textbook analysis Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80705 ER - TY - BOOK A1 - Kulik, Alexei Michajlovič ED - Roelly, Sylvie T1 - Introduction to Ergodic rates for Markov chains and processes BT - with applications to limit theorems N2 - The present lecture notes aim for an introduction to the ergodic behaviour of Markov Processes and addresses graduate students, post-graduate students and interested readers. Different tools and methods for the study of upper bounds on uniform and weak ergodic rates of Markov Processes are introduced. These techniques are then applied to study limit theorems for functionals of Markov processes. This lecture course originates in two mini courses held at University of Potsdam, Technical University of Berlin and Humboldt University in spring 2013 and Ritsumameikan University in summer 2013. Alexei Kulik, Doctor of Sciences, is a Leading researcher at the Institute of Mathematics of Ukrainian National Academy of Sciences. T3 - Lectures in pure and applied mathematics - 2 KW - Markov processes KW - Markovprozesse KW - long-time behaviour KW - Langzeitverhalten KW - ergodic rates KW - Konvergenzrate Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-79360 SN - 978-3-86956-338-1 SN - 2199-4951 SN - 2199-496X PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Dereudre, David A1 - Mazzonetto, Sara A1 - Roelly, Sylvie T1 - An explicit representation of the transition densities of the skew Brownian motion with drift and two semipermeable barriers N2 - In this paper we obtain an explicit representation of the transition density of the one-dimensional skew Brownian motion with (a constant drift and) two semipermeable barriers. Moreover we propose a rejection method to simulate this density in an exact way. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 4 (2015) 9 KW - skew Brownian motion KW - semipermeable barriers KW - distorted Brownian motion KW - local time KW - rejection sampling KW - exact simulation Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80613 SN - 2193-6943 VL - 4 IS - 9 PB - Universitätsverlag Potsdam CY - Potsdam ER -