TY - THES A1 - Perera, Upeksha T1 - Solutions of direct and inverse Sturm–Liouville problems T1 - Lösungen von direkten und inversen Sturm-Liouville-Problemen N2 - Lie group method in combination with Magnus expansion is utilized to develop a universal method applicable to solving a Sturm–Liouville Problem (SLP) of any order with arbitrary boundary conditions. It is shown that the method has ability to solve direct regular and some singular SLPs of even orders (tested up to order eight), with a mix of boundary conditions (including non-separable and finite singular endpoints), accurately and efficiently. The present technique is successfully applied to overcome the difficulties in finding suitable sets of eigenvalues so that the inverse SLP problem can be effectively solved. Next, a concrete implementation to the inverse Sturm–Liouville problem algorithm proposed by Barcilon (1974) is provided. Furthermore, computational feasibility and applicability of this algorithm to solve inverse Sturm–Liouville problems of order n=2,4 is verified successfully. It is observed that the method is successful even in the presence of significant noise, provided that the assumptions of the algorithm are satisfied. In conclusion, this work provides methods that can be adapted successfully for solving a direct (regular/singular) or inverse SLP of an arbitrary order with arbitrary boundary conditions. N2 - Die Lie-Gruppen-Methode in Kombination mit der Magnus-Expansion wird verwendet, um eine universelle Methode zu entwickeln, die zur Lösung eines Sturm-Liouville-Problems (SLP) beliebiger Ordnung mit beliebigen Randbedingungen anwendbar ist. Es wird gezeigt, dass die Methode in der Lage ist, direkte reguläre und einige singuläre SLPs gerader Ordnung (getestet bis zur 8. Ordnung) mit einer Mischung von Randbedingungen (einschließlich nicht trennbarer und endlicher singulärer Endpunkte) genau und effizient zu lösen. Die vorliegende Technik wird erfolgreich angewendet, um die Schwierigkeiten beim Finden geeigneter Sätze von Eigenwerten zu überwinden, so dass das inverse SLP-Problem effektiv gelöst werden kann. Als nächstes wird eine konkrete Implementierung des von Barcilon (1974) vorgeschlagenen inversen Sturm-Liouville-Problemalgorithmus bereitgestellt. Weiterhin wird die rechnerische Durchführbarkeit und Anwendbarkeit dieses Algorithmus zur Lösung inverser Sturm-Liouville-Probleme der Ordnung n=2,4 erfolgreich verifiziert. Es wird beobachtet, dass das Verfahren selbst bei Vorhandensein von signifikantem Rauschen erfolgreich ist, vorausgesetzt, dass die Annahmen des Algorithmus erfüllt sind. Zusammenfassend stellt diese Arbeit Methoden zur Verfügung, die erfolgreich zur Lösung eines direkten (regulär/singulären) oder inversen SLP beliebiger Ordnung mit beliebigen Randbedingungen angepasst werden können. KW - Sturm-Liouville problem KW - Inverse Sturm-Liouville problem KW - Higher-order Sturm-Liouville problem KW - Sturm-Liouville-Problem höherer Ordnung KW - Inverses Sturm-Liouville-Problem KW - Sturm-Liouville-Problem Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-530064 ER - TY - THES A1 - Engelhardt, Max Angel Ronan T1 - Zwischen Simulation und Beweis - eine mathematische Analyse des Bienaymé-Galton-Watson-Prozesses und sein Einsatz innerhalb des Mathematikunterrichts T1 - Between simulation and proof - a mathematical analysis of the Bienaymé-Galton-Watson-process and its application in mathematics lessons N2 - Die Bienaymé-Galton-Watson Prozesse können für die Untersuchung von speziellen und sich entwickelnden Populationen verwendet werden. Die Populationen umfassen Individuen, welche sich identisch, zufällig, selbstständig und unabhängig voneinander fortpflanzen und die jeweils nur eine Generation existieren. Die n-te Generation ergibt sich als zufällige Summe der Individuen der (n-1)-ten Generation. Die Relevanz dieser Prozesse begründet sich innerhalb der Historie und der inner- und außermathematischen Bedeutung. Die Geschichte der Bienaymé-Galton-Watson-Prozesse wird anhand der Entwicklung des Konzeptes bis heute dargestellt. Dabei werden die Wissenschaftler:innen verschiedener Disziplinen angeführt, die Erkenntnisse zu dem Themengebiet beigetragen und das Konzept in ihren Fachbereichen angeführt haben. Somit ergibt sich die außermathematische Signifikanz. Des Weiteren erhält man die innermathematische Bedeutsamkeit mittels des Konzeptes der Verzweigungsprozesse, welches auf die Bienaymé-Galton-Watson Prozesse zurückzuführen ist. Die Verzweigungsprozesse stellen eines der aussagekräftigsten Modelle für die Beschreibung des Populationswachstums dar. Darüber hinaus besteht die derzeitige Wichtigkeit durch die Anwendungsmöglichkeit der Verzweigungsprozesse und der Bienaymé-Galton-Watson Prozesse innerhalb der Epidemiologie. Es werden die Ebola- und die Corona-Pandemie als Anwendungsfelder angeführt. Die Prozesse dienen als Entscheidungsstütze für die Politik und ermöglichen Aussagen über die Auswirkungen von Maßnahmen bezüglich der Pandemien. Neben den Prozessen werden ebenfalls der bedingte Erwartungswert bezüglich diskreter Zufallsvariablen, die wahrscheinlichkeitserzeugende Funktion und die zufällige Summe eingeführt. Die Konzepte vereinfachen die Beschreibung der Prozesse und bilden somit die Grundlage der Betrachtungen. Außerdem werden die benötigten und weiterführenden Eigenschaften der grundlegenden Themengebiete und der Prozesse aufgeführt und bewiesen. Das Kapitel erreicht seinen Höhepunkt bei dem Beweis des Kritikalitätstheorems, wodurch eine Aussage über das Aussterben des Prozesses in verschiedenen Fällen und somit über die Aussterbewahrscheinlichkeit getätigt werden kann. Die Fälle werden anhand der zu erwartenden Anzahl an Nachkommen eines Individuums unterschieden. Es zeigt sich, dass ein Prozess bei einer zu erwartenden Anzahl kleiner gleich Eins mit Sicherheit ausstirbt und bei einer Anzahl größer als Eins, die Population nicht in jedem Fall aussterben muss. Danach werden einzelne Beispiele, wie der linear fractional case, die Population von Fibroblasten (Bindegewebszellen) von Mäusen und die Entstehungsfragestellung der Prozesse, angeführt. Diese werden mithilfe der erlangten Ergebnisse untersucht und einige ausgewählte zufällige Dynamiken werden im nachfolgenden Kapitel simuliert. Die Simulationen erfolgen durch ein in Python erstelltes Programm und werden mithilfe der Inversionsmethode realisiert. Die Simulationen stellen beispielhaft die Entwicklungen in den verschiedenen Kritikalitätsfällen der Prozesse dar. Zudem werden die Häufigkeiten der einzelnen Populationsgrößen in Form von Histogrammen angebracht. Dabei lässt sich der Unterschied zwischen den einzelnen Fällen bestätigen und es wird die Anwendungsmöglichkeit der Bienaymé-Galton-Watson Prozesse bei komplexeren Problemen deutlich. Histogramme bekräftigen, dass die einzelnen Populationsgrößen nur endlich oft vorkommen. Diese Aussage wurde von Galton aufgeworfen und in der Extinktions-Explosions-Dichotomie verwendet. Die dargestellten Erkenntnisse über das Themengebiet und die Betrachtung des Konzeptes werden mit einer didaktischen Analyse abgeschlossen. Die Untersuchung beinhaltet die Berücksichtigung der Fundamentalen Ideen, der Fundamentalen Ideen der Stochastik und der Leitidee „Daten und Zufall“. Dabei ergibt sich, dass in Abhängigkeit der gewählten Perspektive die Anwendung der Bienaymé-Galton-Watson Prozesse innerhalb der Schule plausibel ist und von Vorteil für die Schüler:innen sein kann. Für die Behandlung wird exemplarisch der Rahmenlehrplan für Berlin und Brandenburg analysiert und mit dem Kernlehrplan Nordrhein-Westfalens verglichen. Die Konzeption des Lehrplans aus Berlin und Brandenburg lässt nicht den Schluss zu, dass die Bienaymé-Galton-Watson Prozesse angewendet werden sollten. Es lässt sich feststellen, dass die zugrunde liegende Leitidee nicht vollumfänglich mit manchen Fundamentalen Ideen der Stochastik vereinbar ist. Somit würde eine Modifikation hinsichtlich einer stärkeren Orientierung des Lehrplans an den Fundamentalen Ideen die Anwendung der Prozesse ermöglichen. Die Aussage wird durch die Betrachtung und Übertragung eines nordrhein-westfälischen Unterrichtsentwurfes für stochastische Prozesse auf die Bienaymé-Galton-Watson Prozesse unterstützt. Darüber hinaus werden eine Concept Map und ein Vernetzungspentagraph nach von der Bank konzipiert um diesen Aspekt hervorzuheben. N2 - The Bienaymé-Galton-Watson processes can be used to study special and developing populations. These populations include individuals that reproduce identically, randomly, separately, independently of each other, and which exist only for one generation. The n-th generation is the random sum of the individuals of the (n-1)-th generation. The relevance of these processes is based on their history and their significance in mathematical and extra-mathematical contexts. The history of the Bienaymé-Galton-Watson processes is illustrated by the development of the concept to the present day. Various scientists from different disciplines who have contributed to the topic in their respective fields are listed. This illustrates moreover the significance in extra-mathematical contexts. Furthermore, the inner- mathematical magnitude is obtained by means of the superordinate concept of branching processes, which can be traced back to the Bienaymé-Galton-Watson processes. These branching processes are one of the most significant models for describing population growth. In addition, the current importance arises from the applicability of branching processes and the Bienaymé-Galton-Watson processes within epidemiology. The Ebola and Corona pandemics are mentioned as fields of application. The processes serve as a basis for political decision-making and enable statements made on the impact of pandemic measures. In addition to the processes, the conditional expectation value for discrete random variables, the probability generating function and the random sum are also introduced. These concepts simplify the description of the processes and thus form the basis of the considerations. Also, the required and further properties of the basic topics and processes are listed and demonstrated. The chapter reaches its climax with the proof of the criticality theorem, whereby a statement can be made about the extinction of the process in different cases and thus about the extinction probability. These cases are distinguished based on the expected number of offspring from the individuals. It turns out that a process with an expected number of less than one certainly becomes extinct. On the contrary, a process with a number greater than one does not necessarily has to die out. Individual examples are then given, such as the linear fractional case, the population of fibroblasts (connective tissue cells) of mice and the question of origin. These are investigated using the results obtained and some selected random dynamics are simulated in the following chapter. The simulations are carried out by a Python self-written program and are realized using the inversion method. These simulations exemplify the developments in the different criticality cases of the processes. Besides, the frequencies of the individual population sizes are displayed in the form of histograms. The difference between the individual cases can be confirmed and the analysis of the fibroblasts reveals the applicability of the Bienaymé-Galton-Watson processes to more complex problems. Histograms confirm that the individual population sizes occur only finitely often. This statement was raised by Galton and is used in the extinction-explosion dichotomy. The presented findings about the topic and the consideration of the concept are concluded with an analysis of didactic-background. This involves the fundamental ideas, the fundamental ideas of stochastics and the guiding idea of data and chance. Depending on the chosen perspective, the use of the Bienaymé-Galton-Watson processes within the school is plausible and may be beneficial for the students. For the treatment, the Rahmenlehrplan for Berlin and Brandenburg is analysed and compared with the core curriculum of Nord Rhine-Westphalia as an example. The design of the curriculum of Berlin and Brandenburg does not allow the conclusion of applying the Bienaymé-Galton-Watson processes. It can be seen that the underlying guiding idea is not fully compatible with some fundamental ideas of stochastics. Thus, a modification to the curriculum more oriented towards these fundamental ideas would allow the application of the processes. This statement is supported by the observation and transfer of a North Rhine-Westphalian teaching design for stochastic processes to the Bienaymé-Galton-Watson processes by means of chain letters. In addition, a concept map and a Vernetzungspentagraph by von der Bank are designed to highlight this aspect. KW - Bienaymé-Galton-Watson Prozess KW - Kritikalitätstheorem KW - Verzweigungsprozess KW - Populationen KW - linear fractional case KW - bedingter Erwartungswert KW - zufällige Summe KW - Simulation KW - wahrscheinlichkeitserzeugende Funktion KW - Historie der Verzweigungsprozesse KW - Instabilität des Prozesses KW - Aussterbewahrscheinlichkeit KW - Geometrische Reproduktionsverteilung KW - Fibroblasten KW - Entstehungsfragestellung KW - Fundamentale Ideen KW - Leitidee „Daten und Zufall“ KW - Rahmenlehrplan KW - Markov-Ketten KW - Corona KW - Bienaymé-Galton-Watson process KW - criticality theorem KW - branching process KW - populations KW - linear fractional case KW - conditional expectation value KW - random sum KW - simulation KW - probability generating function KW - history of branching processes KW - instability of the process KW - extinction probability KW - geometric reproduction distribution KW - fibroblasts KW - question of origin KW - fundamental ideas KW - guiding idea “Daten und Zufall” KW - Rahmenlehrplan KW - Markov chains KW - Corona Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-524474 ER - TY - THES A1 - Dahl, Dorothee Sophie T1 - Let's have FUN! Gamification im Mathematikunterricht N2 - Spiele und spieltypische Elemente wie das Sammeln von Treuepunkten sind aus dem Alltag kaum wegzudenken. Zudem werden sie zunehmend in Unternehmen oder in Lernumgebungen eingesetzt. Allerdings ist die Methode Gamification bisher für den pädagogischen Kontext wenig klassifiziert und für Lehrende kaum zugänglich gemacht worden. Daher zielt diese Bachelorarbeit darauf ab, eine systematische Strukturierung und Aufarbeitung von Gamification sowie innovative Ansätze für die Verwendung spieltypischer Elemente im Unterricht, konkret dem Mathematikunterricht, zu präsentieren. Dies kann eine Grundlage für andere Fachgebiete, aber auch andere Lehrformen bieten und so die Umsetzbarkeit von Gamification in eigenen Lehrveranstaltungen aufzeigen. In der Arbeit wird begründet, weshalb und mithilfe welcher Elemente Gamification die Motivation und Leistungsbereitschaft der Lernenden langfristig erhöhen, die Sozial- und Personalkompetenzen fördern sowie die Lernenden zu mehr Aktivität anregen kann. Zudem wird Gamification explizit mit grundlegenden mathematikdidaktischen Prinzipien in Verbindung gesetzt und somit die Relevanz für den Mathematikunterricht hervorgehoben. Anschließend werden die einzelnen Elemente von Gamification wie Punkte, Level, Abzeichen, Charaktere und Rahmengeschichte entlang einer eigens für den pädagogischen Kontext entwickelten Klassifikation „FUN“ (Feedback – User specific elements – Neutral elements) schematisch beschrieben, ihre Funktionen und Wirkung dargestellt sowie Einsatzmöglichkeiten im Unterricht aufgezeigt. Dies beinhaltet Ideen zu lernförderlichem Feedback, Differenzierungsmöglichkeiten und Unterrichtsrahmengestaltung, die in Lehrveranstaltungen aller Art umsetzbar sein können. Die Bachelorarbeit umfasst zudem ein spezifisches Beispiel, einen Unterrichtsentwurf einer gamifizierten Mathematikstunde inklusive des zugehörigen Arbeitsmaterials, anhand dessen die Verwendung von Gamification deutlich wird. Gamification offeriert oftmals Vorteile gegenüber dem traditionellen Unterricht, muss jedoch wie jede Methode an den Inhalt und die Zielgruppe angepasst werden. Weiterführende Forschung könnte sich mit konkreten motivationalen Strukturen, personenspezifischen Unterschieden sowie mit mathematischen Inhalten wie dem Problemlösen oder dem Wechsel zwischen verschiedenen Darstellungen hinsichtlich gamifizierter Lehrformen beschäftigen. N2 - Games and game-typical elements such as collecting points are an indispensable part of everyday life. In addition, they are used increasingly in companies or in learning environments. However, the method of gamification has been little classified for the pedagogical context and it has hardly been made accessible to teachers so far. Therefore, this bachelor’s thesis aims to present a systematic structure and reconditioning of gamification as well as innovative approaches for the implementation of game-typical elements in educational contexts, specifically in teaching mathematics. This thesis can provide a basis for other subject areas, but also for other forms of teaching and thus demonstrate the feasibility of gamification in own courses. The paper explains why and with which elements gamification can increase learners' motivation and willingness to perform in the long term, promote social and personal competences and encourage learners to become more active. Moreover, gamification is explicitly linked to basic mathematics didactic principles and thus emphasizes its relevance for mathematics teaching. Afterwards the individual elements of gamification such as points, levels, badges, characters and frame story are described schematically according to the classification “FUN” (Feedback – User specific elements – Neutral elements), developed especially for the educational context in the thesis. This includes ideas for learn-enhancing feedback, opportunities for differentiation and the design of teaching frameworks that can be implemented in courses of all kinds. The bachelor’s thesis also includes a specific example, a lesson plan for a gamified mathematics lesson including the associated working material, which illustrates the use of gamification. Gamification often offers advantages over traditional teaching, but like any method, it must be adapted to the content and the target group. Further research could focus on specific motivational structures, individual differences of students, and mathematical contents such as problem solving or changing representations regarding gamified teaching. KW - Gamification KW - Spiel KW - Motivation KW - Methode KW - Unterrichtsmethode KW - Feedback KW - Innovation KW - Lernen KW - Mathematikdidaktik KW - Mathematikunterricht KW - gamification KW - game KW - game-based KW - motivation KW - learning KW - feedback KW - method KW - teaching KW - teaching methods KW - didactics of mathematics Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-515937 ER - TY - THES A1 - Maier, Corinna T1 - Bayesian data assimilation and reinforcement learning for model-informed precision dosing in oncology T1 - Bayes’sche Datenassimilation und Reinforcement Learning für die modellinformierte Präzisionsdosierung in der Onkologie N2 - While patients are known to respond differently to drug therapies, current clinical practice often still follows a standardized dosage regimen for all patients. For drugs with a narrow range of both effective and safe concentrations, this approach may lead to a high incidence of adverse events or subtherapeutic dosing in the presence of high patient variability. Model-informedprecision dosing (MIPD) is a quantitative approach towards dose individualization based on mathematical modeling of dose-response relationships integrating therapeutic drug/biomarker monitoring (TDM) data. MIPD may considerably improve the efficacy and safety of many drug therapies. Current MIPD approaches, however, rely either on pre-calculated dosing tables or on simple point predictions of the therapy outcome. These approaches lack a quantification of uncertainties and the ability to account for effects that are delayed. In addition, the underlying models are not improved while applied to patient data. Therefore, current approaches are not well suited for informed clinical decision-making based on a differentiated understanding of the individually predicted therapy outcome. The objective of this thesis is to develop mathematical approaches for MIPD, which (i) provide efficient fully Bayesian forecasting of the individual therapy outcome including associated uncertainties, (ii) integrate Markov decision processes via reinforcement learning (RL) for a comprehensive decision framework for dose individualization, (iii) allow for continuous learning across patients and hospitals. Cytotoxic anticancer chemotherapy with its major dose-limiting toxicity, neutropenia, serves as a therapeutically relevant application example. For more comprehensive therapy forecasting, we apply Bayesian data assimilation (DA) approaches, integrating patient-specific TDM data into mathematical models of chemotherapy-induced neutropenia that build on prior population analyses. The value of uncertainty quantification is demonstrated as it allows reliable computation of the patient-specific probabilities of relevant clinical quantities, e.g., the neutropenia grade. In view of novel home monitoring devices that increase the amount of TDM data available, the data processing of sequential DA methods proves to be more efficient and facilitates handling of the variability between dosing events. By transferring concepts from DA and RL we develop novel approaches for MIPD. While DA-guided dosing integrates individualized uncertainties into dose selection, RL-guided dosing provides a framework to consider delayed effects of dose selections. The combined DA-RL approach takes into account both aspects simultaneously and thus represents a holistic approach towards MIPD. Additionally, we show that RL can be used to gain insights into important patient characteristics for dose selection. The novel dosing strategies substantially reduce the occurrence of both subtherapeutic and life-threatening neutropenia grades in a simulation study based on a recent clinical study (CEPAC-TDM trial) compared to currently used MIPD approaches. If MIPD is to be implemented in routine clinical practice, a certain model bias with respect to the underlying model is inevitable, as the models are typically based on data from comparably small clinical trials that reflect only to a limited extent the diversity in real-world patient populations. We propose a sequential hierarchical Bayesian inference framework that enables continuous cross-patient learning to learn the underlying model parameters of the target patient population. It is important to note that the approach only requires summary information of the individual patient data to update the model. This separation of the individual inference from population inference enables implementation across different centers of care. The proposed approaches substantially improve current MIPD approaches, taking into account new trends in health care and aspects of practical applicability. They enable progress towards more informed clinical decision-making, ultimately increasing patient benefits beyond the current practice. N2 - Obwohl Patienten sehr unterschiedlich auf medikamentöse Therapien ansprechen, werden in der klinischen Praxis häufig noch standardisierte Dosierungsschemata angewendet. Bei Arzneimitteln mit engen therapeutischen Fenstern zwischen minimal wirksamen und toxischen Konzentrationen kann dieser Ansatz bei hoher interindividueller Variabilität zu häufigem Auftreten von Toxizitäten oder subtherapeutischen Konzentrationen führen. Die modellinformierte Präzisionsdosierung (MIPD) ist ein quantitativer Ansatz zur Dosisindividualisierung, der auf der mathematischen Modellierung von Dosis-Wirkungs-Beziehungen beruht und Daten aus dem therapeutischen Drug/Biomarker-Monitoring (TDM) einbezieht. Die derzeitigen MIPD-Ansätze verwenden entweder Dosierungstabellen oder einfache Punkt-Vorhersagen des Therapieverlaufs. Diesen Ansätzen fehlt eine Quantifizierung der Unsicherheiten, verzögerte Effekte werden nicht berücksichtigt und die zugrunde liegenden Modelle werden im Laufe der Anwendung nicht verbessert. Daher sind die derzeitigen Ansätze nicht ideal für eine fundierte klinische Entscheidungsfindung auf Grundlage eines differenzierten Verständnisses des individuell vorhergesagten Therapieverlaufs. Das Ziel dieser Arbeit ist es, mathematische Ansätze für das MIPD zu entwickeln, die (i) eine effiziente, vollständig Bayes’sche Vorhersage des individuellen Therapieverlaufs einschließlich der damit verbundenen Unsicherheiten ermöglichen, (ii) Markov-Entscheidungsprozesse mittels Reinforcement Learning (RL) in einen umfassenden Entscheidungsrahmen zur Dosisindividualisierung integrieren, und (iii) ein kontinuierliches Lernen zwischen Patienten erlauben. Die antineoplastische Chemotherapie mit ihrer wichtigen dosislimitierenden Toxizität, der Neutropenie, dient als therapeutisch relevantes Anwendungsbeispiel. Für eine umfassendere Therapievorhersage wenden wir Bayes’sche Datenassimilationsansätze (DA) an, um TDM-Daten in mathematische Modelle der Chemotherapie-induzierten Neutropenie zu integrieren. Wir zeigen, dass die Quantifizierung von Unsicherheiten einen großen Mehrwert bietet, da sie eine zuverlässige Berechnung der Wahrscheinlichkeiten relevanter klinischer Größen, z.B. des Neutropeniegrades, ermöglicht. Im Hinblick auf neue Home-Monitoring-Geräte, die die Anzahl der verfügbaren TDM-Daten erhöhen, erweisen sich sequenzielle DA-Methoden als effizienter und erleichtern den Umgang mit der Unsicherheit zwischen Dosierungsereignissen. Basierend auf Konzepten aus DA und RL, entwickeln wir neue Ansätze für MIPD. Während die DA-geleitete Dosierung individualisierte Unsicherheiten in die Dosisauswahl integriert, berücksichtigt die RL-geleitete Dosierung verzögerte Effekte der Dosisauswahl. Der kombinierte DA-RL-Ansatz vereint beide Aspekte und stellt somit einen ganzheitlichen Ansatz für MIPD dar. Zusätzlich zeigen wir, dass RL Informationen über die für die Dosisauswahl relevanten Patientencharakteristika liefert. Der Vergleich zu derzeit verwendeten MIPD Ansätzen in einer auf einer klinischen Studie (CEPAC-TDM-Studie) basierenden Simulationsstudie zeigt, dass die entwickelten Dosierungsstrategien das Auftreten subtherapeutischer Konzentrationen sowie lebensbedrohlicher Neutropenien drastisch reduzieren. Wird MIPD in der klinischen Routine eingesetzt, ist eine gewisse Modellverzerrung unvermeidlich. Die Modelle basieren in der Regel auf Daten aus vergleichsweise kleinen klinischen Studien, die die Heterogenität realer Patientenpopulationen nur begrenzt widerspiegeln. Wir schlagen einen sequenziellen hierarchischen Bayes’schen Inferenzrahmen vor, der ein kontinuierliches patientenübergreifendes Lernen ermöglicht, um die zugrunde liegenden Modellparameter der Ziel-Patientenpopulation zu erlernen. Zur Aktualisierung des Modells erfordert dieser Ansatz lediglich zusammenfassende Informationen der individuellen Patientendaten, was eine Umsetzung über verschiedene Versorgungszentren hinweg erlaubt. Die vorgeschlagenen Ansätze verbessern die derzeitigen MIPD-Ansätze erheblich, wobei neue Trends in der Gesundheitsversorgung und Aspekte der praktischen Anwendbarkeit berücksichtigt werden. Damit stellen sie einen Fortschritt in Richtung einer fundierteren klinischen Entscheidungsfindung dar. KW - data assimilation KW - Datenassimilation KW - reinforcement learning KW - model-informed precision dosing KW - pharmacometrics KW - oncology KW - modellinformierte Präzisionsdosierung KW - Onkologie KW - Pharmakometrie KW - Reinforcement Learning Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-515870 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Hübner, Andrea T1 - Ein multityper Verzweigungsprozess als Modell zur Untersuchung der Ausbreitung von Covid-19 T1 - Modeling the spread of Covid-19 using a multitype branching process N2 - Im Zuge der Covid-19 Pandemie werden zwei Werte täglich diskutiert: Die zuletzt gemeldete Zahl der neu Infizierten und die sogenannte Reproduktionsrate. Sie gibt wieder, wie viele weitere Menschen ein an Corona erkranktes Individuum im Durchschnitt ansteckt. Für die Schätzung dieses Wertes gibt es viele Möglichkeiten - auch das Robert Koch-Institut gibt in seinem täglichen Situationsbericht stets zwei R-Werte an: Einen 4-Tage-R-Wert und einen weniger schwankenden 7-Tage-R-Wert. Diese Arbeit soll eine weitere Möglichkeit vorstellen, einige Aspekte der Pandemie zu modellieren und die Reproduktionsrate zu schätzen. In der ersten Hälfte der Arbeit werden die mathematischen Grundlagen vorgestellt, die man für die Modellierung benötigt. Hierbei wird davon ausgegangen, dass der Leser bereits ein Basisverständnis von stochastischen Prozessen hat. Im Abschnitt Grundlagen werden Verzweigungsprozesse mit einigen Beispielen eingeführt und die Ergebnisse aus diesem Themengebiet, die für diese Arbeit wichtig sind, präsentiert. Dabei gehen wir zuerst auf einfache Verzweigungsprozesse ein und erweitern diese dann auf Verzweigungsprozesse mit mehreren Typen. Um die Notation zu erleichtern, beschränken wir uns auf zwei Typen. Das Prinzip lässt sich aber auf eine beliebige Anzahl von Typen erweitern. Vor allem soll die Wichtigkeit des Parameters λ herausgestellt werden. Dieser Wert kann als durchschnittliche Zahl von Nachfahren eines Individuums interpretiert werden und bestimmt die Dynamik des Prozesses über einen längeren Zeitraum. In der Anwendung auf die Pandemie hat der Parameter λ die gleiche Rolle wie die Reproduktionsrate R. In der zweiten Hälfte dieser Arbeit stellen wir eine Anwendung der Theorie über Multitype Verzweigungsprozesse vor. Professor Yanev und seine Mitarbeiter modellieren in ihrer Veröffentlichung Branching stochastic processes as models of Covid-19 epidemic development die Ausbreitung des Corona Virus' über einen Verzweigungsprozess mit zwei Typen. Wir werden dieses Modell diskutieren und Schätzer daraus ableiten: Ziel ist es, die Reproduktionsrate zu ermitteln. Außerdem analysieren wir die Möglichkeiten, die Dunkelziffer (die Zahl nicht gemeldeter Krankheitsfälle) zu schätzen. Wir wenden die Schätzer auf die Zahlen von Deutschland an und werten diese schließlich aus. N2 - During the Covid-19 pandemic, the discussion about the situation has been dominated by two numbers: the number of daily new infected individuals and the reproduction rate. The latter is the average number of people, one infected individual will infect with the disease. Because the number of registered infected individuals is generally not equal to the actual number of people who carry the Corona virus, many facts about the pandemic have to be estimated and can not be known for certain. Since the reproduction rate is an important parameter to signify the course of the Pandemic, many ways to estimate it have been developed. The Institute of Robert Koch in Germany uses two reproduction rates R in their daily reports: The 4-days-R-value and the less fluctuating 7-days-Rvalue. This master thesis will develop another model to estimate the R-value and other interesting aspects of the pandemic. The first part of this thesis is dedicated to the mathematical foundations needed to understand the model. The reader is expected to already have basic understanding of stochastic processes. In the section Grundlagen we will discuss branching processes and present the results of their theory that are important for our work. We start by introducing simple branching processes and expand the results to multitype branching processes. In service of a simpler notation we will only consider twotype branching processes, but the results can be used for any number of types. The importance of the parameter λ shall be stressed. It can be seen as the average number of descendants of one individual and dictates the dynamic of the process over a long period of time. Applied to the modeling of the pandemic, λ plays the same role as the reproduction rate R. In the second part of this thesis will present an application of the previously developed theory about multitype branching processes. Prof. Yanev and his colleagues modeled in their publication Branching stochastic processes as models of Covid-19 epidemic development the spreading of the Corona virus by using a branching process with two types. We will discuss this model and deduce estimators from it. We want to estimate the reproduction rate and find a way to determine the number of not registered infected individuals. The estimators will be applied to the data from Germany and we will discuss the results. KW - Covid-19 KW - Corona KW - Reproduktionsrate KW - Verzweigungsprozess KW - Modellierung KW - Covid-19 KW - corona virus KW - reproduction rate KW - branching process KW - modeling Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-509225 ER - TY - THES A1 - Etzold, Heiko T1 - Neue Zugänge zum Winkelbegriff T1 - New Ways to the Angle Concept BT - Fachdidaktische Entwicklungsforschung zur Ausbildung des Winkelfeldbegriffs bei Schülerinnen und Schülern der vierten Klassenstufe N2 - Die Vielfältigkeit des Winkelbegriffs ist gleichermaßen spannend wie herausfordernd in Hinblick auf seine Zugänge im Mathematikunterricht der Schule. Ausgehend von verschiedenen Vorstellungen zum Winkelbegriff wird in dieser Arbeit ein Lehrgang zur Vermittlung des Winkelbegriffs entwickelt und letztlich in konkrete Umsetzungen für den Schulunterricht überführt. Dabei erfolgt zunächst eine stoffdidaktische Auseinandersetzung mit dem Winkelbegriff, die von einer informationstheoretischen Winkeldefinition begleitet wird. In dieser wird eine Definition für den Winkelbegriff unter der Fragestellung entwickelt, welche Informationen man über einen Winkel benötigt, um ihn beschreiben zu können. So können die in der fachdidaktischen Literatur auftretenden Winkelvorstellungen aus fachmathematischer Perspektive erneut abgeleitet und validiert werden. Parallel dazu wird ein Verfahren beschrieben, wie Winkel – auch unter dynamischen Aspekten – informationstechnisch verarbeitet werden können, so dass Schlussfolgerungen aus der informationstheoretischen Winkeldefinition beispielsweise in dynamischen Geometriesystemen zur Verfügung stehen. Unter dem Gesichtspunkt, wie eine Abstraktion des Winkelbegriffs im Mathematikunterricht vonstatten gehen kann, werden die Grundvorstellungsidee sowie die Lehrstrategie des Aufsteigens vom Abstrakten zum Konkreten miteinander in Beziehung gesetzt. Aus der Verknüpfung der beiden Theorien wird ein grundsätzlicher Weg abgeleitet, wie im Rahmen der Lehrstrategie eine Ausgangsabstraktion zu einzelnen Winkelaspekten aufgebaut werden kann, was die Generierung von Grundvorstellungen zu den Bestandteilen des jeweiligen Winkelaspekts und zum Operieren mit diesen Begriffsbestandteilen ermöglichen soll. Hierfür wird die Lehrstrategie angepasst, um insbesondere den Übergang von Winkelsituationen zu Winkelkontexten zu realisieren. Explizit für den Aspekt des Winkelfeldes werden, anhand der Untersuchung der Sichtfelder von Tieren, Lernhandlungen und Forderungen an ein Lernmodell beschrieben, die Schülerinnen und Schüler bei der Begriffsaneignung unterstützen. Die Tätigkeitstheorie, der die genannte Lehrstrategie zuzuordnen ist, zieht sich als roter Faden durch die weitere Arbeit, wenn nun theoriebasiert Designprinzipien generiert werden, die in die Entwicklung einer interaktiven Lernumgebung münden. Hierzu wird u. a. das Modell der Artifact-Centric Activity Theory genutzt, das das Beziehungsgefüge aus Schülerinnen und Schülern, dem mathematischen Gegenstand und einer zu entwickelnden App als vermittelndes Medium beschreibt, wobei der Einsatz der App im Unterrichtskontext sowie deren regelgeleitete Entwicklung Bestandteil des Modells sind. Gemäß dem Ansatz der Fachdidaktischen Entwicklungsforschung wird die Lernumgebung anschließend in mehreren Zyklen erprobt, evaluiert und überarbeitet. Dabei wird ein qualitatives Setting angewandt, das sich der Semiotischen Vermittlung bedient und untersucht, inwiefern sich die Qualität der von den Schülerinnen und Schülern gezeigten Lernhandlungen durch die Designprinzipien und deren Umsetzung erklären lässt. Am Ende der Arbeit stehen eine finale Version der Designprinzipien und eine sich daraus ergebende Lernumgebung zur Einführung des Winkelfeldbegriffs in der vierten Klassenstufe. N2 - The diversity of the concept »angle« can be both exciting and challenging when looking at how to access it in mathematics education in schools. In this thesis, based on different ideas of the angle concept, a training course for conveying the concept will be developed and translated into concrete implementations for school teaching. First, there will be a didactical subject matter discussion of the angle concept, which will be accompanied by an angle definition from information theory. Through the didactical subject matter discussion, a definition for the angle concept will be developed which is guided by the question of what kind of information about an angle is needed in order to describe it. This way, the diverse ideas of the angle concept discussed in mathematics didactics literature can be once again derived and validated from a mathematical point of view. In parallel, a method will be described of how an angle - even one with dynamic aspects - can be handled in terms of information technology, so that conclusions can be drawn from a definition from information theory for dynamic geometry environments for instance. Considering how abstraction of the angle concept can take place in mathematics education, the Idea of Grundvorstellungen will then be connected to the structural principle of the Ascent From the Abstract to the Concrete. Based on the connection of these two theories, a training course will be developed that aims to construct an initial abstract of certain aspects of the angle concept which, in turn, aims at enabling the generating of Grundvorstellungen towards components of the angle concept and at operating with it. For this, the structural principle will be adapted – specifically to realize the transition from angle situations to angle contexts. For one aspect, the angular field, there will be a description of learning actions and demands on a learning model that supports students’ concept acquisition. The angular field, in this step, will be represented by vision fields of animals. Activity theory, on which the structural principle is based, depicts the recurring theme throughout this thesis when generating design principles that lead towards the development of an interactive learning environment. For this, the Artifact-Centric Activity Theory model will be used in order to describe connections between students, the mathematical topic and the to-be-created app. The use of the app in classroom situations, as well as its rule-governed development, are components of the model. Following a Design-Based Research approach, this learning environment will then go through several cycles of test, evaluation and revision. For this purpose, a qualitative setting will be applied using Semiotic Mediation. It will be used to investigate how far design principles, as well as their implementation, impacts on the quality of student’s learning actions. As an outcome of this thesis, a final version of the design principles and an ensuing learning environment that introduces the concept of »angular field« in grade four teaching will be created. KW - Winkel KW - Tätigkeitstheorie KW - Digitale Werkzeuge KW - Digital Tools KW - Activity Theory KW - Angle Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-504187 ER - TY - THES A1 - Oancea, Marius-Adrian T1 - Spin Hall effects in general relativity T1 - Spin Hall Effekte in der Allgemeinen Relativitätstheorie N2 - The propagation of test fields, such as electromagnetic, Dirac or linearized gravity, on a fixed spacetime manifold is often studied by using the geometrical optics approximation. In the limit of infinitely high frequencies, the geometrical optics approximation provides a conceptual transition between the test field and an effective point-particle description. The corresponding point-particles, or wave rays, coincide with the geodesics of the underlying spacetime. For most astrophysical applications of interest, such as the observation of celestial bodies, gravitational lensing, or the observation of cosmic rays, the geometrical optics approximation and the effective point-particle description represent a satisfactory theoretical model. However, the geometrical optics approximation gradually breaks down as test fields of finite frequency are considered. In this thesis, we consider the propagation of test fields on spacetime, beyond the leading-order geometrical optics approximation. By performing a covariant Wentzel-Kramers-Brillouin analysis for test fields, we show how higher-order corrections to the geometrical optics approximation can be considered. The higher-order corrections are related to the dynamics of the spin internal degree of freedom of the considered test field. We obtain an effective point-particle description, which contains spin-dependent corrections to the geodesic motion obtained using geometrical optics. This represents a covariant generalization of the well-known spin Hall effect, usually encountered in condensed matter physics and in optics. Our analysis is applied to electromagnetic and massive Dirac test fields, but it can easily be extended to other fields, such as linearized gravity. In the electromagnetic case, we present several examples where the gravitational spin Hall effect of light plays an important role. These include the propagation of polarized light rays on black hole spacetimes and cosmological spacetimes, as well as polarization-dependent effects on the shape of black hole shadows. Furthermore, we show that our effective point-particle equations for polarized light rays reproduce well-known results, such as the spin Hall effect of light in an inhomogeneous medium, and the relativistic Hall effect of polarized electromagnetic wave packets encountered in Minkowski spacetime. N2 - Unser grundlegendes Verständnis des Universums basiert auf Einsteins allgemeiner Relativitätstheorie, die eine Beschreibung in Form einer vierdimensional gekrümmten Raumzeit liefert, in der die Anziehungskraft der Gravitation in der Krümmung der Raumzeit kodiert ist. Die überwiegende Mehrheit der experimentellen Tests, die Einsteins allgemeine Relativitätstheorie bestätigt haben, basiert auf der Beobachtung elektromagnetischer Strahlung, die von entfernten astrophysikalischen Quellen wie Sternen oder Galaxien stammt. Daher ist ein tiefgreifendes Verständnis der Dynamik der sich in der Raumzeit ausbreitenden elektromagnetischen Strahlung von entscheidender Bedeutung. Elektromagnetische Phänomene werden durch Maxwell-Gleichungen beschrieben. Die Ausbreitung elektromagnetischer Strahlung in der Raumzeit ist jedoch sehr komplexe, und es ist im Allgemeinen nützlich, Näherungen zu betrachten, welche eine vereinfachte Beschreibung liefern. Auf diese Weise können die Haupteigenschaften des Systems in einem reduzierten Gleichungssystem codiert und die Gültigkeit der Näherung quantitativ kontrolliert werden. Beispielsweise kann die Ausbreitung elektromagnetischer Strahlung in der Raumzeit durch Anwendung der geometrischen Optik auf die Maxwell-Gleichungen beschrieben werden. Diese liefert ein Modell für die Ausbreitung elektromagnetischer Strahlung in Form von Lichtstrahlen, die sich auf dem kürzesten Weg zwischen zwei Punkten ausbreiten. Im Kontext von Einsteins allgemeiner Relativitätstheorie entsprechen dise Lichtstrahlen den Nullgeodäten der zugrunde liegenden gekrümmten Raumzeit. Für die meisten astrophysikalischen Anwendungen von Interesse, wie die Beobachtung von Himmelskörpern oder Gravitationslinsen, stellen die Näherungen der geometrischen Optik und damit die Beschreibung der Ausbreitung elektromagnetischer Strahlung durch Lichtstrahlen ein zufriedenstellendes theoretisches Modell dar. In dieser Arbeit untersuchen wir mögliche Korrekturen der Ausbreitung elektromagnetischer Strahlung in der Raumzeit, welche durch die Näherung der geometrischen Optik nicht erfasst werden. Solche Korrekturen sind aus der Optik bekannt, wo beobachtet wurde, dass die Ausbreitung von Lichtstrahlen in bestimmten Materialien durch die Polarisation des Lichts beeinflusst werden kann. Diese Korrekturen sind als Spin-Hall-Effekt von Licht bekannt. In dieser Arbeit wird gezeigt, dass ein ähnlicher Effekt für elektromagnetische Strahlung auftreten kann, welche sich in gekrümmter Raumzeit in der Nähe massiver astrophysikalischer Objekte wie Schwarzer Löcher oder Sterne ausbreitet. Darüber hinaus präsentieren wir, basierend auf der Dirac-Gleichung, eine ähnliche Analyse für die Bewegung von Elektronen in gekrümmten Raumzeiten. KW - spin Hall effect KW - gravitation KW - black hole KW - Schwarzes Loch KW - Gravitation KW - Spin Hall effekte Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-502293 ER - TY - THES A1 - Möhring, Jan T1 - Stochastic inversion for core field modeling using satellite data N2 - Magnetfeldmodellierung mit Kugelflächenfunktionen basiert auf der Inversion nach hunderten bis tausenden von Parametern. Dieses hochdimensionale Problem kann grundsätzlich als ein Optimierungsproblem formuliert werden, bei dem ein globales Minimum einer gewissen Zielfunktion berechnet werden soll. Um dieses Problem zu lösen, gibt es eine Reihe bekannter Ansätze, dazu zählen etwa gradientenbasierte Verfahren oder die Methode der kleinsten Quadrate und deren Varianten. Jede dieser Methoden hat verschiedene Vor- und Nachteile, beispielsweise bezüglich der Anwendbarkeit auf nicht-differenzierbare Funktionen oder der Laufzeit zugehöriger Algorithmen. In dieser Arbeit verfolgen wir das Ziel, einen Algorithmus zu finden, der schneller als die etablierten Verfahren ist und sich auch für nichtlineare Probleme anwenden lässt. Solche nichtlinearen Probleme treten beispielsweise bei der Abschätzung von Euler-Winkeln oder bei der Verwendung der robusteren L_1-Norm auf. Dazu untersuchen wir die Anwendbarkeit stochastischer Optimierungsverfahren aus der CMAES-Familie auf die Modellierung des geomagnetischen Feldes des Erdkerns. Es werden sowohl die Grundlagen der Kernfeldmodellierung und deren Parametrisierung anhand einiger Beispiele aus der Literatur besprochen, als auch die theoretischen Hintergründe der stochastischen Verfahren gegeben. Ein CMAES-Algorithmus wurde erfolgreich angewendet, um Daten der Swarm-Satellitenmission zu invertieren und daraus das Magnetfeldmodell EvoMag abzuleiten. EvoMag zeigt gute Übereinstimmung mit etablierten Modellen, sowie mit Observatoriumsdaten aus Niemegk. Wir thematisieren einige beobachtete Schwierigkeiten und präsentieren und diskutieren die Ergebnisse unserer Modellierung. N2 - Geomagnetic field modeling using spherical harmonics requires the inversion for hundreds to thousands of parameters. This large-scale problem can always be formulated as an optimization problem, where a global minimum of a certain cost function has to be calculated. A variety of approaches is known in order to solve this inverse problem, e.g. derivative-based methods or least-squares methods and their variants. Each of these methods has its own advantages and disadvantages, which affect for example the applicability to non-differentiable functions or the runtime of the corresponding algorithm. In this work, we pursue the goal to find an algorithm which is faster than the established methods and which is applicable to non-linear problems. Such non-linear problems occur for example when estimating Euler angles or when the more robust L_1 norm is applied. Therefore, we will investigate the usability of stochastic optimization methods from the CMAES family for modeling the geomagnetic field of Earth's core. On one hand, basics of core field modeling and their parameterization are discussed using some examples from the literature. On the other hand, the theoretical background of the stochastic methods are provided. A specific CMAES algorithm was successfully applied in order to invert data of the Swarm satellite mission and to derive the core field model EvoMag. The EvoMag model agrees well with established models and observatory data from Niemegk. Finally, we present some observed difficulties and discuss the results of our model. T2 - Stochastische Inversion für Kernfeldmodellierung mit Satellitendaten KW - Geomagnetismus KW - Kernfeldmodellierung KW - Optimierung KW - Evolutionsstrategien KW - Inverse Probleme KW - Geomagnetism KW - Core Field Modeling KW - Optimization KW - Evolution Strategies KW - Inverse Problems Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-498072 ER -